Vous êtes sur la page 1sur 52

Table des matières

1 Transformée de Laplace 3
1.1 Introduction et définitions . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . 3
1.1.3 Conditions d’existence . . . . . . . . . . . . . . . . . . . . . 4
1.1.4 Conditions suffisantes d’existence de L[f ] . . . . . . . . . . . 6
1.1.5 Transformée de Laplace inverse . . . . . . . . . . . . . . . . 7
1.2 Théorèmes de translations et dérivée de la transformation de Laplace 9
1.2.1 Premier Théorème de translation . . . . . . . . . . . . . . . 9
1.2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Fonction etagée unitaire (Heaviside) . . . . . . . . . . . . . . 10
1.2.4 Second théorème de translation . . . . . . . . . . . . . . . . 10
1.2.5 Forme inverse du second théorème de translation . . . . . . 12
1.2.6 Dérivée de la Transformée de Laplace . . . . . . . . . . . . . 12
1.3 Transformée de Laplca des : dérivées, des convolutions et des fonc-
tions périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Fonction de Dirac et sa transformée de Laplace . . . . . . . . . . . 17
1.4.1 Impulsion unité . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.2 Fonction de Dirac . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4.3 Transformée de Laplace de δ . . . . . . . . . . . . . . . . . . 18
1.4.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Equations différentielles 21
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Equation différentielle du premier ordre : . . . . . . . . . . . . . . . 22
2.2.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Equations différentielles à variables séparées . . . . . . . . . 22
2.3 Equations différentielles linéaires . . . . . . . . . . . . . . . . . . . . 23
2.3.1 Principe de superposition . . . . . . . . . . . . . . . . . . . 24
2.4 Equations différentielles linéaires du premier ordre . . . . . . . . . . 24
2.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.2 Méthode de variation de la constante . . . . . . . . . . . . . 25
2.4.3 Changement de variables . . . . . . . . . . . . . . . . . . . 26
2.5 Equation différentielles linéaires du second ordre à coefficients constants 30
2.6 Résolution de l’équation complète : . . . . . . . . . . . . . . . . . . 31

1
2

2.7 Equations différentielles linéaires d’ordre supérieure . . . . . . . . . 33


2.7.1 Equations différentielles linéaires homogènes d’ordre n . . . 33
2.7.2 Problèmes aux valeurs initiales . . . . . . . . . . . . . . . . 34
2.7.3 unicité de la solution : . . . . . . . . . . . . . . . . . . . . . 34
2.7.4 Problèmes avec valeurs aux bord . . . . . . . . . . . . . . . 35
2.8 Dépendance et indépendance linéaire d’un système de fonctions . . 36
2.9 Solution d’équations différentielles linéaires . . . . . . . . . . . . . . 39
2.9.1 Equation homogène . . . . . . . . . . . . . . . . . . . . . . . 39
2.9.2 Equation de Cauchy-Euler . . . . . . . . . . . . . . . . . . . 48
2.9.3 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Chapitre 1

Transformée de Laplace

1.1 Introduction et définitions


1.1.1 Introduction
La transfomée de Laplace est un outil mathématique de grande utilité en in-
génierie. Elle permet de transformée une équation différentielle linéaire (resp un
systéme différentiel linéaire) en une équation algébrique (resp système algébrique).
La transformée de Laplace permet également la résolution de certaines équations
aux dérivées partielles et aussi des équations intégrales.

1.1.2 Définition et propriétés


Soit f une fonction réelle définie sur R+ , l’intégrale suivante :
Z +∞
L[f (t)] = F (p) = e−pt f (t)dt (1.1)
0

définie pour p = s + iu ∈ C est appellée transformée de Laplace de f , pourvue que


l’intégrale converge.
Propriétés :
— La transformation de Laplace est une opération linéaire :

∀f, g , ∀α, β ∈ R , L[αf + βg] = αL[f ] + βL[g]

En effet :
Z +∞
L[αf + βg] = e−pt (αf (t) + βg(t))dt
0
Z +∞ Z +∞
−pt
= α e f (t)dt + β e−pt g(t)dt (linéarité de l’intégrale)
0 0
αL[f ] + βL[g] (1.2)

3
4

— Si F [p] = L[f (t)] est la transformée de Laplace de f (t), pour tout α ∈ R on


a:
1 p
L[f (αt)] = F[ ] (1.3)
α α
Preuve :
Z +∞
L[f (αt)] = e−pt f (αt)dt , u = αt
0
1 +∞ − p u
Z
= e α f (u)du
p 0
1 p
= F[ ] (1.4)
α α

1.1.3 Conditions d’existence


Exemples :
— Transformée de Laplace de f (t) = 1 :
Z +∞ Z r
−pt
L[1] = = e dt = lim e−pt dt
0 r→+∞ 0
1 −pt +∞
= [e ]0
−p
1
= si p > 0 (1.5)
p
— Transformée de Laplace de f (t) = sin ωt :
Z +∞
e−pt ω +∞ −pt
Z
−pt +∞
L[sin ωt] = = e sin ωtdt = [− sin ωt]0 + e cos ωtdt
0 p p 0
ω +∞ −pt ωe−pt ω 2 +∞ −pt
Z Z
+∞
= e cos ωtdt = [− 2 cos ωt]0 − 2 e sin ωtdt
p 0 p p 0
ω ω2
= 2 − 2 L[sin ωt] (1.6)
p p
On a utilisé limt→+∞ e−pt cos ωt = 0 et limt→+∞ e−pt sin ωt = 0 .
On conclut que
ω
L[sin ωt] = 2
p + ω2
— Transformée de Laplace de f (t) = sinh ωt :
(sinh at)′ = a cosh at et (cosh at)′ = a sinh at.

+∞
e−pt ω +∞ −pt
Z Z
−pt +∞
L[sinh ωt] = = e sinh ωtdt = [− sinh ωt]0 + e cosh ωtdt
0 p p 0
ω +∞ −pt ωe−pt ω 2 +∞ −pt
Z Z
+∞
= e cosh ωtdt = [− 2 cosh ωt]0 + 2 e sinh ωtdt
p 0 p p 0
ω ω2
= 2 + 2 L[sinh ωt] (1.7)
p p
5

On a utilisé limt→+∞ e−pt cosh ωt = 0 et limt→+∞ e−pt sinh ωt = 0


On conclut que
ω
L[sinh ωt] = 2
p − ω2
— On montre de meme que :
p p
L[cos ωt] = L[cosh ωt] = 2 (1.8)
p2 +ω 2 p − ω2

— Transformée de Laplace de f (t) = ekt :


Z +∞ Z r
kt −pt kt
L[e ] = = e e dt = lim e(k−p)t dt
0 r→+∞ 0
1
= [e(k−p)t ]+∞
0 si p > k
k−p
1
= (1.9)
p−k

en particulier, pour k = 0 on retrouve

1
L[1] = si p > 0
p

— Transformée de Laplace de f (t) = tn ; n ∈ N :


Z +∞
n
L[t ] = = e−pt tn dt
0
Z +∞
1 n
= [− e−pt tn ]+∞
0 + e−pt tn−1 dt (1.10)
p p 0

pour p > 0, limt→+∞ e−pt tn = 0 on conclut donc que


n n−1
L[tn ] = L[t ]
p

Par récurrence sur n, on montre que

n! n!
L[tn ] = L[1] =
pn pn+1

Exercices
— Transformée de Laplace de f (t) = t − 3 sin 2t.
Par linéarité de la transformation de Laplace, il est immédiat que

1 2
L[f ] = L[t] − 3L[sin 2t] = −3 2
p p + 22
6

— Transformée de Laplace de f (t) = sin2 t. On peut toujours ramener cette


fonction a la somme de fonctions usuelles par linéarisation de la puissance
sinn t :
1 − cos 2t
sin2 t =
2
et donc
1 1 1 p
L[sin2 t] = (L[1] − L[cos 2t]) = ( − 2 )
2 2 p p +4

1.1.4 Conditions suffisantes d’existence de L[f ]


Définition :
une fonction f est dite de type c-exponentielle si il existe des constantes c, M et
T > 0 tel que :
∀t > T |f (t)| ≤ M ect (1.11)
Si f est une fonction croissante, la condition |f (t)| ≤ M ect pour t > T signifie
que le graphe de f sur [T, +∞[ ne croit pas plus rapidement que M ect .

Exemples :
— ∀t ≥ 0 , |t| ≤ et
— ∀t ≥ 0 , |e−t | ≤ et
— ∀t ≥ 0 , |2 cos t| ≤ 2et
2
— la fonction et n’est pas du type c-exponentielle car pour t suffisament grand
2
on peut montrer toujours que et > ect pour tout c > 0.
— la fonction tn est du type c-exponentielle car limt→+∞ tn e−ct = 0 pour c > 0.
On peut donc toujours trouver un M tel que : ∀t > T , |tn e−ct | < M et par
suite |tn | < M ect

Conditions suffisantes d’existence de L[f ]


Proposition : Si la fonction f est continue par morceaux sur [0, +∞[ et est du
type c-exponentielle pour t > T alors L[f ](p) existe pour p > c.

Preuve :
Z +∞ Z T Z +∞
−pt −pt
L[f (t)] = e f (t)dt = e f (t)dt + e−pt f (t)dt = I1 + I2
0 0 T
−pt
I1 existe car f (et aussi e f (t)) est continue par morceaux sur [0, T ].
Pour I2 :
Z +∞ Z +∞ Z +∞
−pt −pt ct
|I2 | = | e f (t)dt| ≤ M e e dt = M e(c−p)t dt
T T T
Z +∞
M (c−p)t +∞
= M e(c−p)t dt = [e ]T
T c−p
7
R +∞
il est claire que pour p > c, T e(c−p)t dt est convergente.
I1 et I2 existent, donc L[f ] existe pour p > c
Proposition : Si la fonction f est continue par morceaux sur [0, +∞[ et est du
type c-exponentielle pour t > T alors limp→∞ L[f ](p) = 0.

Preuve : f est continue par morceau sur [0, T ] elle est donc bornée sur cet in-
tervalle : |f (t)| < M1 = M1 e0t . De plus sur [T, +∞[ on a : |f (t)| ≤ M2 eαt . Si on
prend M = max(M1 , M2 ) et c = max(0, α) alors :

Z +∞ Z +∞
−pt M
|L[f (t)](p)| ≤ e |f (t)|dt ≤ M e−pt ect dt = (1.12)
0 0 p−c

pour p > c, pour p → +∞ on a |L[f (t)](p)| → 0 et donc L[f (t)](p) → 0

1.1.5 Transformée de Laplace inverse

Dans la section précédente nousR nous sommes interessés à transformer une fonc-
+∞
tion f (t) en une fonction F (p) = 0 e−pt f (t)dt. On a noté symboliquement que
L[f (t)] = F (p). A présent on s’interesse au problème inverse, étant donné une fonc-
tion F (p) on cherche la fonction f (t) telle que L[f (t)] = F (p) on dit alors que f (t)
est la transformée inverse de F (p) et on écrit :

f (t) = L−1 [F (p)] (1.13)

Proposition :

L−1 est une transformation linéaire :


∀α, β ∈ R, étant donné deux fonctions : F et G alors :

L−1 (αF (p) + βG(p)) = αL−1 (F (p)) + βL−1 (G(p)) = αf (t) + βg(t)

où f et g sont les transformations inverse de F et G.


8

D’apès ce qui précéde on a :


1
L−1 [ ] = 1
p
n!
L−1 [ n+1 ] = tn
p
1
L−1 [ ] = eαt
p−α
ω
L−1 [ 2 ] = sin ωt
p + ω2
p
L−1 [ 2 ] = cos ωt
p + ω2
ω
L−1 [ 2 ] = sinh ωt
p − ω2
p
L−1 [ 2 ] = cosh ωt
p − ω2
(1.14)

Exemples :
— L−1 [ p14 ] = 1 −1 3!
3!
L [ p3+1 ] = 16 t3

2p + 5 p 5 3
L−1 [
2
] = 2L−1 [ 2 2
] + L−1 [ 2 ]
p +9 p +3 3 p + 32
5
= 2 cos 3t + sin 3t (1.15)
3
— Dans le cas ou F (p) est une fraction rationnelle, on procède à la décompo-
sition en éléments simples. Par exemple, si on veut chercher la transformée
1
inverse de F (p) = p(p+1)(p−1) , d’après la technique de la décomposition :
1 a b c
F (p) = = + + (1.16)
p(p + 1)(p − 1) p p+1 p−1
on trouve a = −1, b = c = 12 .
donc la transformée de Laplace inverse :
1 1 1 1 1
L−1 [F (p)] = −L−1 [ ] + L−1 [ ] + L−1 [ ]
p 2 p+1 2 p−1
1 1
= −1 + e−t + et
2 2
— L−1 [ p2 +16
1
].
On va appliquer L−1 [ p2 +ω
ω
2 ] = sin ωt. En effet ;

1 1 −1 4
L−1 [ ] = L [ 2 ]
p2 + 16 4 p + 42
1
= sin 4t (1.17)
4
9

1.2 Théorèmes de translations et dérivée de la trans-


formation de Laplace
Si on connait la transformation de Laplace F (p) de f (t) on peut calculer la
transformation de Laplace de eat f (t) sans aucun autre effort de calcul juste par
translation de F (p) en F (p − a).

1.2.1 Premier Théorème de translation


Si F (p) = L(f (t)) et a ∈ R alors :

L(eat f (t)) = F (p − a) (1.18)

Preuve
la démonstration est immédiate, en effet :
Z +∞
at
L(e f (t)) = e−pt eat f (t)dt
Z0 +∞
= e−(p−a)t f (t)dt
0
= F (p − a) (1.19)

Ce résultat peut être aussi exprimé de cette manière

L(eat f (t)) = L(f (t))p→p−a (1.20)

Cas de la transformée inverse


Si f (t) = L−1 (F (p)) et a ∈ R alors :

L−1 (F (p − a)) = L−1 (F (p))p→p−a = eat f (t) (1.21)

1.2.2 Exemples
2
— L(e4t t2 ) = L(t2 )p→p−4 = (p−4) 3

— L(e2t sin 3t) = L(sin 3t)p→p−2 = (p−2)3 2 +9


p−2
— L(e2t cos 3t) = L(cos 3t)p→p−2 = (p−2) 2 +9

— L ( (p−2)4 + p2 −2p+5 ) = L ( (p−2)4 ) + 3L−1 ( (p−1)1 2 +4 )


−1 1 3 −1 1

or : L−1 ( (p−2)
1 1 −1
4 ) = 3! L ( (p−2) 3! 1 t 3
3+1 = 6 e t

L−1 ( p2 −2p+5
1
) = L−1 ( (p−1)1 2 +4 ) = 12 L−1 ( (p−1)22 +22 ) = 1 −1
2
2
L ( p2 +22 )p→p−1 =
1 t
2
e sin 2t
10

1.2.3 Fonction etagée unitaire (Heaviside)


Définition
La fonction etagée unitaire, dite de Heaviside, (ou echelon unité) est définit de
la manière suivante :

0 , si t < 0
U(t) = (1.22)
1 , si t ≥ 0
et ∀a ∈ R

0 , si 0 ≤ t < a
U(t − a) = (1.23)
1 , si t ≥ a
noter que U(t − a) est définie uniquement pour les valeurs non-négatives puisque
c’est ce qui nous interesse pour la transformée de Laplace.

Exemples et applications
On peut utiliser la Fonction etagée pour ecrire certaines fonctions définies par
morceaux sur des intervalles. Voici des exemples :
1.) soit la fonction f définie par :

0 , si 0 ≤ t ≤ π
f (t) = (1.24)
sin t , si t ≥ π
cette fonction s’écrit donc : f (t) = sin tU(t − π)
2.) soit la fonction f définie par :

 0 , si 0 ≤ t ≤ a
f (t) = g(t) , si a ≤ t ≤ b (1.25)
0 , si t ≥ b

cette fonction s’écrit donc : f (t) = g(t)[U(t − a) − U(t − b)]

1.2.4 Second théorème de translation


Si F (p) = L(f (t)) et a > 0, alors
L(f (t − a)U(t − a)) = e−ap F (p) (1.26)
Preuve :
Z +∞
L(f (t − a)U(t − a)) = e−pt f (t − a)U(t − a))dt
Z0 a Z +∞
−pt
= e f (t − a) U(t − a))dt + e−pt f (t − a) U(t − a))dt
0 | {z } a | {z }
0 1
Z +∞
= e−pt f (t − a))dt
a
11

on pose : z = t − a, dz = dt donc :
Z +∞ Z +∞
−p(z+a) −pa
L(f (t − a)U(t − a)) = e f (z)dz = e e−pz f (z))dz
0 0
= e−pa L(f (t)) (1.27)

Autre forme du second théorème de translation


Dans plusieurs cas de figure, on cherche a calculer la transformée de Laplace du
produit d’une fonction g avec la fonction etagée : g(t)U(t − a). En effet :

Z +∞
L(g(t)U(t − a)) = e−pt g(t)U(t − a))dt
Z0 a Z +∞
−pt
= e g(t) U(t − a))dt + e−pt g(t) U(t − a))dt
0 | {z } a | {z }
0 1
Z +∞
= e−pt g(t))dt
Za +∞
= e−p(z+a) g(z + a))dt t = z + a
0
−pa
= e L(g(t + a) (1.28)
conclusion :
L(g(t)U(t − a)) = e−pa L(g(t + a)) (1.29)

Exemples
1.) Calculer L(U(t − a)).
On applique L(f (t − a)U(t − a)) = e−pa L(f (t)) avec f (t) = 1, donc L(U(t − a)) =
−pa
e−pa L(1) = e p .
2.) Calculer L((t − 1)2 U(t − 1)).
On applique le résultat précedent on a :
2!
L((t − 1)2 U(t − 1)) = e−t L(t2 ) = e−t
p3
3.) Representer graphiquement la fonction
f (t) = 3 − 4U (t − 2) + U (t − 3) pour t>0
et calculer sa transformée
 de Laplace.
 2 , si 0 ≤ t ≤ 2
La fonction f (t) = −1 , si 2 ≤ t ≤ 3 Sa transformée de Laplace est :
0 , si t ≥ 3

L(f (t)) = L(2) − 3L(U (t − 2)) + L(U (t − 3))


2 e−2p e−3p
= −3 + (1.30)
p p p
12

4.) Calculer L(sin tU(t − 2π)).


On applique l’équation 1.29 avec g(t) = sin t et a = 2π, donc g(t+2π) = sin(t+2π) =
sin t.
L(sin tU(t − 2π)) = e−2πp L(sin t)
e−2πp
= 2 (1.31)
p +1

1.2.5 Forme inverse du second théorème de translation


Si f (t) = L−1 (F (p)), la forme inverse du second théorème de translation est
donnée par :
L−1 (e−ap F (p)) = f (t − a)U(t − a) (1.32)
−πp
Exemples : Calculer L−1 ( ep2 +94
).
−1 1 −1
On a : L ( p2 +9 ) = 3 L ( p2 +32 = 31 sin 3t.
1 3

On applique la formule 1.32 avec a = π4 et F (p) = 1


p2 +9
, donc :
π
−1 e− 4 p 1 −1 1 π
L ( 2 ) = (L ( 2 ))t→t− π4 U(t − )
p +9 3 p +9 4
1 π π
= sin 3(t − )U(t − ) (1.33)
3 4 4

1.2.6 Dérivée de la Transformée de Laplace


Si F (p) = L(f (t)) alors :
dn
L(tn f (t)) = (−1)n F (p) (1.34)
dpn
Preuve : :
Pour n = 1,
Z +∞
d d
F (p) = e−pt f (t)dt
dp dp 0
Z +∞ Z +∞
d −pt
= (e f (t))dt = − e−pt tf (t)dt
0 dp 0
= −L(tf (t)) (1.35)
donc
d
L(tf (t)) = − F (p)
dp
Pour n = 2
d
L(t2 f (t)) = L(t tf (t)) = − L(tf (t))
dp
d d d2
= − (− L(f (t))) = 2 L(f (t)) (1.36)
dp dp dp
13

Exemples : Calculer : a.) L(te2t ) , b.) L(t2 sin 4t)


a.) On applique le résultat de la dérivée de la Transformée de Laplace.
d d 1
L(te2t ) = − L(e2t ) = − ( )
dp dp p − 2
1
= (1.37)
(p − 2)2
b.) dans ce cas, n = 2
d2 d2 4
L(t2 sin 4t) = L(sin 4t) = ( )
dp2 dp2 p2 + 42
d −8p 8(−16 + 3p2 )
= ( 2 ) = (1.38)
dp (p + 42 )2 (p2 + 42 )3

1.3 Transformée de Laplca des : dérivées, des convo-


lutions et des fonctions périodiques
Transformée de Laplace des dérivées
Notre but c’est d’utiliser la transformée de Laplace pour résoudre certaines équa-
tions différentielles. Pour cela on a besoin d’évaluer des quantités telles que : L(f ′ )
et L(f ′′ ). Par exemple, si f ′ est continue pour t ≥ 0 alors :
Z +∞ Z +∞
′ −pt ′ −pt
L(f ) = +∞
e f (t)dt = [e f (t)]0 + p e−pt f (t)dt
0 0
−f (0) + pL(f ) (1.39)

on a supposer que : e−pt f (t) → 0 pour t → +∞. donc

L(f ′ ) = pF (p) − f (0) (1.40)

de même
Z +∞ Z +∞
′′ −pt ′′ −pt ′
L(f ) = e f (t)dt = [e f (t)]+∞
0 +p e−pt f ′ (t)dt
0 0
′ ′ ′
f ′ (0)
= −f (0) + pL(f ) = −f (0) + p(pF (p) − f (0)) = p2 F (p) − pf (0) −(1.41)

ou a également supposer que : e−pt f ′ (t) → 0 pour t → +∞.


On montre de même que :

L(f (3) ) = p3 F (p) − p2 f (0) − pf ′ (0) − f ′′ (0) (1.42)

le théorème suivant donne le résultat dans le cas général :


Théorème : Si f , f ′ , ... , f (n−1) sont continues sur [0, +∞[ et sont de type expo-
nentielles et f (n) est continue par morceaux sur [0, +∞[ alors :

L(f (n) ) = pn F (p) − pn−1 f (0) − pn−2 f ′ (0) − . . . − f (n−1) (0) (1.43)
14

avec F (p) = L(f (t))

Exemple : Calculer la transformée de Laplace de te2t + 2e2t .

L(te2t + 2e2t ) = L((te2t )′ ) = pL(te2t )


d d 1
= p(− L(e2t )) = p(− ( )
dp dp p − 2
p
= (1.44)
(p − 2)2

Transformée de Laplace des fonctions périodiques


Soit f une fonction continue par morceaux sur [0, +∞[, si f est périodique de
période T alors : R T −pt
e f (t)dt
L(f )(p) = 0
1 − e−pT
Preuve :

Z +∞ Z T Z +∞
−pt −pt
L(f )(p) = e f (t)dt = e f (t)dt + e−pt f (t)dt on pose t = u + T
0 0 T
Z T Z +∞
−pt
= e f (t)dt + e−p(u+T ) f (u + T )du
0 0
Z T Z +∞
= e−pt f (t)dt + e−pT e−pu f (u)du (1.45)
0 0
Z T
= e−pt f (t)dt + e−pT L(f )(p)
0

donc RT
0
e−pt f (t)dt
L(f )(p) =
1 − e−pT

Convolution
Définition : Si f et g sont deux fonctions continues par morceaux sur [0, +∞[,
le produit de convolution de f et g noté f ∗ g est défini par :
Z t
(f ∗ g)(t) = f (u)g(t − u)du (1.46)
0

Proprieté : Le produit de convolution est commutatif, c.à.d f ∗ g = g ∗ f .

Z t Z 0
(f ∗ g)(t) = f (u)g(t − u)du = − f (t − v)g(v)dv (t − u = v)
0 t
Z t
= f (t − v)g(v)dv = (g ∗ f )(t) (1.47)
0
15

Exemple
Calculer le produit de convolution de : f (t) = et , g(t) = sin t

Z t
(f ∗ g)(t) = eu sin(t − u)du
0
Z t
u t
= [e sin(t − u)]0 + eu cos(t − u)du
0
Z t
u t
= − sin t + [e cos(t − u)]0 − eu sin(t − u)du = − sin t + et − cos t − (f ∗ g)(t)
|0 {z }
(f ∗g)(t)

donc
1 t
(f ∗ g)(t) = (e − cos(t) − sin(t)) (1.48)
2
Théorème de convolution : f , g deux fonctions continues par morceaux sur
[0, +∞[ et de type c-exponentielle :
L(f ∗ g) = L(f )L(g) = F (p)G(p)
L−1 (F (p)G(p)) = (f ∗ g)(t) (1.49)
R +∞ R +∞
Preuve : On note : on a F (p) = 0 e−pt f (t)dt et G(p) = 0 e−pt g(t)dt
Le produit de convolution se simplifie comme suit :
Z t
(f ∗ g)(t) = f (u)g(t − u)du
0

Etant donné que f est g sont définies seulement sur [0, +∞[, on pourra montrer
que :
Z t Z +∞ Z t
(f ∗ g)(t) = f (u)g(t − u)du = f (u)g(t − u)du + f (u)g(t − u)du on pose t − u = v
0 0 +∞
Z +∞ Z 0
= f (u)g(t − u)du + f (t − v)g(v)(−dv) (1.50)
0 −∞
| {z }
=0

donc Z t Z +∞
(f ∗ g)(t) = f (u)g(t − u)du = f (u)g(t − u)du
0 0

Z +∞ Z +∞ Z +∞
−pt
L((f ∗ g)(t))(p) = (f ∗ g)(t)e dt = ( f (t − u)g(u)du))e−pt )dt
(1.51)
0 0 0

On échange l’ordre de l’intégration grace au théoreme de Fubini :


Z +∞ Z +∞
L((f ∗ g)(t))(p) = g(u)( f (t − u)e−pt dt))du (1.52)
0 0
16

changement de variable dans l’intégrale en t, on pose t − u = v :

Z +∞
Z +∞
L((f ∗ g)(t))(p) = g(u)( f (v)e−p(u+v) dv))du
0 −u
Z +∞ Z +∞ Z +∞ Z 0 Z +∞
−p(u+v)
= g(u)( f (v)e dv))du car = + (1.53)
0 0 −u −u 0
|{z}
=0

apres réarrangement :
Z +∞ Z +∞
−pu
L((f ∗ g)(t))(p) = ( g(u)e du)( f (v)e−pv dv) = F (p)G(p)(1.54)
0 0

Cas particulier :
Rt Rt
Pout calculer L( 0 f (t)dt)(p) on pourra considerer 0 f (t)dt comme produit de
convolution de la fonction f (t) et les fonction constante g(t) = 1 et donc :
Z t
F (p)
L( f (t)dt) = L(f )(p)L(1)(p) = (1.55)
0 p

g(t) = 1 , G(p) = 1/p

Exemple1 :
1. Convolution :
Z t
1 1
L( eu sin(t − u)du) = L(et )L(sin t) = 2
0 p−1p +1

2. L−1 ( (p−1)(p+4)
1

1
F (p) = p−1 ; f (t) = et
1
G(p) = p+4 ; g(t) = e−4t

Z t Z t
−1 1 u −4(t−u) −4t 1 1
L ( = e e du = e e5u du = et − e−4t(1.56)
(p − 1)(p + 4) 0 0 5 5

2. L−1 ( (p2 +k
1
2 )2 )
1 1 −1 k 1
F (p) = G(p) = p2 +k 2 ; f (t) = k L ( p2 +k 2) = k
sin kt

1 t
Z
−1 1
L ( 2 ) = 2 sin ku sin k(t − u)du
(p + k 2 )2 k 0
1
= (sin kt − kt cos kt) (1.57)
2k 3
17

Equation de Voltera
Soient f , g et h des fonctions continues par morceaux sur [0, +∞[. L’équation
de Voltera est une équation du type :

Z t
f (t) = g(t) + f (u)h(t − u)du = g(t) + (g ∗ h)(t) (1.58)
0

ou g et h deux fonctions connues.

Exemple :
Determiner f (t) tel que :
Z t
2 −t
f (t) = 3t − e − f (u)et−u du
0

on calcul la transformée de Laplace de f :

Z t
−t
L(f ) = 3L(t ) − L(e ) − L( f (u)et−u du)
2
0
6 1 6 1 1
F (p = = 3 − − L(f )L(et ) = 3 − − F (p) (1.59)
p p+1 p p+1 p−1
on aura :
1 6(p − 1) p−1
F (p)(1 + )= 4

p−1 p p(p + 1)
donc F (p) = − p64 + 6
p3
+ 1
p
− 2
p+1
ce qui donne f (t) = 3t2 − t3 + 1 − 2e−t

1.4 Fonction de Dirac et sa transformée de Laplace


1.4.1 Impulsion unité
On définit la fonction δa (t − t0 ) par :

 0 , si 0 ≤ t ≤ t0 − a
1
δa (t − t0 ) = 2a
, si t0 − a ≤ t ≤ t0 + a (1.60)
0 , si t ≥ t0 + a

avec a > 0 et t0 > 0.


Pour des petites valeurs de a, la fonction δa (t − t0 ) est une constante de magnitude
assez importante pour une courte péride entre [t0 − a, t0 + a]. Le comportement de
δa (t − t0 ) est illustré sur la figure.
18

1.4.2 Fonction de Dirac


La fonction de Dirac est définie à partir de δa (t − t0 ) pour a → 0, on a :

δ(t − t0 ) = lim δa (t − t0 ) (1.61)


a→0

et admet les propriétés suivantes :



∞ , si t = t0
δ(t − t0 ) = (1.62)
0 , si t ̸= t0

Z ∞
δ(t − t0 )dt = 1 (1.63)
0

1.4.3 Transformée de Laplace de δ


Pour trouver la transformée de Laplace de δ de Dirac, il est facile de se convaincre
que

1
δa (t − t0 ) = (U (t − (t0 − a)) − U (t − (t0 + a)) (1.64)
2a

En utilisant la linéarité de la transformation de Laplace on obtient :

1
L(δa (t − t0 )) = (L(U (t − (t0 − a))) − L(U (t − (t0 + a))))
2a
1 e−p(t0 −a) e−p(t0 +a)
= ( − )
2a p p
epa − e−pa
= e−pt0 ( ) (1.65)
2pa

en passant à la limite a → 0 :

L(δ(t − t0 )) = lim L(δa (t − t0 )) = e−pt0 (1.66)


a→0

en particulier pour t0 = 0 on a :

L(δ(t)) = 1 (1.67)
19

1.4.4 Application
Soit à résoudre y ′′ + y = δ(t − 2π) avec les conditions initiales :
a. y(0) = 1 et y ′ (0) = 0.
b. y(0) = 0 et y ′ (0) = 0.
a.) On applique la transformée de Laplace avec y(0) = 1 et y ′ (0) = 0 on trouve :

p e−2pπ
p2 Y (p) − p + Y (p) = e−2pπ → Y (p) + (1.68)
p2 + 1 p2 + 1
En utilisant la transformation inverse on a :

y(t) = cos t + sin(t − 2π)U (t − 2π) (1.69)

qu’on peut écrire :



cos t si 0 ≤ t ≤ 2π
(1.70)
cos t + sin t si t ≥ 2π

b) Avec les conditions y(0) = 0 et y ′ (0) = 0, la transformation de Laplace donne :

e−2pπ
p2 Y (p) + Y (p) = e−2pπ → Y (p) (1.71)
p2 + 1
et donc 
0 si 0 ≤ t ≤ 2π
y(t) = sin(t − 2π)U (t − 2π) =
sin t si t ≥ 2π
Théorème : Si F (p) est une fraction rationnelle de pôles p1 , p2 , ... , pk alors la
transformée de laplace inverse de F (p) est f (t) est donnée par :
k
X
f (t) = res(F (p)ept ) (1.72)
i=0

avec
— pôle simple :

(res(F (p)ept ))p=pk = lim (p − pk )F (p)ept (1.73)


p→pk

— pôle d’ordre m :
1 dm−1
(res(F (p)ept ))p=pk = ((p − pk )m F (p)ept ) (1.74)
(m − 1)! dpm−1
Exemples :
1
1.) Calculer la transformée de Laplace inverse de F (p) = p2 +1
.
F admet deux pôles simples p1 = i et p2 = −i.
1 1
(res(F (p)ept ))p=i = lim((p − i) ept ) = eit (1.75)
p→i p2 +1 2i
20

1 −1 −it
(res(F (p)ept ))p=−i = lim ((p + i) ept
) = e (1.76)
p→−i p2 + 1 2i
1 it −1 −it
Donc f (t) = 2i
e + 2i
e = sin t.

1
1.) Calculer la transformée de Laplace inverse de F (p) = (p2 +1)2
.
F admet deux pôles doubles p1 = i et p2 = −i.

1 d 1
(res(F (p)ept ))p=i = ((p − i)2 2 2
ept )
(2 − 1)! dp (p + 1)
pt pt
−2e te −ieit teit
= ( 2 + )(p → i) = ( − ) (1.77)
(p + i)3 (p2 + i)2 4 4

1 d 1
(res(F (p)ept ))p=−i = ((p + i)2 2 2
ept )
(2 − 1)! dp (p + 1)
−2ept
te pt
ie−it te−it
= ( 2 + )(p → i) = ( − )(1.78)
(p − i)3 (p2 − i)2 4 4
it teit −it te−it
Donc f (t) = ( −ie4 − 4
) + ( ie 4 − 4
) = 21 sin t − 21 t cos t.

1
Une autre méthode consiste à écrire F (p) = (p2 +1) 2 = F1 (p)F2 (p) avec F1 (p) =
1 1
(p2 +1)
et F2 (p) = (p2 +1) et d’appliquer le résultat du produit de convolution. Dans
ce cas
L−1 (F1 F2 ) = (f ∗ f )(t)
avec f (t) = L−1 (F1 ) = sin t. En effet :
Z t Z t
(f ∗ f )(t) = sin u sin(t − u)du = sin u(sin t cos u − cos t sin u)du
0 0
Z t Z t
= sin t sin u cos udu − cos t sin2 udu
0 0
1 1
= sin t − t cos t (1.79)
2 2
Chapitre 2

Equations différentielles

De nombreux phénomènes physiques, en mécanique et électricité par exemple, se


ramènent à des équations différentielles. En mécanique par exemple, si y(t) désigne
la position d’un mobile, y ′ (t) la vitesse et y ′′ (t) son accélération. En mécanique,
dans un système dynamique, y ′′ (t) est liée à une force qui est souvent fonction de la
position et de la vitesse. Ceci conduit alors à une équation entre y, y ′ et y ′′ comme
par exemple l’équation de mouvement d’un pendule y ′′ + w2 y = 0.

2.1 Introduction
Définition : Une équation différentielle d’ordre n est une équation faisant in-
tervenir une fonction y ainsi que ses dérivées y (1) , y (2) , . . ., y (n) .
Exemples :
1) y ′ (x) = −y(x) est une équation différentielle d’ordre 1.
2) 2y ′ (x)y(x) = x est une équation différentielle d’ordre 1
3) y ′′ (x) + 2y ′ (x) + y(x) = x + 1 est une équation différentielle d’ordre 2.
Par la suite, il est sous-entendu que y ainsi que ses dérivées y (i) est fonction de x.

Définition : La forme générale des équations différentielles d’ordre n est

F (x, y(x), y ′ (x), ..., y (n) (x)) = 0 (2.1)

ou F est une fonction de (n + 2) variables. Nous ne considérons que le cas y est une
fonction réeelle à variable x réelle.
Résoudre une équation différentielle du type (2.1) sur un intervalle I ⊂ R c’est
trouver toutes les fonctions y ∈ C n (I, R) telle que pour tout x ∈ I, on ait :

F (x, y(x), y ′ (x), ..., y (n) (x)) = 0

Remarque : Il n’existe pas de méthode générale pour résoudre une équation dif-
férentielle, en général, la résolution reste donc difficile et même impossible dans
certains cas.

21
22

Exemples :
1) y(x) = c0 e−x est une solution de y ′ (x) = −y(x) sur I = R pour tout c0 ∈ R.
2) y(x) = x−1+c1 e−x +c2 xe−x est solution de y ′′ (x)+2y ′ (x)+y(x) = x+1 sur I = R.

Remarque : On dit aussi intégrer une équation différentielle au lieu de trouver


une solution à l’équation différentielle dans le reste de ce chapitre.

2.2 Equation différentielle du premier ordre :


2.2.1 Définitions et exemples
Définition
On appelle équation différentielle du premier ordre si elle ne fait intervenir que
la dérivée première y ′

F (x, y, y ′ ) = 0 (2.2)

Exemples :
y ′ = x2 ; y ′ = y et y = y ′ x sont des équations différentielles du premier ordre.

2.2.2 Equations différentielles à variables séparées


Définition
On appelle équation différentielle à variables séparables, une équation pouvant
se ramener sous la forme
f (x)
y ′ = F (x, y) = (2.3)
g(y)

f et g désignant deux fonctions en x et en y respectivement.


L’équation (2.3) s’intégre facilement de la manière suivante :

dy f (x)
y′ = = ⇔ dyg(y) = f (x)dx
dx g(y)
Z Z
⇔ g(y)dy = f (x)dx + c
⇔ G(y) = F (x) + c
⇔ y = G−1 (F (x) + c) (2.4)

ou c est une constante arbitraire. On remarque que pour résoudre une équation
différentielle à variables séparées il s’agit de trouver des primitives F et G de f et
de g, et ensuite d’exprimer y en terme de x.
Exemples :
23

dy
1) L’équation différentielle y ′ = xy s’écrit dx = xy qui est équivalente à : dy
y
= dx
x
.
Après intégration des deux membres on obtient :

ln |y| = ln |x| + c ⇔ y = cx c ∈ R

la solution est bien définie pour tout x ∈ R.


2) On procéde de la même manière pour l’équation différentielle (1 + x2 )y ′ − xy = 0
qui se raméne à :

dy xdx
(1 + x2 )y ′ − xy = 0 ⇔ = 2 (2.5)
y x +1
1
les variables sont séparées, on obtient par intégration : ln |y| = ln(x2 + 1) + c ce
√ 2
qui donne y = c x2 + 1

Détermination de la constante d’intégration


La constante d’intégration c introduite précédement est fixée lorsqu’on demande
que pour un x = x0 donnée, on ait une valeur donnée de y(x) = y(x0 ) = y0 . Dans
ce cas, on parle d’un problème aux conditions initiales.

Par exemple si on cherche à résoudre (1 + x2 )y√ − xy = 0 avec y(0) = 2, on remplace
cette condition dans la solution obtenue y = c x2 + 1 et on trouve que la constante
c = 2.

2.3 Equations différentielles linéaires


Définition : i) Une équation différentielle d’ordre n est dite linéaire si et seulement
si elle est de la forme

L(y) = f (x) (2.6)

avec L(y) = a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) . et ai et f sont des


fonctions données.
ii) L’équation différentielle

L(y) = 0 (2.7)

s’appelle équation homogène où (équation sans second membre (ESSM)) associée à


(2.6). On dit aussi que (2.6) est l’équation avec second membre.

Proposition : L’application

Cn → C0
L:
y → L(y) = a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n)
24

est une application linéaire.


Preuve : En effet, pour tout y, z ∈ C n et α, β ∈ R :
L(αy + βz) = a0 (x)(αy + βz) + a1 (x)(αy + βz)′ + · · · + an (x)(αy + βz)(n)
= a0 (x)(αy + βz) + a1 (x)(αy ′ + βz ′ ) + · · · + an (x)(αy (n) + βz (n) )
= α(a0 (x)y + a1 (x)y ′ + · · · + an (x)y (n) ) + β(a0 (x)z + a1 (x)z ′ + · · · + an (x)z (n) )
= αL(y) + βL(z)
d’où le résultat.

Proposition : L’ensemble S0 des solutions à (ESSM) est un sous-espace vecto-


riel de C n (R), S0 est le noyau de L.
Preuve : La fonction nulle θ : x → θ(x) = 0 est une solution de l’ESSM : L(θ) = 0
donc S0 ̸= ∅.
Pour tout y, z ∈ S0 (L(y) = 0 et L(z) = 0) et α, β ∈ R, on L(αy + βz) =
αL(y) + βL(z) = 0 (du fait que L est linéaire). On conclut que αy + βz ∈ S0 et
donc S0 est un sous-espace vectoriel de C n (R).
Proposition : L’ensemble S des solutions de l’équation avec second membre (2.6)
est donné par
S = {y ∈ C n (R) | y = yp + yh } (2.8)
avec L(yp ) = f (x) et L(yh ) = 0, c’est à dire yp est une solution particulière de (2.6),
et yh est solution de l’ESSM.

Preuve : Toute fonction de la fome y = yp + yh est solution de (2.6) : en ef-


fet, L(yp + yh ) = L(yp ) + L(yh ) = f (x) + 0 = f (x).
Réciproquement, soient y1 et y2 deux solutions à (2.6), alors on peut voir y1 comme
la solution particulière yp = y1 et prendre comme solution yh de l’ESSM la diffé-
rence : yh = y2 − y1 , En effet, L(yh = y2 − y1 ) = L(y2 ) − L(y1 ) = f (x) − f (x) = 0.

2.3.1 Principe de superposition


Le principe de superposition est une conséquence directe de la linéarité de l’opé-
rateur L et très utile en pratique.
Si f (x) = f1 (x) + f2 (x), une solution particulière est donnée par y = y1 + y2 , où yi
est une solution à L(yi ) = fi (x) (pour i = 1, 2). En effet :
L(y) = L(y1 + y2 ) = L(y1 ) + L(y2 ) = f1 (x) + f2 (x) = f (x)

2.4 Equations différentielles linéaires du premier ordre


2.4.1 Définition
Une équation différentielle linéaire du premier ordre est de la forme :
a(x)y ′ + b(x)y = c(x) (2.9)
25

où a, b et c sont des fonctions données de x. c(x) est appelé le second memebre de


(2.9). A l’équation (2.9) on associe l’équation sans second memebre (ESSM) appelée
aussi équation linéaire homogène du premier ordre :
a(x)y ′ + b(x)y = 0 (2.10)
qui est une équation à variables séparées
Exemple : A l’équation xy ′ − y = x2 est associée l’ESSM xy ′ − y = 0 qui est une
équation à variables séparées et qui admet pour solution y = cx.

Théorème : La solution générale de l’équation différentielle du premier ordre (2.9)


est y = yp + yh , yh est la solution générale de l’ESSM (2.10) et yp est une solution
particulière de l’équation complète (2.9).
La résolution de l’équation a(x)y ′ + b(x)y = c(x), se fait en deux étapes :

1ère étape : Recherche de la Solution générale de l’ESSM


On cherche la solution générale de l’ESSM : a(x)y ′ + b(x)y = 0 qui est une équation
à variables séparées. En effet,
y′ b(x)
a(x)y ′ + b(x)y = 0 ⇔ =−
y a(x)
dy b(x)
⇔ =− dx
y a(x)
R dy
R b(x) b(x)
a ce niveau, on intégre : y
= ln |y| = − a(x) dx. Soit A(x) une primitive de − a(x)
b(x)
(A′ (x) = − a(x) ), on a donc :
Z
b(x)
ln |y| = − dx = A(x) + k ⇔ yh = y = ±keA(x) = keA(x) (2.11)
a(x)
k est une constante d’intégration.

2.4.2 Méthode de variation de la constante


2ème étape : Recherche de la Solution particulère de (2.9) par la mé-
thode de variation de la constante (Laplace Pierre Simon : 1749-1827)
La méthode de la variation de la constante revient à déterminer les solutions parti-
culières d’une équation différentielle avec second membre, connaissant les solutions
de l’ESSM. Si yh est une solution de l’ESSM, on cherche une solution particulière
sous la forme yp (x) = k(x)yh (x), où k(x) est une fonction à déterminer.
k est dérivable et on a : yp′ = k ′ yh +kyh′ . En reportant dans (2.9) a(x)y ′ +b(x)y = c(x)
on obtient :
[a(x)yh′ + b(x)yh ] k + a(x)k ′ yh = c(x) ⇔ a(x)k ′ yh (x) = c(x)
| {z }
=0, yh sol ESSM
Z
c(x)dx
⇔ k(x) =
a(x)yh (x)
26

et on obtiendra k à une constante près par une simple intégration que l’on reporte
dans
yp = k(x)eA(x)

Exemple :
Soit à résoudre y ′ + 2y = x + 2. L’ESSM associée est y ′ + 2y = 0
dy dy
y ′ + 2y = 0 ⇔ = −2y ⇔ = −2dx
dx y
Z Z
dy
⇔ = −2 dx ⇔ ln |y| = −2x + c
y
⇔ y = yh = ce−2x c ∈ R (2.12)
On suppose maintenant que c est fonction de x et l’on calcule y ′
y(x) = yh (x) = c(x)e−2x ⇔ y ′ (x) = (c′ (x) − 2c(x))e−2x
y ′ (x) + 2y(x) = x + 2 ⇔ (c′ (x) − 2c(x))e−2x + 2c(x)e−2x = c′ (x)e−2x = x + 2
⇔ c′ (x) = (x + 2)e2x
Z
1
⇔ c(x) = (x + 2)e2x dx = e2x (2x + 3) + c
4
la solution particulère est donc yp = 41 e2x (2x + 3)e−2x = 14 (2x + 3) et la solution
générale est
1
y(x) = (2x + 3) + ce−2x
4
ou c est une constante réelle.

2.4.3 Changement de variables


De façon générale, pour résoudre une équation différentielle du premier ordre, il
faut trouver un moyen d’arriver à une équation différentielle à variables séparées.
La méthode de la variation de la constante, pour les équations linéaires du premier
ordre, est un moyen de passer de l’équation avec second membre (qui n’est pas à
varriables séparées) à une équation pour la nouvelle fonction k(x) qui est en effet à
variables séparées. C’est donc en fait un changement de variable qui fait passer de
l’équation pour y à une équation plus simple pour k, que l’on sait intégrer, et dont
la solution permet de remonter à y.
Par la suite on va traiter des exemples d’équations différentielles qui apràs un chan-
gement de variables se raménent à une équation à variables séparées.

Equation homogène du premier ordre


Définition : Une équation différentielle du premier ordre est dite homogène (par
rapport à x et y) si
y ′ = F (x, y) = F (λx, λy) ∀λ ∈ R∗ ) (2.13)
27

En d’autres termes, le changement de (x, y) en (λx, λy) laisse l’équation invariante.


On conclut que la fonction F ne dépend que du rapport xy : F (x, y) = F ( xy ).

Exemples :
2 2
1) L’équation x2 y ′ + xy = x2 + y 2 est équivalente à y ′ = x +yx2−xy = F1 (x, y).
2 2 2 2 2
Or F1 (λx, λy) = λ x +λλ2 yx2−λ xy = F1 (x, y), donc x2 y ′ + xy = x2 + y 2 est une
équation homogène.
2 2
On peut retrouver ce résultat en écrivant simplement F1 (x, y) = x +yx2−xy =
1 + ( xy )2 − xy
y y y
2) L’équation xy ′ − y = xe x est équivalente à y ′ = x
+ xy e x = F2 (x, y). Il est
facile de vérifier que F2 (x, y) = F2 (λx, λy).

Résolution de l’équation homogène


y
On résout l’équation homogène en posant z = x
ce qui conduit à une équation
à variables séparables. En effet :
dy d dz
y′ = = (zx) = x + z = z′x + z
dx dx dx
L’équation différentielle y ′ = F (x, y) = F ( xy ) est équivalente : z ′ x+z = F ( xy ) = F (z)
qui est en fait une équation v̀ariables séparées.

Exemples :
2 2
On reprend l’équation x2 y ′ + xy = x2 + y 2 qui nous donne y ′ = x +yx2−xy =
1 + ( xy )2 − xy . On pose le changement de variables : z = xy on aura donc y ′ = z ′ x + z
que l’on injecte dans l’équation différentielle, on trouve y ′ = z ′ x+z = 1+( xy )2 − xy =
1 + z 2 − z qui est une équation à variables séparées que l’on peut réecrir :
1 + z 2 − 2z dz dx
z′ = ⇔ 2
=
x (1 − z) x
Z Z
dz dx
⇔ 2
=
(1 − z) x
1
⇔ = ln |x| + c
1−z
1
⇔ z =1− (2.14)
ln |x| + c
x
A partir de z on retrouve y = xz = x − ln |x|+c

Equation de Bernoulli (1700-1782)


Définition : On appelle équation de Bernouli une équation différentielle du type :

y ′ = f (x)y + g(x)y α α≥2 (2.15)


28

où α est un nombre réel différent de 1 et où f , g sont des fonctions réelles continues


sur un intervalle ouvert I de R.

Méthode de résolution :
Partons de l’équation de Bernoulli
y ′ = f (x)y + g(x)y α
Divisons les deux membres de l’équation par y α :
y′ 1
α
= f (x) 1−α +g(x)
y y
| {z }
z(x)

le changement de variable suivant


1
z= = y 1−α ⇔ z ′ = (1 − α) y −α y ′
y α−1
transforme l’équation proposée en une équation différentielle linéaire :
z′
= f (x)z + g(x) ⇔ z ′ − (1 − α)f (x)z = (1 − α)g(x)
1−α
La résolution de celle-ci donne z(x) puis la solution de l’équation différentielle de
1
Bernoulli est y(x) = (z(x)) 1−α .
En résumé : au lieu d’attaquer directement l’équation de Bernoulli (qui n’est pas
linéaire) on commence par résoudre l’équation linéare associée z ′ − (1 − α)f (x)z =
(1 − α)g(x).

Exemple :
Soit à résoudre l’équation de Bernoulli suivante
y ′ + x2 y = y 5 x2
on a α = 5, f (x) = x2 et g(x) = x2 . D’aprés ce qui précéde, on utilise le changement

de variable z = y 1−5 = y −4 , ce qui donne z ′ = −4y −5 y ′ et donc y ′ = − z4 y 5 . On
injecte y ′ dans l’équation de Bernoulli :
z′
y ′ + x2 y = y 5 x2 ⇔ − y 5 + x2 y = y 5 x
4
z′
⇔ − + x2 y −4 = x2 (on divise par y 5 )
4
z′
⇔ − + x2 z = x 2
4
On obtient enfin une équation linéaire du premier ordre
z′
− + x2 z = x2 ⇔ z ′ − 4x2 z = −4x2
4
29

qui n’est rien d’autre que z ′ − (1 − α)f (x)z = (1 − α)g(x) avec α = 5, f (x) = x2 et
g(x) = x2 .
4 3
Solution de l’ESSM z ′ − 4x2 z = 0 est z = ce 3 x . Pour trouver la solution parti-
culière de l’équation avec second membre, on applique la méthode de variation de
la constante en posant :
4 3
z = c(x)e 3 x
4 3 4 3
z ′ = c′ (x)e 3 x + 4c(x)x2 e 3 x
4 3 4 3 4 3
z ′ − 4x2 z = −4x2 devient alors c′ (x)e 3 x + 4c(x)x2 e 3 x − 4x2 c(x)e 3 x = −4x2 ce qui
4 3
donne : c′ (x)e 3 x = −4x2 , après intégration on trouve :
4 3
c(x) = e− 3 x + c0
4 3 4 3 4 3 4 3
La solution générale de z ′ −4x2 z = −4x2 est z = e 3 x (e− 3 x +c0 )+ke 3 x = Ke 3 x +1.
La solution de l’équation de Bernoulli est donc y = z −1/4 .

Equation de J.F Riccati (1676-1754)


Définition : On appelle équation de Ricatti une équation différentielle de la forme

y ′ = a(x)y 2 + b(x)y + c(x) (2.16)

où a, b, c sont des fonctions continues sur un intervalle ouvert I de R.


Si c(x) = 0, nous retrouvons un cas particulier d’équation de Bernoulli ( α = 2).
Exemples :
— x3 y ′ + y 2 + yx2 + 2x4 = 0 (y1 = −x2 )
— (x2 + 1)y ′ = y 2 − 1 (y1 = 1)
— (y ′ − y 2 ) cos x + y(2 cos2 x + sin x) = cos3 x (y1 = cos x)
Si on connait une solution particulière y1 de l’équation, en remplaçant y = z + y1
dans l’équation (2.16) on obtient :

y ′ = y1′ + z ′ = a(x)(y12 + z 2 + 2zy1 ) + b(x)(z + y1 ) + c(x) (2.17)

et comme
y1′ = a(x)y12 + b(x)y1 + c(x)
on a :

z ′ = a(x)(z 2 + 2zy1 ) + b(x)z ⇔ z ′ − z(2a(x)y1 + b(x)) + a(x)z 2 = 0

C’est une équation de Bernoulli en z (α = 2) que l’on intègre par le nouveau


changement de variable u = 1/z ramenant la résolution à celle d’une équation
linéaire.
u′ + [a(x) + 2b(x)y1 ]u = b(x)
30

Après résolution de cette dernière équation, la solution y(x) de l’équation de Ric-


cati sera obtenue par : y(x) = z(x)+y1 (x) avec z(x) = 1/u(x) et où y1 (x) est donnée.

Exemple : Soit à résoudre

x3 y ′ + y 2 + yx2 + 2x4 = 0

qui est une équation de Riccati avec a(x) = −1/x3 , b(x) = −1/x et c(x) = −2x.
On pourra vérifier sans problème que y1 = −x2 est une solution.
Avec le changement y = z + y1 on montre que z vérifie l’équation de Bernoulli
(α = 2) suivante
1 1
z′ − z − 3 z2 = 0
x x
On pose u = 1/z on trouve que u obeit à l’équation linéaire suivante :

1 1
u′ + u = 3
x x

2.5 Equation différentielles linéaires du second ordre


à coefficients constants
Définition : Une équation différentielle linéaire du second ordre à coefficients
constants est une équation du type :

ay ′′ + by ′ + cy = d(x) (2.18)

où a, b, cR où a ̸= 0 et d une fonction définie sur un intervalle I.


L’équation homogène (où ESSM) asociée à (2.18) est :

ay ′′ + by ′ + cy = 0 (2.19)

Solutions
On recherche une solution de l’équation sans second membre de la forme y(x) =
e . Une fonction y(x) = eλx est solution de l’équation sans second membre (2.19)
λx

si et seulement :
(aλ2 + bλ + c)eλx = 0
Cette équation est équivalente à

Pc (λ) = aλ2 + bλ + c = 0 (2.20)

Pc appelée équation caractéristique de l’équation différentielle (2.18).


Selon le signe du descriminant de Kramer ∆ = b2 − 4ac, nous disposons d’une
ou deux solutions de l’équation sans second membre (2.19).
31

i) ∆ > 0 : L’équation
√ caractéristique admet
√ deux racines réelles distinctes
λ1 = (−b + ∆)/(2a) et λ2 = (−b − ∆)/(2a). La solution générale de
(2.18) est de la forme y(x) = c1 eλ1 x + c2 eλ2 x c1 et c2 étant des constantes
réelles.
ii) ∆ < 0, L’équation caractéristique
√ admet deux solutions imaginaires conju-
guées λ1 = λ̄2 = (−b + i −∆)/(2a) = p + iq. La solution générale est de la
forme y(x) = epx (c1 cos qx + c2 sin qx) (c1 ,c2 appartiennent à R)
b
iii) ∆ = 0 L’équation caractéristique admet une racine double r1 = r2 = − 2a .
La solution général de (2.18) est de la forme y(x) = (c1 x + c2 )er1 x , avec c1 ,
c2 appartiennent à R

Exemples :
1) y” + 2y ′ − 3y = 0 L’équation caractéristique étant λ2 + 2λ − 3 = 0 dont les
racines sont λ1 = −3 et λ2 = 1. La solution générale est y = c1 e−3x + c2 ex ,
où c1,2 appartiennent à R.
2) y” + 2y ′ + y = 0 L’équation caractéristique λ2 + 2λ1 = 0 admet une racine
double λ1 = λ2 = −1. La solution générale est y(x) = (c1 x + c2 )e−x , où c1 et
c2 des constantes.
3) y”+y ′ +y = 0 L’équation√
caractéristique étant λ2 +λ+1 = 0 dont les √racines
x
λ1 = √ λ̄2 = − 21 ± 23 i La solution générale est y(x) = e− 2 (c1 cos( 23 x) +
c2 sin( 23 x)) c1 , c2 sont des constantes.

2.6 Résolution de l’équation complète :


Théorème : La solution générale de l’équation complète (1) est la somme de la
solution générale de l’E.S.S.M. (2) et d’une solution particulière de l’équation com-
plète (1).

Recherche d’une solution particulière de l’équation complète (1) :


1-Cas où f (x) = Pn (x) ; Pn est un polynôme de degré n : L’équation s’écrit : ay ′′ +
by ′ + cy = Pn (x)
i) Si c different de 0, on cherche une solution particulière sous la forme d’un
polynôme de degré n.
ii) Si c = 0 et b ̸= 0, on cherche une solution particulère sous la forme d’un
polynôme de degré n + 1.
iii) Si c = 0 et b = 0, l’équation devient ay” = Pn (x), qui se résoudre par deux
intégrations successives.

Exemple :
Résoudre
y” + y ′ + y = x2 + x + 1
32

Ici f (x) = x2 + x + 1 et degf = 2, c = 1 est différent de 0, on prend donc


y = P (x) un polynôme de degré 2. y = P (x) = αx2 + βx + γ ; d’où y ′ = 2αx + β et
y ′′ = 2α
En remplaçant dans l’équation y” + y ′ + y = x2 + x + 1 et en procédant par
identification, on obtient α = 1, β = −1 et γ = 0 y = x2 − x est une solution
particulière de y” + y ′ + y = x2 + x + 1
2- Cas où f (x) = eλx Pn (x), λ appartient à R, Pn un polynôme de degré n :
L’équation s’écrit : ay” + by ′ + cy = eλx Pn (x)
i) Si λ n’est pas racine de l’équation caractéristique : On cherche une solution
particulière sous la forme : yp (x) = Qn (x)eλx où Qn est un polynôme de
degré n.
ii) Si λ est racine d’ordre p ≥ 1 de l’équation caracéristique : On cherche une so-
lution particulière sous la forme : yp (x) = xp Qn (x)eλx où Qn est un polynôme
de degré n.

Exemple :
y” + y ′ − 2y = (x2 + x + 1)e−2x (ici n=2)
l’équation caractéristique r2 + r − 2 = 0 possède les racines λ = 1 et −2.
On prend donc Q2 (x) = ax2 + bx + c et on cherche une solution particulière
y = xQ2 (x)e−2x = (ax3 + bx2 + cx)e−2x en reportant y, y ′ ety ′′ dans [*] pour calculer
a, b et c par identification.
3- Cas où f (x) = eλx (A cos rx + B sin rx), A et B appartiennent à R. L’équation
s’ecrit : ay” + by ′ + cy = eλx (A cos rx + B sin rx)
i) si λ ± ir n’est pas racine de l’équation caractéristique : On cherche une
solution particulière sous la forme : yp (x) = (A1 cos rx + B1 sin rx)eλx , A1 et
B1 constantes réelles à déterminer.
ii) si λ ± ir est racine de l’équation caractéristique On cherche une solution
particulière sous la forme : yp (x) = (A2 cos rx + B2 sin rx)xeλx , A2 et B2 des
constantes réelles à déterminer.

Exemple :
i) Intégrer léquation différentielle : y” + 4y = cos 2x L’E.S.S.M.est : y” + 4y = 0
dont l’équation caractéristique associée est r2 +4 = 0. Ses racines sont : r1 = r̄2 = 2i.
La solution de l’E.S.S.M.est : y(x) = c1 cos2x + c2 sin 2x. Le second membre
étant de la forme : A cos rx + B sin rx avec r = 2, A = 1, B = 0 et 2i étant racine
de l’équation caractéristique. On cherche une solution particulière yp sous la forme :

yp (x) = x(A cos 2x + B sin 2x)


yp′ (x) = x(2B cos 2x − 2A sin 2x) + A cos 2x + B sin 2x
′′
yp (x) = x(−4A cos 2x − 4B sin 2x) + 4B cos 2x − 4A sin 2x
y”p (x) + 4yp = 4B cos 2x − 4A sin 2x = cos 2x (2.21)
33

Par identification, on trouve :


B = 1/4 et A = 0, donc yp (x) = x/4 sin 2x La solution générale de l’équation
complète est y(x) = c1 cos 2x + (x/4 + c2 ) sin 2x (c1 , c2 appartiennent à R).

Remarque :
On peut considérer des équations du type : ay” + by ′ + cy = Axn cos rx +
Bxn sin rx (n appatient à N)
— Si ir n’est pas racine de l’équation caractéristique. On cherche une solution
particulière de la forme : yp (x) = Pn (x) cos rx + Qn (x) sin rx, où Pn et Qn
sont deux polynômes de degré n.
— Si ir est racine de l’équation caractéristique. On cherche une solution par-
ticulière de la forme : yp (x) = Pn+1 (x) cos rx + Qn+1 (x) sin rx, où Pn+1 et
Qn+1 sont deux polynômes de degré n + 1.
ii) Résoudre : y” − 4y ′ + 4y = ex + 5 sin x. La solution générale de l’E.S.S.M.est :
y(x) = (c1 x + c2 x)e2x Pour chercher une solution particulière de l’équation com-
plète : y” − 4y ′ + 4y = ex + 5 sin x On procède comme suit : Soient : yp1 une solution
particulière de l’équation : y"-4y’+4y = ex. - yp2 une solution particulière de l’équa-
tion : y” − 4y ′ + 4y = 5 sin x Alors yp = yp1 + yp2 est une solution particulière de
l’équation complète : y” − 4y ′ + 4y = ex + 5 sin x
Comme yp1 (x) = ex et yp2 (x) = 4/5 cos x + 3/5 sin x, alors yp (x) = ex + 4/5 cos x +
3/5 sin x. Donc la solution générale de l’équation complète est : y(x) = (c1 x +
c2 )e2x + e2x + 4/5 cos x + 3/5 sin x.

2.7 Equations différentielles linéaires d’ordre supé-


rieure
2.7.1 Equations différentielles linéaires homogènes d’ordre n
On appelle équation différentielle linéaire d’ordre n une équation de la forme :

a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) = f (x) (2.22)

où a0 (x), a1 (x), ... , an (x), f (x) sont des fonctions données sur un intervalle I ⊂ R.
L’équation 2.22 peut etre ecrite sous la forme :

L(y) = f (x)
L(y) = a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) (2.23)

— Si f (x) = 0 sur I, l’équation est dite homogène ou sans second membre


(ESSM)
— sinon f (x) ̸= 0, l’équation est dite non-homogène ou avec sans second
membre.
34

2.7.2 Problèmes aux valeurs initiales


Pour une équation différentielle linéaire d’ordre n, le problème suivant :

Resoudre L(y) = f (x)


′′ ′′ (n−1)
avec y(x0 ) = y0 , y ′ (x0 ) = y0′ , y (x0 ) = y0 , y (n−1) (x0 ) = y0 (2.24)
′′ (n−1)
avec L(y) = a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) . et y0 , y0′ , y0 , y0
sont des constantes arbitraires, est appelé Problème aux valeurs initiales. Les
′′ (n−1)
valeurs y0 , y0′ , y0 , y0 sont appelées conditions initiales.
On cherche une solution sur un intervalle I ⊂ R contenant le point x0 .

Dans le cas d’une équation différentielle du second ordre, la solution du problème


aux valeurs initiales :
dy d2 y
a0 (x) y + a1 (x) + a2 (x) 2 = f (x) (2.25)
dx dx
y(x0 ) = y0 , y ′ (x0 ) = y0′ (2.26)

est une fonction y(x) definie sur I et son graphe passe par le point (x0 , y0 ) et la
tangente à la courbe en ce point est le nombre y0′

2.7.3 unicité de la solution :


Théorème : Si les fonctions a0 (x), a1 (x), a2 (x), · · · , an (x) et f (x) sont continues
sur I et si ∀x ∈ I : an (x) ̸= 0. Si x = x0 est un point quelconque de I, alors la solu-
tion y(x) du problème aux valeurs initiales 2.24 existe sur cet intervalle et est unique.

Exemples :
— On peut vérifier que y(x) = e2x − e−2x − 3x est solution du problème aux
valeurs initiales :
d2 y
− 4y = 12x
dx2
y(0) = 0 , y ′ (0) = 1

Les coefficients et la fonction f (x) = 12x sont continues sur tout intervalle
contenant x = 0. On conclut que la solution y(x) est unique.
— Le problème aux valeurs initiales suivant :

d3 y d2 y dy
3 3
+ 5 2
− + 7y = 0
dx dx dx
y(1) = 0 , y ′ (1) = 1 , y ′′ (1) = 0

admet comme solution triviale y(x) = 0.


Comme l’équation différentielle est linéaire et ses coefficients ainsi que f (x) =
0 sont continues alors la solution y = 0 est l’unique solution du problème.
35

— On peut vérifier que y(x) = cx2 + x + 3 est solution du problème aux valeurs
initiales :
d2 y dy
x2 2
− 2x + 2y = 6
dx dx
y(0) = 3 , y ′ (0) = 1

sur R et ceci pour n’importe quelle valeur de c ∈ R.


comme y ′ = 2cx + 1, y ′′ = 2c, il s’ensuit que :
′′
x2 y − 2xy ′ + 2y = x2 (2c) − 2x(2cx + 1) + 2(cx2 + x + 3) = 6

on a aussi : y(0) = 3 et y ′ (0) = 1.


Le fait que la solution n’est pas unique vient du fait que au voisinage de
x = 0 le coefficient a2 (x) = x2 s’annulle pour x = 0.

2.7.4 Problèmes avec valeurs aux bord


Un autre type de problème consiste à résoudre une équation différentielle du
second ordre ou plus dans laquelle les valaurs de y ou de ses dérivées sont connues
en des points différents :

d2 y dy
resoudre a2 (x) + a 1 (x) + a0 (x)y = f (x)
dx2 dx
avec y(a) = y0 , y(b) = y1 (2.27)

ce type de problème est connu comme : Problèmes aux valeurs aux bord à
deux points ou simplement Problèmes aux valeurs aux bord.
Les valeurs y(a) = y0 et y(b) = y1 sont appelées conditions au bord.
Les conditions aux bord peuvent être aussi de la forme :

y(a) = y0 , y(b) = y1
y(a) = y0 , y ′ (b) = y1′
y ′ (a) = y0′ , y(b) = y1
y ′ (a) = y0′ , y ′ (b) = y1′ (2.28)

avec y0 , y0′ , y1 et y1′ sont des constantes.

Exemples :
— Soit à résoudre le problème avec valeurs au bord suivant :

d2 y
+ 16y = 0
dx2
π
y(0) = 0 , y( ) = 0 (2.29)
2
36

La solution de cette équation différentielle est

y(x) = c1 cos 4x + c2 sin 4x

les conditions au bord donnent :


0 = y(0) = c1 cos 0 + c2 sin 0 = c1 donc y(x) = c2 sin 4x.
La seconde condition au bord : y( π2 ) = c2 sin 2π = 0 n’impose aucune
contrainte sur c2 car sin 2π = 0 et donc la seconde condition est vérifiée
pour n’importe quelle valeur de c2 .
La solution du problème est donc y(x) = c2 sin 4x avec c2 ∈ R.
Il y a donc une infinité de solution au problème au bord dont le graphe passe
par les deux points (0, 0) et (π/2, 0).
— Soit à résoudre le problème avec valeurs au bord suivant :

d2 y
+ 16y = 0
dx2
π
y(0) = 0 , y( ) = 1 (2.30)
2
La solution de cette équation différentielle est

y(x) = c1 cos 4x + c2 sin 4x

les conditions au bord donnent :


0 = y(0) = c1 cos 0 + c2 sin 0 = c1 donc y(x) = c2 sin 4x.
La seconde condition au bord : y( π2 ) = c2 sin 2π = 1 do
nne c2 0 = 1 ce qui es impossible. Ce problème au bord n’a donc pas de solution.

2.8 Dépendance et indépendance linéaire d’un sys-


tème de fonctions
Définition : Un ensemble de fonctions f1 (x), f2 (x), ... , fn (x) est linéairement
dépendant sur un intervalle I s’il existe des constantes α1 , α2 , ... , αn non tous nuls
tel que :

α1 f1 (x) + α2 f2 (x) + ... + αn fn (x) = 0 ∀x ∈ I (2.31)

Conséquence : Si f1 (x), f2 (x), ... , fn (x) est linéairement dépendant, supposons


que c’est αi ̸= 0 alors on peut exprimer fi (x) comme combinaison linéaire des
autres :
α1 αi−1 αi+1 αn
fi (x) = −( f1 (x) + ... + fi−1 (x) + fi+1 (x) + fn (x)
αi αi αi αi
Exemple : Les fonctions f1 (x) = sin 2x et f2 (x) = sin x cos x sont linéairements
dépendantes sur R car
α1 f1 (x) + α2 f2 (x) = 0
37

est vérifiée pour tout x ∈ R si on prend α1 = 1/2 et α2 = −1 (f1 (x) = sin 2x =


2 sin x cos x = 2f2 (x)).
Définition : Un ensemble de fonctions f1 (x), f2 (x), ... , fn (x) est linéairement
indépendant sur un intervalle I si ∀α1 , α2 , ..., αn ∈ R tel que :

∀x ∈ I ; α1 f1 (x) + α2 f2 (x) + ... + αn fn (x) = 0 alors αi = 0 (2.32)

Exemples :
— les fonctions f1 (x) = ex et f2 (x) = xex définies sur R sont linéairement
indépendantes. En effet pour tout α1 , α2 ∈ R tels que :

α1 e2 + α2 xex = 0 ∀ x ∈ R (2.33)

Pour x = 0 dans 2.33 donne α1 = 0. Eq 2.33 avec α1 = 0 implique que α2


doit etre nulle aussi pour que l’éq 2.33 soit vérifiée pour tout x ∈ R.
— les fonctions f0 (x) = 1 et f1 (x) = x, f2 (x) = x2 , ... , fn (x) = xn définies sur
R sont linéairements indépendantes, car :

α0 1 + α1 x + α2 x2 + ... + α2 xn = 0 ∀ x ∈ R (2.34)

ceci n’est possible que si α0 = α1 = α2 = ... = αn = 0


Définition : Supposons que les fonctions f1 (x), f2 (x), ... , fn (x) sont de classe
C n−1 sur l’intervalle I. On appelle Wronskien du système : f1 (x), f2 (x), ... , fn (x)
le déterminant :

f1 (x) f2 (x) ... fn (x)


f1′ (x) f2′ (x) ... fn′ (x)
.. .. ..
. . ... .
W (x) = (i) (i) (i) (2.35)
f1 (x) f2 (x) ... fn (x)
.. .. ..
. . ... .
(n−1) (n−1) (n−1)
f1 (x) f2 (x) . . . fn (x)

Théorème : Si des fonctions f1 (x), f2 (x), ... , fn (x) de classe C n−1 sur l’intervalle
I sont linéairement dépendantes sur I, le Wronskien W (x) = 0 sur I.

Preuve : Dans le cas de la famille (f1 (x),f2 (x)) (n = 2).


Supposons que (f1 (x),f2 (x)) sont linéairement dépendantes sur I alors il existe des
scalaires α1 et α2 non tous nuls tel que :

∀x ∈ I , α1 f1 (x) + α2 f2 (x) = 0 (2.36)

Supposons que α1 ̸= 0, alors f1 (x) = − αα12 f2 (x). on prenant la dérivée, on aura :


α2 ′
∀x ∈ I , f1′ (x) = − f (x) (2.37)
α1 2
38

Calculons le Wronskien :
f1 (x) f2 (x) − αα21 f2 (x) f2 (x)
W (x) = = =0
f1′ (x) f2′ (x) − αα21 f2′ (x) f2′ (x)

Pour n = 3, on suppose qu’il existe des scalaires α1 , α2 et α3 non tous nuls (suppo-
sons que α1 ̸= 0) tel que :

∀x ∈ I , α1 f1 (x) + α2 f2 (x) + α3 f3 (x) = 0


α2 α3
∀x ∈ I , f1 (x) = − f2 (x) − f3 (x) (2.38)
α1 α1
on prenant la dérivée première et seconde, on aura :
α2 ′ α3
∀x ∈ I , f1′ (x) = − f2 (x) − f3′ (x)
α1 α1
′′ α2 ′′ α3 ′′
∀x ∈ I , f1 (x) = − f2 (x) − f3 (x) (2.39)
α1 α1
Calculons le Wronskien :
f1 (x) f2 (x) f3 (x)
W (x) = f1′ (x) f2′ (x) f3′ (x)
′′ ′′ ′′
f1 (x) f2 (x) f3 (x)
− αα21 f2 (x) − α3
f (x)
α1 3
f2 (x) f3 (x)
= − αα21 f2′ (x) − α3 ′
f (x)
α1 3
f2′ (x) f3′ (x) (2.40)
′′ α3 ′′ ′′ ′′
− αα21 f2 (x) − f (x)
α1 3
f2 (x) f3 (x)

il est claire que la première collone de ce déterminant est est une combinaison
linéaire des deux autres colonnes : − αα12 c2 − αα31 c3 , ce déterminent est donc nul.
Théorème : Si le Wronskien W (x) des fonctions f1 (x), f2 (x), ... , fn (x) de classe
C n−1 sur l’intervalle I est non nul elles sont linéairement indépendantes sur I.

Preuve : soit α1 , α2 , ..., αn ∈ R tel que :

∀x ∈ I , α1 f1 (x) + α2 f2 (x) + ... + αn fn (x) = 0 (2.41)

en prenant la dérivée première, seconde, ..., et nième de l’équation (2.41), on trouve :

∀x ∈ I , α1 f1 (x) + α2 f2 (x) + ... + αn fn (x) = 0


∀x ∈ I , α1 f1′ (x) + α2 f2′ (x) + ... + αn fn′ (x) = 0
...........................................................
(n−1) (n−1)
∀x ∈ I , α1 f1 (x) + α2 f2 (x) + ... + αn fn(n−1) (x) = 0

le déterminant de ce système n’est rien d’autre que le Wronskien W (x) ̸= 0, le


système est donc de Kramer et son unique solution est α1 = α2 = ... = αn = 0. Le
fonctions f1 (x), f2 (x), ... , fn (x) sont donc linéairement indépendantes sur I
39

Exemples :
— pour f1 (x) = em1 x et f2 (x) = em2 x avec m1 ̸= m2 définies sur R, le Wronskien
est :
em1 x em2 x
W (x) = = (m2 − m1 )e(m1 +m2 )x ̸= 0 (2.42)
m1 em1 x m2 em2 x
pour tout x ∈ R, donc f1 et f2 sont linérement indépendants.
— pour f1 (x) = ex , f2 (x) = xex et f3 (x) = x2 ex définies sur R, le Wronskien
est :
ex xex x2 e x
W (x) = ex ex + xex 2xex + x2 ex = 2e3x ̸= 0 (2.43)
x x x x x 2 x
e 2e + xe 2e + 4xe + x e
pour tout x ∈ R, donc f1 , f2 et f3 sont linérement indépendants.
— On considére les fonctions f1 (x) = x et f2 (x) = |x| définies sur R, il est facile
de se convaincre que f1 et f2 sont linéairement indépendantes sur R même
si le Wronskine est nul.
Pour x > 0, les fonctions sont linérement dépendantes, le Wronskien W (x) =
0 pour x ̸= 0.
Pour x = 0, f2 n’est pas dérivable en 0, et donc on peut pas calculer le
Wronskinen.
Conclusion : Si le Wronskien W (f1 (x), f2 (x), ..., fn (x)) est nul pour tout x ∈ I
ca ne veut pas dire nécesserement que les (f1 (x), f2 (x), ..., fn (x)) sont linéai-
rement dépendants.

2.9 Solution d’équations différentielles linéaires


2.9.1 Equation homogène
L’équation suivante
a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) = 0 (2.44)
où a0 (x), a1 (x), ... , an (x), f (x) sont des fonctions données sur un intervalle I ⊂ R
est dite homogène alors que :
L’équation 2.22 peut etre ecrite sous la forme :
a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) = f (x) (2.45)
est dite équation avec second membre.

Proposition :
L’application
 n
C → C0
L:
y → L(y) = a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n)
40

est une application linéaire.


Preuve : En effet, pour tout y, z ∈ C n et α, β ∈ R :

L(αy + βz) = a0 (x)(αy + βz) + a1 (x)(αy + βz)′ + · · · + an (x)(αy + βz)(n)


= a0 (x)(αy + βz) + a1 (x)(αy ′ + βz ′ ) + · · · + an (x)(αy (n) + βz (n) )
= α(a0 (x)y + a1 (x)y ′ + · · · + an (x)y (n) ) + β(a0 (x)z + a1 (x)z ′ + · · · + an (x)z (n) )
= αL(y) + βL(z)

d’où le résultat.

Proposition :
L’ensemble S0 des solutions à (ESSM) est un sous-espace vectoriel de C n (R), S0
est le noyau de L.
Preuve : La fonction nulle θ : x → θ(x) = 0 est une solution de l’ESSM : L(θ) = 0
donc S0 ̸= ∅.
Pour tout y, z ∈ S0 (L(y) = 0 et L(z) = 0) et α, β ∈ R, on L(αy + βz) =
αL(y) + βL(z) = 0 (du fait que L est linéaire). On conclut que αy + βz ∈ S0 et
donc S0 est un sous-espace vectoriel de C n (R).

Une conséquence immédiate de la linéarité de L est :

Xm m
X
L( αi yi (x)) = αi L(yi (x))
i=1 i=1

On conclutPque si y1 , y2 , ... , ym sont solutions de l’ESSM alors toutes combinaisons


linéaires ’ m
i=1 αi yi (x), αi ∈ R’ est aussi solution de l’ESSM. C’est le principe de
superposition.

Exemples :
— Les fonctions y1 = x2 et y2 = x2 ln x définies sur ]0, +∞[ sont solutions de
l’équation homogène :
′′′
x3 y − 2xy ′ + 4y = 0
D’après le principe de superposition y = c1 x2 + c2 x2 ln x est aussi solution
de cette équation.
— Les fonctions y1 = ex , y2 = e2x et y3 = e3x définies sur R sont solutions de
l’équation homogène :
′′′ ′′
y − 6y + 11y ′ − 6y = 0

D’après le principe de superposition y = c1 ex +c2 e2x +c3 e3x est aussi solution
de cette équation.
41

Théorème :
Soient y1 , y2 , ... , yn des solutions d’une équation différentielle homogène d’ordre
n sur un intervalle I. Cet ensemble de solutions est linéairement indépendant sur I
si et seulement si W (y1 , y2 , ..., yn ) ̸= 0 pour tout x ∈ I.

Preuve :
Si W (y1 , y2 , ..., yn ) ̸= 0 alors y1 , y2 , ... , yn sont linéairement indépendants.
Pour la réciproque, on montre pour n = 2.
En effet, si y1 et y2 sont linéairement indépendants alors W (y1 (x), y2 (x)) ̸= 0 pour
tout x ∈ I.
Supposons q’il existe x0 ∈ I tel que W (y1 (x0 ), y2 (x0 )) = 0 alors il doit exister des
constantes c1 et c2 non tous nulles telles que :

c1 y1 (x0 ) + c2 y2 (x0 ) = 0
c1 y1′ (x0 ) + c2 y2′ (x0 ) = 0 (2.46)

Si on définit y(x) = c1 y1 (x) + c2 y2 (x), donc à partir de 2.46 y(x) doit satisfaire
le problème de Cauchy suivant :

y(x0 ) = 0 et y ′ (x0 ) = 0

or il se trouve que la fonction nulle θ satisfait aussi la condition θ(x0 ) = 0 et


θ′ (x0 ) = 0, d’après l’unicité de la solution du problème de Cauchy : y = θ =
c1 y1 (x) + c2 y2 (x) = 0 pour tout x ∈ I, ce qui est on contradiction avec le fait que
y1 et y2 sont linéairement indépendants.

Définition :
On appelle système fondamental de solution tout ensemble de n solutions y1 ,
y2 , ... , yn linéairement indépendantes sur I d’une équation différentielle linéaire
homogène d’ordre n.

Théorème :
Soit y1 , y2 , ... , yn un système fondamental de solution d’une équation différen-
tielle linéaire homogène d’ordre n sur un intervalle I, alors pour toute solution y(x)
sur I de l’équation homogène L(y) = 0 on peut trouver des constantes tels que

y(x) = c1 y1 (x) + c2 y2 (x) + ... + cn yn (x)

Théorème : existence de système fondamental


Toute équation différentielle linéaire homogène avec des coefficients ak (x) conti-
nues possède un système fondamental de solution.
42

Proposition :
L’ensemble S des solutions de l’équation avec second membre (2.6) est donné
par

S = {y ∈ C n (R) | y = yp + yh } (2.47)

avec L(yp ) = f (x) et L(yh ) = 0, c’est à dire yp est une solution particulière de (2.6),
et yh est solution de l’ESSM.

Preuve : Toute fonction de la fome y = yp + yh est solution de (2.6) : en ef-


fet, L(yp + yh ) = L(yp ) + L(yh ) = f (x) + 0 = f (x).
Réciproquement, soient y1 et y2 deux solutions à (2.6), alors on peut voir y1 = yp
comme la solution particulière et prendre comme solution yh de l’ESSM la diffé-
rence : yh = y2 − y1 , En effet, L(yh = y2 − y1 ) = L(y2 ) − L(y1 ) = f (x) − f (x) = 0.

Solution générale de l’équation homogéne :


Théorème : Soit y1 , y2 , ..., yn un système fondamental de solutions d’une
équation différentielle d’ordre n sur I :

a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) = 0 (2.48)

donc la solution générale de cette équation différentielle sur I est :

y(x) = c1 y1 + c2 y2 + ... + cn yn

ou ci , i = 1, 2, ..., n sont des constantes arbitraires.

Exemple :
1.) y ′′ − 9y = 0 admet y = c1 e3x + c2 e−3x comme solution générale avec c1,2 ∈ R.
2.) Les fonctions y1 = ex , y2 = e2x et y3 = e3x vérifient l’équation différentielle :
′′′ ′′
y − 6y + 11y ′ − 6y = 0

comme W (y1 , y2 , y3 ) = 2e6x ̸= 0, les solutions y1 , y2 , y3 forment un système fonda-


mental sur R. On conclut que

y = c1 ex + c2 e2x + c3 e3x

est la solution générale de l’équation différentielle.

Principe de superposition : équation non homogéne :


Théorème : Soit yp1 , yp2 , ..., ypk , k solutions particulières de l’équation non
homogéne :

a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) = gi (x) i = 1, 2, ..., k


43

alors la fonction y(x) = yp1 (x) + yp2 (x) + ... + ypk (x) est une solution particulière
de l’équation non homogéne suivante :
a0 (x) y + a1 (x) y ′ + a2 (x) y ′′ + · · · + an (x) y (n) = g1 (x) + g2 (x) + ... + gk (x)
Exemple : Solution particulière de
y ′′ − 3y ′ + 4y = −16x
|
2
2e2x + (2x − 1)ex
{z24x − 8} + |{z}
+
| {z }
g1 g2 g3

on vérifit que :
pp1 = −4x2 solution parti de y ′′ − 3y ′ + 4y = −16x2 + 24x − 8
pp2 = e2x solution parti de y ′′ − 3y ′ + 4y = 2e2x
pp2 = xex solution parti de y ′′ − 3y ′ + 4y = ex (2x − 1) (2.49)
(2.50)
la solution particulière est :
yp = −4x2 + e2x + xex

équation homogéne à coefficients constants :


Pour résoudre l’équation différentielle d’ordre n à coefficients constants :
a0 y + a1 y ′ + a2 y ′′ + · · · + an y (n) = 0
on doit résoudre le polynôme caractéristique :
a0 + a1 λ + a2 λ2 + · · · + an λn = 0
— Si toutes les racines r1 , r2 , ..., rn sont rélles et deux à deux distinctes, alors
la solution générale est :
yh = c1 er1 x + c2 er2 x + ... + cn ern x
— Si le polynôme caractéristique admet m racines simples et une racine α
d’ordre k alors la solution générale est de la forme
yh = c1 er1 x + c2 er2 x + ... + cm erm x + d1 eαx + d2 xeαx + d3 x2 eαx + ... + dk xk−1 eαx
— Si le polynôme caractéristique admet une racine complexe r1 = α+iβ d’ordre
k, alors r̄1 = α − iβ est aussi racine d’ordre k. A partir des 2k solutions
complexes
e(α+iβ)x , xe(α+iβ)x , x2 e(α+iβ)x , xk−1 e(α+iβ)x
e(α−iβ)x , xe(α−iβ)x , x2 e(α−iβ)x , xk−1 e(α+iβ)x (2.51)
qui sont équivalentes à :
eαx cos βx , xeαx cos βx , x2 eαx cos βx , ... xk−1 eαx cos βx
eαx sin βx , xeαx sin βx , x2 eαx sin βx , ... xk−1 eαx sin βx
44

Exemples :

2y ′′ − 5y ′ − 3y = 0 , yh = c1 e−x/2 + c2 e3x
y ′′ − 10y ′ + 25y = 0 , yh = c1 e5x + c2 xe5x
√ √
′′ ′ −x/2 3 3
y + y + y = 0 , yh = e (c1 cos x + c2 sin x)
2 2
y ′′′ + 3y ′′ − 4y = 0 , yh = c1 ex + c2 e−2x + c3 xe−2x
y (4) + 2y ′′ + y = 0 , y = c1 eix + c2 e−ix + c3 xeix + c4 xe−ix
y = c1 cos x + c2 sin x + c3 x cos x + c4 x sin x (2.52)

Réduction de l’ordre d’une équation différentielle


Supposons qu’on a une équation différentielle de la forme :
y ′′ + p(x)y ′ + q(x)y = 0
ou p et q sont deux fonctions continues sur un intervalle I et supposons qu’on
connais une solution y1 ̸= 0 de cette équation sur I. Si on définit y = u(x)y1 (x)
alors on a :

y ′ = uy1′ + u′ y1 , y ′′ = uy1′′ + 2y1′ u′ + y1 u′′


y ′′ + p(x)y ′ + q(x)y = u (y1′′ + py1′ + qy1 ) +y1 u′′ + (2y1′ + py1 )u′ = 0
| {z }
=0

y1 v + (2y1′ + py1 )v = 0 avec v = u′ (2.53)
La dernière équation est une équation différentielle linéaire à variable séparable
qu’on peut écrire :
dv y′
+ 2 1 dx + pdx
v y1
Z R
ln|vy1 | = − pdx + c0 ou wy12 = c1 e− p(x)dx
2

R
′ e− p(x)dx
u = c1
y12
Z − R p(x)dx
e
u = c1 dx + c2
y12 (x)
en prenant c1 = 1 et c2 = 0 on trouve :
y = u(x)y1
R
e− p(x)dx
y = y1 dx (2.54)
y12
Exemples :
45

— La fonction y1 = x2 est solution de x2 y ′′ − 3xy ′ + 4y = 0, trouver une autre


solution.
On pose y = u(x)x2 , on montre que y(x) = x2 ln x.
La solution générale est donc y(x) = c1 x2 + c2 x2 ln x.
— La fonction y1 = ex est solution de y ′′ − 2y ′ + y = 0, trouvez l’autre solution.
On pose y = u(x)ex on trouve que y = xex .
La solution générale est : y = c1 ex + c2 xex

Méthode de variation des deux constantes :


Par analogie avec les équations différentielles du premier ordre, on va introduire
la méthode de variations des constantes pour les équations différentielles d’ordre
superieures. Soit à résoudre :

y ′′ + p(x)y ′ + q(x)y = f (x) (2.55)

et soit y1 et y2 un système fondamental de cette équation. La solution générale de


l’ESSM est de la forme : y = c1 y1 + c2 y2 avec c1,2 ∈ R.
On cherche une solution particulière de l’équation (2.55) de la forme :

yp (x) = c1 (x)y1 (x) + c2 (x)y2 (x)

on a :

yp′ = c1 y1′ + y1 c′1 + c2 y2′ + y2 c′2


yp′′ = c1 y1′′ + 2y1′ c′1 + y1 c′′1 + c2 y2′′ + 2y2′ c′2 + y2 c′′2
(2.56)

En injectant dans l’équation (2.55) on trouve :

yp′′ + pyp′ + qy = c1 (y1′′ + p(x)y1′ + q(x)y1 ) = 0 + c2 (y2′′ + p(x)y2′ + q(x)y2 ) +


| {z } | {z }
=0
+y1 c′′1 + c′1 y1′ + y2 c′′2 + c′2 y2′ + p(y1 c′1 + y2 c′2 ) + y1′ c′1 + y2′ c′2
d
= (y1 c′1 + y2 c′2 ) + p(y1 c′1 + y2 c′2 ) + y1′ c′1 + y2′ c′2 = f (x) (2.57)
dx
comme on cherche à determiner deux fonctions inconnues c1 et c2 on aura besoin de
deux équations pour les extraire. On peut obtenir ses deux équations on supposant
que

y1 c′1 + y2 c′2 = 0 (2.58)

et de cette équation, on obtient à partir de (2.57)

y1′ c′1 + y2′ c′2 = 0 (2.59)


46

on a donc le système des deux équations (2.58) et (2.59) dont le déterminant est :

y1 (x) y2 (x)
det = W =
y1′ (x) y2′ (x)

ce determinant est non nul car y1 et y2 sont libres.


Le système est donc de Kramer et les solutions sont données par :

W1 W2
c′1 = , c′2 =
W W
0 y2 (x) y1 0
W1 = , W2 = (2.60)
f (x) y2′ (x) y1′ (x) f (x)

Exemple :
Soit à résoudre 4y ′′ + 36y = sin13x .
Le polynome caractéristique est 4λ2 + 36. Ses racines sont λ1 = 3i et λ2 = −3i. La
solution générale de l’équation sans second membre est hh = c1 cos 3x + c2 sin 3x.
La solution particulière de l’équation complète est de la forme :

yp (x) = c1 (x) cos 3x + c2 (x) sin 3x

avec :

W1 W2
c′1 = , c′2 =
W W
0 sin 3x 1 cos 3x 0 cos 3x
W1 = 1 =− , W2 = 1 =
sin 3x
3 cos 3x 4 −3 sin 3x sin 3x 4 sin 3x
cos 3x sin 3x
W = =3 (2.61)
−3 sin 3x 3 cos 3x

on trouve : c′1 = − 12
1
et c′2 = cos 3x
12 sin 3x
, ce qui donne :

1 1
c1 = − x , c2 = ln | sin 3x|
12 36

La solution particulière est donc :

1 1
yp = − x cos 3x + ln | sin 3x| sin 3x
12 36

finalement la solution générale est :

1 1
y = yh + yp = c1 cos 3x + c2 sin 3x − x cos 3x + ln | sin 3x| sin 3x
12 36
47

Cas général
Soit l’équation différentielle d’ordre n :

y (n) + pn−1 (x)y (n−1) + ... + p1 (x)y ′ + p0 (x)y = f (x)

Si yh = c1 y1 +c2 y2 +...+cn yn est solution générale de l’équation sans second membre,


alors la solution particulière de l’équation complète sera de la forme :

yp = c1 (x)y1 + c2 (x)y2 + ... + cn (x)yn

avec les c′i qui vérifient le système suivant :


 ′

 c1 y1 + c′2 y2 + . . . + c′n yn = 0
′ ′ ′ ′ ′ ′
 c1 y1 + c2 y2 + . . . + cn yn = 0



 ... .. ..
. = ..
.


.
(S) = (i) (i) (i) (2.62)
 c′1 y1 + c′2 y2 + . . . + c′n yn = 0
.. .. .. .

. = ..




 . . ...
 ′ (n−1)
 (n−1) (n−1)
c1 y1 + c′2 y2 + . . . + c′n yn = f (x)

Le déterminant de (S) est le Wronskien de (y1 , y2 , ..., yn ) qui est non nul car (y1 , y2 , ..., yn )
est un système fondamental. (S) est donc un système de Kramer, il admet une so-
lution unique.

Wk
c′k = pour k = 1, 2, ..., n (2.63)
W
ou

y1 (x) y2 (x) ... yn (x)


y1′ (x) y2′ (x) ... yn′ (x)
.. .. ..
. . ... .
W (x) = (i) (i) (i) (2.64)
y1 (x) y2 (x) ... yn (x)
.. .. ..
. . ... .
(n−1) (n−1) (n−1)
y1 (x) y2 (x) . . . yn (x)

0 y2 (x) ... yn (x)


0 y2′ (x) ... yn′ (x)
.. .. ..
. . ... .
W1 (x) = (i) (i) (2.65)
0 y2 (x) ... yn (x)
.. .. ..
. . ... .
(n−1) (n−1)
f (x)(x) y2 (x) . . . yn (x)
48

y1 (x) 0 ... yn (x)


y1′ (x) 0 ... yn′ (x)
.. .. ..
. . ... .
W2 (x) = (i) (i) (2.66)
y1 (x) 0 ... yn (x)
.. .. ..
. . ... .
(n−1) (n−1)
y1 (x) f (x) . . . yn (x)

y1 (x) y2 (x) ... 0


y1′ (x) y2′ (x) ... 0
.. .. ..
. . ... .
Wn (x) = (i) (i) (2.67)
y1 (x) y2 (x) ... 0
.. .. ..
. . ... .
(n−1) (n−1)
y1 (x) y2 (x) . . . f (x)

2.9.2 Equation de Cauchy-Euler


L’équation de Cauchy-Euler est de la forme :

an xn y (n) + an−1 xn−1 y (n−1) + ... + a1 xy ′ + a0 y = g(x) (2.68)

ou les ai , i = 0, 1, ..., n sont des constantes.

Méthode de résolution : n = 2
On cherche une solution de l’ESSM de la forme y(x) = xm ou m est à determiner.
y ′ = mxm−1 et y ′′ = m(m − 1)xm−2 on a :

a2 x2 y ′′ + a1 xy ′ + a0 y = xm (a2 m(m − 1) + a1 m + a0 ) = 0 (2.69)

On conclut que y = xm est solution de l’ESSM si m est racine du polynôme Pc :

Pc (m) = a2 m(m − 1) + a1 m + a0 = a2 m2 + (a1 − a2 )m + a0 (2.70)

il y a 3 cas de figures :
i) Pc admet deux racines distinctes m1 et m2 (m1 ̸= m2 ), dans ce cas y1 = xm1 et
y2 = xm2 est un système fondamental (W (y1 , y2 ) = (m2 − m1)xm2 +m1 −1 ̸= 0)
Dans le cas général, si Pc admet des racines deux à deux distinctes, alors la
solution générale de l’ESSM est :

y(x) = c1 xm1 + c2 xm2 + ... + cn xmn (2.71)

Exemple : x2 y ′′ − 2xy ′ − 4y = 0 admet comme solution génerale : y =


c1 x−1 + c2 x4 .
49

ii) Pc admet une racine double m = a22a−a2 1 = 12 − 2a a1


2
, Dans ce cas y1 = xm
est solution de l’ESSM et on cherche une seconde solution de la forme y =
xm u(x) ou u(x) est à determiner par la méthode de rabaissement du degré.
y = xm u(x) est solution de y ′′ + aa21x y ′ + aa2 x0 2 y = 0 après calcul on montre que
a
Z − a1 ln x
m e 2
y(x) = x dx
x2m
Z a
− a1
= x m
x 2 x−2m dx
Z
m dx
= x = xm ln x
x
(2.72)
La solution générale est de la forme :
y(x) = c1 xm + c2 xm ln x
Dans le cas général : si m1 est racine d’ordre k alors les fonctions sui-
vantes :
xm1 , xm1 (ln x), xm1 (ln x)2 , ..., xm1 (ln x)k−1
sont linérement indépendantes et sont solutions de l’ESSM.
Exemple : 4x2 y ′′ + 8xy ′ + y = 0 admet comme solution génerale : y =
−1/2
c1 x + c2 x−1/2 ln x.
iii) Pc admet des racines complexes : soient m1 = α + iβ et m2 = α − iβ deux
racines de Pc , la solution générale de l’ESSM est
y = c1 xα+iβ + c2 xα−iβ
que l’on peut réecrire en utilisant des fonctions réelles. En effet, en prenant
c1 = c2 = 1/2 et c1 = −c2 = 1/2 on trouve :
y1 = 1/2xα (xiβ + x−iβ ) , y2 = 1/2xα (xiβ − x−iβ )
y1 = xα cos(β ln x) , y2 = xα sin(β ln x)
sont aussi solution de l’ESSM. De plus W (y1 , y2 ) = βx2α−1 ̸= 0. Donc y1 , y2
est un système fondamental.
la solution génerale de l’ESSM est de la forme :
y(x) = xα (c1 cos(β ln x) + c2 sin(β ln x)

Résolution d’équation différentielle en utilisant le développe-


ment en série
2.9.3 Exemples :
1.) Trouver une solution de y ′ P
− 2xy = 0 sous la forme d’une série.
Supposons que la solution y(x) = ∞ k
k=0 ck x , peut on trouver des coefficient ck pour
50

série ∞ k ′
P
lequels la P k=0 ck x converge vers une solution de y − 2xy = 0. En effet : on

a y ′ (x) = k=1 kck xk−1 alors :

X ∞
X
′ k−1
y − 2xy = kck x −2 ck xk+1
k=1 k=0

X ∞
X
k−1
= c1 + kck x −2 ck xk+1 k + 1 = m , k − 1 = n
k=2 k=0
X∞ ∞
X
= c1 + (n + 1)cn+1 xn − 2 cm−1 xm = 0
k=1 m=1

donc
c1 = 0 et (k + 1)ck+1 − 2ck−1 = 0
2
c1 = 0 et ck+1 = ck−1
k+1
c2 = c0
2
c3 = c1 = 0
3
2 1
c4 = c2 = c0
4 2
2
c5 = c3 = 0
5
2 1
c6 = c4 = c0
6 3!
........................................
c2k−1 == 0
1
c2k = c0
k!
La fonction y(x) est donnée par :
1 4 1 − 1 2
y(x) = c0 (1 + x2 + x + x + ... + x2n + ...) = c0 ex
2! 3! n!
2
il est facile de vérifier que la solution de y ′ − 2xy = 0 est bien y = c0 ex .
′′
P∞ une ksolution′′de 4y P
2.) Trouver + y = 0 sous forme de développement en série.
Si y(x) = k=0 ck x alors y (x) = ∞ k=2 k(k − 1)ck x
k−2


X ∞
X
4y ′′ + y = 4 k(k − 1)ck xk−2 + ck x k
k=2 k=0

X ∞
X
k
= 4 (k + 2)(k + 1)ck+2 x + ck x k = 0 (2.73)
k=0 k=0

On conclut que : (k + 2)(k + 1)ck+2 + ck = 0 alors


−1
ck+2 = ck (2.74)
4(k + 2)(k + 1)
51

on a donc :
c0
k = 0 , c2 = −
22 2!
c1
k = 1 , c3 =− 2
2 3!
c2 c0
k = 2 , c4 =− = 4
4.43 2 4!
c3 c1
k = 3 , c5 =− = 4
4.5.4 2 5!
c4 c0
k = 4 , c6 =− =− 6
4.6.5 2 6!
c5 c1
k = 5 , c7 =− =− 6
4.7.6 2 7!
on peut donc écrire y sous la forme :
1 1 1
y(x) = c0 (1 − x2 + x4 − x6 + ...)
22 2! 24 4! 26 6!
1 1 1
= +c1 (x − x3 + x5 − x7 + ...)
22 3! 24 5! 26 7!
= c0 y1 (x) + c1 y2 (x) (2.75)

avec

X (−1)k x 2k x
y1 (x) = ( ) = cos( )
k=0
(2k)! 2 2

X (−1)k x 2k+1 x
y2 (x) = 2 ( ) = 2 sin( )
k=0
(2k + 1)! 2 2

Solutions autour d’un point ordinaire


Soit a2 (x)y ′′ + a1 (x)y ′ + a0 (x)y = 0 une équation différentielle d’ordre deux. En
divisant par a2 on la raméne à :

y ′′ + p(x)y ′ + q(x)y = 0

Définition : Un point x0 est dit point ordinaire de l’équation différentielle si p(x)


et q(x) sont analytiques en x0 .
Un point qui n’est pas ordinaire et dit point singulier de l’équation différentielle.
Exemple :
1. y ′′ + ex y ′ sin xy = 0. Tout point x ∈ R est ordinaire.
2. xy ′′ + sinxy = 0. Comme q(x) = sinx x est régulière en x = 0, alors x = 0 est
un point ordinaire.
3. Les points singuliers de (x2 −1)y ′′ +2xy ′ +6y = 0 sont solutions de x2 −1 = 0
ou x = ±1. Les autres points x ̸= ±1 sont des points ordinaires.
4. l’équation de Cauchy-Euler ax2 y ′′ + bxy ′ + cy = 0 a un point singulier en
x = 0 tous les autres points x ̸= 0 sont ordinaires.
52

Théorème :
Si x = x0 est un point ordinaire de l’équation différentielle a2 (x)y ′′ + a1 (x)y ′ +
a0 (x)y = 0, on peut toujour trouver deux solutions indépendantes sous forme de
séries : ∞
X
y(x) = ck (x − x0 )k
k=0

cette série solution converge au moins pour |x − x0 | < R, ou R est la distance de


x0 a point singulier le plus prêt.
— Jacopo Francesco Riccati (28 mai 1676 à Venise - 15 avril 1754 à Trévise)
était un physicien et mathématicien italien, père de Vincenzo Riccati et de
Giordano Riccati.
Ses travaux en hydraulique (canaux de Venise) et en acoustique le conduisent
à résoudre des équations différentielles du second ordre en les réduisant au
1er ordre et plus généralement à rechercher des méthodes de séparation des
variables afin d’obtenir les solutions par simples quadratures. Ses travaux
furent publiés après sa mort par ses fils à partir de 1764 sous le titre Opere
del conte Jacopo Riccati. Il est en particulier connu pour l’équation de Ric-
cati.
Vincenzo Riccati est un mathématicien italien jésuite né en 1707 à Cas-
telfranco Veneto et mort en 1775 à Trévise . Il est le fils du mathématicien et
physicien Jacopo Riccati dont il a publié et prolongé les oeuvres. Il est parti-
culièrement connu pour son travail sur les équations différentielles (équation
de Riccati) et sa méthode de résolution par tractoire.
— Daniel Bernoulli (Groningue 9 février 1700 - Bâle 17 mars 1782) est un
médecin, physicien et mathématicien suisse. C’est le fils de Jean Bernoulli et
le neveu de Jacques Bernoulli.
Il cultiva à la fois les sciences mathématiques et les sciences naturelles,
enseigna les mathématiques, l’anatomie, la botanique et la physique. Ami
de Leonhard Euler, il travaille avec lui dans plusieurs domaines des mathé-
matiques et de la physique (il partagea avec lui dix fois le prix annuel de
l’Académie des sciences de Paris), qu’il s’en fit une sorte de revenu. Les diffé-
rents problèmes qu’il tente de résoudre (théorie de l’élasticité, mécanisme des
marées) le conduisent à s’intéresser et développer des outils mathématiques
tels que les équations différentielles ou les séries. Il collabore également avec
Jean le Rond d’Alembert dans l’étude des cordes vibrantes. Il fut le premier
à utiliser un symbole (A.S.) pour désigner la fonction arc sinus.
Il passe quelques années à Saint-Pétersbourg comme professeur de ma-
thématiques mais l’essentiel de sa carrière se déroule à l’université de Bâle
où il enseigne successivement l’astronomie, la médecine et la philosophie. Il
fut comme son père, membre des Académies de Paris, de Berlin, de Londres
et de Saint-Pétersbourg.

Vous aimerez peut-être aussi