Vous êtes sur la page 1sur 64

Analyse II

Département de Mathématiques
Université de Fribourg
Semestre de printemps 2009
Norbert Hungerbühler

Fribourg, janvier 2009


Table des matières

1 Séries de Fourier 1

1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.3 La convergence en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . 5

2 La topologie de IRn 11

2.1 Espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.3 Représentation graphique de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.4 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2.5 Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.6 Connexité et convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Différentiation 23

3.1 Courbes dans IRn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3.2 La différentielle totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.3 Dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.4 Quelques théorèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3.5 Dérivées partielles d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.6 Développement de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3.7 Extrema locaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4 Equations différentielles 45

4.1 Définitons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

4.2 Théorème d’existence et d’unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

4.3 Équations différentielles pour des fonctions à valeurs complexes . . . . . . . . . . . 50

iii
iv TABLE DES MATIÈRES

4.4 Méthodes élémentaires pour résoudre des équations


différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4.4.1 Séparation des variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4.4.2 L’équation linéaire y ′ = uy + v . . . . . . . . . . . . . . . . . . . . . . . . 52

4.5 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.6 Équations linéaires d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4.7 Systèmes linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . 57

4.8 Équations linéaires d’ordre n à coefficients constants . . . . . . . . . . . . . . . . . 59


Chapitre 1

Séries de Fourier

1.1 Notations

Définition 1.1 Une fonction f : IR → C est dite périodique de période p > 0 lorsque f (t+p) =
f (t) pour tout t ∈ IR.

1. A partir d’une fonction périodique f : IR → C de période p, on peut aisément construire une


p  2π 
fonction F : IR → C de période 2π, en posant F (t) := f t . Comme f (t) = F t , on
2π p
retrouve facilement f à partir de F . Il suffit donc de traiter des fonctions périodiques de période
2π. (Le choix de 2π est, en quelque sorte, arbitraire, mais nous envisageons un développement de
f en polynômes trigonométriques).

2. Pour inclure des fonctions f : [a, b] −→ C, définies sur l’intervalle compact [a, b] dans notre
théorie, il faut les prolonger en une fonction périodique fˆ : IR → C de période p := b − a en posant
fˆ(t + np) := f (t) pour tout t ∈ [a, b[, n ∈ Z. Si f (a) 6= f (b), nous remplaçons donc la valeur en b
par f (a).

Définition 1.2 Un polynôme trigonométrique est une fonction f : IR → C de la forme


n
a0 X
f (t) = + ak cos(kt) + bk sin(kt), ak , bk ∈ C,
2
k=1
resp.
n
X
f (t) = ck eikt , ck ∈ C.
k=−n

Lemme 1.3 1. Les constantes ak , bk resp. ck sont uniquements déterminées par f :


Z2π
1
ak = f (t) cos(kt) dt pour k = 0, . . . , n;
π
0
Z2π
1
bk = f (t) sin(kt) dt pour k = 0, . . . , n;
π
0
Z2π
1
ck = f (t)e−ikt dt, k = 0, ±1, . . . , ±n.

0

1
2 Séries de Fourier

2. Ces deux représentations sont équivalentes :

c0 = a0 /2
ck = (ak − ibk )/2 (k = 1, . . . , n)
c−k = (ak + ibk )/2 (k = 1, . . . , n)
a0 = 2c0 = c0 + c−0
ak = ck + c−k (k = 1, . . . , n)
bk = i(ck − c−k ) (k = 1, . . . , n)

Preuve
Ad 1. Cela suit immédiatement des égalités suivantes :

Z2π (
ikt 0 si k 6= 0
e dt = ∀k∈Z
2π si k = 0.
0
Z2π
cos(nt) sin(mt)dt = 0 ∀n, m ∈ IIN
0

Z2π 0
 si n 6= m
cos(nt) cos(mt)dt = π si n = m > 1


0 2π si n = m = 0
Z2π (
0 si n 6= m ou m = n = 0
sin(nt) sin(mt)dt =
π si n = m > 1
0

Ad 2. Utiliser eikt = cos kt + i sin kt et comparer les coefficients. 2

Nous noterons toujours le terme constant d’un polynôme trigonométrique sous la forme a0 /2 pour
obtenir une seule formule permettant de calculer tous les coefficients ak , k = 0, ..., n.

Définition 1.4 Soit f : IR → C une fonction périodique de période 2π et intégrable (au sens de
Riemann) sur [0, 2π]. Alors les polynômes trigonométriques
n n
a0 X  X
Sn (t) := + ak cos(kt) + bk sin(kt) = ck eikt , n ∈ IIN,
2
k=1 k=−n

où
Z2π
1
ak := f (t) cos(kt) dt, k = 0, ..., n
π
0
Z2π
1
bk := f (t) sin(kt) dt, k = 1, ..., n
π
0
Z2π
1
ck := f (t)e−ikt dt, k = 0, ±1, .., ±n

0

sont appelés polynômes de Fourier de f . Les coefficients ak , bk , resp. ck , s’appellent les coef-
ficients de Fourier de f . (Les intégrales existent car l’intégrant est le produit de deux fonctions
intégrables).
1.2 Exemples 3

Entre ak , bk et ck , les égalités de 1.3.2 sont toujours valables.



Les polynômes trigonométriques Sn , n ∈ IIN, forment une suite Sn n∈IIN
. Il est donc naturel de
considérer la série suivante :

Définition 1.5 La série


∞ +∞
a0 X  X
+ ak cos(kt) + bk sin(kt) = ck eikt
2
k=1 k=−∞

est appelée série de Fourier de f .

1.2 Exemples

Proposition 1.6

X sin(kt) π−t
h(t) := = ∀ t ∈ ]0, 2π[.
k 2
k=1

La série converge uniformément sur tout intervalle compact [δ, 2π − δ] avec δ ∈]0, π[. Aux points 0
et 2π, la série converge vers 0. (Voir les figures 1.1, 1.2 et 1.3)

y
π
2

x
−4π −3π −2π −π 0 π 2π 3π 4π
− π2

Fig. 1.1 – Prolongement périodique de h(t) entre −4π et 4π

y y y
π π π
2 2 2

x x x
0 π 2π 0 π 2π 0 π 2π
− π2 − π2 − π2

Fig. 1.2 – Les graphes de h(t) et S1 (t), S2 (t), S3 (t) entre 0 et 2π

y y y
π π π
2 2 2

x x x
0 π 2π 0 π 2π 0 π 2π
− π2 − π2 − π2

Fig. 1.3 – Les graphes de h(t) et S7 (t), S8 (t), S9 (t) entre 0 et 2π


4 Séries de Fourier

Preuve
Nous démontrons d’abord que
n 
1 X sin (n + 21 )t
+ cos(kt) =  :
2
k=1
2 sin 21 t

n n n
1 X 1 1 X ikt  1 X
+ cos(kt) = + e + e−ikt = eikt
2 2 2 2
k=1 k=1 k=−n

2n 1 1
e−int X it k e−int ei(2n+1)t − 1 1 ei(n+ 2 )t − e−i(n+ 2 )t
= e = = t t
2 2 eit − 1 2 ei 2 − e−i 2
k=0

1 sin (n + 21 )t
=  .
2 sin 12 t
Il s’ensuit que, pour t ∈]0, 2π[,

n Zt X
n Zt 
X sin(kt) sin (n + 21 )x 1
= cos(kx)dx = 1
 − dx
k 2 sin 2 x 2
k=1 π k=1 π

Zt 
sin (n + 12 )x t−π π−t
= 1
 dx − = + Φn (t),
2 sin 2 x 2 2
π

où
Zt 
sin (n + 21 )x
Φn (t) :=  dx.
2 sin 21 x
π

Nous voulons encore démontrer que Φn (t) n∈IIN converge uniformément sur [δ, 2π − δ] vers 0, où
δ ∈]0, π[ peut être arbitrairement choisi. En intégrant par parties, nous obtenons

 t Zt
− cos((n + 21 )x) cos((n + 21 )x) d 1 
Φn (t) = + dx =
2(n + 12 ) sin( 12 x) π
2(n + 2 ) dx sin( x2 )
1
π

Zt
− cos((n + 12 )t) cos((n + 21 )x) 12 cos( x2 )
− dx;
(2n + 1) sin( 12 t) (2n + 1) sin2 ( x2 )
π


Φn (t) 6 1 π−δ Mδ
δ
+ 2 δ = 2n + 1 ,
(2n + 1) sin( 2 ) 2(2n + 1) sin ( 2 )
où Mδ est une constante positive, dépendant de δ. Il s’ensuit que Φn (t) converge uniformément sur
[δ, 2π − δ] vers 0. 2

Proposition 1.7

X cos(kt) t − π 2 π 2
= − ∀ t ∈ [0, 2π].
k2 2 12
k=1

En particulier (poser t = 0) :

X 1 π2
2
= .
k 6
k=1
1.3 La convergence en moyenne quadratique 5

Preuve P∞
En dérivant la série terme à terme, nous obtenons − k=1 sin(kt)/k, i.e., au signe près, la série
de l’exemple précédent. Nous savons, par l’exemple précédent, que cette dernièreP∞série converge,
2
pour tout δ ∈]0, π[, uniformément
P∞ sur [δ, 2π − δ]
P∞vers h(t) := (π − t)/2. Comme k=1 1/k est une
2 2
majorante convergente de k=1 | cos(kt)|/k
P∞ , k=1 cos(kt)/k converge uniformément sur tout
IR. Par les constatations antérieures, k=1 cos(kt)/k 2 converge uniformément vers une fonction
g continue sur [0, 2π] et différentiable sur ]0, 2π[ telle que g ′ (t) = −h(t) = (t − π)/2 pour tout
t ∈]0, 2π[. Par conséquent,
∞ Z Z
X cos(kt) t−π t − π 2
g(t) = =− h(t)dt = dt = + c, c = const.
k2 2 2
k=1


X cos(kt)
La constante c peut être déterminée de la façon suivante : comme converge uni-
k2
k=1
formément sur [0, 2π],
Z2π ∞ Z2π
X 1
g(t)dt = cos(kt)dt = 0,
k2
0 k=1 0

i.e. Z  2π

t − π 2 (t − π)3
0= dt + c2π = + c2π,
0 2 12 0
i.e.  
1 π3 (−π)3 1 π3 π2
c=− − =− =− .
2π 12 12 2π 6 12

X cos(kt) t − π 2 π 2
Il s’ensuit que = − pour t ∈ [0, 2π].
k2 2 12
k=1

1.3 La convergence en moyenne quadratique

Nous allons introduire, par la suite, la notion de convergence en moyenne quadratique, qui nous
permettra de formuler un rapport raisonnable entre fonctions et leurs série de Fourier.

Considérons l’espace vectoriel complexe V des fonctions f : IR → C périodiques de période 2π à


valeurs complexes, définies sur IR, dont la restriction sur l’intervalle [0, 2π] est intégrable au sens
de Riemann.

Définition 1.8
Z2π
1
hf, gi := f (x)g(x) dx, pour f, g ∈ V,

0
p
kf k := hf, f i.

Ces définitions sont raisonnables, parce que f¯g ∈ V et hf, f i ∈ IR>0 si f, g ∈ V . Les applications

h·, ·i : V × V → C, k · k : V → IR>0

ont les propriétés suivantes :

Lemme 1.9 1. h.., ..i est sesquilinéaire , i.e. pour tout f , g ∈ V , λ ∈ C on a :


(a) hf + g, hi = hf, hi + hg, hi,
6 Séries de Fourier

(b) hf, g + hi = hf, gi + hf, hi,


(c) hλf, gi = λhf, gi, hf, λgi = λhf, gi,
2. hf, gi = hg, f i pour tout f , g ∈ V ,
3. hf, f i > 0 pour tout f ∈ V ,
4. Si f est continue, alors hf, f i = 0 ⇔ f = 0.
5. kλf k = |λ| · kf k, pour tout λ ∈ C, f ∈ V ,
6. kf + gk 6 kf k + kgk,
7. kf k > 0,
8. Si f ∈ V est continue, alors kf k = 0 ⇔ f = 0.

Si nous identifions deux fonctions f , g ∈ V lorsqu’elles ne se distinguent que par une fonction
h := g − f telle que hh, hi = 0, h.., ..i devient un produit scalaire sur V et k..k une norme au sens
habituel de l’algèbre linéaire.

Définition 1.10 Deux éléments f, g ∈ V sont orthogonaux, si hf, gi = 0.

Lemme 1.11 (Pythagore) Si f, g ∈ V sont orthogonaux, alors


kf + gk2 = kf k2 + kgk2 .

Preuve

kf + gk2 = hf + g, f + gi = hf, f i + hf, gi + hg, f i + hg, gi = hf, f i + hg, gi = kf k2 + kgk2 .


2

Lemme 1.12 1. Les fonctions ek : IR → C, ek (t) := eikt , k ∈ Z, forment un système ortho-


normal dans V , c’est-à -dire que l’on a (comme em imt = e−imt ))
k (t) = e
Z 2π
1
hem , en i = ei(n−m)t dt = δmn
2π 0
(symbole de Kronecker) pour tout m, n ∈ Z.

R
1
2. Soient ck = 2π f (t)e−ikt dt les coefficients de Fourier de f ; alors ck = hek , f i.
0

Rappellons que, pour f ∈ V et n ∈ IIN :


n
X
Sn (f ) := ck ek avec ck := hek , f i.
k=−n

Comme les ek forment un système orthonormal, nous obtenons que


2
X n n
X n
X
kSn (f )k2 = kck ek k2 = |ck |2 .

ck ek = (∗)

k=−n k=−n k=−n

Proposition 1.13 Soit f ∈ V et n ∈ IIN. Alors


1. Sn (f ) est orthogonal à f − Sn (f ) et
n
X
kf − Sn (f )k2 = kf k2 − kSn (f )k2 = kf k2 − |ck |2 .
k=−n
1.3 La convergence en moyenne quadratique 7
P P
2. |ck |2 6 kf k2 , donc la série |ck |2 converge !
k∈Z k∈Z

Preuve
Ad 1.

hSn (f ), f − Sn (f )i = hSn (f ), f i − hSn (f ), Sn (f )i


* n + * n n
+
X X X
= ck ek , f − ck ek , ck ek
k=−n k=−n k=−n
n
X n
X
= ck hek , f i − hck ek , ck ek i
k=−n k=−n
Xn n
X
= ck ck − ck ck
k=−n k=−n
= 0.

Selon le lemme 1.11 et (∗) on obtient


n
X

kf k2 = k f − Sn (f ) + Sn (f )k2 = kf − Sn (f )k2 + kSn (f )k2 = kf − Sn (f )k2 + |ck |2 ,
k=−n
Pn
d’où découle 1. Comme kf − Sn (f )k > 0, on obtient que k=−n |ck |2 6 kf k pour tout n, donc

X n
X
|ck |2 = lim |ck |2 6 kf k2 . 2
n→∞
k∈Z k=−n

X
Conséquence 1.14 lim kf − Sn (f )k = 0 ⇐⇒ kf k2 = |ck |2 .
n→∞
k∈Z


Définition 1.15 Pour fn , f ∈ V , n ∈ IIN, on dit que la suite fn converge en moyenne n∈IIN

X
quadratique vers f lorsque lim ||fn − f || = 0. De même, on dit que la série fn converge
n→∞
n=0
en moyenne quadratique vers f lorsque
N

X

lim f − fn = 0.
N →∞
n=0

Lemme 1.16 Une série uniformément convergente sur l’intervalle compact [0, 2π] y converge en
moyenne quadratique. La réciproque est fausse.

Preuve
Soit k k∞ la norme du supremum. Si f est intégrable (au sens de Riemann), on a
Z 2π
2 1
kf k = |f |2 dt 6 kf k2∞ .
2π 0 |{z}
6kf k2∞
P∞
Si maintenant f = n=0 fn uniformément, alors
2 2
N
X N
X

f − fn 6 f − fn → 0 pour N → ∞. 2

n=0 n=0 ∞
8 Séries de Fourier

Théorème 1.17 Pour une fonction f ∈ V , sa série de Fourier



X 
c0 + ck eikt + c−k e−ikt
k=1

converge en moyenne quadratique vers f .

Preuve
Nous procédons en 3 étapes.

1. Nous traitons d’abord le cas spécial de la fonction de période 2π


(
1 pour 0 6 t < a,
fa : IR −→ IR, a ∈]0, 2π], fa (t) :=
0 pour a 6 t < 2π.


X 
Selon 1.14, la série de Fourier associée c0 + ck eikt +c−k e−ikt converge en moyenne quadratique
k=1
+∞
X
vers f si, et seulement si, |ck |2 = ||fa ||2 .
k=−∞

Calculons d’abord les coefficients ck :


Za
a 2 a2 1 1 i −ika
c0 = , |c0 | = , ck = e−ikt dt = (e − 1) pour k 6= 0 dans Z,
2π 4π 2 2π 2π k
0

1 1 1 − cos(ka)
donc |ck |2 = 2 2
(1−eika )(1−e−ika ) = 2 2
(2−2 cos(ka)) = . Donc (nous utilisons
4π k 4π k 2π 2 k 2
le lemme 1.18 et la proposition 1.7)
+∞ ∞
X a2 X 1 − cos(ka)
|ck |2 = +
4π 2 π2 k2
k=−∞ k=1
2 ∞ ∞
a 1 X 1 1 X cos(ka)
= + −
4π 2 π2 k2 π2 k2
k=1 k=1
 
a2 1 π2 1 (π − a)2 π2
= + − −
4π 2 π2 6 π2 4 12
Z2π
a 1
= = |fa (t)|2 dt = ||fa ||2 .
2π 2π
0

2. Nous traitons maintenant le cas spécial des fonctions en escalier de période 2π


N
X
T : IR → C, T = γj faj ,
j=1

(
1 pour 0 6 t < aj ,
où 0 < a1 < ... < aN 6 2π, γj ∈ C pour j = 1, ..., N et faj (t) := (comme
0 pour aj 6 t < 2π
pour le cas spécial précédent).
N
X N
X

kT − Sn (T )k = k γj faj − Sn (faj ) k 6 |γj | · kfaj − Sn (faj )k → 0 pour n → ∞
j=1 j=1
1.3 La convergence en moyenne quadratique 9

selon la première étape.

3. Soit enfin f : IR → C une fonction dans V quelconque. Nous pouvons traiter les parties réelle et
imaginaire de f séparément. Nous pouvons donc nous restreindre aux fonctions à valeurs réelles.

Soit ε > 0 donnée. Comme f est bornée, nous pouvons supposer que |f (t)| 6 M pour tout t ∈ IR.
Nous allons démontrer que il existe n0 ∈ IIN tel que ||f − Sn (f )|| < ε pour tout n > n0 .

Comme f est intégrable au sens de Riemann, il existe deux fonctions en escalier de période 2π
ϕ, ψ : IR → IR telles que
Z 2π
ε2 π
−M 6 ϕ 6 f 6 ψ 6 M, (ψ − ϕ) dt < .
0 4M

Alors

kf − Sn (f )k = k(f − ϕ) + ϕ − Sn (f − ϕ) − Sn (ϕ)k
6 k(f − ϕ) − Sn (f − ϕ)k + kϕ − Sn (ϕ)k
| {z } | {z }
=:An =:Bn

Posons g := f − ϕ > 0 ; comme g 6 ψ − ϕ, nous obtenons que



g 2 6 (ψ − ϕ)2 6 |ψ| + |ϕ| (ψ − ϕ) 6 2M (ψ − ϕ),

donc (avec la proposition 1.13)


Z 2π Z 2π
1 M ε2
A2n 2
= kg − Sn (g)k 6 kgk = 2 2
g dt 6 (ψ − ϕ)dt < ,
2π 0 π 0 4

c.-à-d. An < ε/2 pour tout n. Selon la deuxième étape, Bn < ε/2 pour n > n0 , donc kf −Sn (f )k < ε
pour n > n0 . 2


P
Lemme 1.18 Soit ak une série absolument convergente. Alors
k=0


X ∞
X ∞
X
ak = a2k + a2k+1 .
k=0 k=0 k=0

Preuve

P ∞
P
Les séries a2k et a2k+1 convergent absolument, donc elles convergent. Donc on a
k=0 k=0


X ∞
X ∞
X ∞
X
a2k + a2k+1 = a2k + a2k+1 = ak . 2
k=0 k=0 k=0 k=0

Pour des séries de Fourier de fonctions de période 2π qui sont « continûment différentiables par
morceaux », on peut établir des critères de convergence plus puissants.

Définition 1.19 Une fonction f : [a, b] −→ C est dite continue par morceaux lorsqu’il existe
des points a = a0 < . . . < aN = b dans [a, b] tels que

1. f est continue pour ν = 1, ..., N ;
]aν−1 ,aν [
2. f (aν + ) := lim f (t) existe pour ν = 0, . . . , N − 1,
t↓aν
f (aν − ) := lim f (t) existe pour ν = 1, . . . , N .
t↑aν
10 Séries de Fourier

f est dite continûment différentiable par


morceaux si, en plus, il existe une fonction continue
par morceaux ϕ : [a, b] −→ C telle que f ]a ,a [ soit continûment différentiable et f ′ ]a ,a [ =
ν−1 ν ν−1 ν

ϕ pour ν = 1, . . . , N .
]aν−1 ,aν [

Proposition 1.20 La série de Fourier d’une fonction f : IR → C continue de période 2π qui est
continûment différentiable par morceaux sur [0, 2π] converge uniformément vers f . Elle converge
aussi absolument sur [0, 2π].

Preuve
+∞
P
Nous démontrons d’abord que la série de Fourier ck eikt de f converge absolument et uni-
k=−∞
formément vers une fonction continue g.

Par hypothèse,
il existe des points 0 = a0 < a1 < ... < aN −1 < aN = 2π dans [0, 2π] tels que
ϕν = f ′ ]a ,a [ existe et admet un prolongement continu en aν−1 et aν . Nous définissons alors
ν−1 ν
une fonction ϕ : IR → C continue par morceaux, de période 2π, en posant ϕ := ϕν pour [aν−1 ,aν [
ν = 1, . . . , N . La fonction ϕ est intégrable au sens de Riemann et ses coefficients de Fourier γk ,
+∞
P
k ∈ Z, sont tels que |γk |2 6 ||ϕ||2 < ∞. Les coefficients de Fourier ck , k 6= 0, de f se calculent
k=−∞
maintenant de la façon suivante :

Z2π N Zaν
1 −ikt 1 X
ck = f (t)e dt = f (t)e−ikt dt.
2π 2π ν=1
0 aν−1

Effectuons une intégration par parties :


Zaν  aν Zaν
−ikt i i
f (t)e dt = f (t)e−ikt − ϕ(t)e−ikt dt.
k aν−1 k
aν−1 aν−1

Donc
 2π Z2π
i i i
ck = [f (t)e−ikt − ϕ(t)e−ikt dt = − γk .
2πk 0 2πk k
0
+∞
P +∞
P
Comme |γk |2 converge, il en est de même pour |ck |, parce que |ck | = |γk |/k 6 1/k 2 +
k=−∞ k=−∞
+∞
P +∞
P
|γk |2 . Nous obtenons ainsi une majorante constante pour |ck eikt |, c’est-à -dire que ck eikt
k=−∞ k=−∞
converge absolument et uniformément sur IR vers une fonction continue de période 2π g : IR → C.
+∞
P
Par ce qui précède, ck eikt converge aussi en moyenne quadratique vers la fonction continue g.
k=−∞
Par la proposition 1.17, cette série converge aussi en moyenne quadratique vers la fonction continue
f . Donc ||f − g|| = 0. Comme f et g sont continues, f = g. 2
Chapitre 2

La topologie de IRn

2.1 Espaces métriques

Pour les définitions de la convergence d’une suite de nombres réels ou complexes et de la continuité
d’une fonction réelle ou complexe, la notion de la distance d(x, y) := |x − y| est fondamentale.
Commençons donc par une généralisation de cette distance :

Définition 2.1 Une métrique sur l’ensemble X(6= ∅) est une fonction d : X × X → IR ayant les
propriétés suivantes :
1. d(x, y) > 0 pour tout x, y ∈ X, et d(x, y) = 0 ⇐⇒ x = y.
2. d est symétrique : d(x, y) = d(y, x) pour tout x, y ∈ X.
3. On a l’inégalité du triangle : d(x, z) 6 d(x, y) + d(y, z) pour tout x, y, z ∈ X.
Le couple (X, d) est appelé un espace métrique, mais nous parlons aussi simplement de l’espace
métrique X et de sa métrique d.

Exemple 2.2 1. X = IR resp. C, avec d(x, y) := |x − y|.


(
0 pour x = y,
2. Soit X arbitraire et d(x, y) :=
1 pour x 6= y.
3. X = {f : [a, b] → IR; f continue} avec d(f, g) := max |f (x) − g(x)|.
a6x6b

4. Soit (X, dX ) un espace métrique et A ⊂ X. Alors (A, dA ) avec

dA := restriction de dX sur A × A (« métrique induite »)

est un espace métrique.

Une classe importante d’espaces métriques est celle des espaces vectoriels normés, à laquelle ap-
partiennent aussi les exemples 2.2.1 et 2.2.3 :

Définition 2.3 Soit V un espace vectoriel réel ou complexe. (Nous écrivons IK pour son corps de
scalaires.) Une norme sur V est une fonction k k : V → IR avec les propriétés suivantes :
1. kxk > 0 pour tout x ∈ V , et kxk = 0 ⇐⇒ x = 0.
2. kλxk = |λ| · kxk pour tout x ∈ V et tout λ ∈ IK.

11
12 La topologie de IRn

3. kx + yk 6 kxk + kyk pour tout x, y ∈ V .

Lemme 2.4 Soit V un espace vectoriel euclidien ou hermitien, avec produit scalaire h , i. Alors
p
kxk := hx, xi

est une norme sur V . Si V est de dimension finie, et si e1 , e2 , . . . , en forment une base orthonormale
de V , alors on a la formule suivante :
v
u n n
uX X
kxk = t xi 2 pour x = xi ei .
i=1 i=1

Lemme 2.5 Soit V un espace vectoriel réel ou complexe avec une norme k k. Alors

d(x, y) := kx − yk

est une métrique sur V qui est invariante par translation, c’est-à-dire que d(x + a, y + a) = d(x, y)
pour tout x, y, a ∈ V .

Conséquence 2.6 Tout espace vectoriel V muni d’un produit scalaire, admet une métrique cano-
nique correspondante p
d(f, g) = kf − gk = hf − g, f − gi.

Donc, on a :
produit scalaire → norme → métrique.

Exemple 2.7 Sur V = IRn nous utilisons le produit scalaire canonique et écrivons k keu pour la
norme euclidienne correspondante :
v
u n
uX
k(x1 , . . . , xn )keu = t xi 2 .
i=1

En plus, nous avons la norme du maximum, qui est définie par

k(x1 , . . . , xn )kmax := max |xi |,


16i6n

et la norme de la somme
n
X
k(x1 , . . . , xn )kΣ := |xi |.
i=1

Exemple 2.8 Soit 1 6 n ∈ IIN et


  
 a11
 ··· a1n 

V := Mn (C) =  ... ..  ; a ∈ C

 .  µν

 
an1 ··· ann
l’espace vectoriel des matrices n × n sur C. Alors
n
!
X
k(aµν )16µ,ν6n k := max |aµν |
16µ6n
ν=1

est une norme sur V . Elle a la propriété suivante :

kA · Bk 6 kAk · kBk ∀A, B ∈ V


2.2 Convergence 13

Preuve
voir les exercices. 2

Définition 2.9 Soit (X, d) un espace métrique. La boule de rayon r > 0 autour de x ∈ X est
l’ensemble
Br (x) := {y ∈ X; d(x, y) < r}.
U ⊂ X est un voisinage de x : ⇐⇒ Br (x) ⊂ U pour un certain r > 0.
U ⊂ X est ouvert (dans X) : ⇐⇒ U est un voisinage de chaque point x ∈ U (nous écrivons
U⊂o X).
A ⊂ X est fermé (dans X) : ⇐⇒ l’ensemble complémentaire U = X \ A est ouvert.

2.2 Convergence

La définition de la convergence dans un espace métrique est formellement la même que la notion
de la convergence dans IR :

Définition 2.10 Soit (xn )n∈IIN une suite dans l’espace métrique X.
On dit qu’elle converge vers x ∈ X (et on écrit x = limn→∞ xn )

⇐⇒ pour tout voisinage U de x dans X, il existe un n0 ∈ IIN tel que


xn ∈ U pour tout n > n0
⇐⇒ pour tout ε > 0, il existe un n0 ∈ IIN tel que d(xn , x) < ε pour tout n > n0

Exemple 2.11 lim xn = x ⇐⇒ lim d(xn , x) = 0.


n→∞ n→∞

Proposition 2.12 Soit (xn )n∈IIN une suite convergente dans l’espace métrique X. Sa limite est
alors unique.

Preuve
Supposons que lim xn = x et lim xn = y. Alors, pour tout ε > 0, il existe un n ∈ IIN t.q. d(x, xn ) < 2ε
et d(y, xn ) < 2ε . Donc
ε ε
d(x, y) 6 d(x, xn ) + d(xn , y) < + = ε
2 2
pour tout ε > 0, donc d(x, y) = 0, donc x = y. 2

Proposition 2.13 Soit V un espace vectoriel avec norme k k, muni de la métrique correspon-
dante. Soit (xn )n∈IIN une suite dans V et soit x ∈ V . Alors :

xn → x ⇐⇒ kx − xn k → 0

Preuve
On a xn → x ⇐⇒ d(xn , x) = kx − xn k → 0. 2

Conséquences 2.14 Soit (xk )k∈IIN une suite dans IRn et a ∈ IRn . Alors, pour chacune des normes
k keu , k kmax et k kΣ , on a (avec xk = (xk,1 , . . . , xk,n ), a = (a1 , . . . , an ))

a = lim xk ⇐⇒ aν = lim xk,ν pour 1 6 ν 6 n.


14 La topologie de IRn

Proposition 2.15 Soit X un espace métrique et A ⊂ X. Alors :


 
A est fermé (dans X) ⇐⇒ A ∋ xk → x ∈ X =⇒ x ∈ A .

Preuve
« =⇒ » Supposons que x 6∈ A. Alors x ∈ U := X \ A ⊂ o X, donc il existe ε > 0 t.q. x ∈ Bε (x) ⊂ U ,
donc xk ∈ Bε (x) ⊂ U pour k > k0 . Ceci contredit le fait que xk ∈ A pour tout k. /−/
v
« ⇐= » U := X \ A est ouvert dans X : sinon il existe un x ∈ U pour lequel B1/n (x) 6⊂ U pour
tout n ∈ IIN>0 , donc il existe A ∩ B1/n (x) ∋ xn → x 6∈ A. /−/ . 2
v

Définition 2.16 Soit M un sous–ensemble de l’espace métrique X. On appelle


– x ∈ M point intérieur de M : ⇐⇒ M est un voisinage de x ;

M := {x ∈ M ; x point intérieur de M } est l’intérieur de M ;
– x ∈ X point adhérent à M : ⇐⇒ M ∩ U 6= ∅ pour tout voisinage U de x ;
M := {x ∈ X; x adhérent à M } est l’adhérence de M ;
– x ∈ X point frontalier de M : ⇐⇒ x ∈ M ∩ X \ M ;
∂M := {x ∈ X; x point frontalier de M } est la frontière ou le bord de M ;
– x ∈ X point d’accumulation de M : ⇐⇒ x ∈ M \ {x} ;
– x ∈ M point isolé de M : ⇐⇒ x possède un voisinage U dans X avec U ∩ M = {x}.

Proposition 2.17 Soit M un sous–ensemble de l’espace métrique X. Alors



1. M = M \ ∂M ,
2. M = M ∪ ∂M ,

3. ∂M = M \ M ,

4. M est le plus grand ouvert de X qui est contenu dans M , c’est-à-dire
◦ [
M= U
M ⊃U ⊂
o X

5. M est le plus petit fermé de X qui contient M , c’est-à-dire


\
M= A.
M ⊂A=A⊂X

Exemple 2.18 Soit X = IR2 , M := {(x1 , x2 ); x1 > 0, x2 > 0}. Alors



M = {(x1 , x2 ); x1 > 0, x2 > 0}
M = {(x1 , x2 ); x1 > 0, x2 > 0}
∂M = {(x1 , x2 ); (x1 > 0 et x2 = 0) ou (x2 > 0 et x1 = 0)}

Proposition 2.19 Soit X un espace métrique et A ⊂ X. Alors :

A = {x ∈ X; il existe une suite (xn )n∈IIN dans A t.q. x = lim xn }


n→∞

Preuve
« ⊂ » : Si x ∈ A, alors B1/n (x) ∩ A 6= ∅ pour tout n > 0 ; donc il existe xn ∈ B1/n (x) ∩ A pour
tout n > 0. Alors xn → x, p.q. d(x, xn ) < 1/n → 0.
« ⊃ » : Lorsque A ∋ xn → x, alors U ∩ A 6= ∅ pour tout voisinage U de x, donc x ∈ A. 2
2.2 Convergence 15

Conséquences 2.20 Soit X un espace métrique et A ⊂ X. Alors


1. A est fermé.
2. A est fermé ⇐⇒ A = A.

Preuve
Ad 1. Supposons A ∋ yk → y. Selon 2.19, pour tout k il existe xk ∈ A avec d(xk , yk ) < k1 . Alors
A ∋ xk → y, donc y ∈ A selon 2.19.
Ad 2. « =⇒ » c’est une conséquence de 2.19 et 2.15. « ⇐= » Si A = A, alors A est fermé selon
1. 2

Définition 2.21 Une suite (xn )n∈IIN dans un espace métrique (X, d) est appelée suite de Cauchy
(ou suite fondamentale ) : ⇐⇒ pour tout ε > 0 il existe un n0 ∈ IIN tel que

d(xm , xn ) < ε pour tout m, n > n0 .

L’espace métrique (X, d) est complet : ⇐⇒ toute suite de Cauchy dans X converge (dans X).

Exemple 2.22 Soit X :=]0, 1] ⊂ IR avec la métrique usuelle. Alors la suite (1/n)n>1 est une suite
de Cauchy dans X, qui ne converge pas dans X, donc X n’est pas complet.

Définition 2.23 Un espace vectoriel normé (V, k k) est appelé espace de Banach : ⇐⇒ V est
complet pour la métrique induite par la norme, d(x, y) := kx − yk.
Lorsque cette norme est la norme euclidienne dans un espace vectoriel euclidien (ou hermitien),
on parle d’un espace de Hilbert.

Exemple 2.24 (IRn , k kmax ) est un espace de Banach.

Preuve
Soit (xk )k∈IIN une suite dans IRn (k n’est pas un exposant, mais un indice), avec xk = (xk1 , . . . , xkn ).
La suite (xk )k∈IIN est alors une suite de Cauchy si et seulement si les suites (xkj )k∈IIN , j = 1, . . . , n,
sont des suites de Cauchy dans IR. De plus, x = (x1 , . . . , xn ) = lim xk si et seulement si xj =
k→∞
lim xkj pour j = 1, . . . , n. 2
k→∞

Problème : Si l’on munit IRn d’une autre norme, par exemple de la norme euclidienne, est-il
encore un espace de Banach (resp. dans ce cas, de Hilbert) ? La réponse est affirmative, car toutes
les normes sur IRn sont équivalentes :

Définition 2.25 Deux métriques d1 , d2 sur un ensemble X sont équivalentes : ⇐⇒ il existe des
constantes c12 , c21 > 0 avec

d1 (x, y) 6 c12 d2 (x, y) et d2 (x, y) 6 c21 d1 (x, y) pour tout x, y ∈ X.

Deux normes k k1 , k k2 sur un espace vectoriel réel ou complexe V sont équivalentes : ⇐⇒ les
métriques induites sont équivalentes, c’est-à-dire qu’il existe c12 , c21 > 0 avec

kxk1 6 c12 kxk2 et kxk2 6 c21 kxk1 pour tout x ∈ V.

Théorème 2.26 Soient d1 , d2 deux métriques équivalentes sur X. Alors, les ensembles ouverts
resp. fermés sont les mêmes pour (X, d1 ) et (X, d2 ), et les mêmes suites convergent pour les deux
métriques.
16 La topologie de IRn

Preuve
On voit facilement que chaque d1 –voisinage de x ∈ X est aussi un d2 –voisinage, et vice versa.
2

Exemple 2.27 Sur IRn , les normes k kmax , k keu et k kΣ sont équivalentes.

Preuve
Soit kxkmax = |xk |. Alors
v
q u n n
uX X
kxkmax = x2k 6 t x2 r 6 |xν | 6 nkxkmax .
r=1 ↑ ν=1
| {z } | {z }
(∗)
=kxkeu =kxkΣ

Preuve de (∗) :
2
(|x1 | + . . . + |xn |) = x21 + . . . + x2n + |{z}
... > x21 + . . . + x2n . 2
>0

On verra plus tard, que sur IRn (donc, sur tout espace vectoriel de dimension finie) toutes les
normes sont équivalentes ; pour l’instant nous supposons IRn toujours muni de l’une des trois
normes mentionnées.

Sur des espaces vectoriels de dimension infinie, il y a des exemples de normes non équivalentes :

1
Rb
Exemple 2.28 Sur V := C 0 ([a, b], C), les deux normes kf kmax et kf k1 := b−a a
|f (t)| dt ne
sont pas équivalentes : on a kf k1 6 kf kmax pour tout f ∈ V , mais il n’existe pas un c > 0 t.q.
kf kmax 6 ckf k1 pour tout f ∈ V .

Voici un critère important de convergence :

P∞
Proposition 2.29 Soit (V, k k) un espace de Banach, et soit ν=0 xν une série dans V telle

P P∞
que la série kxν k converge dans IR. Alors, ν=0 xν converge dans V , et
ν=0
∞ ∞
X X

xν 6 kxν k. (∗∗)

ν=0 ν=0

(On parle de convergence normale. Dans le cas spécial dim V = 1 il s’agit de la convergence
absolue d’une série de nombres réels.)

Preuve Pq
Pour ε > 0, il existe n0 t.q. ν=p kxν k < ε pour n0 < p < q. Donc
q q
X X

xν 6 kxν k < ε
ν=p ν=p
Pn
pour ces p et q, donc la suite ( ν=0 xν )n∈IIN des sommes partielles est une suite de Cauchy dans
V , donc elle converge, p.q. V est complet. Selon 2.13, on a que

Xn X∞

lim xν = xν .
n→∞
ν=0 ν=0
2.3 Représentation graphique de fonctions 17

Comme
Xn X n ∞
X
n→∞
xν 6 kxν k −−−−−→ kxν k,

ν=0 ν=0 ν=0

on a (∗∗). 2

Comme application, nous obtenons :

Théorème 2.30 Soit A = (aµν )16µ,ν6n une matrice n × n complexe. Alors, la série

X 1 ν
exp(A) := A
ν=0
ν!

converge dans V = Mn (C) (pour les notations et la norme voir exemple 2.8).

Preuve
D’après l’inégalité dans l’exemple 2.8 on a
∞ ∞
X 1 ν X 1
A 6
ν! kAkν = exp(kAk) < ∞.
ν=0 ν=0
ν!
P∞ 1 ν
Donc ν=0 ν! A converge selon 2.29. 2

2.3 Représentation graphique de fonctions

Il y a deux manières de représenter les fonctions de deux variables :

Définition 2.31 Soient U ⊂ IR2 et f : U → IR une fonction. Alors on appelle


n  o
Gf := x, f (x) ; x ∈ U ⊂ IR2 × IR = IR3

le graphe de f . — Pour c ∈ IR, on appelle

Nc := {x ∈ U ; f (x) = c} ⊂ U

une courbe de niveau de f .

Exemple 2.32 Pour les fonctions x21 + x22 , x21 − x22 , et sin(x1 ) sin(x2 ) on obtient :

2.4 Continuité

Comme pour la convergence, la définition de la continuité est essentiellement la même pour les
applications entre espaces métriques que pour les fonctions réelles :

Définition 2.33 Une application entre espaces métriques f : X → Y est continue en x ∈ X


⇐⇒ pour tout ε > 0 il existe un δ > 0 tel que f (Bδ (x)) ⊂ Bε (f (x)) (voir la figure 2.2)
⇐⇒ pour tout voisinage U de f (x) dans Y , f −1 (U ) est un voisinage de x dans X.
18 La topologie de IRn

y y y

x x x

Fig. 2.1 – Le graphe et les courbes de niveau de quelques fonctions

Proposition 2.34 L’application entre espaces métriques f : X → Y est continue au point x ∈


X ⇐⇒ lim f (xn ) = f (x) pour toute suite (xn )n∈IIN dans X avec x = lim xn .
n→∞ n→∞
On écrit lim f (ξ) = f (x).
ξ→x

Proposition 2.35 L’application entre espaces métriques f : X → Y est continue (c’est-à-dire


continue en chaque point de X) ⇐⇒ pour tout ouvert U ⊂ o Y , f −1 (U ) est ouvert dans X.

Preuve
=⇒ : U ⊂ o Y, x ∈ f −1 (U ) =⇒ U est un voisinage de f (x) =⇒ f −1 (U ) est un voisinage de x.
⇐= : Soit x ∈ X et ε > 0 ; =⇒ Bε (f (x)) ⊂ o Y =⇒ f −1 (Bε (f (x))) ⊂ o X, et c’est donc un
voisinage du point x dans X, c’est-à-dire qu’il existe un δ > 0 avec Bδ (x) ⊂ f −1 (Bε (f (x))), donc
f (Bδ (x)) ⊂ Bε (f (x)). 2

f
Y

X
x f (x)
Bδ (x) f (Bδ (x))

Bε (f (x))

Fig. 2.2 – Continuité de f en x


2.5 Compacité 19

Proposition 2.36 La composition g ◦ f d’applications continues entre espaces métriques f : X →


Y et g : Y → Z est continue.

L’étude de la continuité d’une application f : X → IRm se ramène à l’étude de la continuité de ses


fonctions composantes :

Proposition 2.37 Une application f = (f1 , . . . , fm ) : X → IRm , où X est un espace métrique, est
continue (en x ∈ X) ⇐⇒ ses fonctions composantes fj : X → IR, j = 1, . . . , m, sont continues
(en x).

Preuve
C’est trivial pour la norme k kmax sur IRm . 2

Exemples 2.38 (Exemples d’applications continues) 1. f : IRn → IRm , f ≡ const : tri-


vial !
2. f : IRn → IRm linéaire : Il suffit de prouver la continuité en 0, car

kf (x) − f (y)k = kf (x − y)k = kf (x − y) − f (0)k :


n
P n
P
Soit (e1 , . . . , en ) la base canonique de IRn , et soit x = xi ei ; alors kf (x)k = k xi f (ei )k 6
i=1 i=1
n
P n
P n
P
kxi f (ei )k = |xi | · kf (ei )k 6 ckxkmax , où la constante c = kf (ei )k ne dépend pas de
i=1 i=1 i=1
x ; donc f (B εc (0)) ⊂ Bε (f (0)) pour tout ε > 0. (D’après notre preuve, la norme utilisée sur
IRm ne joue aucun rôle ! Mais l’utilisation de k kmax sur IRn n’est pas essentielle non plus ;
elle est commode, mais le résultat reste vrai en général à cause de l’équivalence de toutes les
normes sur IRn que nous démontrerons plus tard.)

Définition 2.39 La suite (fn )n∈IIN d’applications fn : X → Y entre deux espaces métriques
converge uniformément vers f : X → Y si pour tout ε > 0 il existe un n0 ∈ IIN tel que
d(fn (x), f (x)) < ε pour tout n > n0 et pour tout x ∈ X. (Le même n0 fait donc l’affaire simul-
tanément pour tous les x ∈ X !)

Théorème 2.40 Soit (fn )n∈IIN une suite d’applications continues fn : X → Y entre deux espaces
métriques, qui converge uniformément. Alors, f = limn→∞ fn est aussi continue.

Preuve
Soit x ∈ X, et soit ε > 0 ; il existe alors un n0 ∈ IIN tel que d(fn (ξ), f (ξ)) < 3ε pour tout n > n0 et
tout ξ ∈ X, et il existe un δ > 0 tel que d(fn0 (ξ), fn0 (x)) < 3ε pour tout ξ ∈ Bδ (x) ; donc

d(f (ξ), f (x)) 6 d(f (ξ), fn0 (ξ)) + d(fn0 (ξ), fn0 (x)) + d(fn0 (x), f (x)) < ε

pour tout ξ ∈ X avec d(ξ, x) < δ. 2

2.5 Compacité

Pour les fonctions continues d’une variable réelle ou complexe nous avons vu le rôle important que
jouent les sous-ensembles compacts de IR resp. C. On peut définir la notion de compacité pour des
espaces métriques :
20 La topologie de IRn

Définition 2.41 (Définition et proposition) Une partie A ⊂ X d’un espace métrique X est
compacte, si les conditions suivantes équivalentes sont satisfaites :
1. Toute suite dans A admet une sous-suite, qui converge vers un point de A.
2. Toute suite dans A admet un point d’accumulation dans A.
L’espace métrique X est compact, si A := X ⊂ X est une partie compacte de X.

L’équivalence se démontre comme dans le cours d’Analyse I.

Pour X = IRn , on a le théorème suivant :

Théorème 2.42 Une partie A ⊂ IRn est compacte, si et seulement si les conditions suivantes
équivalentes sont satisfaites :
1. A est fermé et bornée.
2. Toute suite dans A admet une sous-suite, qui converge vers un point de A.
3. Toute suite dans A admet un point d’accumulation dans A.

Preuve
(1) =⇒ (2) : Soit (xk )k∈IIN une suite dans A. Cette suite possède une suite partielle pour laquelle
toutes les suites des ν-ièmes composantes (1 6 ν 6 n) convergent dans IR ; cette suite partielle
converge dans IRn . Comme A est fermé, cette limite est dans A.
(2) =⇒ (1) : si A n’est pas fermé, il existe une suite (xk )k∈IIN dans A qui converge vers un point
x 6∈ A. Alors (b) est faux pour cette suite. Si A n’est pas borné, alors A contient une suite non
bornée. Cette suite ne contient aucune suite partielle convergente. 2

Exemple 2.43 Soit (xn )n∈IIN une suite convergente dans IRn et x = limn→∞ xn sa limite. Alors
K := {xn ; n ∈ IIN} ∪ {x} est compact.

Proposition 2.44 Soit K un sous–ensemble compact de l’espace métrique X. Alors, tout sous–
ensemble fermé A ⊂ K est aussi compact.

Une propriété importante de la compacité est son invariance sous des applications continues :

Théorème 2.45 Soit K ⊂ X compact et f : X → Y une application continue entre espaces


métriques. Alors l’image f (K) est aussi compact.

Preuve
Soit (yk )k∈IIN une suite dans f (K). Soit yk = f (xk ) avec xk ∈ K. La suite (xk )k∈IIN admet une
suite partielle (xkj )j∈IIN qui converge vers un x ∈ K. Alors la suite (ykj )j∈IIN converge vers f (x)
p.q. lim ykj = lim f (xkj ) = f (lim xkj ) = f (x). 2

Conséquences 2.46 Soit K compact, et soit f : K → IR une fonction continue. f prend alors
sur K ses valeurs extrémales, c’est-à-dire il existe deux points xmin , xmax ∈ K avec f (xmin ) 6
f (x) 6 f (xmax ) pour tout x ∈ K.

Preuve
f (K) est une partie compacte de IR, donc fermée et bornée. Donc a := inf f (K) et b := sup f (K)
appartiennent à f (K). Choisir xmin et xmax t.q. f (xmin ) = a et f (xmax ) = b. 2
2.6 Connexité et convexité 21

Théorème 2.47 Sur IRn , toutes les normes sont équivalentes.

Preuve
Il suffit de comparer une norme quelconque k k avec la norme k kmax : il faut donc démontrer
qu’il existe c1 , c2 ∈ IR>0 avec

kxk 6 c2 kxkmax kxkmax 6 c1 kxk ∀x ∈ IRn .


n
P
Pour x = (x1 , . . . , xn ) = xi ei on a
i=1

kxk = kx1 e1 + . . . + xn en k
6 |x1 | · ke1 k + . . . + |xn | · ken k
6 (ke1 k + . . . + ken k) ·kxkmax ;
| {z }
=:c2

Comme corollaire de cette inégalité nous obtenons que k k : (IRn , k kmax ) → IR est continue :


kxk − xkmax → 0 =⇒ kxk − xk → 0 =⇒ kxk k → kxk, p.q. kxk k − kxk 6 kxk − xk.

L’ensemble S := {u ∈ IRn ; kukmax = 1} est un sous–ensemble compact de (IRn , k kmax ), et la


fonction continue k k : IRn → IR ne prend que des valeurs strictement positives sur S ; donc il
existe c0 > 0 avec kuk > c0 pour tout u ∈ S. Donc, pour x ∈ IRn , x 6= 0 :

x x

kxk = kxkmax · = kxkmax · > kxkmax · c0 ,
kxkmax kxkmax
| {z }
∈S

donc (avec c1 := 1/c0 ) on a kxkmax 6 c1 kxk. 2

2.6 Connexité et convexité

Définition 2.48 Un ouvert U ⊂ o IRn est connexe si pour tout a, b ∈ U il existe une application
continue γ : [0, 1] → U avec γ(0) = a et γ(1) = b.

Définition 2.49 Une partie K ⊂ IRn est convexe si pour tout a, b ∈ K le segment

[a, b] := {a + t(b − a) | 0 6 t 6 1}

est contenu dans K.

Exemple 2.50 Tout ensemble U ⊂ IRn convexe est connexe : en effet, γ(t) := a + t(b − a) fait
l’affaire.

Théorème 2.51 Soit U ⊂ o IRn une partie connexe non vide. Soit V ⊂ U une partie avec les
propriétés suivantes :
 
1. V est fermé dans U i.e. V ∋ xk → x ∈ U =⇒ x ∈ V .
2. V est ouvert dans U .
Alors ou bien V = ∅ ou bien V = U .
22 La topologie de IRn

γ a
U

b
V

Fig. 2.3 – U est connexe, V n’est pas connexe

Preuve
Supposons que V 6= ∅. A démontrer : V = U . Supposons qu’il existe b ∈ U avec b 6∈ V . Soit
a ∈ V . Comme U est connexe, il existe γ : [0, 1] → U continue avec γ(0) = a et γ(1) = b. Soit
J := {t ∈ [0, 1] | γ(t) ∈ V }. On a que 0 ∈ J, 1 6∈ J. Soit s := sup J. Nous allons voir que ni γ(s) ∈ V
ni γ(s) 6∈ V , et ceci est absurde ! Supposons que γ(s) ∈ V . Comme V est ouvert, par la continuité
de γ il existe ε > 0 t.q. γ(s + t) ∈ V pour 0 6 t < ε. Ceci est impossible p.q. γ(s + t) 6∈ V pour
t > 0 selon la définition de s. Supposons que γ(s) 6∈ V . Il existe une suite (sk )k∈IIN dans J avec
sk ր s. Comme V ∋ γ(sk ) → γ(s) ∈ U , nous obtenons γ(s) ∈ V p.q. V est fermé dans U , ce qui
contredit le fait que γ(s) 6∈ V . 2
Chapitre 3

Différentiation

3.1 Courbes dans IRn

Définition 3.1 Une courbe dans IRn est une application continue (c’est-à-dire de classe C 0 )
c : I → IRn , où I est un intervalle dans IR.

Définition 3.2 Une courbe c : I → IRn est différentiable en t0 ∈ I, si la limite


c(t) − c(t0 ) c(t0 + h) − c(t0 )
ċ(t0 ) := lim = lim ∈ IRn
t→t0 t − t0 h→0 h
existe. Dans ce cas, ċ(t0 ) est appelé le vecteur tangent à c (pour la valeur de paramètre t0 ).

Lemme 3.3 Soit c = (c1 , . . . , cn ) : I → IRn une courbe. Alors

c est dérivable en t0 ⇐⇒ cν : I → IR est dérivable en t0 pour 1 6 ν 6 n.

Dans ce cas on a
ċ(t) = (ċ1 (t), . . . , ċn (t)).

Définition 3.4 Une courbe c : I → IRn est continûment dérivable si elle est dérivable en tout
point t0 ∈ I et si l’application ċ : I → IRn est continue. Une application c : I → IRn est de classe
C 0 si elle est continue (donc si c’est une courbe). Une courbe c : I → IRn est de classe C k+1
si ċ : I → IRn est de classe C k . Si c = (c1 , . . . , cn ), alors c est de classe C k si et seulement si
cν : I → IR est de classe C k pour 1 6 ν 6 n. Une courbe c : I → IRn de classe C 1 est dite
régulière ou lisse si ċ(t) 6= 0 pour tout t ∈ I.

Exemple 3.5 La courbe γ : IR → IR2 , γ(t) := et sin t, cos t) est de classe C ∞ et lisse.
(
2 (t2 , 0) si t 6 0
La courbe c : IR → IR , c(t) := est de classe C 1 , mais pas lisse (ċ est continue,
(0, t2 ) si t > 0
mais pas dérivable pour t = 0).

Lemme 3.6 Soient I, J ⊂ IR des intervalles et ϕ : I → J et c : J → IRn dérivables. Alors


γ := c ◦ ϕ : I → IRn est dérivable et

γ̇(t) = ϕ̇(t) · ċ ϕ(t) .

23
24 Différentiation

Preuve 
Appliquer le lemme 3.3 aux composantes γν (t) = cν ϕ(t) . 2

Dans la suite, nous munissons toujours IRn du produit scalaire canonique et écrivons k k pour
la norme euclidienne. Cette structure euclidienne nous permet de définir la longueur de certaines
courbes ainsi que l’angle entre deux courbes régulières passant par un même point :

Soit c : [a, b] → IRn une courbe, et soit Z = (a = t0 < t1 < . . . < tk = b) une partition de
l’intervalle [a, b]. En remplaçant la restriction c de c sur l’intervalle [ti−1 , ti ] par le segment
[ti−1 ,ti ]
rectiligne entre c(ti−1 ) et c(ti ), nous obtenons une ligne brisée (voir la figure 3.1) approximant c
et dont la longueur est
Xk
LZ (c) = kc(ti ) − c(ti−1 )k.
i=1

c(t0 ) c(t1 ) c(t3 )

c(t2 )

Fig. 3.1 – Approximation par une ligne brisée

Définition 3.7 La courbe c : [a, b] → IRn est dite rectifiable, si

L := sup{LZ (c); Z partition de [a, b]}

est finie. L est appelée la longueur de la courbe.

Condition équivalente : Pour tout ε > 0 il existe un γ > 0 tel que |LZ (c) − L| 6 ε pour toute
partition Z de [a, b] de pas |Z | 6 γ.

Proposition 3.8 Toute courbe c : [a, b] → IRn de classe C 1 est rectifiable, et sa longueur est
Z b
L= kċ(t)k dt.
a

Avec d’autres mots : la longueur est l’intégrale de la longueur du vecteur vitesse.

Preuve
La fonction h : [a, b] × [a, b] → IRn , définie par

 c(t) − c(s)
− ċ(t) pour t 6= s,
h(t, s) := t−s
0 pour t = s,

est continue, donc même uniformément continue. Pour ε > 0 donné, il existe donc γ1 > 0 tel que
kh(t, s)k 6 ε/(2(b − a)) pour tout t, s ∈ [a, b] avec |t − s| 6 γ1 . De plus, comme l’application
3.1 Courbes dans IRn 25

t 7→ kċ(t)k est continue, il existe γ2 > 0 tel que


Z k

b X ε

kċ(t)k dt − kċ(ti )k(ti − ti−1 ) 6
a 2
i=1

pour toute partition Z de [a, b] avec |Z | 6 γ2 . En utilisant l’inégalité du triangle, on trouve pour
Z avec |Z | 6 γ := min{γ1 , γ2 } facilement l’estimation
Z
b ε ε

kċ(t)k dt − LZ (c) 6 + = ε. 2
a 2 2

La longueur ainsi définie dépend de la paramétrisation de la courbe, et non seulement


de la trace, comme le montre l’exemple suivant :

Exemple 3.9 Soit c : [0, 1] → IR la courbe c(t) := 4t(1 − t). Alors la longueur est
Z 1 Z 1/2
L= |ċ(t)| dt = 2 (4 − 8t) dt = 2.
0 0

La trace de c est l’intervalle [0, 1] de longueur 1. La différence provient du fait que c parcourt
l’intervalle [0, 1] deux fois.

Nos courbes sont des courbes paramétrées, c’est-à-dire que nous tenons compte du mouvement
d’un point c(t) dans IRn dépendant du paramètre t et non seulement de sa trace. Parfois c’est
pratique de changer de paramètre :

Définition 3.10 Deux courbes c1 : [a1 , b1 ] → IRn et c2 : [a2 , b2 ] → IRn sont équivalentes : ⇐⇒
il existe une transformation de paramètre, c’est-à-dire un homéomorphisme (voir la figure 3.2)

ϕ : [a1 , b1 ] → [a2 , b2 ] avec c1 = c2 ◦ ϕ.

Lorsque c1 et c2 sont de classe C 1 et que ϕ est un C 1 –difféomorphisme, nous parlons d’une trans-
formation de paramètre de classe C 1 .

IRn

c1 c2
ϕ
−→
a1 b1 a2 b2

Fig. 3.2 – Transformation de paramètre

Deux cas sont possibles :


1. Lorsque ϕ est monotone croissante, la trace c1 ([a1 , b1 ]) = c2 ([a2 , b2 ]) est parcourue dans
le même sens par c1 (t1 ) et c2 (t2 ) pour tj croissant de aj vers bj , et nous parlons d’une
transformation de paramètre préservant l’orientation.
26 Différentiation

2. Lorsque ϕ est monotone décroissante, c1 (t1 ) et c2 (t2 ) parcourent la trace en directions op-
posées, et la transformation de paramètre renverse l’orientation.
L’équivalence de courbes définie ci–dessus est effectivement une relation d’équivalence sur l’en-
semble de toutes les courbes resp. les courbes de classe C 1 , et on obtient une relation d’équivalence
plus fine en n’admettant que les transformations de paramètre préservant l’orientation. Les classes
d’équivalence s’appellent aussi des courbes (non paramétrées) resp. des courbes orientées
(non paramétrées), et au lieu de parler de deux courbes équivalentes on parle aussi de deux pa-
ramétrisations de la même courbe. Avec la formule de substitution pour l’intégration on démontre
facilement que la longueur d’une courbe de classe C 1 ne dépend pas de sa paramétrisation :

Proposition 3.11 Soient cj : [aj , bj ] → IRn , j = 1, 2, deux paramétrisations de classe C 1


équivalentes : soit ϕ : [a1 , b1 ] → [a2 , b2 ] un difféomorphisme de classe C 1 avec c1 = c2 ◦ ϕ. Alors
L(c1 ) = L(c2 ).

Preuve
Traitons le cas ϕ̇ < 0.
Alors, avec le lemme 3.6 on obtient (comme ϕ(a1 ) = b2 et ϕ(b1 ) = a2 )
Z b1 Z b1

L(c1 ) = k ċ1 (t) k dt = −ϕ̇(t)kċ2 ϕ(t) k dt
a1 | {z } a1

=ϕ̇(t)ċ2 ϕ(t)
Z ϕ(b1 ) Z a2
= − kċ2 (ϕ)k dϕ = − kċ2 (ϕ)k dϕ
ϕ(a1 ) b2
Z b2
= kċ2 (ϕ)k dϕ = L(c2 ).
a2

La preuve pour le cas ϕ̇ > 0 est analogue. 2

Conséquences 3.12 Pour une courbe orientée c = c(t) de classe C 1 et régulière, il y a une
paramétrisation distinguée c̃(s) = c(t(s)), appelée la paramétrisation par la longueur d’arc,
avec la propriété suivante :
 
longueur de c̃ [s ,s ] = s2 − s1 pour s1 < s2 .
1 2

Preuve
Soit c : I → IRn une paramétrisation régulière de classe C 1 , et fixons a ∈ I. Alors
Z t
ϕ(t) := kċ(u)k du pour t ∈ I
a

définit un C –difféomorphisme de I sur un intervalle J, posons s = ϕ(t), alors t = t(s) = ϕ−1 (s),
1

et c̃(s) := c(t(s)) est la paramétrisation cherchée. 2

Exemple 3.13 Considérons c : [0, 2π] → IR2 , c(t) := R(cos ωt, sin ωt) avec R, ω > 0. Alors
Z t Z t
s(t) = kċ(τ )k dτ = Rω dτ = tRω,
0 0
s
donc t(s) = Rω , donc 
 s s
c̃(s) = c t(s) = R cos , sin
R R
est la paramétrisation de c par la longueur d’arc.

La mesure de l’angle entre deux courbes régulières se coupant est simple : on définit cet angle
comme étant l’angle entre les vecteurs tangents correspondants, voir la figure 3.3.
3.2 La différentielle totale 27

Fig. 3.3 – Angle entre les courbes c et c̃

3.2 La différentielle totale

Dans la suite, D dénote toujours un ouvert dans IRn . (En général, D sera un domaine, c’est-à-dire
ouvert et connexe.)

Définition 3.14 Soit D ⊂o IRn . Une application f : D → IRm est dite (totalement) diffé-
rentiable en x0 ∈ D : ⇐⇒ il existe une application IR–linéaire A : IRn → IRm telle que pour
x∈D
R(x)
f (x) = f (x0 ) + A(x − x0 ) + R(x), avec lim =0
x→x0 kx − x0 k

pour le reste R(x) := f (x) − f (x0 ) − A(x − x0 ).

L’application linéaire s’appelle la différentielle ou la dérivée (totale) de f en x0 ; nous écrivons


df [x0 ] = df x := A, et
0
df [x0 ](h) = A(h)
pour h ∈ IRn .

Selon la proposition suivante, l’application linéaire A dans 3.14 (si elle existe) est unique, donc
notre définition de df [x0 ] est raisonnable :

Proposition 3.15 Supposons que A1 , A2 : IRn → IRm sont linéaires et que


f (x) − f (a) − Ak (x − a)
Lk := lim = 0 pour k = 1, 2
x→a kx − ak
pour l’application f : U → IRm et a ∈ U ⊂
o IRn . Alors A1 = A2 .

Preuve
L’application B := A2 − A1 : IRn → IRm est linéaire et
B(x − a)
lim = L1 − L2 = 0.
x→a kx − ak
Ceci implique que B = 0 (donc A1 = A2 ) : soit 0 6= h ∈ IRn . Alors, pour tout IR ∋ t > 0 on a que
B(th) t→0
B(h) = khk −−−−−→ 0.
kthk
| {z }
→ 0 si t → 0
Mais comme B(h) ne dépend pas de t, ceci dit que B(h) = 0. 2
28 Différentiation

Exemple 3.16 Si f : IRn → IRm est linéaire, alors f = df [a], p.q.

f (x) − f (a) − f (x − a)
lim = 0.
x→a kx − ak
| {z }
=0

Exemples 3.17
1. L’équivalence de toutes les normes sur IRn garantit que la différentiabilité totale d’une ap-
plication ne dépend pas du choix des normes sur IRn resp. IRm .
2. La propriété caractéristique du reste est exprimé par le symbole de Landau :
R(x)
R(x) = o(kx − x0 k) : ⇐⇒ R(x0 ) = 0 et lim = 0.
x→x0 kx − x0 k

Donc, si f (x0 + h) = f (x0 ) + A(h) + C(x0 + h) avec


– A est linéaire
– C(x0 + h) = o(khk),
alors A = df [x0 ] (voir l’exemple 3.19.1).
3. Une application différentiable en x0 est aussi continue en x0 .
4. f : D → IRm s’écrit comme m–uple de fonctions fi : D → IR, i = 1, . . . , m. f est alors
différentiable en x0 si et seulement si les fi le sont, et dans ce cas
 
df1 [x0 ](h)

df [x0 ](h) =  .. 

. 
dfm [x0 ](h)

Proposition 3.18 Pour n = m = 1 on retrouve la notion de dérivabilité de l’ANALYSE I :


1. Soit f : I → IR une fonction totalement dérivable en x0 ∈ I. Alors f est dérivable en x0 et
f ′ (x0 ) = df [x0 ](1).
2. Si inversement f est dérivable en x0 , alors f est totalement dérivable en x0 et df [x0 ](h) =
h · f ′ (x0 ).

Preuve
Ad 1 : Supposons que
! !
f (x0 + h) − f (x0 ) − df [x0 ](h) f (x0 + h) − f (x0 )
0 = lim = lim − df [x0 ](1) ,
h→0 h h→0 h

alors !
f (x0 + h) − f (x0 )
df [x0 ](1) = lim = f ′ (x0 ).
h→0 h
f (x0 + h) − f (x0 )
Ad 2 : Si la limite f ′ (x0 ) := lim existe, alors (avec A(h) := hf ′ (x0 ))
h→0 h
!
f (x0 + h) − f (x0 ) f (x0 + h) − f (x0 ) − A(h)
0 = lim − f ′ (x0 ) = lim ,
h→0 h h→0 h

donc f est totalement dérivable en x0 et df [x0 ](h) = A(h) = hf ′ (x0 ). 2

En tout cas, pour une fonction f : I → IR, il faut bien distinguer entre
– la dérivée f ′ : I → IR (c’est une fonction),
– la dérivée f ′ (x0 ) en x0 ∈ I (c’est un nombre réel)
3.2 La différentielle totale 29

– la différentielle df [x0 ] de f en x0 (c’est une application linéaire)


– et df [x0 ](h) (c’est un nombre réel).
Pour n = 1 et m > 1, on retrouve la définition de la section précédente : f : ]a, b[→ IRm est
différentiable ⇐⇒ les composantes f1 , . . . , fm sont différentiables ; on a que

df [x0 ](h) = h · df [x0 ](1) = h · f ′ (x0 ) ∈ IRm ∀ h ∈ IR.

Exemples 3.19
1. Soit f : IR2 → IR avec f (x) := x21 + 2x2 . Affirmation : df [a](h) = 2a1 h1 + 2h2 . Comme
l’application A : IR2 → IR, h 7→ 2a1 h1 + 2h2 est linéaire pour a ∈ IR2 fixé, il suffit (selon
3.17.2) de démontrer que R(a + h) = o(khk) pour R(a + h) = f (a + h) − f (a) − A(h) :
   
R(a + h) = (a1 + h1 )2 + 2(a2 + h2 ) − a21 + 2a2 − 2a1 h1 + 2h2 ) = h21 ,

donc
R(a + h) h2 khk→0
= 1 −−−−−→ 0,
khk khk
p.q. (soit khk := max{|h1 |, |h2 |}) pour h avec h1 6= 0 :
2
h1 1 2 1 2 khk→0
khk = khk h1 6 |h1 | h1 = |h1 | −−−−−→ 0.

2. Chaque application constante f : D → IRm est différentiable, avec df [x] = 0 pour tout x ∈ D.
3. Chaque application IR–linéaire A : IRn → IRm est différentiable, avec dA[x] = A pour chaque
x ∈ IRn .
4. Chaque application B : IRn × IRn = IR2n → IR bilinéaire est différentiable :

B(x0 + h, y0 + k) = B(x0 , y0 ) + B(x0 , k) + B(h, y0 ) + B(h, k);

ici, les deux termes au milieu représentent une fonction linéaire en (h, k) ∈ IR2n , tandis que
B(h, k) = o(k(h, k)k). Donc, selon 3.17.2, B est différentiable, avec différentielle

dB[x0 , y0 ](h, k) = B(x0 , k) + B(h, y0 ).

5. f, g : D → IRm différentiables en x0 ∈ D, et λ, µ ∈ IR =⇒ λf + µg est aussi différentiable


en x0 , avec
d(λf + µg)[x0 ] = λdf [x0 ] + µdg[x0 ].

Théorème 3.20 (« Kettenregel ») Soient a ∈ U ⊂ o IRn , b ∈ V ⊂


o IRm , g : U → V , f : V → IRp
des applications ; supposons que g soit différentiable en a et que f soit différentiable en b = g(a).
Alors la composition f ◦ g : U → IRp est différentiable en a et

d(f ◦ g)[a] = df [b] ◦ dg[a].

Autrement dit : la différentielle d’une composition est la composition des différentielles (voir la
figure 3.4).

Preuve
Soit Rg,a (h) := g(a + h) − g(a) − dg[a](h) et Rf,b (k) := f (b + k) − f (b) − df [b](k) pour h ∈ IRn et
k ∈ IRm . Par hypothèse nous avons (avec | | := k kmax )
1 1
lim Rg,a (h) = 0, lim Rf,b (k) = 0.
h→0 |h| k→0 |k|
Il suffit de démontrer que
 
f g(a + h) = f (b) + df [b] dg[a](h) + R(h) avec lim R(h)/|h| = 0.
h→0
30 Différentiation
f ◦g

U V

g f
→ → IRp
a b

[b]
df


dg[a] m
IRn → IR

d(f ◦ g)[a]

Fig. 3.4 – « Kettenregel »

Posons k := dg[a](h) + Rg,a (h). Alors


 
f g(a + h) = f (b + k) = f g(a) + df [b](k) + Rf,b (k)

= f (b) + df [b] dg[a](h) + df [b] (Rg,a (h)) + Rf,b (k) .
| {z }
=:R(h)

Il nous faut donc démontrer que lim R(h)/|h| = 0. Comme application linéaire, df [b] est continue,
h→0
donc
   
1 1 1
lim df [b](Rg,a (h)) = lim df [b] Rg,a (h) = df [b] lim Rg,a (h) = df [b](0) = 0.
h→0 |h| h→0 |h| h→0 |h|

Pour démontrer que lim Rf,b (k)/|h| = 0, nous utilisons l’énoncé suivant :
h→0

il existe τ, c > 0 t.q. |k| 6 c|h| si |h| < τ. (∗)


Choissisons c, τ > 0 d’après (∗). Pour ε > 0 donné, il existe δ > 0 t.q.

Rf,b (k) ε
|k| < c si |k| < δ.

Alors, pour h avec |h| < η := min{δ/c, τ }, on a |k| 6 c|h| < δ et |h| > |k|/c, donc
|Rf,b (k)| |Rf,b (k)| ε
6c· < c = ε si |h| < η.
|h| |k| c
Preuve de (∗) : soit e1 , . . . , en la base standard du IRn . Alors pour tout h ∈ IRn :
n n
X X
dg[a](h) 6 hν dg[a](eν ) 6 |h| dg[a](eν ) = |h|c1 .
ν=1 ν=1
| {z }
=:c1

Comme lim Rg,a (h)/|h| = 0, il existe τ > 0 t.q. |Rg,a (h)| /|h| < 1 si |h| < τ ; donc |Rg,a (h)| 6 |h|
h→0
si |h| < τ . En tout nous avons donc

|k| 6 dg[a](h) + Rg,a (h) 6 (c1 + 1)|h| = c|h| si |h| < τ. 2
3.3 Dérivées partielles 31

Définition 3.21 Soit D ⊂ o IRn . Une fonction f : D → IR est (totalement) différentiable, si


elle est différentiable en tout point x ∈ D.

Dans ce cas, la différentielle df de f est une application


 
df : D → Hom(IRn , IRm ), a 7→ df [a] : IRn → IRm ,

qui a tout a ∈ D fait correspondre l’application linéaire df [a].

3.3 Dérivées partielles

Soit D un ouvert dans IRn , et f : D → IRm différentiable en a ∈ D. L’application linéaire


df [a] : IRn → IRm se décrit donc — par rapport aux bases canoniques — par une matrice dans
IRm×n que nous notons encore df [a]. Il se pose donc la

Question : Comment calculer effectivement les coefficients de cette matrice ?

La réponse que nous allons trouver maintenant, sera simple : il s’agit essentiellement de calculer
la dérivée de n · m fonctions d’une variable réelle !

Définition 3.22 Soit D un ouvert dans IRn . On dit que la fonction f : D → IR est dérivable en
a ∈ D dans la direction (représentée par) h ∈ IRn : ⇐⇒ la fonction

ψ(t) := f (a + th),

(qui est bien–définie pour |t| assez petit), est différentiable en t = 0. Sa dérivée en t = 0,
f (a + th) − f (a) ∂f
ψ̇(0) = lim =: (a)
IR∗ ∋t→0 t ∂h
est appelée dérivée directionnelle de f en a dans la direction h. Lorsque h = ei , le i–ième
vecteur de la base canonique de IRn , on écrit
∂f ∂f f (a + tei ) − f (a)
(a) := (a) = ∗lim
∂xi ∂ei IR ∋t→0 t
et on l’appelle la dérivée partielle de f par rapport à la i-ième coordonnée xi . f est partiel-
∂f
lement dérivable en a ∈ D, si les dérivées partielles ∂x i
(a) existent pour 1 6 i 6 n. f est
partiellement dérivable, si f est partiellement dérivable en tout a ∈ D.

Si f : D → IR est partiellement dérivable, alors les dérivées partielles sont de nouveau des fonctions
définies sur D :
∂f ∂f
: D → IR, a 7→ (a) (1 6 i 6 n).
∂xi ∂xi

∂f
Exemples 3.23 1. Le calcul de ∂x i
(a) est très simple :
∂f d

ψ(t) = f (a + tei ) = f (a1 , . . . , ai−1 , ai + t, ai+1 , . . . , an ), et ∂xi
(a) = ψ̇(0) = dt t=0
ψ(t)
se calcule en fixant les arguments x1 , . . . , xi−1 , xi+1 , . . . , xn et en considérant seulement
xi = ξ comme variable par rapport à laquelle on dérive : soit η(ξ) := ψ(ai − ξ) =
f (a1 , . . . , ai−1 , ξ, ai+1 , . . . , an ). Alors
∂f
(a) = ψ ′ (0) = η ′ (ai ).
∂xi
32 Différentiation

∂f ∂f
2. Pour h ∈ IRn et λ ∈ IR, on trouve facilement ∂(λh) (x) = λ ∂h (x) ; il suffit donc de considérer
n
les vecteurs unitaires h, c’est-à-dire h ∈ IR avec khkeu = 1 comme représentants des direc-
tions.

Exemple 3.24 Soit f : IR2 → IR définie par f (x) := x21 + 2x2 (voir l’exemple 3.19.1). Alors

∂f d  
(a) = (a1 + t)2 + 2a2 = 2a1 ,
∂x1 dt t=0
∂f d  2 
(a) = a1 + 2(a2 + t) = 2,
∂x2 dt t=0
donc
∂f ∂f
df [a](h) = 2a1 h1 + 2h2 = (a) · h1 + (a) · h2 . (∗)
∂x1 ∂x2

Le théorème suivant montre, que (∗) est valable en général et il répond donc à la question posée
au début de ce paragraphe :

Théorème 3.25 Soit D un ouvert dans IRn , et soit f : D → IR totalement différentiable en


x ∈ D. Alors, f est dérivable dans chaque direction, et pour h ∈ IRn
 
n   h1
∂f X ∂f ∂f ∂f
(x)  ...  .
 
(x) = df [x](h) = (x) · hi = (x), . . . ,
∂h i=1
∂xi ∂x1 ∂xn
hn

Preuve
Fixons x ∈ IRn et considérons l’application ϕ : IR → IRn , ϕ(t) := x + th. Alors ϕ est différentiable,
avec ϕ̇(t) = h pour chaque t ∈ IR ; et ψ(t) := f (x + th) = (f ◦ ϕ)(t) est bien–définie pour |t| assez
petit et différentiable en t = 0 par 3.20, avec dérivée (voir aussi 3.18)

∂f    
(x) = ψ̇(0) = dψ[0](1) = df ϕ(0) dϕ[0](1) = df [x] ϕ̇(0) = df [x](h).
∂h
∂f ∂f
La linéarité de df [x] implique encore (comme df [x](ei ) = ∂ei (x) = ∂xi (x))

n n
X X ∂f
df [x](h) = hi df [x](ei ) = (x)hi . 2
i=1 i=1
∂xi

Exemple 3.26 (Interprétation géométrique de la  différentielle


et des dérivées partielles)
Soit f : D → IR dérivable au point x ∈ D. Soit Gf = (x, f (x)); x ∈ D ⊂ D × IR le graphe de f ,
et soit 
Tx := (h, df [x](h)); h ∈ IRn ⊂ IRn × IR
le graphe de la différentielle df [x]. Tx ⊂ IRn+1 est un hyperplan, et si nous le translatons encore
de sorte que son origine devienne (x, f (x)), nous obtenons le plan tangent à Gf en (x, f (x)) :
 n  o
Tx + x, f (x) = x + h, f (x) + df [x](h) ; h ∈ IRn .

Pour h ∈ IRn fixé, le graphe de ψ(t) := f (x + th) peut être identifié à l’intersection de Gf avec le
plan E := (x + th, z); t ∈ IR, z ∈ IR ⊂ IRn+1 . La tangente à cette courbe en (x, f (x)) est alors
 ∂f
la droite d = (x + th, f (x) + t · df [x](h); t ∈ IR , donc la dérivée partielle ∂h (x) n’est rien d’autre
∂f
que la pente df [x](h) = ∂h (x) de la droite d, voir la figure 3.5.
3.3 Dérivées partielles 33

Tx + (x, f (x))
d

h D
x

Fig. 3.5 – Plan tangent au graphe d’une fonction

La fonction f peut être partiellement différentiable, sans être totalement différentiable, même sans
être continue ! L’existence des dérivées partielles ne garantit pas l’existence de la différentielle totale
df [x], comme on le voit avec l’exemple suivant :

Exemple 3.27 Définissons f : IR2 → IR par



 xy si (x, y) 6= (0, 0),
f (x, y) := x2 + y 2
0 si (x, y) = (0, 0).

Alors f est partiellement dérivable dans tout point 0 6= x ∈ IR2 (voir 3.30) ; f est partiellement
dérivable en 0 ∈ IR2 , p.q. f s’annulle sur les axes. Mais f n’est pas continue en 0, p.q. f (t, t) = 1/2
pour tout t ∈ IR∗ . Donc f n’est pas totalement dérivable en 0, p.q. la dérivabilité totale implique
la continuité.

Le théorème 3.25 traite le cas d’une fonction de plusieures variables à valeurs dans IR. Avec 3.17.4,
on obtient pour des applications à valeurs dans IRm :

Théorème 3.28 Si f : D → IRm est différentiable en x ∈ D, alors


 ∂f1 ∂f1  
∂x1 (x) . . . ∂x n
(x) h1
 .. ..   ... 
.   m
df [x](h) =  .  ∈ IR .
∂fm ∂fm
∂x (x) . . . ∂x (x)
hn
1 n

La matrice  ∂f1 
∂f1
∂x1 (x) ... ∂xn (x)

df [x] =  .. .. 
. . 
∂fm ∂fm
∂x1 (x) ... ∂xn (x)
34 Différentiation

s’appelle la matrice fonctionnelle de f en x ou la jacobienne de f au point x.

Définition 3.29 Soit D un ouvert dans IRn . f : D → IR est continûment (partiellement)


∂f
différentiable : ⇐⇒ les dérivées partielles ∂xi
, i = 1, . . . , n, existent en chaque point x ∈ D et
sont des fonctions continues dans D.

Voici quelques règles de calcul pour les dérivées partielles, qui sont une conséquence immédiate des
règles de calcul pour les dérivées des fonctions d’une seule variable :

Lemme 3.30 (Règles de calcul pour les dérivées partielles) Soient f, g : D → IR deux fonc-
tions partiellement dérivables et λ ∈ IR. Alors les fonctions f ± g, f g, λf sont partiellement
dérivables et
∂(f ± g) ∂f ∂g ∂(λf ) ∂f ∂(f g) ∂f ∂g
= ± , =λ , =g· +f · .
∂xi ∂xi ∂xi ∂xi ∂xi ∂xi ∂xi ∂xi
Si g(x) 6= 0 pour tout x ∈ D, alors f /g est partiellement dérivable et
∂f ∂g
∂(f /g) g· ∂xi −f · ∂xi
= .
∂xi g2

La version matricielle de la « Kettenregel » est particulièrement importante. Une manière simple


de reformuler 3.20 est de dire

Théorème 3.31 Choisissons les notations de 3.20. Alors


La jacobienne d’une composition est le produit des jacobiennes,

plus précisement :  ∂(f ◦g) 


1 ∂(f ◦g)1
∂x1 (x) ... ∂xn (x)

 .. .. 
 =
 . . 
∂(f ◦g)p ∂(f ◦g)p
∂x1 (x) ... ∂xn (x)
 ∂f ∂f1
  
∂g1 ∂g1
∂y1 (g(x)) ... ∂ym (g(x))
1
(x) . . . ∂xn (x)
 .. ..   ∂x1. .. 
=  · . .
 . .  . .
∂fp ∂fp ∂gm ∂gm
∂y1 (g(x)) ... ∂ym (g(x)) ∂x1 (x) . . . ∂xn (x)

En particulier (pour 1 6 ν 6 n et p = 1) :
m
∂(f ◦ g) X ∂f  ∂gµ
(x) = g(x) · (x)
∂xν µ=1
∂yµ ∂xν

Preuve
La matrice d’une composition de deux applications linéaires est le produit des matrices correspon-
dantes.
2

Définition 3.32 Soit f : D → IR une fonction différentiable. Alors l’application


 
n ∂f ∂f
grad f : D → IR , x 7→ (x), . . . , (x)
∂x1 ∂xn
est appellée gradient de f . Elle est uniquement déteminée par la propriété suivante :
hh, grad f (x)i = df [x](h) pour tout h ∈ IRn .
3.3 Dérivées partielles 35

Souvent on écrit grad f (x) : ceci est à interpréter comme étant (grad f )(x).

Le gradient est un champ de vecteurs dans le sens suivant :

Définition 3.33 Un champ de vecteurs sur D ⊂ IRn est une application F : D → IRn , qui à
tout point x ∈ D fait correspondre un vecteur de l’espace ambiant IRn .

Géométriquement, on représente un champ de vecteurs F en attachant le vecteur F (x) au point


x. Dans ce sens, la figure 3.6 représente le gradient grad f (x) = (1, x2 ) de la fonction f : IR2 → IR,
f (x1 , x2 ) := x1 + x22 /2.
y
1

0.5

-1 -0.5 0.5 1
x

-0.5

-1

Fig. 3.6 – Le gradient de f (x1 , x2 ) := x1 + x22 /2

Dans la section « Inversion locale et Fonctions implicites » nous verrons une description géométrique
plus détaillée du gradient.

p
Exemple 3.34 Définissons r : IRn \ {0} → IR>0 par r(x) := x21 + . . . + x2n . Soit f : IR>0 → IR
une fonction dérivable et F (x) := f (r(x)). Alors pour 1 6 ν 6 n :
∂r xν x
(x) = , grad r(x) = ,
∂xν r(x) r(x)
∂F xν x
(x) = f ′ (r(x)) , grad F (x) = f ′ (r(x)) · .
∂xν r(x) r(x)

Preuve
∂r ∂ 1/2 1 2 −1/2 xν
= x21 + . . . + x2n = x1 + . . . + x2n 2xν = ;
∂xν ∂xν 2 r(x)
donc, d’après 3.31 (avec m = 1) :
∂F ∂r xν
(x) = f ′ (r(x)) (x) = f ′ (r(x)) . 2
∂xν ∂xν r(x)

Il est très pratique de définir le symbole « Nabla » :

 
∂ ∂
Définition 3.35 ∇ := ,..., .
∂x1 ∂xn
36 Différentiation

Avec Nabla, on définit d’autres opérateurs, qu’on étudiera plus en détail dans le cours ANALYSE
III :

o IRn , V ⊂
Définition 3.36 Soient U ⊂ o IR3 , ϕ : U → IR, f : U → IRn et g : V → IR3 dérivables.
Alors on définit
 
∂ϕ ∂ϕ
grad ϕ := ∇ϕ = ,..., : U −→ IRn ,
∂x1 ∂xn
n
X ∂fν
div f := h∇, f i = : U −→ IR,
ν=1
∂xν
 
∂g3 ∂g2 ∂g1 ∂g3 ∂g2 ∂g1
rot g := ∇ × g = − , − , − : V −→ IR3 .
∂x2 ∂x3 ∂x3 ∂x1 ∂x1 ∂x2

3.4 Quelques théorèmes

Théorème 3.37 Une fonction continûment partiellement différentiable est totalement différentiable.

Preuve  
∂f ∂f
Si le théorème est correct, on a nécessairement df [x] = (x), . . . , (x) , et il faut vérifier
∂x1 ∂xn
que cette fonction linéaire remplit les conditions de la définition 3.14, c’est-à-dire R(x+h) = o(khk)
pour
n
X ∂f
R(x + h) := f (x + h) − f (x) − (x)hi .
i=1
∂x i

Avec gi (t) := f (x1 , . . . , xi−1 , xi + t, xi+1 + hi+1 , . . . , xn + hn ) pour 1 6 i 6 n, on a

f (x + h) − f (x) = f (x1 + h1 , . . . , xn + hn ) − f (x1 , . . . , xn )


= f (x1 + h1 , . . . , xn + hn ) − f (x1 , x2 + h2 , . . . , xn + hn )
+f (x1 , x2 + h2 , . . . , xn + hn ) − f (x1 , x2 , x3 + h3 , . . . , xn + hn )
+...
+f (x1 , . . . , xn−1 , xn + hn ) − f (x1 , . . . , xn )
= g1 (h1 ) − g1 (0)
+g2 (h2 ) − g2 (0)
+...
+gn (hn ) − gn (0)

Les fonctions gi sont bien–définies pour |t| assez petit, et elles sont par hypothèse différentiables
∂f
avec ġi (t) = ∂xi
(x1 , . . . , xi−1 , xi + t, xi+1 + hi+1 , . . . , xn + hn ); donc

∂f
gi (hi ) − gi (0) = hi ġi (ti ) = hi (x1 , . . . , xi−1 , xi + ti , xi+1 + hi+1 , . . . , xn + hn )
∂xi | {z }
=: zi

avec un ti entre 0 et hi ; donc


n  
X ∂f ∂f
R(x + h) = (zi ) − (x) hi = o(khk),
i=1
∂xi ∂xi

∂f
par la continuité des ∂xi . 2
3.4 Quelques théorèmes 37

Théorème 3.38 (« Mittelwertsatz » et théorème des accroissements finis) Soit U ⊂ o IRn


une partie convexe (par exemple une boule ou un cube) et soit f : U → IR une fonction dérivable.
1. ∀ a, b ∈ U ∃ ξ ∈ [a, b] t.q. f (b) − f (a) = df [ξ](b − a).

∂f
2. Si ∂xν
(x) 6 L ∀ x ∈ U et pour 1 6 ν 6 n, alors

|f (b) − f (a)| 6 nLkb − akmax ∀ a, b ∈ U.

Preuve
La fonction g(t) := f (a + t(b − a)) = (f ◦ h)(t) avec h(t) := a + t(b − a) est bien définie pour
0 6 t 6 1. Comme (d’après le Mittelwertsatz pour les fonctions d’une variable)

f (b) − f (a) = g(1) − g(0) = g ′ (τ )

pour un τ entre 0 et 1 et (avec ξ := h(τ ) = a + τ (b − a))


 
g ′ (τ ) = df [h(τ )] dh[τ ](1) = df [ξ](b − a),
| {z }
= b−a

nous obtenons 1. Maintenant 2 est une conséquence immédiate de 1 :


X n
∂f
|f (b) − f (a)| = df [ξ](b − a) 6 (ξ) − aν | 6 nLkb − akmax .
∂xν · ||bν {z 2
ν=1 | {z }
}
6kb−akmax
6L

Dans le cours ANALYSE I on a vu le théorème suivant pour une fonction dérivable, définie sur un
intervalle :
f = const ⇐⇒ f ′ = 0.
Ce théorème très important se laisse généraliser pour des fonctions de plusieures variables :

o IRn une partie connexe par arcs et f : U → IR une fonction dérivable.


Théorème 3.39 Soit U ⊂
Alors
f = const ⇐⇒ df [x] = 0 ∀ x ∈ U.

Preuve
Si f = const, alors df [x] = 0 pour tout x ∈ U . — Supposons que df [x] = 0 pour tout x ∈ U . Pour
démontrer que f = const, il suffit de démontrer que U = V avec V := {x ∈ U ; f (x) = f (a)}
(a ∈ U est un point fixé). Selon 2.51, il suffit de démontrer (comme U est connexe par arcs) :
1. V est ouvert dans U .
2. V est fermé dans U .
3. V n’est pas vide.
Ad 3 : C’est évident, p.q. a ∈ V .
Ad 2 : C’est évident, p.q. f est continue : si V ∋ xk → x ∈ U , alors f (xk ) = f (a) pour tout k et
f (x) = f (lim xk ) = lim f (xk ) = f (a), donc x ∈ V .
Ad 1 : Soit x ∈ V . Soit ε > 0 t.q. Bε (x) ⊂ U . Alors Bε (x) ⊂ V : sinon il existe c ∈ Bε (x) avec
f (c) 6= f (a) = f (x), donc (selon 3.38), il existe ξ ∈ Bε (x) t.q.

0 6= f (x) − f (c) = df [ξ](x − c),

donc df [ξ] 6= 0 /−/ 2


v
38 Différentiation

3.5 Dérivées partielles d’ordre supérieur

Considérons une fonction f : D → IR, où D est ouvert dans IRn . Lorsque f est partielle-
∂f
ment différentiable et que les dérivées partielles ∂xi
sont encore (continûment) partiellement
différentiables, on parle d’une fonction deux fois (continûment) partiellement différentiable. Plus
généralement, on dit que f est r fois continûment partiellement différentiable ou de classe
C r si toutes les dérivées partielles itérées
   
∂kf ∂ ∂ ∂f
:= ... ...
∂xjk . . . ∂xj1 ∂xjk ∂xj2 ∂xj1

existent et sont continues, pour 1 6 k 6 r et 1 6 j1 , . . . , jk 6 n.

Pour une fonction de classe C r , les dérivées partielles k–ièmes (1 6 k 6 r) ne dépendant pas de
l’ordre dans lequel on les a obtenues, c’est-à-dire

∂kf ∂kf
=
∂xjk . . . ∂xj1 ∂xjπ(k) . . . ∂xjπ(1)

pour toute permutation π : {1, . . . , k} → {1, . . . , k}. C’est une conséquence du

Lemme 3.40 (Lemme de H. A. Schwarz) Soit f : D → IR deux fois continûment partielle-


ment différentiable (D un ouvert dans IRn ). Alors

∂2f ∂2f
= pour i, j = 1, . . . , n.
∂xi ∂xj ∂xj ∂xi

Preuve
Nous supposons sans restriction n = 2 et écrivons x, y à la place de x1 , x2 . Nous fixons x et y et
définissons (pour h, k ∈ IR∗ assez petits) :

Fk (h) := f (x + h, y + k) − f (x + h, y), Gh (k) := f (x + h, y + k) − f (x, y + k).

Soit en plus
f (x + h, y + k) − f (x + h, y) − f (x, y + k) + f (x, y)
A(h, k) := .
hk

Avec le théorème des accroissements finis (pour fonctions d’une variable réelle !), on trouve (avec
h1 entre 0 et h et k1 entre 0 et k bien choisis)

1 
A(h, k) = Fk (h) − Fk (0)
hk
1 ′
= F (h1 )
k k 
1 ∂f ∂f
= (x + h1 , y + k) − (x + h1 , y)
k ∂x ∂x
 
∂ ∂f
= (x + h1 , y + k1 )
∂y ∂x
∂2f
= (x + h1 , y + k1 ).
∂y∂x
3.6 Développement de Taylor 39

De même, on trouve (avec h̃1 entre 0 et h et k̃1 entre 0 et k bien choisis)

1 
A(h, k) = Gh (k) − Gh (0)
hk
1 ′
= G (k̃1 )
h h 
1 ∂f ∂f
= (x + h, y + k̃1 ) − (x, y + k̃1 )
h ∂y ∂y
 
∂ ∂f
= (x + h̃1 , y + k̃1 )
∂x ∂y
∂2f
= (x + h̃1 , y + k̃1 ).
∂x∂y

En faisant tendre (h, k) vers (0, 0) on obtient à cause de la continuité des dérivées partielles le
résultat
∂2f ∂2f
(x, y) = lim A(h, k) = (x, y). 2
∂x∂y (h,k)→(0,0) ∂y∂x

3.6 Développement de Taylor

Pour la formulation du théorème de Taylor nous utilisons les conventions suivantes :


Pour un multi–indice k = (k1 , . . . , kn ) ∈ IINn on pose

|k| := k1 + . . . + kn et k! := k1 ! · . . . · kn !;

pour un vecteur h = (h1 , . . . , hn ) ∈ IRn et un multi–indice k = (k1 , . . . , kn ) ∈ IINn nous écrivons

hk := h1 k1 · . . . · hn kn ,

et finalement
∂ |k|
Dk f := k1
∂x1 . . . ∂xn kn
r n
pour f de classe C sur un ouvert de IR avec r > |k|.

Théorème 3.41 (Théorème de Taylor) Soit D ouvert dans IRn , et soit f : D → IR de classe
C r+1 . Alors, pour x ∈ D et h ∈ IRn tels que le segment droit entre x et x + h est encore dans D,
X Dk f (x) X Dk f (x + θh) k
f (x + h) = hk + h pour un 0 < θ < 1.
k! k!
|k|6r |k|=r+1

Preuve
La fonction ϕ(t) := f (x + th) est bien–définie sur un intervalle ] − ε, 1 + ε[, où ε > 0. Elle est de
classe C r+1 , et son développement de Taylor en 0 nous donne
r
X ϕ(ν) (0) ϕ(r+1) (θ)
f (x + h) = ϕ(1) = + avec 0 < θ < 1.
ν=0
ν! (r + 1)!

Par récurrence sur ν on montre

ϕ(ν) X Dk f (x + θh)
(θ) = hk pour 0 6 ν 6 r + 1.
ν! k!
|k|=ν
40 Différentiation

Dk f (x) k
Exemples 3.42 1. Pour chaque multi–indice k ∈ IINn , h est un monôme de degré
k!
X Dk f (x)
|k| des variables h1 , . . . , hn , et hk est un polynôme homogène de degré d.
k!
|k|=d
X Dk f (x)
hk est donc un polynôme de degré 6 r, le r–ième polynôme de Taylor.
k!
|k|6r
X Dk f (x)
2. Le reste Rr (h) := f (x + h) − hk a la propriété
k!
|k|6r

Rr (h)
lim = 0,
h→0 khkr

ce que nous exprimons par le symbole de Landau :

Rr (h) = o(khkr )

3. Pour r = 1 et r = 2, on trouve les formules concrètes suivantes :


r=1:
n
X ∂f
f (x + h) = f (x) + (x)hi + o(khk)
i=1
∂xi
= f (x) + df [x](h) + o(khk)
= f (x) + hgrad f (x), hi + o(khk);

r=2:
n
1 X ∂2f
f (x + h) = f (x) + hgrad f (x), hi + (x)hi hj +o(khk2 )
2 i,j=1 ∂xi ∂xj
| {z }
=: Hf [x](h)

3.7 Extrema locaux

Proposition 3.43 Soit f : D → IR différentiable, D un ouvert dans IRn , avec un extremum local
en x0 ∈ D. Alors, x0 est un point critique de f , c’est-à-dire que df [x0 ] = 0.

Preuve
Pour h ∈ IRn , ϕh (t) := f (x0 + th) a un extremum local en t = 0, donc

0 = ϕ̇h (0) = df [x0 ](h) pour tout h ∈ IRn .

Comme pour une variable, ce critère nécessaire n’est pas du tout suffisant ! La situation est même
pire, comme nous le montre l’exemple de la fonction f : IR2 → IR, f (x, y) := (y − 2x2 )(y − x2 ) :
Pour (h, k) ∈ IR2 , (h, k) 6= (0, 0),

ϕh,k (t) = f (th, tk) = . . . = t2 (k 2 − 3h2 kt + 2h2 t2 ) .


| {z }
> 0 pour |t| > 0 assez petit

Pour chaque direction (h, k), la fonction ϕh,k a donc un minimum local strict en 0, mais f n’a pas
d’extremum local en (0, 0), car f (0, 0) = 0, et la fonction est positive pour y > 2x2 ou y < x2 , et
négative pour x2 < y < 2x2 .
3.7 Extrema locaux 41

Pour déterminer, si une fonction d’une variable f avec f ′ (x0 ) = 0 admet un extremum local en x0 ,
on peut utiliser la deuxième dérivée f ′′ : si f ′′ (x0 ) 6= 0, on est sûr que f admet un extremum local
strict en x0 . Pour des fonctions de plusieures variables, on doit (pour x donnée) considérer toute
une matrice resp. une forme quadratique :

Définition 3.44 La forme quadratique Hf [x] : IRn → IR resp. la matrice symétrique correspon-
dante  
∂2f ∂2f
 ∂x 2 (x) ...
∂x1 ∂xn
(x) 
 1 

Hf [x] :=  .. .. 
 . . 

 ∂2f 2
∂ f 
(x) . . . 2
(x)
∂xn ∂x1 ∂xn
s’appelle la hessienne de f en x, voir l’exemple 3.42.3.

L’idée du critère que nous allons démontrer est aussi simple que dans le cas d’une variable : On
remplace f par son polynôme de Taylor de degré 6 2, et on espère que, proche de x0 , l’allure de
f ne diffère pas trop de celle de cette fonction, qui est de la forme
1
ϕ(x0 + h) = f (x0 ) + Hf [x0 ](h) = const + Q(h),
2
où Q : IRn → IR est une forme quadratique. Etudions donc d’abord ces formes quadratiques :

Exemples 3.45 (Rappel sur les formes quadratiques) 1. Soit E un espace vectoriel réel
de dimension n < ∞, et soit B : E ×E → IR une forme bilinéaire symétrique. La fonction

Q : E → IR, Q(h) := B(h, h)

s’appelle alors la forme quadratique associée.


Elle détermine réciproquement B par la formule
1
B(x, y) = (Q(x + y) − Q(x) − Q(y)).
2
2. B (et aussi Q) est dite non dégénérée

: ⇐⇒ pour tout h ∈ E, h 6= 0, il existe k ∈ E avec B(h, k) 6= 0.

Dans ce cas, Q (et aussi B) est dite définie positive (négative)

: ⇐⇒ Q(h) > 0 (< 0) pour tout h ∈ E, h 6= 0.

On appelle Q semidéfinie positive (négative)

: ⇐⇒ Q(h) > 0 (6 0) pour tout h ∈ E, mais il existe h 6= 0 avec Q(h) = 0.

(Une forme quadratique semidéfinie est dégénérée.)


Une forme quadratique Q (dégénérée ou non) est indéfinie

: ⇐⇒ il existe h, k ∈ E avec Q(h) < 0 < Q(k).

3. Le graphe de Q est un paraboloı̈de : Pour h ∈ E, h 6= 0, la restriction de Q sur la droite


IRh est de la forme Q(th) = Q(h)t2 , et son graphe est une parabole (qui peut être dégénérée,
c’est-à-dire une droite horizontale). Il est évident que la forme quadratique Q a un minimum
(maximum) global strict en l’origine 0 ∈ E si elle est définie positive (négative), et qu’il n’y a
pas d’extremum (même local !) en 0 pour Q indéfinie, mais un point de selle, voir la figure
2.1.
42 Différentiation

4. Fixons une base (e1 , . . . , en ) de E. Nous pouvons alors identifier Q avec la matrice symétrique
(qij )i,j=1,...,n , où qij := B(ei , ej ) :
n
X n
X
Q(h) = qij hi hj pour h = hi ei .
i,j=1 i=1

5. Soit E muni d’un produit scalaire. Il existe alors une base orthonormale (a1 , . . . , an ) avec
B(ai , aj ) = ci δij pour i, j = 1, . . . , n. La matrice de Q relative à cette base est donc une
matrice diagonale, et Q est définie positive (négative) si et seulement si les coefficients ci
sont tous positifs (négatifs).

Rappelons enfin le critère suivant, qui est démontré dans l’Algèbre linéaire :

Théorème 3.46 (Critère de Hurwitz) La forme quadratique Q : E → IR est définie positive


⇐⇒ sa matrice (relative à une base de E) remplit les conditions
 
q11 . . . q1r
∆r := det  ... ..  > 0 pour r = 1, . . . , n.

. 
qr1 ... qrr
Cas spécial : pour n = 2,  
a b
Q=
b c
est définie positive ⇐⇒ a > 0 et det Q > 0 ⇐⇒ a > 0, c > 0 et det Q > 0,
définie négative ⇐⇒ a < 0 et det Q > 0 ⇐⇒ a < 0, c < 0 et det Q > 0,
indéfinie ⇐⇒ det Q < 0,
semidéfinie ⇐⇒ det Q = 0.

Théorème 3.47 Soit f : D → IR de classe C 2 , D un ouvert dans IRn , et soit x0 ∈ D un point


critique de f , Hf [x0 ] la hessienne de f en ce point. Alors :
– Hf [x0 ] définie positive (négative) =⇒ f a un minimum (maximum) local strict en x0 ;
– Hf [x0 ] indéfinie =⇒ f n’a pas d’extremum local en x0 ;
– lorsque Hf [x0 ] est semidéfinie, on ne peut rien dire.

Preuve
La formule de Taylor nous donne pour h ∈ IRn de norme khk assez petite
1
f (x0 + h) = f (x0 ) + hgrad f (x0 ), hi + Hf [x0 ](h) + R(h) .
| {z } 2 | {z }
=0 = o(khk2 )

1er cas : Hf [x0 ] définie positive :



S := {h ∈ IRn ; khk = 1} compact 
Hf [x0 ] : IRn → IR continue =⇒ a := inf{Hf [x0 ](h); h ∈ S} > 0;

Hf [x0 ](h) > 0 pour tout h ∈ S

|R(h)| a
choisissons ε > 0 tel que 2
< pour 0 < khk < ε ; alors pour 0 < khk < ε,
khk 4
1 1  h 
Hf [x0 ](h) + R(h) = Hf [x0 ] khk + R(h)
2 2 khk
|{z}
∈S
!
1  h  2R(h)
= Hf [x0 ] + khk2 > 0.
2 khk khk2
| {z } | {z }
>a a
| |< 2
3.7 Extrema locaux 43

2e cas : Hf [x0 ] définie négative : analogue !

3e cas : Hf [x0 ] indéfinie :


Fixons h0 , k0 ∈ S avec a := Hf [x0 ](h0 ) < 0 < Hf [x0 ](k0 ) =: b, et choisissons ε > 0 tel que

|R(h)| 1
< min{|a|, b} pour tout h ∈ IRn avec 0 < khk < ε ;
khk2 4

on trouve alors pour h := th0 et k := tk0 avec 0 < t < ε


1 a b 1
f (x0 + h) = Hf [x0 ](h) + R(h) 6 t2 < 0 < t2 6 Hf [x0 ](k) + R(k) = f (x0 + k).
2 4 4 2

4e cas : Hf [x0 ] semidéfinie :


Considérons (pour n = 2) les fonctions f1 (x) := x41 + x42 , f2 (x) := x41 − x42 , f3 (x) := −x41 − x42 .
Alors Hfk [(0, 0)] ≡ 0 pour k = 1, 2, 3, mais f1 admet un minimum strict, f3 un maximum strict,
f2 pas d’extremum en (0, 0).

Voici les exemples typiques pour mieux se rappeler du rôle de la hessienne :

f (x) Hf [(0, 0)] det Hf [(0, 0)] comportement en (0, 0)


 
2 0
x21 + x22 4 minimum strict (voir la figure 2.1)
0 2
 
2 0
x21 − x22 -4 pas d’extremum (voir la figure 2.1)
0 −2
 
−2 0
−x21 − x22 4 maximum strict
0 −2
 
2 0
x21 0 minimum non strict
0 0
 
−2 0
−x21 0 maximum non strict
0 0
Chapitre 4

Equations différentielles

4.1 Définitons

o IR2 est une équation de la forme


Une équation différentielle (ordinaire) d’ordre 1 sur G ⊂

y ′ = f (x, y) avec f : G → IR. (∗)

Une fonction ϕ : I → IR sur un untervalle I ⊂ IR est une solution de (∗), si



1. x, ϕ(x) ∈ G pour tout x ∈ I,

2. ϕ est dérivable et ϕ′ (x) = f x, ϕ(x) pour tout x ∈ I.

Exemple 4.1 Si G = RI × IR et si f ne dépend pas de y, alors on a l’équation y ′ = f (x), donc la


x
primitive ϕ(x) = y0 + x0 f (t) dt de f est une solution de (∗) avec ϕ(x0 ) = y0 .

Exemple 4.2 Soit G := IR2 et f (x, y) := λy. Alors ϕ(x) = ceλx est solution de (∗) pour tout
c ∈ IR.

Interprétation géométrique :
La fonction f définit un champ de directions sur G : à (x, y) ∈ G,on attache un bout de droite de
pente f (x, y). Une solution ϕ est tangente à la droite en x, ϕ(x) pour tout x, voir la figure 4.1.

Exemple 4.3 Soit G := {(x, y) ∈ IR2 ; x > 0.}. L’équation y ′ = y/x définit le champ de directions
de la figure 4.2. On voit, que les droites y(x) := cx, c ∈ IR, sont solutions. En effet : y ′ (x) = c =
y(x)/x.

Exemple 4.4 Soit G := {(x, y) ∈ IR2 ; y > 0.}. L’équation


√ y ′ = −x/y définit le champ de direc-
tions de la figure 4.3. On voit, que les cercles y(x) := r − x2 , |x| < r, r > 0, sont solutions.
2

∂2f ∂2f
Un exemple d’une équation différentielle partielle est 2
+ = 0 : on cherche des fonctions
∂x ∂y 2
de plusieures variables f = f (x, y) qui satisfont à l’équation différentielle donnée.

45
46 Equations différentielles
y
1

0.8

0.6

0.4

0.2

0.2 0.4 0.6 0.8 1


x

Fig. 4.1 – Champ de directions, définie par une équation différentielle

0.4

0.2

0.2 0.4 0.6 0.8 1


x

-0.2

-0.4

Fig. 4.2 – Champ de directions, définie par l’équation différentielle y ′ = y/x

o IRn+1 et f : G → IRn une fonction. Alors


Définition 4.5 Soit G ⊂
y ′ = f (x, y) (∗∗)
est un système de n équations différentielles ordinaires d’ordre 1.

Plus précisement, (∗∗) est une abréviation du système (avec f = (f1 , . . . , fn ))


y1′ = f1 (x, y1 , . . . , yn )
..
.
yn′ = fn (x, y1 , . . . , yn )
L’application ϕ = (ϕ1 , . . . , ϕn ) : I → IRn avec I ⊂ IR est solution de (∗∗), si

1. x, ϕ(x) ∈ G pour tout x ∈ I,

2. Pour tout k : ϕk est dérivable et ϕ′k (x) = fk x, ϕ1 (x), . . . , ϕn (x) pour tout x ∈ I.


Exemple 4.6 Soit G = IR3 , f (x, y) = f x, (y1 , y2 ) = (y2 , −y1 ). Le système correspondant est
y1′ = y2
y2′ = −y1
4.1 Définitons 47
y
1

0.8

0.6

0.4

0.2

-0.4 -0.2 0.2 0.4


x

Fig. 4.3 – Champ de directions, définie par l’équation différentielle y ′ = −x/y

Solutions : y(x) = α(sin x, cos x) + β(cos x, − sin x) avec α, β ∈ IR.

o IRn+1 et f : G → IR une fonction. Alors


Définition 4.7 Soit G ⊂
y (n) = f (x, y, y ′ , . . . , y (n−1) ) (∗∗∗)
est une équation différentielle ordinaire d’ordre n. — Une fonction de classe C n ϕ : I → IR
est solution de (∗∗∗), si

1. x, ϕ(x), ϕ′ (x), . . . , ϕ(n−1) (x) ∈ G pour tout x ∈ I

2. ϕ(n) (x) = f x, ϕ(x), ϕ′ (x), . . . , ϕ(n−1) (x) pour tout x ∈ I.

Exemple 4.8 Soit n = 2, G = IR3 , y ′′ = f (x, y, y ′ ) = −y. Solutions : y(x) = a cos x + b sin x pour
a, b ∈ IR. Voir l’exemple 4.30.

o IRn+1 et f : G → IR une fonction. Considérons l’équation (∗∗∗) et le


Proposition 4.9 Soit G ⊂
système 
y1′ = y2 

y2′

= y3 


.. (S)
. 
′ 
yn−1 = yn 



yn′ = f (x, y1 , . . . , yn )
Alors :
1. Si ϕ : I → IR est solution de (∗∗∗), alors ψ := (ϕ, ϕ′ , . . . , ϕ(n−1) ) : I → IRn est solution de (S).
2. Si ψ = (ψ1 , . . . , ψn ) : I → IRn est solution de (S), alors ϕ := ψ1 : I → IR est solution de (∗∗∗).

Exemple 4.10 Soit M une masse en 0 ∈ IR3 et m une masse en x ∈ IR3 \ {0}. Alors la masse M
exerce la force
mM x
F (x) = −γ 2
·
kxk kxk
sur la masse m. Selon NEWTON, on a
F (x) = mẍ,
donc on obtient le système
M
ẍ(t) = −γ ·x
kxk3
48 Equations différentielles

de trois équations d’ordre 2 pour x(t) = x1 (t), x2 (t), x3 (t) :

M
ẍ1 = −γ x1
kxk3
M
ẍ2 = −γ x2
kxk3
M
ẍ3 = −γ x3
kxk3
Selon la proposition 4.9, on peut transformer ce système de trois équations d’orde 2 en un système
équivalent de 6 équations d’ordre 1.

4.2 Théorème d’existence et d’unicité

o IRn+1 = IR × IRn et f : G → IRn une fonction. On dit que f est


Définition 4.11 Soit G ⊂
– Lipschitzienne avec constante de Lipschitz L ⇐⇒
 
∀(x, y), (x, ỹ) ∈ G kf (x, y) − f (x, ỹ)k 6 Lky − ỹk

(avec x ∈ IR, y, ỹ ∈ IRn ).


– localement Lipschitzienne, si tout point (a, b) ∈ G possède un voisinage ouvert U t.q. la
restriction f est Lipschitzienne.
G∩U

La constante de Lipschitz dépend des normes choisies, mais pas la propriété d’être Lipschitzienne.

Théorème 4.12 (d’unicité) Soit G ⊂ o IRn+1 = IR × IRn et f : G → IRn une fonction continue
et localement Lipschitzienne. Soit I ⊂ IR un intervalle et soient ϕ, ψ : I → IRn deux solutions du
système y ′ = f (x, y). Si ϕ(x0 ) = ψ(x0 ) pour au moins un x0 ∈ I, alors ϕ = ψ.

Preuve
1ère étape :

Si ϕ(x0 ) = ψ(x0 ), alors il existe un ε > 0 t.q. ϕ(x) = ψ(x) pour tout x ∈]x − ε, x + ε[.
 
Il existe δ > 0 et L > 0 t.q. [x0 − δ, x0 + δ] ⊂ I, kf x, ϕ(x) − f x, ψ(x) k 6 Lkϕ(x) − ψ(x)k si
kx − x0 k 6 δ.
 
Par hypothèse ϕ′ (x) = f x, ϕ(x) et ψ ′ (x) = f x, ψ(x) pour x ∈ I. Donc, pour x ∈ [x0 −δ, x0 +δ] :
Z x Z x
 
ϕ(x) = ϕ(x0 ) + f t, ϕ(t) dt, ψ(x) = ψ(x0 ) + f t, ψ(t) dt,
x0 x0
n o
donc, avec M (x) := sup kϕ(t) − ψ(t)k; |t − x0 | 6 |x − x0 | pour x ∈ [x0 − δ, x0 + δ] :
Z x  

kϕ(x) − ψ(x)k 6 kf t, ϕ(t) − f t, ψ(t) k dt 6 L|x − x0 |M (x).
x0 | {z }
6Lkϕ(t)−ψ(t)k6LM (x)

Comme

kϕ(t) − ψ(t)k 6 L|t − x0 |M (t) 6 L|x − x0 |M (x) si |t − x0 | 6 |x − x0 | 6 δ,

on obtient
M (x) 6 L|x − x0 |M (x) si |x − x0 | 6 δ.
4.2 Théorème d’existence et d’unicité 49

Pour  
1
|x − x0 | 6 min δ, =: ε
2L
on obtient donc
1
M (x) 6 M (x),
2
d’où M (x) = 0 si |x − x0 | 6 ε.

2ème étape :

Si ϕ(x0 ) = ψ(x0 ) pour un x0 ∈ I, alors ϕ = ψ sur I.

Sinon il existe x1 ∈ I t.q. ϕ(x1 ) 6= ψ(x1 ). Supposons que x1 > x0 et posons


α := inf{x > x0 ; ϕ(x) 6= ψ(x)}.
Par la continuité de ϕ et de ψ, on a que ϕ(α) = ψ(α). Selon la première étape, il existe ε > 0 t.q.
ϕ(x) = ψ(x) pour α 6 x 6 α + ε. Ceci est en contradiction avec la définition de α. /−/ 2
v

Exemple 4.13 Il y a des exemples où il y a deux solutions ϕ 6= ψ avec ϕ(x0 ) = ψ(x0 ) pour au
moins un x0 .

Théorème 4.14 d’existence Soit G o⊂ IR × IRn = IRn+1 , f : G → IRn continue et localement


Lipschitzienne. Alors, pour tout point (a, c) ∈ G, il existe un ε > 0 et une solution ϕ : [a−ε, a+ε] →
IRn du système y ′ = f (x, y) avec ϕ(a) = c ∈ IRn . (ϕ est unique selon 4.12).

Preuve
Pour y ∈ IRn , soit kyk := kykmax la norme du maximum de y. — Pour simplifier la preuve, nous
supposons que G = IRn+1 et que kf (x, y) − f (x, ỹ)k 6 Lky − ỹk pour tout (x, y), (x, ỹ) ∈ G. — Soit
1
ε := 2L . Par induction, nous définissons pour tout k ∈ IIN une fonction ϕk : [a − ε, a + ε] → IRn :
Z x

ϕ0 (x) := c, ϕk+1 (x) := c + f t, ϕk (t) dt.
a
Affirmation :

La suite (ϕk )k∈IIN converge uniformément vers une solution ϕ du système y ′ = f (x, y).
n o
En effet : pour une fonction ϕ : [a − ε, a + ε] → IRn soit kϕk := max kϕ(x)k; |x − a| 6 ε . Alors
Z x  

kϕk+1 (x) − ϕk (x)k 6 kf t, ϕk (t) − f t, ϕk−1 (t) k dt
a | {z }
6Lkϕk (t)−ϕk−1 (t)k6Lkϕk −ϕk−1 k

6 εLkϕk − ϕk−1 k
1
6 kϕk − ϕk−1 k
2
donc
1 1
kϕk+1 − ϕk k 6 kϕk − ϕk−1 k 6 . . . 6 k kϕ1 − ϕ0 k.
2 2
Alors la série

X
ϕ0 + (ϕ1 − ϕ0 ) + . . . = ϕ0 + (ϕk+1 − ϕk )
k=0
converge uniformément vers ϕ := lim ϕk , p.q.
k→∞
k→∞
ϕ0 + (ϕ1 − ϕ0 ) + . . . + (ϕk − ϕk−1 ) = ϕk −−−−−→ ϕ.
Il reste a voir, que
50 Equations différentielles

1. ϕ(a) = c,
2. ϕ est dérivable,

3. ϕ′ (x) = f x, ϕ(x) si |x − a| 6 ε.
Ad 1 : c’est évident, p.q. ϕk (a) = c pour tout k. 
Ad 2 : ϕ0 est continue, donc ϕk est continue pour tout k et ϕ′k+1 (x) = f x, ϕk (x) , donc ϕk est
dérivable pour tout k.
Ad 3 : comme ϕ= lim ϕk uniformément sur [a − ε, a + ε], on a  également g = lim gk uniformément
 
sur [a − ε, a + ε] avec g(t) := f t, ϕ(t) et gk (t) := f t, ϕk (t) ; donc, la limite des intégrales est
l’intégrale de la limite (voir Analyse I) :

ϕ(x) = lim ϕk+1 (x)


k→∞
Z x

= c + lim f t, ϕk (t) dt
k→∞ a
Z x

= c+ lim f t, ϕk (t) dt
k→∞
Zax

= c+ f t, ϕ(t) dt,
a

donc  Z x 
′ d  
ϕ (x) = c+ f t, ϕ(t) dt = f x, ϕ(x) . 2
dx a

Conséquence 4.15 Considérons l’équation différentielle (∗∗∗) sur G ⊂ o IRn+1 , f localement Lip-
schitzienne. Alors, pour tout point (a, c0 , . . . , cn−1 ) ∈ G, il existe un ε > 0 et une solution (unique !)
ϕ : [a − ε, a + ε] → IR de (∗∗∗) avec ϕ(ν) (a) = cν pour 0 6 ν 6 n − 1.

Preuve
Appliquer les théorèmes 4.14 et 4.12 au système qu’on obtient à partir de (∗∗∗) avec 4.9. 2

4.3 Équations différentielles pour des fonctions à valeurs


complexes
ϕ
Soit G ⊂o IR × Cn et f : G → Cn une application. Alors une application IR ⊃ I −−−−−→Cn est une
solution du système
y ′ = f (x, y), (∗∗)
si pour tout x ∈ I :

1. x, ϕ(x) ∈ G,

2. ϕ′ (x) = f x, ϕ(x) .
Si l’on identifie Cn et IR2n à l’aide de

Cn ∋ (. . . , yν , . . .) = (. . . , uν + ivν , . . .) = (. . . , uν , vν , . . .) ∈ IR2n ,

alors le systeme (∗∗) de n équations complexes est équivalent à un système de 2n équations réelles,
et tout théorème des sections précédentes sur les systèmes d’équations différentielles réelles donne
un théorème sur les systémes d’équations différentielles complexes (Attention : dans les deux cas,
nous cherchons des fonctions d’une variable réelle).

Si y = (y1 , . . . , yn ) : I → Cn est une solution du système complexe, alors (avec yν = uν + ivν )


l’application Y = (u1 , v1 , . . . , un , vn ) : I → IR2n est une solution du système correspondant réel (et
inversement).
4.4 Méthodes élémentaires pour résoudre des équations
différentielles 51

Exemple 4.16 L’équation complexe y ′ = iy (avec i = −1 ∈ C) est équivalente au système réel
(voir 4.6 et 4.34)

y1′ = −y2
y2′ = y1

dans le sens suivant : Soit


  
y1
SIR := : IR → IR2 ; y1′ = −y2 , y2′ = y1
y2

et 
SC := y : IR → C; y ′ = iy .
Alors  
y1
y = y1 + iy2 ∈ SC ⇐⇒ ∈ SIR
y2
et l’application  
y1
SC ∋ y = y1 + iy2 7→ ∈ SIR
y2
est une bijection entre espaces vectoriels. — Dans la section 4.5 nous allons voir que SIR est un
espace vectoriel de dimension 2 sur IR et que SC est un espace vectoriel de dimension 1 sur C.
Concrètement,    
cos x − sin x
,
sin x cos x
est une IR-base de SIR et
eix
est une C-base de SC , et l’application
   
cos x − sin x
SC ∋ (α + iβ)eix 7→ α +β ∈ SIR
sin x cos x

est une bijection entre SC et SIR .

4.4 Méthodes élémentaires pour résoudre des équations


différentielles

4.4.1 Séparation des variables

Soient r : I˜ → IR et s : J˜ → IR deux fonctions continues. Nous considérons l’équation différentielle

y ′ = r(x)s(y) (∗)

sur G = I˜ × J˜ ⊂ IR2 .

1er cas : s(y0 ) = 0 pour un y0 ∈ J. Alors y(x) ≡ y0 est une solution.


˜ Dans ce cas on a que
2ème cas : s(y) 6= 0 pour y ∈ J.

Proposition 4.17 Soit I ⊂ I˜ et y : I → IR une solution de (∗) avec y(x0 ) = y0 . Alors


Z x Z y

S(y(x)) = R(x) ∀x ∈ I avec R(x) := r(ξ) dξ, S(y) := .
x0 y0 s(η)
52 Equations différentielles

Preuve
d
Comme S(y0 ) = 0 = R(x0 ), il suffit de démontrer que S(y(x)) = R′ (x) :
dx
d y ′ (x)
S(y(x)) = S ′ (y(x))y ′ (x) = = r(x) = R′ (x). 2
dx s(y(x))

Donc, on peut trouver une équation qu’il faut résoudre et on obtient soit y = y(x) ou x = x(y).

Exemple 4.18 y ′ = y 2 admet les solutions y = 0 et y = −1/(x − a), a ∈ IR. Cet exemple montre,
que le phénomème suivant est possible : l’équation différentielle y ′ = f (x, y) est bien définie sur
tout IR2 , mais elle admet des solutions, qui ont un pôle.

Exemple 4.19 y ′ = a(A − y)(B − y) (avec A 6= B) admet les solutions contantes y = A, y = B


et les solutions
B−A
y =A+ (K ∈ IR).
1 + Kea(B−A)x

Exemple 4.20 Ṅ = λN − bN 2 admet les solutions N = 0, N = λ/b et

λ/b
N (t) = (K ∈ IR).
1 + Ke−λt

4.4.2 L’équation linéaire y ′ = uy + v

o IR un intervalle et soient u, v : I → IR des fonctions continues. Alors l’équation différentielle


Soit I ⊂

y ′ = u(x)y + v(x) (∗)

est appellée linéaire d’ordre 1 ; elle est homogène, si v = 0, et inhomogène, sinon. Soient

Sh := {y : I → IR; y ′ (x) = u(x)y(x)}, Sih := {y : I → IR; y ′ (x) = u(x)y(x) + v(x)}

l’espace des solutions de l’equation homogène resp. inhomogène. Alors :

Lemme 4.21
1. Sh est un espace vectoriel.
2. Pour tout ϕ ∈ Sih , on a Sih = ϕ + Sh := {ϕ + y; y ∈ Sh }.

Avec nos notations, on a le théorème suivant :

Théorème 4.22 Soit x0 ∈ I. Alors


 Z x  
Sh = y0 · exp u(t) dt ; y0 ∈ IR .
x0
R 
x
(La fonction y : x → y0 · exp x0 u(t) dt est la solution unique de y ′ = u(x)y(x) avec y(x0 ) = y0 ).
Donc Sh est un espace vectoriel de dimension 1.

Preuve
Il suffit de démontrer « ⊂ », c.à.d. qu’il n’y a pas d’autres solutions. Ceci est une conséquence de
4.12, si l’on sait que la fonction f (x, y) := u(x)y est localement Lipschitzienne. Mais ceci est clair,
4.5 Systèmes linéaires 53

p.q. u est continue, donc borné sur tout intervalle compact J dans I. Si |u(x)| 6 L pour x ∈ J,
alors |f (x, y) − f (x, ỹ)| 6 L|y − ỹ| pour tout x ∈ J, y ∈ IR. 2

Pour trouver toutes les solutions de l’équation inhomogène, il suffit (selon 4.21) de connaı̂tre une
seule solution de l’équation inhomogène (qu’on appelle solution particulière). Une méthode de
trouver une solution particulière est la méthode de la variation de la constante :
Rx 
Soit U (x) := a u(t) dt, alors Sh = ceU (x) ; c ∈ IR . La « méthode de la variation de la constante »
est de chercher une solution particulière de la forme

yp (x) = c(x)eU (x) ,

donc au lieu de prendre c comme constante, on admet que c soit une fonction de x. — On voit
facilement que
Z
′ ′ −U (x)
yp (x) = u(x)yp (x) + v(x) ⇐⇒ c (x) = v(x)e ⇐⇒ c(x) = v(x)e−U (x) dx

donc Z x
yp (x) = v(t) e−U (t) dt · eU (x)
a

est la solution particulière avec yp (a) = 0. Donc, la solution particulière y de (∗) avec y(a) = y0
est  Z x 
−U (t)
y(x) = y0 + v(t) e dt · eU (x)
a
Rx
(avec U (x) := a
u(t) dt).

4.5 Systèmes linéaires

o IR un intervalle ouvert, soient


Soit I ⊂ aµ,ν : I → IK (1 6 µ, ν 6 n) et bν : I → IK (1 6 ν 6 n) des
fonctions continues, soit
     
  a11 (x) ··· a1n (x) b1 (x) y1
 .. ..  ,
.. B(x) =  ...  , y =  ...  .
   
A(x) = aµ,ν (x) =  . . . 
an1 (x) ··· ann (x) bn (x) yn

Alors  
y ′ = A(x)y resp. y ′ = A(x)y + B(x)

est un système homogène (resp. inhomogène) de n équations différentielles linéaires. (Comme d’ha-
bitude, nous admettons IK = IR resp. IK = C).

Théorème 4.23
1. Pour tout a ∈ I et tout c ∈ IKn , il existe une seule solution y : I → IKn du système
y ′ = A(x)y + B(x) avec y(a) = c.
2. L’ensemble 
Sh := y : I → IKn ; y ′ = A(x)y
du système homogène est un espace vectoriel de dimension n sur IK.
3. Pour tout x0 ∈ I, l’application

Φ : Sh → IKn , y 7→ y(x0 )

est un isomorphisme d’espaces vectoriels sur IK.


54 Equations différentielles

Preuve
Sans restriction de la généralité, nous pouvons admettre que IK = IR (voir la section 4.3). Selon
le lemme 4.25, le système y ′ = A(x) · y + B(x) est localement Lipschitzien et admet une solution
(unique d’après 4.12) y : I → IRn avec y(x0 ) = c pour x0 ∈ I et c ∈ IRn données, donc 1.
est démontré. Comme 2 est une conséquence de 3, il suffit de démontrer 3. On sait déjà que
l’application Φ est bijective : la surjectivité n’est rien d’autre que l’existence, l’injectivité rien
d’autre que l’unicité des solutions du systéme y ′ = A(x) · y avec des valeurs données en x0 . Comme
(ϕ + ψ)(x0 ) = ϕ(x0 ) + ψ(x0 ), Φ est linéaire, donc un isomorphisme. 2

Exemple 4.24 Remarquons que les solutions d’un système d’équations linéaires, qui est définie
sur G = I × IRn ⊂ IRn+1 , sont définies sur tout l’intervalle I, donc elles n’ont pas des pôles à
l’intérieur de I (voir l’exemple 4.18).

Lemme 4.25 Soit J ⊂ I un intervalle compact, soient x0 ∈ J et c ∈ IRn données. Alors


1. Il existe un L > 0 t.q. kA(x)(y − ỹ)k 6 Lky − ỹk pour tout x ∈ J et pour tout y ∈ IRn .
2. La suite (ϕk )k∈IIN de fonctions ϕk : I → IRn , définies inductivement par
Z x 
ϕ0 (x) ≡ c ∈ IRn , ϕk+1 (x) := c + A(t)ϕk (t) + B(t) dt pour k > 0
x0

converge uniformément sur J vers une solution ϕ : J → IRn du système y ′ = A(x) y + B(x)
avec ϕ(x0 ) = c.
Comme J ⊂ I est un intervalle compact arbitraire, la suite (ϕk )k∈IIN converge sur I vers une
solution ϕ : I → IRn du système y ′ = A(x) · y + B(x) avec ϕ(x0 ) = c.

Preuve
Pour y ∈ IRn , soit kyk := kykmax la norme du maximum de y. La fonction
( n )
X
kA(x)k := max |aµν (x)|; 1 6 µ 6 n
ν=1

est continue, donc bornée sur J : il existe une constante L t.q. kA(x)k 6 L pour tout x ∈ J ;
comme kA(x) · yk 6 kA(x)k · kyk pour y ∈ IRn , la constante L a les propriétes désirées. Soit

K := sup kϕ1 (x) − ϕ0 (x)k; x ∈ J .
Nous démontrons par récurrence que
Lk |x − x0 |k
kϕk+1 (x) − ϕk (x)k 6 K pour k > 0 et x, x0 ∈ J.
k!
Pour k = 0 c’est évident. Soit donc k > 0 et x ∈ J. Alors
Z x 

kϕk+1 (x) − ϕk (x)k 6 kA(t) ϕk (t) − ϕk−1 (t) k dt
x0 | {z }
6Lkϕk (t)−ϕk−1 (t)k
Z x

6 L · KLk−1 |t − x0 |k−1 /(k − 1)! dt
↑ x0
hypothèse de récurrence
Z
Lk x k−1

= K |t − x0 | dt
(k − 1)! x0

Lk |x − x0 |k
= K
(k − 1)! k
Lk |x − x0 |k
= K
k!
4.5 Systèmes linéaires 55

Donc la série

X
ϕ0 + (ϕ1 − ϕ0 ) + . . . = ϕ0 + (ϕk+1 − ϕk )
k=0
  
converge normalement sur J, p.q. avec kψk := max kψ(x)k; x ∈ J
∞ ∞
X X Lk λk
kϕk+1 − ϕk k 6 K = K exp(λL) < ∞
k!
k=0 k=0

si λ := sup J − inf J est la longueur de l’intervalle J. La série converge vers ϕ := lim ϕk , p.q.
k→∞
k→∞
ϕ0 + (ϕ1 − ϕ0 ) + . . . + (ϕk − ϕk−1 ) = ϕk −−−−−→ ϕ.
Comme dans la preuve de 4.14 on voit que
1. ϕ(x0 ) = c,
2. ϕ est dérivable,
3. ϕ′ (x) = A(x) · ϕ(x) + B(x) pour x ∈ J. 2
Soient
Sh := {y : I → IKn ; y ′ (x) = A(x) · y(x)}, Sih := {y : I → IKn ; y ′ (x) = A(x) · y(x) + B(x)}
l’espace des solutions du système homogène resp. inhomogène. Alors :

Lemme 4.26 Pour tout ϕ ∈ Sih , on a Sih = ϕ + Sh := {ϕ + y; y ∈ Sh }.

Donc, on connait complètement Sih si l’on connait Sh et une solution particulière ϕ ∈ Sh .

Exemple 4.27 Considérons le système y ′ = A(x) · y + B(x) avec


   
0 −1 1
A(x) = , B(x) = .
1 0 0
Pour Sh , voir l’exemple 4.16. Comme
 
0
ϕ(x) = const = ∈ Sih
1
est une solution particulière, nous obtenons
       
cos x − sin x 0
Sih = y(x) = α +β + ; α, β ∈ IR .
sin x cos x 1

Comment peut-on caractériser une base de l’espace vectoriel Sh ?

Proposition 4.28 Soit Sh l’espace vectoriel de dimension n des solutions du système linéaire
y ′ = A(x) · y et soient Φ1 , . . . , Φn ∈ Sh des solutions du système donné. Alors, les énoncés suivants
sont équivalents :
1. Les Φ1 , . . . , Φn forment une base de Sh .
2. Pour tout x ∈ I, les vecteurs Φ1 (x), . . . , Φn (x) forment une base de IKn .
3. Il existe un x0 ∈ I t.q. les vecteurs Φ1 (x0 ), . . . , Φn (x0 ) forment une base de IKn .

Preuve Pn Pn
« 1 =⇒ 2 » Supposons x ∈ I et ν=1 λν Φν (x) = 0 ∈ IKn . Alors Φ := ν=1 λν Φν est une solution
du système avec Φ(x) = 0 ; selon le théorème d’unicité, Φ = 0 ∈ Sh , donc λ1 = . . . = λn = 0.

« 2 =⇒ 3 » est évident.

« 3 =⇒ 1 » Si les solutions Φ1 , . . . , Φn sont linéairement dépendants, alors les vecteurs


Φ1 (x0 ), . . . , Φn (x0 ) sont linéairement dépendants dans IKn . 2
56 Equations différentielles

4.6 Équations linéaires d’ordre n

o IR un intervalle, n ∈ IIN et soient b : I → IK et aν : I → IK des fonctions continues pour


Soit I ⊂
0 6 ν 6 n − 1. Alors

y (n) + an−1 (x)y (n−1) + . . . + a1 (x)y ′ + a0 (x)y = b(x) (∗)

est appellé une équation différentielle linéaire d’ordre n. Elle est homogène, si b = 0, elle
est inhomogène, si b 6≡ 0.

La théorie de ces équations différentielles est un cas spécial de la théorie des systémes linéaires : selon
4.9, toute équation différentielle d’ordre n est équivalente à un système de n équations différentielles
d’ordre 1. On vérifie sans problème que l’équation d’ordre n est linéaire si et seulement si le système
correspondant est linéaire. Ainsi, les théorèmes sur les systèmes linéaires donnent automatiquement
des théorèmes sur des équations différentielles linéaires d’ordre n :

Théorème 4.29 1. Pour tout x0 ∈ I et tout vecteur (c0 , c1 , . . . , cn−1 ) ∈ IKn , l’équation (∗)
admet une solution unique y : I → IK avec y (k) (x0 ) = ck pour 0 6 k 6 n − 1.
2. L’ensemble

Sh := y : I → IK; y (n) + an−1 (x)y (n−1) + . . . + a0 (x)y = 0

des solutions de l’équation homogène est un espace vectoriel de dimension n sur IK. Pour
tout x ∈ I, l’application

Φ : Sh → IKn , y 7→ y(x), y ′ (x), . . . , y (n−1) (x)

est un isomorphisme d’espaces vectoriels.


3. Soient ϕ1 , . . . , ϕn des élements de Sh . Alors, les énoncés suivants sont équivalents :
(a) Les ϕ1 , . . . , ϕn forment une base de Sh .
(b) Pour tout x ∈ I, le déterminant de Wronski

ϕ1 (x)
··· ϕn (x)
′ ′
ϕ1 (x)
··· ϕn (x)
W (x) := .. .. ∈ IK

(n−1) . .

(n−1)
ϕ
1 (x) · · · ϕn (x)

est non nul.


(c) Il existe un x0 ∈ I avec W (x0 ) 6= 0
4. Soit Sih l’ensemble des solutions de l’équation inhomogène (∗). Alors, pour tout ϕ ∈ Sih , on
a 
Sih = ϕ + Sh = ϕ + y; y ∈ Sh .

Preuve
Soit y ′ = A(x) · y + B(x) le système linéaire équivalent à (∗) selon 4.9. Alors, la fonction ϕ :
I → IK est solution de (∗) si et seulement si y = (ϕ, ϕ′ , . . . , ϕ(n−1) ) est solution du système
y ′ = A(x) · y + B(x) ; si y = (y1 , . . . , yn ) est solution du système y ′ = A(x) · y + B(x), alors y1 est
solution de (∗). — Avec ce « dictionnaire », on démontre facilement le théorème 4.29 en utilisant
les théorèmes analogues pour des systèmes. 2

Exemple 4.30 L’équation d’ordre deux y ′′ + y = 0 est équivalent au système

y1′ = y2 , y2′ = −y1 .


4.7 Systèmes linéaires à coefficients constants 57

Toutes les solutions du système sont


       
y1 sin x cos x α sin x + β cos x
=α +β = , α, β ∈ IR
y2 cos x − sin x α cos x − β sin x

Donc, toutes les solutions de y ′′ + y = 0 sont

y1 = α sin x + β cos x, α, β ∈ IR.

4.7 Systèmes linéaires à coefficients constants

Supposons que la matrice A(x) ne dépend pas de x, c.à.d. que A = (aµ,ν ) ∈ M (n, IK) avec aµ,ν ∈ IK.
Dans ce cas il est simple de résoudre le système y ′ = Ay :

2
o IKn par Φ(x) := eAx . Alors
Théorème 4.31 Définissons Φ : IR → GL(n, IK) ⊂

Φ′ (x) = AΦ(x).
 
Φ1k
En particulier : soit Φ = (Φ1 , . . . , Φn ) avec Φk =  ... . Alors
 

Φnk
1. Toute colonne Φk de Φ est une solution du système y ′ = Ay.
2. Les solutions Φ1 , . . . , Φn forment une base de l’espace vectoriel n-dimensionel des solutions
y : IR → IKn du système y ′ = Ay.

Preuve
Sur tout intervalle compact I = [−R, R] ⊂ IR, la série

X (Ax)ν
eAx =
ν=0
ν!

converge uniformément p.q.


ν
(Ax)ν ν xν ν x
νR
ν

ν!
= A
ν!
= kA k 6 kAk ,
max max | {z } ν! max ν!
6kAkν

d’où

X (Ax)ν

ν!
6 eRkAk < ∞.
ν=0 max

Donc
N ∞
X (Ax)ν N →∞
X (Ax)ν
ϕN (x) := −−−−−→ = Φ(x)
ν=0
ν! ν=0
ν!

uniformément sur [−R, R]. Comme


N N −1
X ν ν ν−1 X (Ax)ν
ϕN ′ (x) = A x =A = AϕN −1 (x),
ν=1
ν! ν=0
ν!

on a
N →∞
ϕN ′ (x) −−−−−→ AΦ(x)
58 Equations différentielles

uniformément sur [−R, R]. Donc (selon un théorème d’ANALYSE I, la limite des dérivées est la
dérivée de la limite, si les dérivées convergent uniformément)
Φ′ = (lim ΦN )′ = lim ΦN ′ = lim(A · ΦN −1 ) = A lim ΦN −1 = AΦ.
Comme Φ′ = AΦ, on a Φk ′ = AΦk pour toute colonne Φk de Φ, donc les colonnes de Φ sont
solutions du système y ′ = Ay. Selon 4.32, la matrice Φ(x) = exp(Ax) est inversible pour tout
x, donc les colonnes de Φ(x) sont linéairement indépendantes pour tout x, donc les solutions
Φ1 , . . . , Φn forment une base de l’espace vectoriel Sh des solutions du système y ′ = Ay selon 4.28.
2

Lemme 4.32 Pour toute matrice A ∈ Mn (IK), on a


 
1 ... 0
 .. .. ..  .
exp(A) · exp(−A) = exp(A − A) = exp(0) =  . . .
0 ... 1
En particulier, la matrice exp(A) est inversible.

Sans preuve. Attention : en générale, pour des matrices arbitraires, on a


exp(A + B) 6= exp(A) exp(B).
On a égalité si [A, B] := AB − BA = 0.

Si l’on connait des vecteurs propres de A, on connait des solutions du système y ′ = Ay :

Proposition 4.33 1. Soit λ ∈ IK une valeur propre de A et a ∈ IKn un vecteur propre corres-
pondant. Alors  
a1 eλx
y(x) := eλx a =  ... 
 

an eλx
est une solution du système y ′ = Ay.
2. Soit λ̃ ∈ IK une autre valeur propre de A et ã un vecteur propre correspondant. Alors les
solutions y(x) := eλx a et ỹ(x) := eλ̃x ã sont linéairement indépendantes.

Preuve 
y ′ (x) = λeλx a = eλx · λa = eλx · Aa = A · eλx a = A · y(x). 2

 
0 −1
Exemple 4.34 Soit A = . Alors
1 0
     
1 i 1
A = =i ,
−i 1 −i
 
1
donc λ := i ∈ C est valeur propre avec vecteur propre a = . Donc
−i
 ix 
e
y(x) :=
−ieix
est solution du système y1′ = −y2 , y2′ = y1 . Comme la matrice A est une matrice réelle, nous
sommes interessé aux solutions réelles. Avec 4.35, on trouve les solutions
 ix     ix   
e cos x e sin x
Re = et Im = .
−ieix sin x −ieix − cos x
(voir l’exemple 4.16).
4.8 Équations linéaires d’ordre n à coefficients constants 59

Lemme 4.35 Soit A ∈ Mn (IR) une matrice réelle et ϕ : IR → Cn une solution du système y ′ = Ay.
Alors la partie réelle et la partie imaginaire de ϕ, sont solutions réelles du système y ′ = Ay.

Preuve     
(Re ϕ)′ (x) = Re ϕ′ (x) = Re A · ϕ(x) = A · Re ϕ(x) = A · Re(ϕ) (x). 2

4.8 Équations linéaires d’ordre n à coefficients constants

Il s’agit d’une équation différentielle de la forme (avec aν ∈ IK pour 0 6 ν 6 n − 1)

y (n) + an−1 y (n−1) + . . . + a1 y ′ + a0 y = 0 (équation homogène) (H)


respectivement (avec une fonction continue b : I → IK)

y (n) + an−1 y (n−1) + . . . + a1 y ′ + a0 y = b(x) (équation inhomogène). (I)

qu’on a déjà vu.

Théorème 4.36 Soit Sh := {y : IR → IK | y est solution de (H)}. Alors


1. Sh est un espace vectoriel de dimension n sur IK ; pour tout x0 ∈ IR, l’application

Φ : Sh → IKn , Φ(y) := (y(x0 ), y ′ (x0 ), . . . , y (n−1) (x0 ))

est un isomorphisme.
2. Soit λ ∈ C et P (λ) := λn + an−1 λn−1 + . . . + a1 λ + a0 = 0. Alors y(x) := eλx est solution de
(H) (le polynôme P s’appelle le polynôme caracteristique de (H)).
3. Soient λ1 , . . . , λn des zéros distincts du polynôme caracteristique P . Alors les fonctions

yk (x) := eλk x , k = 1, . . . , n

forment une base de Sh .


4. Si λ ∈ C est zéro multiple de P (i.e. P (k) (λ) = 0 pour un k > 0), alors xk eλx est solution de
(H).
5. Soient λ1 , . . . , λr les zéros distincts de P , P (X) = (X−λ1 )d1 ·. . .·(X−λr )dr avec d1 +. . .+dr =
n. Alors les n fonctions

xδ eλρ x , 1 6 ρ 6 r, 0 6 δ 6 dρ − 1,

forment une base de Sh .


6. Supposons que aν ∈ IR pour 1 6 ν 6 n. Alors :
(a) Si λ = α + iβ est zéro du polynôme caracteristique, alors u(x) := Re(eλx ) = eαx cos(βx)
et v(x) := Im(eλx ) = eαx sin(βx) sont solutions réelles de (H).
(b) Soient λ1 , . . . , λn des zéros distincts du polynôme caracteristique P , soient λ1 , . . . , λr
les zéros réels et λr+1 , λr+1 , . . . , λr+s , λr+s avec r + 2s = n les zéros non réels. Alors
les n fonctions (avec λσ = ασ + iβσ pour r + 1 6 σ 6 r + s)

eλρ x (1 6 ρ 6 r), eασ x cos(βσ x), eασ x sin(βσ x) (r + 1 6 σ 6 r + s)

forment une base de Sh .


60 Equations différentielles

Exemple 4.37 Considérons l’équation

ẍ + 2ρẋ + ω02 x = 0 avec ω0 > 0, ρ > 0.

Alors P (λ) = λ2 + 2ρλ + ω02 , donc les zéros de P sont


q
λ1,2 = −ρ ± ρ2 − ω02 .
p
1er cas : ρ > ω0 : λ1,2 = −ρ ± ω avec ω := ρ2 − ω02 , la solution générale est donc

x(t) = c1 e(−ρ+ω)t + c2 e(−ρ−ω)t , c1 , c2 ∈ IR.

2eme cas : ρ = ω0 : λ1,2 = −ρ est un zéro double, la solution générale est donc

x(t) = (c1 + c2 t)e−ρt , c1 , c2 ∈ IR.


p
3eme cas : ρ < ω0 : λ1,2 = −ρ ± iω avec ω := ω02 − ρ2 , la solution générale est donc

x(t) = e−ρt (c1 cos(ωt) + c2 sin(ωt)), c1 , c2 ∈ IR.

Donc on a lim x(t) = 0 si ρ > 0. Si ρ = 0, on obtient une oscillation non amortie de fréquence ω0 .
t→∞