Vous êtes sur la page 1sur 122

Année 2018-2019.

Licence 3ème année Université Grenoble Alpes

Calcul intégral
Emmanuel Russ avec des modications mineures de Philippe Eyssidieux

Contact :
philippe.eyssidieux@univ-grenoble-alpes.fr
==============================================
Table des matières
1 Calcul intégral en dimension 1 5
1.1 Intégrale d'une fonction en escalier . . . . . . . . . . . . . . . . . 5
1.1.1 Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Intégrale d'une fonction en escalier . . . . . . . . . . . . . 7
1.2 Intégrale d'une fonction continue par morceaux . . . . . . . . . . 8
1.2.1 Dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Lien avec les primitives . . . . . . . . . . . . . . . . . . . 12
1.2.3 Changement de variable . . . . . . . . . . . . . . . . . . . 13
1.2.4 Intégration par parties . . . . . . . . . . . . . . . . . . . . 14
1.2.5 Inégalités de Cauchy-Schwarz et de Minkowski . . . . . . 17
1.2.6 Sommes de Riemann . . . . . . . . . . . . . . . . . . . . . 20
1.2.7 Convergence de suites d'intégrales . . . . . . . . . . . . . 22
1.2.8 Méthodes de calcul approché . . . . . . . . . . . . . . . . 25
1.3 Longueur des courbes paramétrées . . . . . . . . . . . . . . . . . 30
1.4 Séries de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.1 Coecients de Fourier d'une fonction 2π -périodique . . . 36
1.4.2 Le noyau de Dirichlet . . . . . . . . . . . . . . . . . . . . 37
1.4.3 Convergence quadratique . . . . . . . . . . . . . . . . . . 38
1.4.4 Convergence ponctuelle . . . . . . . . . . . . . . . . . . . 40
1.5 Intégrales impropres . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.5.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.5.2 Cas des fonctions positives . . . . . . . . . . . . . . . . . 46
1.5.3 Cas des fonctions à valeurs dans R . . . . . . . . . . . . . 48
1.5.4 Intégrales plusieurs fois impropres . . . . . . . . . . . . . 50
1.5.5 Convergence de suites d'intégrales impropres . . . . . . . 51

2 Calcul intégral en dimension n 55


2.1 Intégrales des fonctions en escalier . . . . . . . . . . . . . . . . . 55
2.2 Fonctions intégrables sur une partie cubable de Rn . . . . . . . . 57
2.2.1 Dénition des fonctions intégrables . . . . . . . . . . . . . 57
2.2.2 Une autre caractérisation des fonctions intégrables . . . . 58
2.2.3 Parties cubables . . . . . . . . . . . . . . . . . . . . . . . 60
2.3 Méthodes de Calcul . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.3.1 Théorèmes de Fubini . . . . . . . . . . . . . . . . . . . . . 62

3
2.3.2 Changement de variable . . . . . . . . . . . . . . . . . . . 66
2.3.3 Calculs d'aires et de volumes . . . . . . . . . . . . . . . . 69
2.3.4 Intégrales de surface . . . . . . . . . . . . . . . . . . . . . 70
2.3.5 Formule de Green-Riemann . . . . . . . . . . . . . . . . . 74
2.4 Intégrales impropres . . . . . . . . . . . . . . . . . . . . . . . . . 74

3 Probabilités et statistiques 77
3.1 Algèbres de Boole et probabilités booléennes . . . . . . . . . . . 77
3.2 Tribus et probabilités . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.4 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . 83
3.5 Variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . 86
3.5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.5.2 Variables aléatoires réelles indépendantes . . . . . . . . . 88
3.6 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 89
3.6.1 Dénitions et premières propriétés . . . . . . . . . . . . . 89
3.6.2 Espérance, moments d'une variable aléatoire discrète . . . 92
3.7 Variables aléatoires à densité . . . . . . . . . . . . . . . . . . . . 99
3.7.1 Dénitions et premières propriétés . . . . . . . . . . . . . 99
3.7.2 Espérance et moments d'une variable aléatoire à densité . 101
3.8 Convergences de suites de variables aléatoires . . . . . . . . . . . 106
3.8.1 Convergence en probabilité d'une suite de variables aléa-
toires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.8.2 Convergence en loi d'une suite de variables aléatoires . . . 107
3.9 Théorèmes limite . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.9.1 Théorème central limite de Poisson . . . . . . . . . . . . . 110
3.9.2 Approximation de la loi binomiale par la loi hypergéomé-
trique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.9.3 Théorème de de Moivre-Laplace . . . . . . . . . . . . . . 111
3.9.4 Le théorème central limite . . . . . . . . . . . . . . . . . . 111
3.9.5 Loi faible des grands nombres . . . . . . . . . . . . . . . . 111
3.10 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.11 Statistique inférentielle . . . . . . . . . . . . . . . . . . . . . . . . 115
3.11.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.11.2 Estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.11.3 Intervalles de conance . . . . . . . . . . . . . . . . . . . 120
3.11.4 Intervalle de uctuation . . . . . . . . . . . . . . . . . . . 121
3.11.5 Conséquences sur la prise de décision . . . . . . . . . . . . 122

==============================================
Chapitre 1

Calcul intégral en dimension 1


On utilisera la notation suivante : si A est un ensemble, et B ⊂ A, la fonction
indicatrice (ou caractéristique), de B, notée1B , est donnée par

1 si x ∈ B,
1B (x) =
0 si x ∈ A \ B.

Le théorème principal de ce chapitre est :

Théorème 1.0.1 Soient a < b des réels. Il existe une unique forme linéaire
b Rb Rb
: C 0 ([a, b], R) → R
R
a
telle que
a
f ≥ 0 si f ≥ 0 et a 1[c,d] = d − c pour tous
a ≤ c ≤ d ≤ b.

L'espace des fonctions en escalier étant engendré par les indicatrices des seg-
ments, ceci résulte de du Théorème 1.2.9.
On rappelle d'abord les étapes de la construction de l'intégrale des fonctions
continues par morceaux sur un segment. Comme cette construction a déjà été
vue en L2 ou en classes préparatoires, nous ne détaillons pas les arguments.

1.1 Intégrale d'une fonction en escalier

1.1.1 Fonctions en escalier


Dénition 1.1.1 Soient a < b.
1. On appelle subdivision de [a, b] toute suite σ = (x0 , ..., xN ) avec N ≥ 1,
et a = x0 < ... < xN = b.
2. Le pas de la subvision σ est déni par

|σ| := max (xi+1 − xi ).


0≤i≤N −1

Exemple 1.1.2 SiN ≥ 1 et si on pose xk := a+ k(b−a)


N , alors la suite (xk )0≤k≤N
b−a
est une subdivision de [a, b], dite régulière. Son pas est
N .

5
Dénition 1.1.3 Soient n ≥ 1, a < b et f : [a, b] → Rn une fonction. On dit
que f est en escalier si, et seulement si, il existe une subdivision σ = (x0 , ..., xN )
telle que f soit constante sur chaque intervalle ]xi , xi+1 [, i ∈ {0, N − 1}. Dans
ce cas, on dit que la subdivision σ est adaptée à f.

Remarque 1.1.4 1. Une fonction en escalier ne prend qu'un ensemble ni


de valeurs.

2. Une fonction en escalier est donc bornée : si a < b et f : [a, b] → Rn est


en escalier, alors il existe M > 0 tel que kf (x)k ≤ M pour tout x ∈ [a, b].

3. Si f1 et f2 sont en escalier de [a, b] dans Rn , il existe une subdivision


de [a, b] adaptée à f1 et f2 . En eet, si σ1 (resp. σ2 ) est une subdivision
adaptée à f1 (resp. à f2 ), alors la subdivision obtenue en réunissant tous
les points de σ1 et de σ2 est adaptée à f1 et à f2 .

Exemple 1.1.5 1. Soient a < b. Toute fonction constante sur [a, b] est en
escalier.

2. Soient a < b. La fonction x 7→ E(x), de [a, b] dans R, où E(x) est la


partie entière de x, c'est-à-dire le plus grand entier k ∈ Z tel que k ≤ x,
est en escalier.

3. Soient a < b. Si f : [a, b] → R est continue non constante, alors f n'est


pas en escalier. En eet, f ([a, b]) est un intervalle non réduit à un point,
donc est un ensemble inni.

4. La fonction f : [0, 1] → R dénie par f (x) = 1Q (x) n'est pas en escalier.


Cet exemple montre qu'une fonction qui ne prend qu'un ensemble ni de
valeurs n'est pas forcément en escalier.

Proposition 1.1.6 Soient a < b. On xe une norme k·k sur Rn .


1. L'ensemble des fonctions en escalier de [a, b] dans Rn , noté E([a, b], Rn )
dans la suite, est un sous-espace vectoriel de celui des fonctions de [a, b]
dans Rn .
2. Pour toute f ∈ E([a, b], Rn ), on pose

kf k∞ := sup kf (x)k .
a≤x≤b

Alors l'application f 7→ kf k∞ est une norme sur E([a, b], Rn ).


3. Soit f : [a, b] → Rn . Alors f est en escalier si, et seulement si, f est une
combinaison linéaire de fonctions de la forme 1I c, où I est un segment
fermé (éventuellement réduit à un point) inclus dans [a, b] et c ∈ Rn , si,
et seulement si, f est une combinaison linéaire de fonctions de la forme
1I c, où I est un segment fermé (éventuellement réduit à un point) inclus
dans [a, b] et c ∈ Rn .
4. Si σ est une subdivision la famille des fonctions indicatrices des points
xi de cette subdivision et des intervalles ouverts ]xi , xi+1 [ est une base
de l'espace vectoriel des fonctions en escalier auxquelles σ est adaptée.
1.1.2 Intégrale d'une fonction en escalier
Dénition 1.1.7 Soient a<b f : [a, b] → Rn une fonction en escalier. Soit
et
σ = (x0 , ..., xN ) une subdivision adaptée à f et ci la valeur de f sur ]xi , xi+1 [.
n
On appelle intégrale de f sur [a, b] l'élément de R déni par

Z b N
X −1
f (x)dx := (xi+1 − xi )ci . (1.1)
a i=0

Cette quantité ne dépend pas du choix de la subdivision σ adaptée à f . On peut


Rb Rb Rb
noter indiéremment
a
f (x)dx = a
f (y)dy = a
f (u)du... Autrement dit, x
est une lettre muette dans cette écriture.

Exemple 1.1.8 1. S'il existe u ∈ Rn tel que f (x) = u pour tout x ∈ [a, b],
alors
Z b
f (x)dx = (b − a)u.
a
2. Si f = E (la partie entière) sur [0, 3],
Z 3
f (x)dx = 0 × (1 − 0) + 1 × (2 − 1) + 2 × (3 − 2) = 3.
0

Proposition 1.1.9
Rb
L'application f 7→ a
f (x)dx est linéaire de E([a, b], Rn )
n
dans R .

Proposition 1.1.10 Soienta < b et f : [a, b] → Rn une fonction en escalier.


n
Soit x 7→ kxk une norme sur R . Alors x 7→ kf (x)k est en escalier et
Z
b Z b
f (x)dx ≤ kf (x)k dx.


a a

Corollaire 1.1.11 Soient a<bf, g : [a, b] → R des fonctions en escalier.


et
Rb
1. Si f (x) ≥ 0 pour tout x ∈ [a, b], alors a f (x)dx ≥ 0.
Rb Rb
2. Si f (x) ≤ g(x) pour tout x ∈ [a, b], alors a f (x)dx ≤ a g(x)dx.
Remarque 1.1.12 Soient a<b et f : [a, b] → Rn . On suppose que

{x ∈ [a, b]; f (x) 6= 0}


Rb
est un ensemble ni. Alors f est en escalier et f (x)dx = 0. En particulier, il
a
peut arriver que f soit positive sur [a, b] et d'intégrale nulle, sans être identi-
quement nulle.

Proposition 1.1.13 Soient a<b et f : [a, b] → Rn en escalier. Alors


Z
b
f (x)dx ≤ (b − a) kf k∞ .


a
Rb
En d'autres termes, l'application f 7→ a
f (x)dx est une application linéaire
continue de E([a, b], Rn ) dans Rn .
Proposition 1.1.14 [Relation de Chasles] Soient a<c<b et f : [a, b] → Rn
une fonction en escalier. Alors

Z c Z b Z b
f (x)dx + f (x)dx = f (x)dx.
a c a

1.2 Intégrale d'une fonction continue par mor-

ceaux

1.2.1 Dénition
Dénition 1.2.1 Soient I un intervalle de R, f : I → Rn et a ∈ I . Soit l ∈ Rn .
1. On dit que
lim f (x) = l
x→a, x>a

si, et seulement si, pour tout ε > 0, il existe δ > 0 tel que, pour tout
x ∈ I, si a < x < a + δ , kf (x) − lk < ε. On dit alors que f possède une
limite à droite en a.

2. On dit que
lim f (x) = l
x→a, x<a

si, et seulement si, pour tout ε > 0, il existe δ > 0 tel que, pour tout
x ∈ I, si a − δ < x < a, kf (x) − lk < ε. On dit alors que f possède une
limite à gauche en a.

Exemple 1.2.2 1. Soit f : [0, 1] → R donnée par



 0 si x 6= 1 ,

f (x) = 2
1
 1 si x = .

2
Alors
lim f (x) = 0
x→ 21 , x> 12

et
lim f (x) = 0.
x→ 12 , x< 12

1

On notera que ces limites à gauche et à droite sont diérentes de f 2 .
sin x
2. Soit f :]0, 1] → R dénie par f (x) = x . Alors

lim f (x) = 1.
x→0, x>0

1

3. Soit f :]0, 1] → R dénie par f (x) = sin x . Alors f ne possède pas de
limite à droite en 0.
Dénition 1.2.3 Soient a < b et f : [a, b] → Rn . On dit que f est continue par
morceaux sur [a, b] si, et seulement si, il existe une subdivision σ = (x0 , ..., xN )
de [a, b] telle que :

1. pour tout i ∈ {0, . . . , N − 1}, la restriction de f à ]xi , xi+1 [ est continue,

2. pour tout i ∈ {0, . . . , N − 1}, f possède une limite en xi à droite,

3. pour tout i ∈ {1, . . . , N }, f possède une limite en xi à gauche.

Remarque 1.2.4 On notera que cette dénition revient à dire que, pour tout
i ∈ {0, . . . , N − 1}, la restriction de f à ]xi , xi+1 [ se prolonge en une fonction
continue sur [xi , xi+1 ].

Exemple 1.2.5 1. Toute fonction continue sur [a, b] est continue par mor-
ceaux.

2. Toute fonction en escalier sur [a, b] est continue par morceaux.

3. La fonction f : [0, 2] → R dénie par



 x si 0 ≤ x < 1,
f (x) = x−1 si 1 ≤ x < 2,
0 si x=2

est continue par morceaux.

4. La fonction f : [0, 1] → R dénie par

1
(
si 0 < x ≤ 1,
f (x) = x
0 si x=0

n'est pas continue par morceaux.

Il est facile de vérier :

Proposition 1.2.6 Soient a < b. On xe une norme k·k sur Rn .


1. L'ensemble des fonctions continues par morceaux de [a, b] dans Rn , noté
Cpm ([a, b], Rn ) dans la suite, est un sous-espace vectoriel de celui des
n
fonctions de [a, b] dans R .

2. Toute fonction continue par morceaux sur [a, b] est bornée sur [a, b] et
possède, en tout point de [a, b], une limite à gauche et une limite à droite.
3. Pour toute f ∈ Cpm ([a, b], Rn ), on pose

kf k∞ := sup kf (x)k .
a≤x≤b

Alors l'application f 7→ kf k∞ est une norme sur Cpm ([a, b], Rn ).


On a vu qu'une fonction en escalier est continue par morceaux. Réciproque-
ment, une fonction continue par morceaux s'approche uniformément par des
fonctions en escalier :
Proposition 1.2.7 a < b et f : [a, b] → Rn une fonction continue par
Soient
n
morceaux. Alors, pour tout ε > 0, il existe une fonction en escalier g : [a, b] → R
n
telle que kf − gk∞ ≤ ε. En d'autres termes, l'espace E([a, b], R ) est dense dans
Cpm ([a, b], Rn ).
La proposition 1.2.7 permet d'étendre la dénition de l'intégrale aux fonctions
continues par morceaux sur un segment. On rappelle le théorème suivant :

Théorème 1.2.8 Soient E et F des espaces vectoriels normés, A⊂E un sous-


espace vectoriel de E dense dans E et T : A → F une application linéaire
continue. On suppose F complet. Alors il existe une unique application linéaire
continue Te : E → F telle que Te(x) = T (x) pour tout x ∈ A.
On va utiliser le théorème 1.2.8 pour montrer :

Théorème 1.2.9
Rb
Soient a < b. L'application f 7→ a f (x)dx, initialement dé-
n n
nie de E([a, b], R ) dans R , se prolonge de manière unique en une application
n n
Rb
linéaire continue de Cpm ([a, b], R ) dans R , encore notée f 7→ f (x)dx. On a
a
Z
b
f (x)dx ≤ kf k∞ (b − a) (1.2)


a

pour toute f ∈ Cpm ([a, b], Rn ).

Remarque 1.2.10 a < b et f, g : [a, b] → Rn sont continues par morceaux et


Si
s'il existe un ensemble ni E ⊂ [a, b] tel que f (x) = g(x) pour tout x ∈ [a, b] \ E ,
Rb Rb
alors
a
f (x)dx = a g(x)dx. En eet, g − f est une fonction en escalier, nulle
en dehors d'un ensemble ni.

On peut étendre la relation de Chasles (Proposition 1.1.14) de la manière sui-


vante :

Proposition 1.2.11 [Relation de Chasles, cas général] Soient a < c < b et


f : [a, b] → Rn continue par morceaux. Alors

Z b Z c Z b
f (x)dx = f (x)dx + f (x)dx.
a a c
Ra
Il est commode de dénir
b
f (x)dx pour a≤b :

Dénition 1.2.12 Soient a<b et f : [a, b] → Rn une fonction continue par


morceaux.

1. On pose
Z a
f (x)dx = 0.
a

2. On pose
Z a Z b
f (x)dx = − f (x)dx.
b a
Proposition 1.2.13 Soient a<b et f : [a, b] → Rn une fonction continue par
morceaux. Si f = (f1 , ..., fn ), alors

!
Z b Z b Z b
f (x)dx = f1 (x)dx, ..., fn (x)dx .
a a a

Proposition 1.2.14 Soient a<b et f : [a, b] → Rn une fonction continue par


morceaux. Alors x 7→ kf (x)k est aussi continue par morceaux et

Z Z
b b
f (x)dx ≤ kf (x)k dx.


a a

Comme dans le cas des fonctions en escalier, on en déduit :

Corollaire 1.2.15 Soient a<b et f, g : [a, b] → R des fonctions continues par


morceaux.
Rb
1. Si f (x) ≥ 0 pour tout x ∈ [a, b], f (x)dx ≥ 0.
alors
a
Rb Rb
2. Si f (x) ≤ g(x) pour tout x ∈ [a, b], alors a f (x)dx ≤ a g(x)dx.
3. Si f et g sont continues sur [a, b], f (x) ≤ g(x) pour tout x ∈ [a, b] et
Rb Rb
a
f (x)dx = a g(x)dx, alors f (x) = g(x) pour tout x ∈ [a, b].
4. Si f et g sont continues par morceaux sur [a, b], f (x) ≤ g(x) pour tout
Rb Rb
x ∈ [a, b] et a f (x)dx = a g(x)dx, alors il existe un ensemble ni E ⊂
[a, b] tel que f (x) = g(x) pour tout x ∈ [a, b] \ E .
R
b Rb
5. Si f : [a, b] → R est continue et si f (x)dx = a |f (x)| dx, alors

a
f (x) ≥ 0 pour tout x ∈ [a, b] ou f (x) ≤ 0 pour tout x ∈ [a, b].

Preuve : les deux premiers points se montrent comme dans le cas des fonctions
en escalier. Pour le 3, soit h := g−f , qui est une fonction continue et positive sur
[a, b]. x0 ∈ [a, b] tel que h(x0 ) > 0, alors par continuité de h sur [a, b],
S'il existe
1
il existe c, d ∈ [a, b] avec a ≤ c ≤ x0 ≤ d ≤ b et c < d tels que h(x) ≥ h(x0 )
2
pour tout x ∈ [c, d]. Cela implique

Z b Z c Z d Z b
1
h(x)dx = h(x)dx + h(x)dx + h(x)dx ≥ (d − c)h(x0 ) > 0,
a a c d 2
Rb
alors que
a
h(x)dx = 0 par hypothèse.
Pour 4, on pose à nouveau h := g−f , qui est une fonction continue par morceaux
et positive sur [a, b]. Le même argument montre que h = 0 en tout point de
continuité de h, et la conclusion s'en déduit.
Rb Rb Rb
Pour 5, on suppose que
a
f (x)dx ≥ 0, de sorte que a f (x)dx = a |f (x)| dx.
Rb
Comme f ≤ |f |, on a donc f = |f | sur [a, b], donc f ≥ 0 sur [a, b]. Si f (x)dx ≤
a
0, on applique le cas précédent à −f .
1.2.2 Lien avec les primitives
Théorème 1.2.16 Soient I un intervalle de R et f : I → Rn une fonction dont
la restriction à tout segment inclus dans I est continue par morceaux. On xe
a ∈ I. Pour tout x ∈ I, on pose

Z x
F (x) := f (t)dt.
a

1. La fonction F est continue sur I.


0
2. Pour tout x ∈ I, F est dérivable à droite et à gauche en x et

Fd0 (x) = lim f (y) et Fg0 (x) = lim f (y).


y→x, y>x y→x, y<x

En particulier, si f est continue en x, alors F est dérivable en x et F 0 (x) =


f (x).

Preuve : 1, soit x ∈ I . On suppose a < x et on xe h > 0 tel que


pour
x + h ∈ I. Comme f est bornée sur [a, x + h], soit M > 0 tel que kf (t)k ≤ M
pour tout t ∈ [a, x + h]. Alors, pour tous u < v dans [a, x + h],

Z v Z v

kF (v) − F (u)k =

f (t)dt kf (t)k dt ≤ M (v − u),
u u

ce qui termine la preuve dans ce cas. Les autres cas sont analogues.
Pour 2, soient x ∈ I et ε > 0. Comme f possède une limite à droite en x, notée
l, il existe δ > 0 tel que, pour tout t ∈]x, x + δ], kf (t) − lk < ε. Alors, pour tout
y ∈]x, x + δ],
Z y Z y
F (y) = F (x) + f (t)dt = F (x) + l(y − x) + (f (t) − l)dt,
x x

de sorte que

Z y Z y
F (y) − F (x) 1 ≤ 1

− l = (f (t) − l)dt kf (t) − lk dt ≤ ε,
y−x y−x
x
y−x
x

ce qui montre bien que Fd0 (x) = l. Pour la dernière majoration, plus précisément,
on dénit 
kf (t) − lk si x < t ≤ x + δ,
g(t) :=
0 si x = t,

si bien que g(t) ≤ ε pour tout t ∈ [x, x + δ], et donc


Z y Z y
kf (t) − lk dt = g(t)dt ≤ ε(y − x).
x x

On raisonne de même pour la dérivée à gauche.


Dénition 1.2.17 Si I est un intervalle de R et f, F : I → Rn , on dit que F
est une primitive de f sur I si, et seulement si, F est dérivable sur I et F 0 = f .
Si G et F sont des primitives de f, alors il existe C ∈ Rn tel que G = F + C
sur I .

Il sut, pour montrer la dernière assertion, d'appliquer le théorème des accrois-


sements nis à G − F.
Théorème 1.2.18 Soient I n
R x R et f : I → R continue. On xe
un intervalle de
a ∈ I et, pour tout x ∈ I , on pose F (x) = a f (t)dt. Alors :
1
1. F est de classe C et est une primitive de f sur I (en particulier, f a une
primitive sur I ),
Rb
2. si G est une primitive de f sur I , alors pour tout b ∈ I , f (t)dt =
a
G(b) − G(a).
Preuve : d'après le théorème 1.2.16, F0 = f
I , ce qui montre aussi que F 0 sur
1
est continue, donc que F est C . La conclusion de 2 suit car G − F est constante
sur I .

1.2.3 Changement de variable


Théorème 1.2.19 Soient a < b, I un intervalle de R, ϕ : [a, b] → I de classe
C1 et f : I → Rn continue. Alors

Z b Z ϕ(b)
(f ◦ ϕ)(t)ϕ0 (t)dt = f (u)du.
a ϕ(a)

Preuve : on note d'abord que(f ◦ ϕ)ϕ0 est bien continue sur [a, b] et f est bien
0
continue sur [ϕ(a), ϕ(b)] ⊂ I . Soit F une primitive de f sur I . Alors (F ◦ ϕ) =
0 0 0 0
(F ◦ ϕ)ϕ = (f ◦ ϕ)ϕ , de sorte qu'une primitive de (f ◦ ϕ)ϕ est F ◦ ϕ. On a
donc
Z b
(f ◦ ϕ)(t)ϕ0 (t)dt = (F ◦ ϕ)(b) − (F ◦ ϕ)(a),
a
alors que
Z ϕ(b)
f (u)du = F (ϕ(b)) − F (ϕ(a)).
ϕ(a)

Exemple 1.2.20

sin2 t cos tdt. Si ϕ(t) = sin t pour tout
R
1. Soit I := 0
2

t∈R et f (u) = u 2
pour tout u ∈ R, on a ϕ(0) = 0 et ϕ( 3π2 ) = −1, donc

Z 2
Z −1
I= (f ◦ ϕ)(t)ϕ0 (t)dt = f (u)du,
0 0

u3
et comme une primitive de f est F (u) = 3 , on obtient que

1
I = F (−1) − F (0) = − .
3
R1
2. Soit I := 1 √ 1 dt. Si ϕ(u) = sinh u pour tout u ∈ R, si a est tel que
2 1+t2
1 √ 1
ϕ(a) = 2 et b tel que ϕ(b) = 1, et si f (t) = 1+t2
, alors

Z ϕ(b) Z b Z b
1
I= f (t)dt = f (ϕ(u))ϕ0 (u)du = p cosh udu = b−a,
ϕ(a) a a 1 + sinh2 u

et il ne reste qu'à calculer a et b. Orea − e−a√ = 1, donc,si X


√ 
= ea ,
2 1+ 5 1+ 5
X>0 et X − X − 1 = 0, de sorte que X =
2 et a = ln
2 . De
−b
même, e − e = 2, donc, si Y = eb , Y > 0 et Y 2 − 2Y − 1 =
b
0, de sorte
√ √ √ 
1+√2
que Y = 1 + 2 et b = ln(1 + 2). Finalement, I = ln 2 1+ 5 .
3. Soient
Ra a > 0 Ret f : [−a, a] → Rn une fonction continue paire. Alors
a
−a
f (t)dt = 2 0 f (t)dt. En eet, si ϕ(t) = −t, on obtient que
Z 0 Z ϕ(0) Z 0 Z 0 Z a
f (t)dt = f (t)dt = f (ϕ(t))ϕ0 (t)dt = − f (−t)dt = f (t)dt,
−a ϕ(a) a a 0

de sorte que

Z a Z 0 Z a Z a
f (t)dt = f (t)dt + f (t)dt = 2 f (t)dt.
−a −a 0 0

4. Soient a > 0 et f : [−a, a] → Rn une fonction continue impaire. Alors


Ra R0
−a
f (t)dt = 0. En eet, par le même changement de variables, −a f (t)dt =
Ra
− 0 f (t)dt.
5. Soit f : R → R continue et périodique de période T > 0. Alors, pour
tout x ∈ R,
Z T Z x+T
f (t)dt = f (t)dt.
0 x

En eet, si ϕ(t) = t + T ,
Z x+T Z ϕ(x) Z x Z x Z x
0
f (t)dt = f (t)dt = f (ϕ(t))ϕ (t)dt = f (t+T )dt = f (t)dt,
T ϕ(0) 0 0 0

donc
Z x+T Z 0 Z T Z x+T Z T
f (t)dt = f (t)dt + f (t)dt + f (t)dt = f (t)dt.
x x 0 T 0

1.2.4 Intégration par parties


Théorème 1.2.21 Soient a<b et u, v : [a, b] → R de classe C 1. Alors

Z b Z b
u(t)v 0 (t)dt = u(b)v(b) − u(a)v(a) − u0 (t)v(t)dt.
a a
Preuve : la fonction uv est C 1 et sa dérivée vaut u0 v + v 0 u. En d'autres termes,
une primitive de u v + v 0 u est uv , et comme u0 v + v 0 u est continue, on a
0

Z b
(u0 (t)v(t) + v 0 (t)u(t))dt = u(b)v(b) − u(a)v(a),
a

ce qui est le résultat annoncé.

Exemple 1.2.22 1. Avec u(t) = lnt et v(t) = t,


Z 2 Z 2
lntdt = 2ln2 − dt = 2ln2 − 1.
1 1

2. On veut calculer I= 0
et sin tdt. Avec u(t) = et et v(t) = − cos t,
Z π
I= u(t)v 0 (t)dt = u(π)v(π) − u(0)v(0) + J
0

avec Z π
J := et cos tdt.
0

Avec maintenant u(t) = et et w(t) = sin t, on trouve que


Z π
J= u(t)w0 (t)dt = u(π)w(π) − u(0)w(0) − I,
0

de sorte que

I = u(π)v(π) − u(0)v(0) + u(π)w(π) − u(0)w(0) − I,

donc

1 1
I= (u(π)v(π) − u(0)v(0) + u(π)w(π) − u(0)w(0)) = (eπ + 1) .
2 2
Voici une conséquence importante de la formule d'intégration par parties :

Théorème 1.2.23 (Formule de Taylor avec reste intégral) Soient a < b,


k∈N et f : [a, b] → R une fonction de classe C k+1 . Alors

k b
(b − a)j (b − t)k (k+1)
X Z
f (b) = f (a) + f (j) (a) + f (t)dt.
j=1
j! a k!

Preuve : on raisonne par récurrence sur k. Pour k = 0, f est C1 et la formule


s'écrit
Z b
f (b) = f (a) + f 0 (t)dt,
a
ce qui est vrai.
On suppose maintenant la conclusion vraie pour un k ∈ N. Soit f de classe
C k+2 . Comme f est C k+1 , on a déjà

k b
(b − a)j (b − t)k (k+1)
X Z
f (b) = f (a) + f (j) (a) + f (t)dt.
j=1
j! a k!
k+1
Si on pose u(t) = f (k+1) (t) et v(t) = − (b−t)
(k+1)! , alors une intégration par parties
montre que

b b
(b − t)k (k+1)
Z Z
f (t)dt = u(t)v 0 (t)dt
a k! a
b
(b − a)k+1 (k+1) (b − t)k+1 (k+2)
Z
= f (a) + f (t)dt,
(k + 1)! a (k + 1)!
ce qui donne bien la conclusion pour k+1 et termine la preuve.

Théorème 1.2.24 (Première formule de la moyenne) Soient a < b, f, g :


[a, b] → R. On suppose f continue et g continue par morceaux et positive. Alors
il existe c ∈ [a, b] tel que

Z b Z b
f (t)g(t)dt = f (c) g(t)dt.
a a

Preuve : comme f est continue, il existe m≤M tels que f ([a, b]) = [m, M ].
Comme g est positive, on a donc
Z b Z b Z b
m g(t)dt ≤ f (t)g(t)dt ≤ M g(t)dt.
a a a
Rb Rb
Si
a
g(t)dt = 0, cette inégalité montre que a
f (t)g(t)dt = 0, et n'importe quel
c convient. Sinon, on a
Rb
a
f (t)g(t)dt
m≤ Rb ≤ M,
a
g(t)dt
et la conclusion provient du fait que f ([a, b]) = [m, M ].
Théorème 1.2.25 (Deuxième formule de la moyenne) Soient a < b, f :
[a, b] → [0, +∞[ C 1 et décroissante et g : [a, b] → R continue. Alors il existe
c ∈ [a, b] tel que
Z b Z c
f (t)g(t)dt = f (a) g(t)dt.
a a

Preuve : f (a) = 0, f est identiquement nulle et tout c convient. On


si
Rt
sup-

pose donc que f (a) > 0. Pour tout t ∈ [a, b], on pose G(t) := g(u)du. Une
a
intégration par parties montre que
Z b Z b Z b
f (t)g(t)dt = f (t)G0 (t)dt = f (b)G(b) − f 0 (t)G(t)dt.
a a a
Comme −f 0 ≥ 0, la première formule de la moyenne montre qu'il existe d ∈ [a, b]
tel que
Z b Z b
0
f (t)G(t)dt = G(c) f 0 (t)dt = G(d)(f (b) − f (a)),
a a
donc
Z b  
1 f (b) f (b)
f (t)g(t)dt = G(b) + G(d) 1 − ,
f (a) a f (a) f (a)
et comme le membre de droite de cette égalité est compris entre G(b) et G(d) et
G est continue, le théorème des valeurs intermédiaires assure qu'il existe c ∈ [d, b]
tel que
Z b
1
f (t)g(t)dt = G(c),
f (a) a
ce qui est la conclusion.

1.2.5 Inégalités de Cauchy-Schwarz et de Minkowski


Théorème 1.2.26 [Inégalité de Cauchy-Schwarz] Soient f, g ∈ Cpm ([a, b], R).
Alors :

1. f g, f 2 et g2 sont continues par morceaux sur [a, b] et

Z ! 12 ! 21
b Z b Z b
f (x)g(x)dx ≤ f 2 (x)dx g 2 (x)dx , (1.3)


a a a

2. si f et g sont continues sur [a, b] et s'il y a égalité dans (1.3), alors f =0


ou il existe λ∈R tel que g = λf sur [a, b].

La preuve utilise l'observation suivante :

Lemme 1.2.27 Pour tous u, v ∈ R,


1 2 1 2
uv ≤ u + v , (1.4)
2 2
et s'il y a égalité dans (1.4), alors u = v.
Preuve du lemme 1.2.27 : 0 ≤ (u − v)2 = u2 + v2 − 2uv. R
Preuve du théorème 1.2.26 : on commence par le point 1. Si ab f (x)2 dx = 0,
comme f 2 est continue f (x) = 0 sur [a, b] \ E où
par morceaux et positive,
Rb
E ⊂ [a, b] est ni. On a [a, b] \ E , donc a f (x)g(x)dx = 0, et
donc fg = 0 sur
Rb
l'inégalité (1.3) est satisfaite. Il en est de même si
a
g(x)2 dx = 0. On peut donc
supposer
Z b
A := f (x)2 dx > 0
a
et
Z b
B := g(x)2 dx > 0.
a
f (x) g(x)
On pose alors f1 (x) := 1 et g1 (x) := 1 pour tout x ∈ [a, b], de sorte que
A2 B2
Z b Z b
f1 (x)2 dx = g1 (x)2 dx = 1.
a a

Pour tout x ∈ [a, b], par le lemme 1.2.27,

1 1
|f1 (x)g1 (x)| ≤ f1 (x)2 + g1 (x)2 ,
2 2
de sorte que

Z b Z b Z b
1 1
|f1 (x)g1 (x)| dx ≤ f1 (x)2 + g1 (x)2 = 1,
a 2 a 2 a

donc
Z Z
b b
1
Z b
1
f (x)g(x)dx ≤ |f (x)g(x)| dx = (AB) |f1 (x)g1 (x)| dx ≤ (AB) 2
2

a a a
(1.5)
ce qui donne bien (1.3).
On suppose maintenant f et g continues et positives et qu'il y a égalité dans
(1.3). Sif = 0, il n'y a rien à montrer. Si g = 0, on a bien g = 0f . On suppose
donc que ni f ni g n'est identiquement nulle, ce qui (Proposition 1.2.15) implique
Rb Rb
que
a
f (x)2 dx > 0 et a g(x)2 dx > 0. On dénit A, B, f1 et g1 comme avant.
Comme
Z b Z b 
1 1
f1 (x)g1 (x)dx = 1 = f1 (x)2 + g1 (x)2 dx
a a 2 2
avec f1 g1 ≤ 21 f12 + 12 g12 , la proposition 1.2.15 montre que, pour tout x ∈ [a, b],
1 1
f1 (x)g1 (x) = f1 (x)2 + g1 (x)2 ,
2 2
et le lemme 1.2.27 assure que f1 = g1 , ce qui montre que g = µf pour un µ > 0.
On passe au cas général : f et g sont continues et il y a égalité dans (1.3). Si f
ou g est la fonction nulle, il n'y a rien à prouver. On suppose que ni f ni g n'est
la fonction nulle. Alors, comme

Z Z ! 21 ! 21
b b Z b Z b
2 2
f (x)g(x)dx ≤ |f (x)g(x)| dx ≤ |f (x)| dx |g(x)| dx ,


a a a a

on a Z Z
b b
f (x)g(x)dx = |f (x)g(x)| dx (1.6)


a a

et
! 21 ! 21
Z b Z b Z b
2 2
|f (x)g(x)| dx = |f (x)| dx |g(x)| dx .
a a a
Le cas d'égalité pour les fonctions positives assure que |g| = µ |f | pour un µ ≥ 0.
Comme ni f ni g n'est la fonction nulle, µ > 0.
L'égalité (1.6) montre que fg ≥ 0 sur [a, b] ou f g ≤ 0 sur [a, b] (proposition
1.2.15).
On suppose que f g ≥ 0. Soit alors x tel que f (x) > 0. On a donc g(x) > 0 (on
ne peut avoir g(x) = 0 car |g(x)| = µ |f (x)|), de sorte que g(x) = µf (x). De
même, si f (x) < 0, g(x) < 0, de sorte que g(x) = µf (x). Enn, si f (x) = 0,
on a aussi g(x) = 0 = µf (x). Finalement, g = µf . On montre de même que, si
f g ≤ 0, g = −µf .
Théorème 1.2.28 [Inégalité de Minkowski] Soient f, g ∈ Cpm ([a, b], R). Alors :
2 2
1. f + g, f et g sont continues par morceaux sur [a, b] et

! 12 ! 21 ! 21
Z b Z b Z b
2 2 2
|f (x) + g(x)| dx ≤ f (x)dx + g (x)dx , (1.7)
a a a

2. si f et g sont continues sur [a, b] et s'il y a égalité dans (1.7), alors f =0


ou il existe λ≥0 tel que g = λf sur [a, b].
Preuve : on commence par le point
Rb
1. On suppose d'abord f et g positives.
2
On peut supposer que
a
|f (x) + g(x)| dx > 0, sinon il n'y a rien à montrer.
On a, par Cauchy-Schwarz,

! 21 ! 21
Z b Z b Z b
f (x)(f (x) + g(x))dx ≤ f (x)2 dx (f (x) + g(x))2 dx (1.8)
a a a

et
! 12 ! 21
Z b Z b Z b
2 2
g(x)(f (x) + g(x))dx ≤ g(x) dx (f (x) + g(x)) dx . (1.9)
a a a

En ajoutant (1.8) et (1.9), on obtient donc


 ! 12 ! 12  Z ! 12
Z b Z b Z b b
(f (x)+g(x))2 dx ≤  f (x)2 dx + 2
g(x) dx  2
(f (x) + g(x)) dx ,
a a a a

R  21
b 2
et on en déduit (1.7) en divisant les deux membres par
a
(f (x) + g(x)) dx .

Dans le cas général, on écrit que

! 12 ! 21
Z b Z b
2 2
|f (x) + g(x)| dx ≤ (|f (x)| + |g(x)|) dx
a a
! 21 ! 21
Z b Z b
2 2
≤ |f (x)| dx + |g(x)| dx .
a a
(1.10)
On suppose maintenant f et g continues et positives, et qu'il y a égalité dans
(1.7). Si f + g = 0, f = g = 0 et il n'y a rien à prouver. On peut donc supposer
que f + g n'est pas la fonction nulle. D'après la preuve précédente, on a donc
égalité dans (1.8) et (1.9), ce qui, d'après le cas d'égalité dans Cauchy-Schwarz,
montre qu'il existe µ1 ≥ 0 tel que

f = µ1 (f + g)

et qu'il existe µ2 ≥ 0 tel que

g = µ2 (f + g).

Si µ1 = 0, on a f = 0. Sinon, g = µµ12 f .
On passe au cas général : f et g sont continues et il y a égalité dans (1.7).
D'après (1.10), on a donc

Z b Z b
2 2
|f (x) + g(x)| dx = (|f (x)| + |g(x)|) dx (1.11)
a a

et

! 21 ! 21 ! 21
Z b Z b Z b
2 2 2
(|f (x)| + |g(x)|) dx = |f (x)| dx + |g(x)| dx .
a a a

D'après le cas d'égalité pour des fonctions positives, on a f =0 ou |g| = µ |f |


pour un µ ≥ 0.
2 2
De plus, comme |f + g| ≤ (|f | + |g|) , (1.11) montre que, pour tout x ∈ [a, b],

|f (x) + g(x)| = |f (x)| + |g(x)| ,

de sorte que f (x) et g(x) sont de même signe pour tout x ∈ [a, b]. Ainsi, on a
f = 0, ou g = µf , ce qui termine la preuve.

1.2.6 Sommes de Riemann


Théorème 1.2.29 a < b et f : [a, b] → Rn continue par morceaux.
Soient
Alors, pour tout ε > 0, il existe δ > 0 avec la propriété suivante : pour toute
subdivision σ = (x0 , ..., xN ) de [a, b] avec |σ| < δ et tous points (y0 , ..., yN −1 )
tels que xi ≤ yi ≤ xi+1 pour tout i ∈ {0, N − 1},

Z N −1

b X
f (x)dx − (xi+1 − xi )f (yi ) ≤ ε.


a
i=0

Preuve : on suppose d'abord que f = 1[c,d] e avec a ≤ c ≤ d ≤ b et e ∈ Rn .


Soient σ = (x0 , ..., xN ) une subdivision de [a, b] et des points (y0 , ..., yN −1 ) tels
que xi ≤ yi ≤ xi+1 pour tout i ∈ {0, . . . , N − 1}. Soit i1 le plus petit entier
tel que c ≤ yi1 et i2 le plus grand entier tel que yi2 ≤ d, si ces entiers existent
(on adapte sans problème ce qui suit au cas où ces entiers n'existent pas, en
utilisant le fait que x0 = a et xN = b). Alors

N
X −1 i2
X
(xi+1 − xi )f (yi ) = (xi+1 − xi )e = xi2 +1 − xi1 e,
i=0 i=i1

si bien que

Z b N
X −1
f (x)dx − (xi+1 − xi )f (yi ) = ((d − xi2 +1 ) − (c − xi1 )) e.
a i=0

Or xi2 ≤ yi2 ≤ d < yi2 +1 ≤ xi2 +2 , donc

|d − xi2 +1 | ≤ 2 |σ| .

De même, |c − xi1 | ≤ 2 |σ|. Finalement


Z
b N
X −1
f (x)dx − (xi+1 − xi )f (yi ) ≤ 4 |σ| kek ≤ ε


a
i=0

ε
dès que |σ| < δ := 4kek .
On suppose maintenant f en escalier. Alors f est une combinaison linéaire
de fonctions du type considéré auparavant (Proposition 1.1.6) et on raisonne
par linéarité.
Dans le cas général, soient f continue par morceaux, ε > 0 et g en escalier
ε
telle que kf − gk∞ ≤
3(b−a) . Soient σ une subdivision de [a, b] et y0 , ..., yN −1
comme dans l'énoncé du théorème 1.2.29. Alors
Z N −1
Z
b X b
f (x)dx − (xi+1 − xi )f (yi ) ≤ (f (x) − g(x))dx


a a
i=0 N −1
X
+ (xi+1 − xi )(f (yi ) − g(yi ))


Zi=0 N −1

b X
+ g(x)dx − (xi+1 − xi )g(yi )

a
Z i=0
b N −1
2ε X
≤ + g(x)dx − (xi+1 − xi )g(yi ) ,

3 a
i=0

et d'après le cas précédent, il existe δ > 0 tel que


Z
b N
X −1 ε
g(x)dx − (xi+1 − xi )g(yi ) ≤

3

a
i=0

dès que |σ| < δ , ce qui termine la preuve.


Un cas particulier de ce théorème est le suivant :
Corollaire 1.2.30 Soient a < b ∈ R et f : [a, b] → R une fonction continue par
morceaux. Alors

n−1   Z b
b−a X b−a
lim f a+k = f (t)dt
n→+∞ n n a
k=0

et
n   b
b−a X b−a
Z
lim f a+k = f (t)dt
n→+∞ n n a
k=1

Exemple 1.2.31 Pour tout n ∈ N∗ , on pose

n
X 1
xn = .
n+k
k=1

Alors
n
1X 1
xn = k
.
n 1+ n
k=1
1
Posons alors f (x) = 1+x pour x ∈ [0, 1]. On a donc

n   Z 1
1X k
xn = f → f (t)dt = ln2,
n n 0
k=1

car une primitive de f est x 7→ ln(1 + x).

1.2.7 Convergence de suites d'intégrales


Théorème 1.2.32 Soient a < b, (fk )k≥1 une suite de fonctions continues par
morceaux de [a, b] dans Rn et f : [a, b] → Rn continue par morceaux. On suppose
Rb Rb
que fk → f uniformément sur [a, b]. Alors limk→+∞ a fk (x)dx = a f (x)dx.

Preuve :
Rb
cela résulte immédiatement de la continuité de l'application f 7→
a
f (x)dx de Cpm ([a, b], Rn ) muni de k·k∞ dans Rn .

Remarque 1.2.33 La conclusion du théorème 1.2.32 est fausse si on ne suppose


pas la convergence de fk f uniforme.
vers Si fk : [0, 1] → R est donnée par

1


 k2 x si 0≤x≤ ,

 2k
1 1

fk (x) := k − k2 x si ≤x≤ ,
 2k k

 1
 0 si ≤ x ≤ 1,

k
et si f (x) = 0 pour tout x ∈ [0, 1], alors les fk et f sont continues sur [0, 1],
R1 1
fk (x) → f (x) pour tout x ∈ [0, 1], mais 0 fk (x)dx = 4 pour tout k ≥ 1.
Dans le cas d'une convergence simple, on peut toutefois énoncer le théorème de
convergence dominée :

Théorème 1.2.34 (Théorème de convergence dominée) Soient a < b, (fk )k≥1


une suite de fonctions continues par morceaux de [a, b] dans Rn et f : [a, b] → Rn
continue par morceaux. On suppose que :

1. limk→+∞ fk (x) = f (x) pour tout x ∈ [a, b],


2. il existe une fonction g : [a, b] → [0, +∞[ continue par morceaux telle que
kfk (x)k ≤ g(x) pour tout k ≥ 1 et tout x ∈ [a, b].
Rb Rb
Alors limk→+∞ a fk (x)dx = a f (x)dx.

Exemple 1.2.35 Pour tout n ≥ 1, on pose

Z π
4
In := tann (x)dx.
0

fn (x) := tann x pour tout x ∈ 0, π4 , alors, pour tout x ∈ [ 0, π4 , limn fn (x) =


   
Si
f (x) avec
0 si 0 ≤ x < π4 ,

f (x) =
1 si x = π4 .
 π
De plus, pour tout n ≥ 1 et tout x ∈ 0,
 π 4 , |fn (x)| ≤ 1 et la fonction x 7→ 1
est continue sur 0, . Ainsi, le théorème de convergence dominée montre que
4
limn→+∞ In = 0.

Corollaire 1.2.36 [Continuité sous le signe ] Soient a < b et I ⊂ R un inter-


R
n
valle de R. Soit f : [a, b] × I → R . On suppose que :

1. pour tout x ∈ I, la fonction t 7→ f (t, x) est continue par morceaux sur


[a, b],
2. pour tout t ∈ [a, b], la fonction x 7→ f (t, x) est continue sur I,
3. il existe une fonction g : [a, b] → R continue par morceaux telle que, pour
tout t ∈ [a, b] et tout x ∈ I , kf (t, x)k ≤ g(t).
Rb
Alors la fonction x 7→ a
f (t, x)dt est continue sur I.

Preuve : soient x ∈ I et (xk )k≥1 une suite de points de I qui converge vers
x. Pour tout k ≥ 1 et tout t ∈ [a, b], on pose hk (t) := f (t, xk ) et h(t) :=
f (t, x). Alors hk est continue par morceaux sur [a, b] et limk→+∞ hk (t) = h(t)
avec h continue par morceaux sur [a, b]. De plus, khk (t)k ≤ g(t) pour tout
k ≥ 1 et tout t ∈ [a, b]. Le théorème de convergence dominée montre donc que
Rb Rb
limk→+∞ a f (t, xk )dt = a f (t, x)dt, ce qui donne bien la conclusion.

Exemple 1.2.37 Soit f : [0, 1] → R continue. Pour tout t ∈ R, on pose

Z 1
F (t) := etx f (x)dx.
0
Alors F est continue sur R. En eet, si g(t, x) := etx f (x), on vérie que, pour
tout x ∈ [0, 1], t 7→ g(t, x) est continue en tout point de [0, +∞[ et que, pour tout
t ≥ 0, x 7→ etx f (x) est continue. De plus, pour tout M > 0, tout t ∈ [−M, M ]
Mx
et tout x > 0, |g(t, x)| ≤ e |f (x)| et la fonction |f | est continue sur [0, 1]. Le
corollaire 1.2.36 montre que F est continue sur [−M, M ], et comme c'est vrai
pour tout M > 0, F est continue sur R.

Corollaire 1.2.38 [Dérivabilité sous le signe ] Soient a < b et I ⊂ R un


R
n
intervalle de R. Soit f : [a, b] × I → R . On suppose que :

1. pour tout x ∈ I, la fonction t 7→ f (t, x) est continue par morceaux sur


[a, b],
2. pour tout t ∈ [a, b], la fonction x 7→ f (t, x) est dérivable sur I et, pour
tout x ∈ I , t 7→ ∂f
∂x (t, x) est continue par morceaux sur [a, b],
3. il existe une fonction g : [a, b] → R continue
par morceaux telle que, pour
∂f
tout t ∈ [a, b] et tout x ∈ I ,
∂x (t, x) ≤ g(t).

Rb
Alors la fonction x 7→ f (t, x)dt est dérivable sur I et sa dérivée est x 7→
Rb a
∂f
a ∂x
(t, x)dt.

Preuve : soit x ∈ I . Soit (hk )k≥1 une suite de réels qui tend vers 0. Pour tout
k≥1 assez grand pour que x + hk ∈ I et tout t ∈ [a, b], on pose

f (t, x + hk ) − f (t, x)
hk (t) := .
hk

Alors hk est continue par morceaux et limk→+∞ hk (t) = ∂f ∂x (t, x). De plus, pour
tout k et tout t ∈ [a, b], le théorème des accroissements nis montre que

khk (t)k ≤ g(t).

Le théorème de convergence dominée assure donc que

b b
f (t, x + hk ) − f (t, x)
Z Z
∂f
lim dt = (t, x)dt,
k→+∞ a hk a ∂x

ce qui donne bien le résultat.

Exemple 1.2.39 On reprend l'exemple 1.2.37. Pour tout x ∈ [0, 1] et tout



∂f
t ∈ R, ∂t (t, x) = xetx f (x) et, pour tout M > 0 et tout t ∈ [−M, M ], ∂f
∂t (t, x) ≤

g(x) avec g(x) := xeM x |f (x)| pour tout x ∈ [0, 1]. Le corollaire 1.2.38 assure
donc que, pour tout t ∈ [−M, M ],
Z 1
0
F (t) = xetx f (x)dx.
0

Comme c'est vrai pour tout M > 0, on a donc cette formule pour tout t ∈ R.
1.2.8 Méthodes de calcul approché
On rappelle d'abord ce qu'est le polynôme interpolateur de Lagrange.

Théorème 1.2.40 n ∈ N∗ , a1 , ...an ∈ R deux à deux distincts et des


Soient
réels quelconques b1 , ..., bn ∈ R. Alors il existe un unique polynôme P ∈ R[X]
de degré inférieur ou égal à n − 1 tel que P (ai ) = bi pour tout 1 ≤ i ≤ n.
Le polynôme P s'appelle le polynôme d'interpolation de Lagrange aux points
a1 , ..., an associé aux valeurs b1 , ..., bn .

Preuve : Soit En
le R-espace vectoriel des polynômes dans R[X] de degré
n − 1. Une base de En est (1, X, ..., X n−1 ) donc En est de
inférieur ou égal à
dimension n. L'application P 7→ (P (a1 ), ..., P (an )) est une application linéaire
n
de En dans R et elle est injective (car un polynôme de degré inférieur ou égal
à n − 1 qui possède n racines distinctes est le polynôme nul), donc c'est un
n
isomorphisme puisque E et R ont la même dimension.

Soient a < b et f : [a, b] → R continue par morceaux. Pour tout n ≥ 1, on


considère la subdivision (a0 , ..., an ) de [a, b] avec ak := a + k b−a
n pour tout
Rb
k ∈ {0, n}. On va présenter trois méthodes de calcul approché de a f (x)dx
utilisant cette subdivision : pour tout i ∈ {0, n − 1}, on va remplacer f sur
[ai , ai+1 ] par un polynôme bien choisi.

Méthode des rectangles

Pour tout i ∈ {0, . . . , n − 1}, on remplace f sur [ai , ai+1 [ par f (ai ). On
Rb
compare donc
a
f (x)dx à

n−1 n−1
X b−a X
Rn := (ai+1 − ai )f (ai ) = f (ai ).
i=0
n i=0

Rb
Par le théorème 1.2.29, limn→+∞ Rn = a
f (x)dx.

Théorème 1.2.41 On suppose f de classe C 1 sur [a, b]. Soit M1 := maxa≤x≤b |f 0 (x)|.
Alors, pour tout n ≥ 1,

Z
b (b − a)2
f (x)dx − Rn ≤ M1 .

2n

a
Preuve : on écrit que
Z n−1 Z
b X ai+1
f (x)dx − Rn = (f (x) − f (ai ))dx


a a i

i=0
n−1
X Z ai+1
≤ |f (x) − f (ai )| dx
i=0 ai
n−1
X Z ai+1
≤ M1 (x − ai )dx
i=0 ai
n−1
X(ai+1 − ai )2
= M1
i=0
2
M1 (b − a)2
= .
2n

Méthode des trapèzes


Pour tout i ∈ {0, . . . , n − 1}, on remplace f
[ai , ai+1 ] par le polynôme
sur
d'interpolation de Lagrange (de degré inférieur ou égal à 1) aux points ai et
Rb
ai+1 associé aux valeurs f (ai ) et f (ai+1 ). On compare donc a f (x)dx à
n−1 n−1
!
X f (ai ) + f (ai+1 ) b − a f (a0 ) + f (an ) X
Tn := (ai+1 − ai ) = + f (ai ) .
i=0
2 n 2 i=1

Théorème 1.2.42 On suppose f de classe C 2 sur [a, b]. Soit M2 := maxa≤x≤b |f 00 (x)|.
Alors, pour tout n ≥ 1,
Z
b (b − a)3
f (x)dx − Tn ≤ M2 .

12n2

a

La preuve utilise :

Lemme 1.2.43 a < b, g : [a, b] → R de classe C 2 et P le polynôme


Soient de
degré inférieur ou égal à 1 tel que g(a) = P (a) et g(b) = P (b). Alors :

1. pour tout x ∈ [a, b], il existe c ∈]a, b[ tel que

(x − a)(x − b) 00
g(x) − P (x) = g (c),
2
2. si M := supt∈[a,b] |g 00 (t)|, alors pour tout x ∈ [a, b],

(x − a)(b − x)
|g(x) − P (x)| ≤ M .
2
Preuve du lemme 1.2.43 : soit x ∈ [a, b]. Si x = a ou x = b, n'importe quel
c convient. On suppose donc que x 6= a et x 6= b. Pour tout t ∈ [a, b], on dénit
h(t) := g(t) − P (t) − K(t − a)(t − b),
où K ∈ R est choisi de sorte que h(x) = 0. Comme h est C 2 sur [a, b] et
h(a) = h(x) = h(b), le théorème de Rolle assure qu'il existe u ∈]a, c[ et v ∈]c, b[
0 0
tels que h (u) = h (v) = 0, et une nouvelle application du théorème de Rolle
00 00
montre qu'il existe c ∈]u, v[ tel que h (c) = 0, ce qui donne g (c) = 2K , et on
conclut en écrivant que h(x) = 0. Le point 2 résulte immédiatement du 1.
On utilisera aussi :

Lemme 1.2.44 Pour tous a < b,


b
(b − a)3
Z
(x − a)(b − x)dx = .
a 6

Preuve du lemme 1.2.44 : le changement de variable y =x− a+b


2 donne

b−a
b   
b−a b−a
Z Z 2
(x − a)(b − x)dx = y+ − y dy,
a − b−a
2
2 2

et on vérie que, pour tout α > 0,


Z α Z α
4 3
(y + α)(α − y)dy = (α2 − y 2 )dy = α .
−α −α 3

Preuve du théorème 1.2.42 : pour tout i ∈ {0, . . . , n − 1}, on note Pi le


polynôme d'interpolation de Lagrange (de degré inférieur ou égal à 1) aux points
ai et ai+1 associé aux valeurs f (ai ) et f (ai+1 ). Par les lemmes 1.2.43 et 1.2.44,

Z
b n−1
X Z ai+1
f (x)dx − Tn ≤ |f (x) − Pi (x)| dx


a ai
i=0
n−1
X Z ai+1
M2
≤ (x − ai )(ai+1 − x)dx
2 i=0 ai
M2 (b − a)3
= .
12 n2

Méthode de Simpson
Pour tout i ∈ {0, . . . , n − 1}, on remplace f sur [ai , ai+1 ] par le polynôme
d'interpolation de Lagrange (de degré inférieur ou égal à
  2) aux points ai , ai +a
2
i+1

ai +ai+1
et ai+1 associé aux valeurs f (ai ), f 2 et f (ai+1 ), noté Pi dans la suite.

On utilisera :

Lemme 1.2.45 Soient a < b. Pour tout polynôme P de degré inférieur ou égal
à 2,
b   
b−a
Z
a+b
P (x)dx = P (a) + P (b) + 4P .
a 6 2
Preuve : il sut de le faire quand P (x) = 1, quand P (x) = x et quand
P (x) = x2 , puis d'utiliser la linéarité de l'intégrale.
Rb
On compare donc
a
f (x)dx à

n−1 n−1  !
b−a X X ai + ai+1
Sn := f (a0 ) + f (an ) + 2 f (ai ) + 4 f .
6n i=1 i=0
2

Théorème 1.2.46 On suppose f de classe C3


sur [a, b] et on pose M3 :=
maxa≤x≤b f (3) (x) . Alors, pour tout n ≥ 1,
Z
b M3
f (x)dx − Sn ≤ (b − a)4 .

192n3

a
La preuve utilisera :

Lemme 1.2.47 Soient a < c < b, g : [a, b] → R de classe C 3 et P le polynôme


de degré inférieur ou égal à 2 tel que g(a) = P (a), g(c) = P (c) et g(b) = P (b).
Alors :

1. pour tout x ∈ [a, b], il existe d ∈]a, b[ tel que

(x − a)(x − c)(x − b) (3)


g(x) − P (x) = g (d),
6

2. si M := supt∈[a,b] g (3) (t) , alors pour tout x ∈ [a, b],
|(x − a)(x − b)(x − c)|
|g(x) − P (x)| ≤ M .
6
Preuve du lemme 1.2.47 : rien à faire si x = a ou x = b ou x = c. Sinon,
on dénit
h(t) := g(t) − P (t) − K(t − a)(t − b)(t − c),
où K est choisi de sorte que h(x) = 0. Comme h s'annule au moins 4 fois, le
théorème de Rolle montre que h(3) s'annule au moins une fois en un point d, ce
(3)
qui donne g (d) = 6K et on obtient la conclusion en écrivant que h(x) = 0.
Preuve du théorème 1.2.46 : pour tout i ∈ {0, . . . , n − 1}, on note ci :=
ai +ai+1 b−a
. Par les lemmes 1.2.47 et 1.2.45, en posant h := ai+1 − ai =
2 n ,
Z ai+1 Z ai+1
M3
(f (t) − Pi (t))dt ≤ (t − ai )(ai+1 − t) |t − ci | dt

ai 6 Zai
ci
M3
= (t − ai )(ai+1 − t)(ci − t)dt
6 Zai
M3 ai+1
+ (t − ai )(ai+1 − t)(t − ci )dt
6 Zci
M3 ci
= (t − ai )(ai+1 − t)(ci − t)dt
3 ai
M3 h 3h3
=
3 124 16
h
= M3 .
192
La quatrième ligne est obtenue par le changement de variable u := ai+1 + ai − t.
On obtient donc
Z
b n−1
X Z ai+1


f (t)dt − Sn ≤ (f (t) − Pi (t))dt


a ai
i=0
(b − a)4
≤ M3 .
192n3
Dans la cas où la fonction f est C 4, on peut préciser l'erreur ainsi :

Théorème 1.2.48 On suppose f sur [a, b]


de classe C4 et on pose M4 :=
(4)
maxa≤x≤b f (x) . Alors, pour tout n ≥ 1,
Z
b M4
f (x)dx − Sn ≤ (b − a)5 .

2880n4

a

Preuve : pour tout i ∈ {0, . . . , n − 1}, on a, avec les notations déjà utilisées
et en appliquant le lemme 1.2.45,

Z ai+1 Z ci + h      
2 h h h
(f (t)−Pi (t))dt = f (t)dt− f ci − + f ci + + 4f (ci ) .
ai ci − h
2
6 2 2

u ∈ 0, h2 ,
 
Pour tout on pose

Z ci +u
u
ϕ(u) := f (t)dt − (f (ci − u) + f (ci + u) + 4f (ci )) .
ci −u 3

On calcule

1
ϕ0 (u) = f (ci + u) + f (ci − u) − (f (ci − u) + f (ci + u) + 4f (ci ))
3
− u3 (−f 0 (ci − u) + f 0 (ci + u))
2 u
= (f (ci + u) + f (ci − u) − 2f (ci )) − (−f 0 (ci − u) + f 0 (ci + u)) ,
3 3
puis

2 0 1
ϕ00 (u) = (f (ci + u) − f 0 (ci − u)) − (−f 0 (ci − u) + f 0 (ci + u))
3 3
− u3 (f 00 (ci − u) + f 00 (ci + u))
1 0 u
= (f (ci + u) − f 0 (ci − u)) − (f 00 (ci − u) + f 00 (ci + u)) ,
3 3
et enn

1 00 1
ϕ(3) (u) = (f (ci + u) + f 00 (ci − u)) − (f 00 (ci − u) + f 00 (ci + u))
3u 3 
− −f (3) (ci − u) + f (3) (ci + u)
3
u 
= − −f (3) (ci − u) + f (3) (ci + u) .
3
Par le théorème des accroissements nis,

(3) 2M4 u2

ϕ (u) ≤ .
3
Comme ϕ00 (0) = 0, on en déduit

u
2M4 u3
Z
|ϕ00 (u)| ≤
(3)
ϕ (t) dt ≤ .
0 9
0
Comme ϕ (0) = 0, on a donc

M4 u4
|ϕ0 (u)| ≤ ,
18
et comme ϕ(0) = 0, on en déduit

M4 u5
|ϕ(u)| ≤ .
90
En particulier,

ai+1
h M4 h5
Z  

(f (t) − Pi (t))dt = ϕ ≤ .

ai 2 2880

On en déduit que

Z n−1
b X Z ai+1

f (x)dx − Sn ≤ (f (t) − Pi (t))dt


a ai
i=0
M4 (b − a)5
≤ .
2880n4

1.3 Longueur des courbes paramétrées

Dénition 1.3.1 Soit p ≥ 1. Une courbe paramétrée de classe C p est la donnée


d'un couple (I, f ) où I = [a, b] avec a < b et f : I → Rn est de classe C p .

Dénition 1.3.2 Soit p ≥ 1.


1. Soient (I, f ) et (J, g) deux arcs paramétrés de classe Cp de Rn . On
dit que (I, f ) est équivalent à (J, g) si, et seulement si, il existe un C p-
diéomorphisme θ:I→J tel que g ◦ θ = f .
2. La relation précédemment dénie dans l'ensemble des arcs paramétrés
de classe Cp est une relation d'équivalence. Les classes d'équivalence pour
C p.
cette relation s'appellent les arcs géométriques de classe
3. Si C est un arc géométrique, on appelle paramétrisation de C tout couple
(I, f ) ∈ C .

On vérie sans diculté le point 2 de cette dénition.


Remarque 1.3.3 Si (I, f )
(J, g) sont équivalents, alors on a clairement
et
f (I) = g(J). f (I) = g(J) sans que (I, f ) et (J, g) soient
Il peut arriver que
équivalents. Par exemple, si I = [0, 2π] et f (t) = (cos t, sin t) et J = [−π, 3π] et
g(t) = f (t), alors f (I) = g(J) mais (I, f ) et (J, g) ne sont pas équivalents : s'ils
l'étaient, les images réciproques de (1, 0) par f dans I et par g dans J seraient
en bijection, ce qui n'est pas le cas.

Dénition 1.3.4 1. Soient (I, f ) et (J, g) deux arcs paramétrés de classe


C p. On dit que (I, f ) et (J, g) sont strictement équivalents si, et seule-
ment si, il existe un diéomorphisme θ : I → J strictement croissant tel
que f = g ◦ θ . C'est une relation d'équivalence dans l'ensemble des arcs
p
paramétrés de classe C .
2. On appelle arc géométrique orienté toute classe d'équivalence pour cette
relation.

Dans toute la suite de ce paragraphe, k·k désigne la norme euclidienne.

Dénition 1.3.5 Soit C un arc géométrique. On appelle paramétrisation de C


par longueur d'arc toute paramétrisation (I, f ) telle que kf 0 (t)k = 1 pour tout
t ∈ I.
Dénition 1.3.6 Un arc géométrique de classe C1 est dit régulier s'il possède
0
une paramétrisation (J, g) avec g (t) 6= 0 pour tout t ∈ J.
Proposition 1.3.7 Soit C un arc géométrique de classe C1 régulier. Alors :
1. C possède une paramétrisation par longueur d'arc,
2. si (I, f ) est une telle paramétrisation, alors toute autre paramétrisation
par longueur d'arc est de la forme (K, h) où h(t) = f (t + a) ou h(t) =
f (−t + a), avec a ∈ R.
Preuve : soit (J, g) la paramétrisation de C donnée par l'énoncé. Si (I, f ) est
une paramétrisation par longueur d'arc avec f = g◦ϕ et ϕ : I → J est un
C p -diéomorphisme, alors, pour tout t ∈ I,
1 = kf 0 (t)k = |ϕ0 (t)| kg 0 (ϕ(t))k .
Donc, si s∈J et s = ϕ(t), on doit avoir

1 = ϕ0 (ϕ−1 (s)) kg 0 (s)k .



(1.12)

On xe a∈J et on pose


Z t
θ(t) := kg 0 (s)k ds
a
pour tout t ∈ J . Pour tout t ∈ J , θ0 (t) = kg 0 (t)k > 0, de sorte que θ est un
C p -diéomorphisme de J sur θ(J) := I . On dénit alors f := g ◦ θ−1 . On vérie
que (I, f ) est une paramétrisation de C par longueur d'arc. En eet, pour tout
t ∈ I,
1
kf 0 (t)k = (θ−1 )0 (t) g 0 (θ−1 (t)) =
0 −1
g (θ (t)) = 1.
|θ0 (θ−1 (t))|
Soient enn (I, f ) et (J, g) deux paramétrisations par longueur d'arc. D'après
(1.12), si f = g ◦ ϕ, on a donc
0 −1
ϕ (ϕ (s)) = 1

pour tout s ∈ J, soit encore


|ϕ0 (t)| = 1
pour tout t ∈ I . Comme ϕ0 est continue sur I , on a donc ϕ0 (t) = 1 pour tout
t∈I ou ϕ0 (t) = −1 pour tout t ∈ I , ce qui termine la preuve.
Dénition 1.3.8 1. Soient (I, f ) un arc paramétré avec I = [a, b]. La
longueur de (I, f ) est dénie comme
Z b
kf 0 (t)k dt.
a

2 Soient C un arc géométrique de classe C1 et (I, f ) une paramétrisation


de C. On appelle longueur de C la longueur de (I, f ).
Le point 2 de cette dénition nécessite une vérication. Soient (I, f ) et (J, g)
des paramétrisations de C et θ : I → J un C p -diéomorphisme tel que f = g ◦ θ.
On note I = [a, b] et J = [c, d]. Alors, si ϕ est strictement croissante,
Z Z Z
kf 0 (u)k du = kg 0 (θ(u))k |θ0 (u)| du = kg 0 (v)k dv,
[a,b] [a,b] [c,d]

et on raisonne de manière analogue si ϕ est strictement décroissante.

Remarque 1.3.9 Soient C un arc géométrique de classe C 1. On suppose que


(I, f ) est une paramétrisation de C par longueur d'arc, et que I = [a, b]. Alors
la longueur de C est b − a.

Exemple 1.3.10 1. Soit f (t) = (cos t, sin t) pour t ∈ I := [0, 2π]. Alors
f 0 (t) = (− sin t, cos t) et kf 0 (t)k = 1 pour tout t ∈ [0, 2π]. La longueur de
l'arc (I, f ) est 2π .

2. Soit f (t) = (a(t − sin t), a(1 − cos t)) pour t ∈ [0, 2π] et a > 0. Alors
2
f 0 (t) = (a(1−cos t), a sin t), donc kf 0 (t)k = 2a2 (1−cos t) = 4a2 sin2 2t .


Par suite, la longueur de l'arc (I, f ) est

Z 2π   Z π
t
2a sin 2 dt = 4a
sin udu = 8a.
0 0

Dénition 1.3.11 (I, f ) un arc paramétré de classe C 1 . On appelle


Soit abs-
cisse curviligne de (I, f ) toute application ϕ : I → R telle que, pour tous
t < t0 ∈ I , |ϕ(t) − ϕ(t0 )| est la longueur de l'arc ([t, t0 ], f ).

On notera qu'une abscisse curviligne est continue. La dénition de la longueur


Rt
d'un arc montre que l'application t 7→ t0
kf 0 (s)k ds est une abscisse curviligne.
On peut déterminer toutes les abscisses curvilignes de la manière suivante :
Proposition 1.3.12 Soient (I, f ) C 1 et ϕ et ψ des
un arc paramétré de classe
abscisses curvilignes de (I, f ). Alors il existe ε ∈ {1, −1} et k ∈ R tels que, pour
tout t ∈ I ,
ψ(t) = εϕ(t) + k.
Preuve : si ϕ est constante, alors f est constante, donc ψ est constante, et
le résultat est immédiat. On suppose donc ϕ non constante. Soient a ∈ I et
A := {t ∈ I; ϕ(t) 6= ϕ(a)}. Pour tout t ∈ A, on pose

ψ(t) − ψ(a)
h(t) := .
ϕ(t) − ϕ(a)
Pour tout t ∈ A, h(t) = 1 ou h(t) = −1. On suppose qu'il existe t1 6= t2 dans A
tels que h(t1 ) = 1 et h(t2 ) = −1. Alors

ψ(t1 ) − ψ(t2 ) = ψ(t1 ) − ψ(a) + ψ(a) − ψ(t2 )


= ϕ(t1 ) + ϕ(t2 ) − 2ϕ(a).

Si ψ(t1 ) − ψ(t2 ) = ϕ(t1 ) − ϕ(t2 ), alors ϕ(t2 ) = ϕ(a), ce qui est faux. De même, si
ψ(t1 ) − ψ(t2 ) = −ϕ(t1 ) + ϕ(t2 ), alors ϕ(t2 ) = ϕ(a), ce qui est faux. Finalement,
h est constante, toujours égale à 1 ou à −1, ce qui montre qu'il existe ε ∈ {−1, 1}
tel que, pour tout t ∈ A,

ψ(t) − ψ(a) = ε(ϕ(t) − ϕ(a)),

et cette égalité reste vraie si t ∈ A.


Corollaire 1.3.13 Soit (I, f ) un arc C 1.
Si ϕ : I → R est une fonction, alors
ϕ est une abscisse curviligne si, et seulement si, ϕ est dérivable sur I et il existe
ε ∈ {−1, 1} tel que, pour tout t ∈ I , ϕ0 (t) = ε kf 0 (t)k.

Preuve : soit ϕ une abscisse curviligne. On xe t0 ∈ I . Si ϕ0 (t) = tt0 kf 0 (s)k ds


R

pour tout t ∈ I , ϕ0 est une abscisse curviligne et, par la proposition 1.3.12, il
existe ε ∈ {−1, 1} et k ∈ R tels que, pour tout t ∈ I ,

ϕ(t) = εϕ0 (t) + k.

On en déduit que ϕ est dérivable sur I et que, pour tout t ∈ I , ϕ0 (t) = ε kf 0 (t)k.
La réciproque est immédiate.

Théorème 1.3.14 Soit (I, f ) un arc paramétré de classe C1 avec I = [a, b]


(a < b). Pour toute subdivision σ = (x0 , ..., xN ) de [a, b], on pose

N
X −1
Lσ := kf (ti+1 ) − f (ti )k .
i=0

Alors
Z b
kf 0 (t)k dt = sup Lσ ,
a
où la borne supérieure est prise sur toutes les subdivisions σ de I.
Preuve :
PN −1
pour tout t ∈ [a, b], on dénit ϕ(t) = supσ i=0 kf (xi+1 ) − f (xi )k,
où la borne supérieure est prise sur toutes les subdivisions σ = (x0 , .., xN ) de
[a, t].
On vérie d'abord que ϕ est bien dénie. Soient t ∈ [a, b] et σ = (x0 , ..., xN ) une
subdivision de [a, t]. Pour tout i ∈ {0, . . . , N − 1},
Z xi+1
kf (xi+1 ) − f (xi )k ≤ kf 0 (t)k dt,
xi

et en faisant la somme sur i,


N
X −1 Z t
kf (xi+1 ) − f (xi )k ≤ kf 0 (t)k dt,
i=0 a

et comme c'est vrai pour toute subdivision de [a, t], ϕ(t) est bien dénie.
Soient t ∈ [a, b] et h > 0 tel que t + h ∈ [a, b]. Soient σ = (x0 , ..., xN ) une
subdivision de [a, t + h] et j ∈ {0, . . . , N − 1} tel que xj ≤ t < xj+1 . Alors

N
X −1 j−1
X
kf (xi+1 ) − f (xi )k ≤ kf (xi+1 ) − f (xi )k + kf (t) − f (xj )k
i=0 i=0
N
X −1
+ kf (xj+1 ) − f (t)k + kf (xi+1 ) − f (xi )k
i=j+1
Z xj+1 N
X −1 Z xi+1
≤ ϕ(t) + kf 0 (u)k du + kf 0 (u)k du
t i=j+1 xi
Z t+h
= ϕ(t) + kf 0 (u)k du.
t

Ainsi, en prenant la borne supérieure sur toutes les subdivisions de [a, t + h], on
obtient que
Z t+h
ϕ(t + h) − ϕ(t) ≤ kf 0 (u)k du.
t

De plus, comme (t, t + h) est une subdivision de [t, t + h],

ϕ(t) + kf (t + h) − f (t)k ≤ ϕ(t + h).

Finalement,

Z t+h
1 1 1
kf (t + h) − f (t)k ≤ (ϕ(t + h) − ϕ(t)) ≤ kf 0 (t)k dt,
h h h t

et en faisant tendre h vers 0 par valeurs supérieures, on trouve, en utilisant que


f0 est continue, que

1
lim (ϕ(t + h) − ϕ(t)) = kf 0 (t)k .
h→0, h>0 h
On raisonne de même pour h < 0. Ainsi, ϕ est dérivable sur [a, b] et, pour tout
t,
ϕ0 (t) = kf 0 (t)k .
Rb Rb
Comme ϕ(a) = 0, sup Lσ = ϕ(b) = a ϕ0 (t)dt = a kf 0 (t)k dt.
Dénition 1.3.15 Soit (I, γ) un arc paramétré de classe C 1 et K := γ(I). Soit
f :K→R une fonction continue. On note I = [a, b]. On dénit

Z Z b
f= f (γ(t))γ 0 (t)dt.
γ a

Proposition 1.3.16 Soient a < b et a0 < b0 et ϕ : [a0 , b0 ] → [a, b] une bijection


1 1
C strictement croissante. Soit ([a, b], γ) un arc paramétré de classe C , K :=
γ([a, b]) et f : K → R une fonction continue. Alors
Z Z
f= f.
γ◦ϕ γ

Preuve : comme ϕ est strictement croissante, on a ϕ(a0 ) = a et ϕ(b0 ) = b. Par


dénition et en faisant un changement de variables,

Z Z b
f = f (γ(t))γ 0 (t)dt
γ
Zab0
= f (γ ◦ ϕ(s))γ 0 (ϕ(s))ϕ0 (s)ds
0
Zab0
= f (γ ◦ ϕ(s))(γ ◦ ϕ)0 (s)ds.
a0

Remarque 1.3.17 Si ϕ est strictement décroissante, on trouve


Z Z
f =− f.
γ◦ϕ γ

La proposition 1.3.16 conduit à la dénition suivante :

Dénition 1.3.18 Γ un arc géométrique orienté de classe C 1 . On suppose


Soit
que Γ possède une paramétrisation ([a, b], γ). Soit K := γ([a; b]) et f : K → R
une fonction continue. On appelle intégrale de f le long de Γ la quantité
Z Z
f := f.
Γ γ

On note que cette quantité ne dépend pas du choix de γ.


R On notera aussi, voyant
R f comme une fonction d'une abscisse curviligne s,
Γ
f (s)ds = Γ
f. Noter que cette dénition dépend à un signe  ∈ {−1, 1}
près de l'orientation de Γ. Une notion indépendante de l'orientation peut être
formulée ainsi.
Dénition 1.3.19 Soit Γ un arc géométrique régulier de classe C1 et soit γ:
2
[a, b] → R une paramétrisation avec a < b. Soit f : Γ → R une fonction
continue. La quantité suivante est indépendante de γ:
Z Z b
f |ds| := f (γ(t))kγ 0 (t)kdt.
Γ a

1.4 Séries de Fourier

1.4.1 Coecients de Fourier d'une fonction 2π-périodique


Dénition 1.4.1 1. On notera Cper l'espace vectoriel des fonctionsf :R→
C 2π -périodiques (ce qui signie que f (x + 2π) = f (x) pour tout x ∈ R)
et dont la restriction à tout segment de R est continue par morceaux.

2. Soit f ∈ Cper . Pour tout n ∈ Z, on dénit


Z 2π
1
fb(n) := f (x)e−inx dx.
2π 0

Le nombre fb(n) s'appelle le nième coecient de Fourier de f.


Dénition 1.4.2 1. Pour tout n ∈ Z, on dénit en : R → C par en (x) :=
einx .
2. On appelle polynôme trigonométrique toute fonction du type
X
P = an en , (1.13)
|n|≤N

où N ∈N et les an sont dans C.


Dénition 1.4.3 (Série de Fourier d'une fonction périodique) Soit f ∈
Cper .
1. Soit N ≥ 1. On appelle N ième somme partielle de Fourier de f la fonction
X
SN f (x) := fb(n)einx
|n|≤N

pour tout x ∈ R. C'est un polynôme trigonométrique.

2. Pour tout x ∈ R, on dira que la série de Fourier de f en x converge si, et


seulement si, la suite (SN f (x))N ≥1 converge dans C. Sa limite est alors
inx
P
notée n∈Z f (n)e .
b

On remarque aussitôt que, si P est un polynôme trigonométrique donné par


(1.13), alors an = Pb(n) et on a donc
X
P (x) = Pb(n)einx (1.14)
n∈Z

pour tout x ∈ R.
Plus généralement, on pose la question suivante : si f ∈ Cper et x ∈ R, la série
de Fourier de f en x converge-t-elle, et si oui, quelle est sa limite ?
1.4.2 Le noyau de Dirichlet
Dénition 1.4.4 Soit N ∈ N. Pour tout x ∈ R, on dénit

X
DN (x) := einx .
|n|≤N

C'est un polynôme trigonométrique, appelé N ième noyau de Dirichlet.

On a l'expression suivante du noyau de Dirichlet :

Proposition 1.4.5 Pour tout N ∈N x∈ / 2πZ,


et tout

sin N + 21 x
 
DN (x) = . (1.15)
sin x2


Preuve : pour tout x∈


/ 2πZ,

N
X  
DN (x) = einx = e−iN x 1 + eix + · · · + e2iN x
n=−N

ei(2N +1)x − 1 ei(N +1/2)x − e−i(N +1/2)x sin((N + 1/2)x)


= e−iN x = = .
ix
e −1 eix/2 − e−ix/2 sin(x/2)
(1.16)

Proposition 1.4.6 Pour toute f ∈ Cper , tout x∈R et tout N ≥ 1,


Z 2π
1
SN f (x) = f (x − t)DN (t)dt.
2π 0

Preuve : pour tout x ∈ R, en utilisant le point 5 de l'exemple 1.2.20,

N
X
SN f (x) = fb(n)einx
n=−N
N Z 2π
X 1
= f (t)ein(x−t) dt
2π 0
n=−N
N Z x
X 1
= f (x − u)einu du
2π x−2π
n=−N
N Z 2π
X 1
= f (x − u)einu du
2π 0
n=−N
Z 2π
1
= f (x − u)DN (u)du.
2π 0
1.4.3 Convergence quadratique
Dénition 1.4.7 On dénit D comme l'espace des fonctions f ∈ Cper telles
que, pour tout x ∈ R,
f (x+ ) + f (x− )
f (x) = ,
2
où f (x+ ) := limy→x y>x f (y) et f (x− ) := limy→x y<x f (y).

Pour toutes f, g ∈ D, on pose

Z 2π
1
hf, gi := f (t)g(t)dt. (1.17)
2π 0

Proposition 1.4.8 1. L'application (f, g) 7→ hf, gi est un produit hermi-


tien sur D.
2. Pour toute f ∈D et tout n ∈ Z, fb(n) = hf, en i.
Preuve : la sesquilinéarité et le caractère hermitien sont immédiats. Il est aussi
R 2π 2
clair que hf, f i ≥ 0. hf, f i = 0, donc 0 |f (t)| dt = 0. Ainsi,
Supposons que
f (t) = 0 en tout point t ∈ [0, 2π] où f est continue. Soit alors t ∈ [0, 2π]. Si
f (t) 6= 0, et si on note |f (t)| = m > 0, alors, par exemple, f (t+ ) 6= 0, ce qui
m
montre qu'il existe δ > 0 tel que, pour tout u ∈]t, t + δ[, |f (u)| ≥
2 , ce qui
est impossible. Ainsi, f (t) = 0 pour tout t ∈ [0, 2π] donc pour tout t ∈ R par
périodicité. Enn, le point 2 est immédiat.

Proposition 1.4.9 1. La famille (en )n∈Z est orthonormale pour le produit


hermitien (1.17).

2. Pour tout N ≥ 0, on note PN le sous-espace de D engendré par (en )−N ≤n≤N .


Pour toute f ∈ D, la projection orthogonale de f sur PN est
N
X
SN f = fb(n)en .
k=−N

De plus,

Z 2π Z 2π
1 2 1 2
min |f (t) − g(t)| dt = |f (t) − SN f (t)| dt
g∈PN 2π 0 2π 0
Z 2π N
1 b 2
X
2
= |f (t)| dt − f (n) .
2π 0 k=−N

b 2
P
3. La série n∈Z f (n) converge et

2 Z 2π
X 1 2
fb(n) ≤ |f (t)| dt [Inégalité de Bessel]. (1.18)

2π 0
n∈Z
Preuve : le point 1 est immédiat. Pour 2, il est clair que SN f ∈ PN et, pour
tout −N ≤ k ≤ N ,
Z 2π
1
hf, ek i = f (t)e−ikt dt = fb(k) = Sd
N f (k) = hSN f, ek i.
2π 0

Cela montre que f − SN f ∈ PN . L'identité

Z 2π Z 2π
1 2 1 2
min |f (t) − g(t)| dt = |f (t) − SN f (t)| dt
g∈PN 2π 0 2π 0
provient du théorème de Pythagore. Enn,
Z 2π
1 2
|f (t)| dt = hf, f i
2π 0
= h(f − SN f ) + SN f, (f − SN f ) + SN f i
= hf − SN f, f − SN f i + hSN f, SN f i
Z 2π N
1 b 2
X
2
= |f (t) − SN f (t)| dt + f (n) .
2π 0
k=−N

On a donc
N Z 2π
b 2 1
X
2
f (n) ≤ |f (t)| dt
2π 0
k=−N

pour tout N ∈ N, ce qui donne aussitôt le point 3, appelé inégalité de Bessel.


On peut améliorer l'inégalité de Bessel en utilisant la proposition suivante, qui
sera admise :

Proposition 1.4.10 Soit f ∈ D. Alors, pour tout ε > 0, il existe un polynôme


trigonométrique P tel que
Z 2π
1 2
|f (t) − P (t)| dt ≤ ε.
2π 0

Une conséquence essentielle de cette proposition est :

Théorème 1.4.11 [Formule de Parseval] Pour toute f ∈ D,


Z 2π 2
1 2
X
|f (t)| dt = fb(n) .

2π 0 n∈Z

Preuve : au vu de l'inégalité de Bessel, il sut de montrer


Z 2π 2
1 2
X
|f (t)| dt ≤ fb(n) . (1.19)

2π 0 n∈Z

Soit ε > 0. La proposition 1.4.10 fournit un polynôme trigonométrique P tel


que
Z 2π
1 2
|f (t) − P (t)| dt ≤ ε.
2π 0
Soit N ≥ 0 tel que P ∈ PN . Alors
Z 2π N Z 2π
1 b 2 1
X
2 2
|f (t)| dt − f (n) = min |f (t) − g(t)| dt
2π 0 g∈PN 2π 0
k=−N
Z 2π
1 2
≤ |f (t) − P (t)| dt
2π 0
≤ ε,
ce qui montre que

Z 2π N
b 2
1 X X 2
2
|f (t)| dt ≤ f (n) + ε ≤ fb(n) + ε,

2π 0 k=−N n∈Z

et comme c'est vrai pour tout ε > 0, on obtient (1.19).

Corollaire 1.4.12 Soit f ∈ Cper . Alors


Z 2π
2
lim |f (t) − SN f (t)| dt = 0.
N →+∞ 0
Preuve : pour tout n ∈ Z,

0 si |n| ≤ N,
− SN f (n) =
f\
fb(n) si |n| > N,
La formule de Parseval donne alors
Z 2π X 2
2
|f (t) − SN f (t)| dt = fb(n) → 0.

0 |n|>N

1.4.4 Convergence ponctuelle


Dénition 1.4.13 1. Soient a<b∈R
f : [a, b] → C. On dira que f est
et
C 1 par morceaux si, et seulement si, il existeN ≥ 1 et a = x0 < ... <
xN = b tels que, pour tout 0 ≤ i ≤ N − 1, la restriction de f à ]xi , xi+1 [
1
se prolonge par continuité en une fonction de classe C sur [xi , xi+1 ].
1
2. Soit f : R → C. On dit que f est C par morceaux si, et seulement si,
1
pour tous a < b ∈ R, la restriction de f à [a, b] est C par morceaux.

On va montrer le théorème de convergence suivant pour les séries de Fourier des


fonctions C1 par morceaux :

Théorème 1.4.14 [Théorème d'Abel Dirichlet] Soit f : R → C une fonction


de classe C1 par morceaux et 2π -périodique. Alors, pour tout x ∈ R,
X f (x+ ) + f (x− )
fb(n)einx = .
2
n∈Z

En particulier, si f est continue en x,


X
fb(n)einx = f (x).
n∈Z
La preuve utilise le :

Lemme 1.4.15 [Lemme de Riemann-Lebesgue] Soient a<b et g : [a, b] → C


une fonction continue par morceaux. Alors

Z b
lim g(t)e−int dt = 0.
|n|→+∞ a

Preuve du lemme 1.4.15 : on suppose d'abord que g = 1[c,d] avec a≤c<


d ≤ b. Alors, pour tout n 6= 0,
Z
b e−ind − e−inc

g(t)e −int
dt = ≤ 2 → 0.
−in |n|

a

Si g est en escalier, g est une combinaison linéaire de fonctions indicatrices


de segment (proposition 1.1.6), donc la conclusion est encore valable. Enn,
dans le cas général, soit ε > 0. Il existe une fonction h en escalier telle que
ε
|g(x) − h(x)| < 2(b−a) pour tout x ∈ [a, b]. Soit N ∈ N tel que

Z
b ε
−int
h(t)e dt ≤

2

a

pour tout |n| ≥ N . Alors, pour tout |n| ≥ N ,


Z Z Z
b b b
g(x)e−inx dx ≤ h(x)e−inx dx + (g(x) − h(x))e−inx dx


a a a
R R
b b
≤ a h(x)e−inx dx + a |g(x) − h(x)| dx

ε
≤ 2ε + (b − a) 2(b−a) = ε.

Preuve du théorème 1.4.14 : soitx ∈ R. On écrit d'abord


Z π
1
SN f (x) = f (x − t)DN (t)dt
2π Z−π
π
1
= f (x + t)DN (t)dt,
2π −π

où on a utilisé la parité de DN . On a donc

π
f (x + t) + f (x − t)
Z
1
SN f (x) = DN (t)dt
2π Z−π 2
π
1
= (f (x + t) + f (x − t))DN (t)dt,
2π 0
grâce, encore une fois, à la parité de DN . Comme
Z π
DN (t)dt = 2π,
−π

on a donc
0
DN (t)dt = π , donc, par la proposition 1.4.5, l'erreur EN =
f (x+ ) + f (x− )
SN f (x) − vérie :
2
Z π
1
EN = (f (x + t) − f (x+ ) + f (x − t) − f (x− ))DN (t)dt
2π Z0
π
N + 21 t
 
1 + − sin
= (f (x + t) − f (x ) + f (x − t) − f (x ))
sin 2t

2π 0
Pour tout t ∈ ]0, π], on pose

f (x + t) − f (x+ ) + f (x − t) − f (x− )
g(t) := .
sin 2t


f (x+t)−f (x+ )
On vérie que t 7→ t possède une limite quand t → 0 avec t > 0 (c'est
immédiat si f est dérivable en x, et sinon, utiliser la dénition d'une fonction
sin( t )
C 1 par morceaux). Il en est donc de même pour g car t 7→ t 2 possède une
limite quand t tend vers 0. On prolonge ainsi g en une fonction continue en 0,
et la fonction ainsi prolongée est continue par morceaux sur [0, π]. On conclut
donc par le lemme de Riemann-Lebesgue.

Exemple 1.4.16
2
Soit f (x) := 1 − πx2 pour tout x ∈ [−π, π], prolongée par 2π -
1
périodicité sur R. La fonction f est continue sur R et C par morceaux. Pour
tout n ∈ Z∗ ,
π π
t2
Z   Z
1 −int 1
fb(n) = 1− 2 e dt = u(t)v 0 (t)dt
2π −π π 2π −π

t2 e−int
avec u(t) = 1 − π 2 et v(t) = −in . On a donc
π
2t e−int
Z  
1 1
fb(n) = (u(π)v(π) − u(−π)v(−π)) − − 2 dt
2π Z π 2π −π π −in
1
= − te−int dt
inπ 3 Z−π
π
1
= − u1 (t)v10 (t)dt,
inπ 3 −π
−int
avec v1 (t) = e−in . On a donc
u1 (t) = t et
 Z π 
1 0
f (n) = −
b u1 (π)v1 (π) − u1 (−π)v1 (−π) − u1 (t)v1 (t)dt
inπ 3  Z π  −π
1 1
= − 2π(−1)n − e−int dt
inπ 3 −in −π
2
= (−1)n+1 2 2 .
π n
Pour n = 0, Z π
1 2
fb(0) = f (t)dt = .
2π −π 3
D'après le théorème d'Abel-Dirichlet, pour tout x ∈ R,

2 X 2
f (x) = + (−1)n+1 2 2 einx
3 π n
n∈Z∗
2 X 4
= + (−1)n+1 2 2 cos(nx).
3 π n
n≥1

En particulier, pour x = π, on obtient

2 X 4
0= − ,
3 π 2 n2
n≥1

donc
X 1 π2
= .
n2 6
n≥1

La formule de Parseval donne

Z π  2
4 4 X 1 1 t2
+ 4 = 1 − dt,
9 π ∗
n4 2π −π π2
n∈Z

donc
4 8 X 1 8
+ 4 = ,
9 π n4 15
n≥1

et
X 1 π4
= .
n4 90
n≥1

1.5 Intégrales impropres

Les notions de base sur ces intégrales seront rappelées sans qu'on donne le
détail des arguments.

1.5.1 Dénitions
Dénition 1.5.1 Soient I ⊂ R un intervalle et f : I → Rn . On dit que f
est continue par morceaux sur I si, et seulement si, pour tous a < b ∈ I , la
restriction de f à [a, b] est continue par morceaux.

Remarque 1.5.2 Si f : I → Rn est continue, alors f est continue par mor-


ceaux.

Dénition 1.5.3 Soient a<b avec a ∈ R et b ∈ R ou b = +∞. SoitR x f : [a, b[→


Rn continue par morceaux. Pour tout x ∈ [a, b[, on pose F (x) := a f (t)dt.
Rb
1. On dit que l'intégrale impropre
a
f (t)dt converge si, et seulement si, F
possède une limite à gauche en b. Dans ce cas, on dénit

Z b
f (t)dt := lim F (x).
a x→b, x<b

Rb
2. On dit que l'intégrale impropre
a
f (t)dt diverge si, et seulement si, elle
ne converge pas.

Remarque 1.5.4 Soient a < b avec a ∈ R et b ∈ R ou b = +∞. Soit f : [a, b[→


Rb
Rn continue par morceaux. Si c ∈ [a, b[, alors a f (t)dt converge si, et seulement
Rb
si,
c
f (t)dt converge.

Exemple 1.5.5 1. Soit f (t) = e−t pour t ∈ [0, +∞[. Pour tout x ∈ [0, +∞[,
Z x
F (x) = e−t dt = 1 − e−x ,
0

et comme limx→+∞ F (x) = 1, on a

Z ∞
e−t dt = 1.
0

1
2. Soit f (t) = 1−t pour tout t ∈ [−1, 1[. Pour tout x ∈ [−1, 1[,
Z x
1
F (x) = dt = −ln(1 − x) + ln2,
−1 1−t
R1 1
donc limx→1,x<1 = +∞. Ainsi, l'intégrale
−1 1−t
dt diverge.
3. Soit f (t) = cos t pour tout t ∈ [0, +∞[. Pour tout x ∈ [0, +∞[,
Z x
F (x) = cos tdt = sin x,
0
R +∞
et comme F n'a pas de limite en +∞, l'intégrale
0
cos tdt diverge.

On peut donner une dénition analogue pour des fonctions continues sur ]a, b] :

Dénition 1.5.6 a < b avec a ∈ R ou a = −∞ et b ∈ R. Soit f :]a, b] →


Soient
Rb
n
R continue par morceaux. Pour tout x ∈]a, b], on pose F (x) := x f (t)dt.
Rb
1. On dit que l'intégrale impropre
a
f (t)dt converge si, et seulement si, F
possède une limite à droite en a. Dans ce cas, on dénit

Z b
f (t)dt := lim F (x).
a x→a, x>a
Rb
2. On dit que l'intégrale impropre
a
f (t)dt diverge si, et seulement si, elle
ne converge pas.

Remarque 1.5.7 Par le changement de variable


Rb
x 7→ −x, si f :]a, b] → Rn est

continue par morceaux, alors l'intégrale


a
f (t)dt converge si, et seulement si,
R −a
l'intégrale
−b
f (−t)dt converge, et dans ce cas, ces intégrales sont égales. La
fonction x 7→ f (−x) est continue par morceaux sur [−b, −a[.
Proposition 1.5.8 Soient a < b avec a ∈ R et b ∈ R ou b = +∞. Soient
Rb
f, g : [a, b[→ Rn continues par morceaux. On suppose que les intégrales a f (t)dt
Rb
et
a
g(t)dt convergent. Alors :
Rb Rb Rb Rb
1.
a
(f + g)(t)dt converge et a (f + g)(t)dt = a f (t)dt + a g(t)dt,
Rb Rb Rb
2. pour tout λ ∈ R, (λf )(t)dt converge et a (λf )(t)dt = λ a f (t)dt.
a

La preuve est immédiate.

Remarque 1.5.9 Soient a < b avec a ∈ R et b ∈ R ou b = +∞. Soient


Rb
f, g : [a, b[→ Rn continues par morceaux. Il peut arriver que
a
(f + g)(t)dt
Rb Rb
converge alors que ni f (t)dt ni a g(t)dt ne convergent (voir le cas g = −f ).
a
Rb Rb Rb
Par contre, si
a
(f + g)(t)dt et a f (t)dt convergent, alors a g(t)dt converge car
g = (f + g) − f .
Proposition 1.5.10 (Critère de Cauchy) Soient a < b avec a ∈ R et b ∈ R
ou b = +∞. Soit f : [a, b[→ Rn continue par morceaux. Alors :
Rb
1. si b < +∞, f (t)dt converge si, et seulement si, pour tout ε > 0, il
a
0
existe δ > 0 tel que, pour tous x, x ∈ [b − δ, b[,
Z 0
x
f (t)dt ≤ ε, (1.20)


x
Rb
2. si b = +∞, a
f (t)dt converge si, et seulement si, pour tout ε > 0, il
existe A > a tel que, pour tous x < x0 ∈]A, +∞[,
Z 0
x
f (t)dt ≤ ε.


x

Proposition 1.5.11 (Convergence absolue) Soient a < b avec


Rb
a ∈ R et
b∈R b = +∞. Soit f : [a, b[→ Rn continue par morceaux.
ou Si
a
kf (x)k dx
Rb
converge, alors
a
f (x)dx converge aussi et
Z Z
b b
f (x)dx ≤ kf (x)k dx. (1.21)


a a
Rb
On dit que l'intégrale
a
f (t)dt converge absolument.

Remarque 1.5.12
Rb
Il peut arriver que
a
f (t)dt converge sans converger abso-
lument. On verra un exemple de ce phénomène plus loin.
1.5.2 Cas des fonctions positives
Proposition 1.5.13 Soient a < b avec a ∈ RR et b ∈ R ou b = +∞. Soit f :
b
[a, b[→ [0, +∞[ continue par morceaux. Alors a f (t)dt converge si, et seulement
Rx
si, il existe M > 0 tel que, pour tout x ∈ [a, b[, f (t)dt ≤ M . On a alors
Rb a

a
f (t)dt ≤ M .

Corollaire 1.5.14 Soient a<b avec a∈R et b ∈ R ou b = +∞. Soit f, g :


[a, b[→ [0, +∞[ continues par morceaux avec f (x) ≤ g(x) pour tout x ∈ [a, b[.
Alors :
Rb Rb Rb Rb
1. si
a
g(t)dt converge, alors
a
f (t)dt converge et
a
f (t)dt ≤ a
g(t)dt,
Rb Rb
2. si
a
f (t)dt converge, alors
a
g(t)dt diverge.

Corollaire 1.5.15 Soient a < b a ∈ R et b ∈ R ou b = +∞. Soit f :


avec
[a, b[→ R continue par morceaux et g : [a, b[→ [0, +∞[ continue par morceaux.
Rb Rb
On suppose que f ∼g au voisinage de b. Alors
a
f (t)dt et a g(t)dt sont de
même nature (i.e. elles sont toutes les deux convergentes ou toutes les deux
divergentes).

On utilisera souvent les corollaires 1.5.14 et 1.5.15 avec des fonctions de réfé-
rence.

Proposition 1.5.16 Soient a>0 et α ∈ R.


R +∞ 1
1. L'intégrale
tα dt converge si, et seulement si, α > 1.
Raa 1
2. L'intégrale
0 tα
dt converge si, et seulement si, α < 1.

Exemple 1.5.17
R +∞ 2 2
1. L'intégrale
0
e−x dx converge. En eet, e−x ≥ 0
2
pour tout x ≥ 0 et il existe C > 0 tel que, pour tout x ≥ 1, e−x ≤ xC2 et
R +∞ C
1 x2 d converge.
R +∞ x sin x
2. L'intégrale
2 (x−1)3 dx converge absolument. En eet, pour tout x ≥ 2,

x sin x x 1
(x−1)3 ≤ (x−1) 3 ∼ x2 .

R1
3. L'intégrale √ 1 dx est convergente. En eet, au voisinage de 1,
0 1−x3

1 1 1 1
√ =√ √ ∼√ √ ,
1 − x3 1 − x 1 + x + x2 3 1−x

et, pour tout x ∈ [0, 1[,


Z x Z 1
1 1
√ du = √ dv,
0 1−u 1−x v
R1
et comme limx→1 1 − x = 0 et comme l'intégrale √1 dv converge, on
0 v
R1 1
obtient que
0

1−x
dx converge.
R +∞ 1
4. Soient α, β ∈ R. Alors 2 tα (lnt)β
dt converge si, et seulement si, α > 1
ou [α = 1 et β > 1].
1
R +∞ 1
En eet, si α < 1, et si β ∈]α, 1[, α
t (lnt)β
≥ tCβ et l'intégrale 2 tβ
dt
diverge.
1 C
R +∞ 1
Si α>1 β ∈]1, α[, tα (lnt)
et si β ≥ tβ et l'intégrale 2 tβ
dt converge.
Enn, si α = 1, on a, pour tout x > 2, par le changement de variables
u = lnt,
Z x Z lnx
1 1
dt = du,
2 t(lnt)β ln2 uβ
R +∞ 1
de sorte que l'intégrale
2 t(lnt)β
dt converge si, et seulement si β > 1.
L'étude de la convergence ou de la divergence de certaines intégrales impropres
de fonctions positives peut se faire à l'aide de séries.

Exemple 1.5.18 Soit


|sin t|
t f (t) =
pour tout t ∈ [1, +∞[. Pour tout entier
N ≥ 1, en utilisant le changement de variable u = t − kπ dans l'avant-dernière
ligne,
Nπ N −1 Z (k+1)π
|sin t| |sin t|
Z X
dt = dt
π t kπ t
k=1
N −1 Z (k+1)π
X 1
≥ |sin t| dt
(k + 1)π kπ
k=1
N −1 Z π
X 1
= |sin t| dt
(k + 1)π 0
k=1
N −1
X 2
= ,
(k + 1)π
k=1
ce qui montre que

|sin t|
Z
lim dt = +∞,
N →+∞ π t
Rx |sin t|
si bien que la fonction x 7→ 1 t dt n'est pas majorée, et que donc l'intégrale
R +∞ |sin t|
1 t dt diverge.
On peut aussi obtenir des informations sur une série en la comparant à une
intégrale.

Exemple 1.5.19 1
P
La série n≥2 nlnn diverge. En eet, pour tout n ≥ 2,
Z n+1
1 1
≥ dt,
nlnn n tlnt
donc
N Z N +1
X 1 1
≥ dt,
n=1
nlnn 1 tlnt
R N +1 1
Rx 1
et comme limN →+∞ 1 tlnt dt = limx→+∞ 1 tlnt
dt = +∞, on obtient la
conclusion.
1.5.3 Cas des fonctions à valeurs dans R
Proposition 1.5.20 [Règle d'Abel] Soient a < b avec a ∈ R et b ∈ R ou
b = +∞, et f, g : [a, b[→ R continues. On suppose que :

1. f est C 1, décroissante et limx→b, x<b f (x) = 0,


R 0
x
2. il existe M > 0 tel que, pour tous x < x0 ∈ [a, b[, x g(t)dt ≤ M .

Rb
Alors l'intégrale
a
f (t)g(t)dt est convergente.

Preuve : on notera que f (x) ≥ 0 pour tout x ∈ [a, b[. Soit ε > 0. Il existe
ε 0
δ>0 tel que, pour tout x ∈ [b − δ, b[, 0 ≤ f (x) ≤ M . Soient x < x ∈ [b − δ, b[.
0
Par la deuxième formule de la moyenne, il existe y ∈]x, x [ tel que

Z x0 Z y
f (t)g(t)dt = f (x) g(t)dt,
x x

donc Z 0
x ε y
Z

f (t)g(t)dt ≤ g(t)dt ≤ ε,

M x

x
et le critère de Cauchy permet de conclure.

Exemple R1.5.21 Soient α, λ ∈ R avec λ > 0. On examine la convergence de


+∞ −α
l'intégrale
1
t cos(λt)dt.
Si
R +∞
−α
α > 1, comme |t cos(λt)| ≤ tα et comme 1 t−α dt converge, l'intégrale
est absolument convergente.
Si 0 < α ≤ 1, on note que la fonction t 7→ t−α est C 1 , décroissante sur [1, +∞[
0
et tend vers 0 en +∞. De plus, pour tous x < x dans [1, ∞[,
Z 0 Z 0
x x eiλx0 − eiλx 2
cos(λt)dt ≤ exp(iλt)dt = ≤ .

iλ λ

x x

D'après la règle d'Abel, l'intégrale converge. De plus, elle ne converge pas absolu-
ment. En eet, dans le cas contraire, comme 0 ≤ cos2 (λt) ≤ |cos(λt)|, l'intégrale
R +∞ −α 2
1
t cos (λt)dt serait convergente. Or, pour tout A > 1,

Z A Z A Z A
−α 1 −α 1
t 2
cos (λt)dt = t dt + t−α cos(2λt)dt.
1 2 1 2 1
RA R 2A RA
Comme t−α cos(2λt)dt = 2α−1 2 u−α cos(λu)du, A 7→ 1 t−α cos(2λt)dt
1 R A −α
possède une limite en +∞. Comme A 7→
1
t cos2 (λt)dt possède aussi une
R A −α
limite en +∞, on en déduit que A 7→ t dt possède une limite en +∞, ce
1
qui est faux puisque α ≤ 1.
Si α ≤ 0, l'intégrale 1 t cos(λt)dt est divergente. En eet, dans le cas
R +∞ −α
R π2 +nπ −α
contraire, on devrait avoir limn→+∞ − π +nπ t cos(λt)dt = 0. Or, si an :=
λ
2
λ
π +nπ
2
t−α cos(λt)dt,
R λ
− π +nπ
2
comme cos(λt) est de signe constant sur l'intervalle d'in-
λ
tégration, on a
π +nπ
Z 2
λ
|an | = − π +nπ
t−α |cos(λt)| dt
2
λ
 Z π2 +nπ
− π2 + nπ −α

λ
≥ − π +nπ
|cos(λt)| dt
λ 2
 π −α Z λπ +nπ
1 − 2 + nπ 2
= t−α |cos u| du
λ λ −π 2 +nπ
−α
2 − π2 + nπ

= ,
λ λ
ce qui donne une contradiction.

Remarque 1.5.22
R +∞ sin
On vient de voir que l'intégrale √ t dt converge. Par
  1 t
R +∞
sin 2
contre, l'intégrale √ t + sin t dt est divergente, car si elle convergeait,
1 t t
R +∞ sin2 t
l'intégrale
1 t dt convergerait aussi, ce qui n'est pas le cas par un argument
sin t sin t sin2 t
analogue à celui de l'exemple 1.5.21. Les fonctions t 7→ √ et t 7→ √ +
t t t
sont équivalentes au voisinage de +∞ mais les intégrales de 1 à +∞ ne sont
pas de même nature (comparer avec le corollaire 1.5.15, ici aucune fonction ne
garde un signe constant au voisinage de +∞).
On peut parfois utiliser un changement de variable pour déterminer si une in-
tégrale impropre converge ou non.

Exemple 1.5.23
R +∞
L'intégrale
1
cos(t2 )dt converge. En eet, pour tout A>
2
1, le changement de variables u=t donne

Z A Z A2
2 1 cos u
cos(t )dt = √ du,
1 2 1 u
R +∞
cos
RA
et comme l'intégrale √ u du converge, on voit que A 7→ cos(t2 )dt pos-
u 1 1
2
sède une limite. On notera que t 7→ cos(t ) ne tend pas vers 0 en +∞.
On peut aussi utiliser une intégration par parties pour étudier certaines inté-
grales impropres.

Exemple 1.5.24 On pose

sin t
(
si t > 0,
f (t) := t
1 si t=0
et 
 sin2 t
g(t) := 2
si t > 0,
 1t si t = 0.
R +∞
Les fonctions f et g [0, +∞[. L'intégrale 0 f (t)dt converge
sont continues sur
R +∞ sin t R +∞
par la règle d'Abel (qu'on applique à
1 t dt). L'intégrale 0 g(t)dt converge
1
aussi car 0 ≤ g(t) ≤ 2 pour tout t > 0 et cela donne la convergence de l'intégrale
R +∞ t

1
g(t)dt.
R +∞ R +∞
De plus,
0
f (t)dt = 0 g(t)dt. En eet, soit A > 0. En intégrant par
1
parties, en posant u(t) = 1 − cos t et v(t) = ,
t

A A    Z A
1 − cos A 1 − cos t
Z Z
sin t 0 1
dt = u (t)v(t)dt = −A 1 − cos + dt.
1
A
t 1
A
A A 1
A
t2

Or
1 − cos A
lim = 0,
A→+∞ A
1 1

et, quand A → +∞, 1 − cos A ∼ A2 , de sorte que
  
1
lim A 1 − cos = 0.
A→+∞ A
Enn, pour tout A > 0, par le changement de variables t = 2u,
A
A A
sin2 t

1 − cos t sin2 u
Z Z Z 2
2
dt = 2 dt = du,
1
A
t2 1
A
t2 1
2A
u2

et on conclut en faisant tendre A vers +∞.

1.5.4 Intégrales plusieurs fois impropres


Dénition 1.5.25 Soient a = −∞, b ∈ R ou b = +∞.
a<b
Rb
avec a∈R ou

Soit f :]a, b[→ Rn f (t)dt converge si, et


continue par morceaux. On dit que
a
Rc Rb
seulement si, il existe c ∈]a, b[ tel que f (t)dt et c f (t)dt convergent. On pose
a
alors
Z b Z c Z b
f (t)dt = f (t)dt + f (t)dt. (1.22)
a a c

Si un tel c existe, alors les mêmes conditions sont satisfaites pour tout c ∈]a, b[
et la dénition (1.22) ne dépend pas du choix de c.
R c1
La vérication ne pose pas de problème : si c1 , c2 ∈]a, b[,
f (t)dt converge, si
a
R c2 Rb
alors
a
f (t)dt converge aussi, et la conclusion est analogue pour
c2
f (t)dt. De
plus,

Z c2 Z b Z c1 Z c2 Z c1 Z b
f (t)dt + f (t)dt = f (t)dt + f (t)dt + f (t)dt + f (t)dt
a c2 Zac1 Zc1b c2 c1

= f (t)dt + f (t)dt.
a c1
Remarque 1.5.26
Rb
Dans la situation de la dénition 1.5.25, si
a
f (t)dt converge,
Rb R θ(x)
alors, siθ :]a, b[→]a, b[ est telle que limx→a θ(x) = b, on a a f (t)dt = limx→a x f (t)dt.
R θ(x)
Par contre, il peut arriver que limx→a f (t)dt existe pour une certaine fonc-
Rb x Rx
tion θ sans que f (t)dt ne converge. Par exemple, pour tout x > 0, tdt = 0,
a −x
R +∞
mais
−∞
tdt ne converge pas.

Exemple 1.5.27
R +∞
1. Pour tout α ∈ R, 0
tα dt diverge.
R2 3
1√
dt est convergente. En eet, 12 √t−11√2−t dt est
R
2. L'intégrale √
1 t−1 2−t
1√ 1
convergente, car quand t → 1, √ ∼ √t−1 , ces fonctions sont posi-
t−1 2−t
R 32 1 R2
tives et
1

t−1
dt est convergente. On raisonne de même pour 3 √t−11√2−t dt
2
converge.

On peut calculer cette intégrale. En eet, soit ε > 0. Le changement de


variables u = 2t − 3 donne
Z 2−ε Z 1−2ε
1 1
√ √ dt = √ √ du
1+ε t−1 2−t Z−1+2ε u+1 1−u
1−2ε
1
= √ du
−1+2ε 1 − u2
= 2 arcsin(1 − 2ε),

donc en faisant tendre ε vers 0, on obtient

Z 2
1
√ √ dt = 2 arcsin 1 = π.
1 t−1 2−t

1.5.5 Convergence de suites d'intégrales impropres


Théorème 1.5.28 [Théorème de convergence dominée pour les intégrales im-
propres] Soient a<b avec a∈R et b ∈ R ou b = +∞, (fk )k≥1 une suite de
fonctions continues par morceaux de [a, b[ dans Rn et f : [a, b[→ Rn continue
par morceaux. On suppose que :

1. limk→+∞ fk (x) = f (x) pour tout x ∈ [a, b[,


2. il existe une fonction g : [a, b[→ [0, +∞[ continue par morceaux telle que
Rb
kfk (x)k ≤ g(x) pour tout k ≥ 1 et tout x ∈ [a, b[ et l'intégrale
a
g(x)dx
est convergente.
Rb
Alors, pour tout k ≥ 1, l'intégrale fk (x)dx est absolument convergente, l'inté-
a
Rb Rb Rb
grale
a
f (x)dx est absolument convergente et limk→+∞ a fk (x)dx = a f (x)dx.

Corollaire 1.5.29
R
[Continuité sous le signe pour les intégrales impropres]
Soient a < b avec a ∈ R, b ∈ R ou b = +∞ et I ⊂R un intervalle de R. Soit
f : [a, b[×I → Rn . On suppose que :
1. pour tout x ∈ I, la fonction t 7→ f (t, x) est continue par morceaux sur
[a, b[,
2. pour tout t ∈ [a, b[, la fonction x 7→ f (t, x) est continue sur I,
3. il existe une fonction g : [a, b[→ R continue par morceaux telle que, pour
Rb
tout t ∈ [a, b] et tout x ∈ I , kf (t, x)k ≤ g(t) et l'intégrale a g(t)dt
converge.
Rb
Alors, pour tout x ∈ I , l'intégrale a
f (t, x)dt converge absolument et la fonction
Rb
x 7→ a
f (t, x)dt est continue sur I.

La preuve se fait comme pour le corollaire 1.2.36 en utilisant le théorème de


convergence dominée pour les intégrales impropres.

Exemple 1.5.30 Pour tout x > 0, on pose

Z +∞
Γ(x) := tx−1 e−t dt.
0

Cette intégrale est convergente. En eet, pour


R 1 x−1 t → 0, tx−1 e−t ∼ tx−1 , les fonc-
tions considérées sont positives et t dt est convergente car x − 1 > −1.
x−1 −t C
R0+∞ C
Pour t → +∞, 0 ≤ t e ≤
R +∞ x−1 −t t2
et
1 t2 dt converge.
La fonction x 7→ t e dt est continue sur ]0, +∞[. En eet, soient x0 > 0
1
et h > 0 tel que x0 − h > 0. Il existe C > 0 tel que, pour tout t ≥ 1 et tout
R +∞ C
x ∈]x0 − h, x0 + h[, tx−1 e−t ≤ tC2 , et 1 dt converge. Le corollaire 1.5.29
R +∞ x−1 −t t2
montre la continuité de x 7→ t e dt sur ]x0 − h, x0 + h[.
R1 1 x−1 −t
De même, la fonction x 7→ t e dt est continue sur ]0, +∞[. En eet,
0
soient x0 > 0 et h > 0 tel que x0 − h > 0. Alors, pour tout t ∈]0, 1] et tout
R1
x ∈]x0 − h, x0 + h[, 0 ≤ tx−1 e−t ≤ tx0 −h−1 et l'intégrale 0 tx0 −h−1 dt est
convergente. On conclut de la même façon. On a donc montré que la fonction Γ
est continue sur ]0, +∞[.

Corollaire 1.5.31
R
[Dérivabilité sous le signe pour les intégrales impropres]
Soient a < b avec a ∈ R, b ∈ R ou b = +∞ et I ⊂R un intervalle de R. Soit
f : [a, b[×I → Rn . On suppose que :
1. pour tout x ∈ I, la fonction t 7→ f (t, x) est continue par morceaux sur
Rb
[a, b[ et l'intégrale
a
f (t, x)dt converge,
2. pour tout t ∈ [a, b[, la fonction x 7→ f (t, x) est dérivable sur I et, pour
tout x ∈ I , t 7→ ∂f
∂x (t, x) est continue par morceaux sur [a, b[,
3. il existe une fonction g : [a, b[→ R continue
par morceaux telle que, pour
∂f Rb
tout t ∈ [a, b] et tout x ∈ I ,
∂x (t, x) ≤ g(t), et l'intégrale a g(t)dt

converge.
∂f
Rb
Alors, pour tout x ∈ I , l'intégralea ∂x
(t, x)dt converge absolument, la fonction
Rb R b ∂f
x 7→ a
f (t, x)dt est dérivable sur I et sa dérivée est x 7→
a ∂x
(t, x)dt.

Preuve analogue à celle du corollaire 1.2.38, en appliquant la convergence do-


minée pour les intégrales impropres.
RExemple
+∞ x−1 −t
1.5.32 On reprend l'exemple de la fonction Γ. La fonction x 7→
1
t e dt est dérivable sur ]0, +∞[. En eet, si f (t, x) = tx−1 e−t , alors
∂f
= tx−1 e−t lnt et on peut majorer comme pour la continuité. Pour x 7→
R∂x1 x−1 −t
0
t e dt, on xe x0 > 0 et h > 0 tel que x0 − 2h > 0 et on majore la valeur
x −h−1
R1
absolue de la dérivée par t 0 |lnt| ≤ tx0 −2h−1 et 0 tx0 −2h−1 dt converge.
Ainsi, pour tout x > 0,

Z +∞
0
Γ (x) = tx−1 e−t lntdt.
0
Chapitre 2

Calcul intégral en dimension n


Dans ce chapitre, n≥1 est un entier.

2.1 Intégrales des fonctions en escalier

Dénition 2.1.1 Soit P ⊂ Rn . On dit que P est un pavé si, et seulement si,
il existe des intervalles bornés I1 , ..., In ⊂ R tels que P = I1 × ... × In . Si, pour
tout k ∈ {1, n}, Ik est de longueur lk , alors la mesure (ou son volume, ou encore
son aire si n = 2) de P est dénie comme

n
Y
mes P := lk .
k=1

Exemple 2.1.2 2
1. L'ensemble [0, 1[×]0, 1] est un pavé de R .
 2 2 2
2
2. L'ensemble (x, y) ∈ R ; x + y ≤ 1 n'est pas un pavé de R .

3. Le pavé P est fermé si et seulement si tous les Ik sont compacts.

Dénition 2.1.3 Soitf : Rn → R. On dit que f est en escalier si, et seulement


n
si, il existe N ≥ 1, des pavés P1 , ..., PN ⊂ R et λ1 , ..., λN ∈ R tels que f =
P N n
i=1 λi 1Pi . On note E(R , R) l'espace vectoriel des fonctions en escalier.

Si P = [a1 , b1 ]×. . .×[an , bn ] est un pavé fermé, on note E(P, R) l'ensemble des
fonctions qui sont des restrictions de fonction en escalier à P . Comme 1Q |P =
1Q∩P et que Q ∩ P est un pavé si Q et P sont des pavés, E(P, R) est le sous
P
espace vectoriel de R engendré par les fonctions indicatrices des pavés contenus
dans P .
Si σ est une subdivision de P , c'est à dire la donnée pour tout 1 ≤ j ≤ n
d'une subdivision σj = (xj,0 , . . . , xj,Nj ) de [aj , bj ], on a une partition Qσ de P
formée des pavés Q = I1 × In où Ii est soit de la forme {xj,i } soit de la forme
]xj,i , xj,i+1 [.
Une subdivision σ est dite adaptée à la fonction f si f est constante sur
les pavés de Qσ . L'espace des fonctions en escalier auxquelles σ est adaptée

55
forme un sous espace vectoriel Eσ (P, R) ⊂ E(P, R) dont une base est donnée
par{1Q }Q∈Qσ . C'est une
S famille libre car les pavés de Qσ sont disjoints deux à
deux. On a E(P, R) = σ Eσ (P, R).

Dénition 2.1.4 Soit f : P → R en escalier et P1 , ..., PN , λ1 , ..., λn donnés par


la dénition 2.1.3. On appelle intégrale de f le nombre
Z n
X
f (x)dx := λk mes Pk .
P k=1

Ce nombre ne dépend pas du choix de P1 , ..., PN ⊂ P , λ1 , ..., λn donnés par la


dénition 2.1.3.

La vérication est analogue à celle de la proposition 1.1.7 du chapitre 1. On


notera en particulier que, si
R P est un pavé et f = 1P , alors f est en escalier et

Rn
f (x)dx = mes P .

Soyons plus précis. On peut dénir une forme linéaire
P
sur Eσ (P, R) en la

dénissant par que
P
1Q = mes Q si Q est un pavé de Qσ , ce qui est légitime
puisque ces fonctions forment une base de Eσ (P, R).
R = J1 × . . . × Jn
Un pavé
vérie 1R ∈ Eσ (P, R) Ji est
si et seulement si toute extrémité de
R σun des points
de coupures de la subdivision σi . On vérie alors facilement que 1 = mes R.
P R
En eet pour chaque i ∈ {1, . . . , n} Ji est un intervalle d'extrémités xi,ji , xi,ri
ji ≤ ri donc
i −1
rX
xi,ri − xi,ji = xi,ki +1 − xi,ki
ki =ji

et on a bien

n
Y n
X Y Z σ
mes R= (xi,r − xi,j ) = (xi,ki +1 − xi,ki ) = 1R .
i=1 k1 ,...,kn i=1 P


Ceci montre que 1 est indépendant de σ tel que 1R ∈ Eσ (P, R) puis que
P R

f est indépendant de σ tel que f ∈ Eσ (P, R). Cette valeur commune est bien
P
donnée par la formule de la dénition 2.1.3.
On a une application linéaire naturelle E(P, R) → E(Rn , R), f 7→ f˜P qu'on
appelle le prolongement par zéro. Le prolongement par zéro de f ∈ E(P, R)
est la fonction f˜P telle que f˜P (x) = f (x) si x ∈ P et f˜P (x) = 0 sinon. Toute
fonction en escalier f˜ sur R est de la forme f˜P pour un pavé P convenable
n
c
R
(tout pavé tel que f s'annulle sur P convient). f ne dépend pas de P et se
P
˜
R
note
Rn
f .
On vérie immédiatement les propriétés suivantes :

Proposition 2.1.5 Soient f, g : Rn → R en escalier.


R
1. Pour tous
R λ, µ ∈R R, λf + µg est en escalier et
Rn
(λf + µg)(x)dx =
λ Rn f (x)dx + µ Rn g(x)dx.
x ∈ Rn ,
R R
2. Si f (x) ≤ g(x) pour tout alors
Rn
f (x)dx ≤ Rn
g(x)dx.
3. La fonction x 7→ |f (x)| est en escalier et
Z Z

f (x)dx ≤ |f (x)| dx.
n n
R R

4. f.g est en escalier.

5. Pour toute fonction partout dénie F : R → R, la fonction F ◦f est en


escalier.

Le seul point qui nécessite commentaire est le 4ème. Si f = 1P et g = 1Q


f g = 1P ∩Q est l'indicatrice d'un pavé. Comme toute fonction en escalier est
combinaison linéaire de telles fonctions indicatrices, le produit de deux fonctions
en escalier est en escalier.

2.2 Fonctions intégrables sur une partie cubable

de Rn
2.2.1 Dénition des fonctions intégrables
Dénition 2.2.1 Soit P un pavé fermé. Une fonction f : P → R est dite
intégrable si pour tout
R >0 il existe deux fonctions φ, ψ ∈ E(P, R) telles que
|f − φ| ≤ ψ et
P
ψ < .

Lemme 2.2.2 f est intégrable s'il existe pour tout


R  > 0 deux fonctions f1 , f2 ∈
E(P, R) telles que f1 ≤ f ≤ f2 et (f − f1 ) < .
P 2

Pour l'implication directe f1 = φ−ψ et f2 = φ+ψ conviennent (quitte à changer


). Pour la réciproque φ = f1 et ψ = f2 − f1 conviennent.

Dénition 2.2.3 Une approximation en escalier d'une fonction f : P → R


intégrable est une suite
R (φn , ψn )n∈N ∈ E(P, R)N telle que |f − φn | ≤ ψn et
limn→∞ P
ψn = 0.

Lemme
R 2.2.4 Si (φn , ψn )n∈N est une approximation en escalier de f alors
( P
φn )n∈N est une suite de Cauchy.

Preuve : Soient p, q ∈ N. On a φp − φq = φp − f + f − φq ≤ Rψp + ψqR, ce qui


donne en intervertissant les rôles de
R R p et q |φp − φq | ≤ ψp + ψq . | P φp − P φq | ≤
P p |φ − φq | ≤ P ψp + ψq . R

R R
Fixons  > 0. Si N est tel que P ψn < 2 dès que n≥N alors | P
φp − P
φq | < 
si p, q ≥ N .

Dénition 2.2.5
R
La limite de la suite ( P φn )n∈N est indépendante de l'ap-
proximation en escalier de la fonction
R f : P → R, s'appele l'intégrale de f sur
P et se note
P
f.
Il est facile de voir que la somme de deux fonctions intégrables est intégrable,
que le produit par un réel constant d'une fonction intégrable est intégrable et
R R R
que
P
λf + µg = λ P
f +µ P
g. On a donc prouvé le :

Théorème 2.2.6 L'espace des fonctions intégrables forme un sous espace vec-
P
torielR − Int(P, R)R ⊂ R formé de fonctions bornées. L'application qui à f
intégrable associe f est l'unique forme linéaire sur R − Int(P, R) telle que si
R RP
f ≥ 0 P f ≥ 0 et P 1Q = mes Q si Q ⊂ P est un pavé.

Proposition 2.2.7 Toute fonction continue sur P à valeurs réelles est inté-
grable.

Preuve : Une telle fonction f est uniformément continue car P est compact.
Par suite pour tout  > 0 il existe δ > 0 tel que supi |xi −x0i | < δ implique |f (x)−
0 
f (x )| ≤ mes P . Choisissant une subdivision de pas < δ de chaque segment
facteur de P , nous obtenons une subdivision σ de P et, par construction :

X 
|f − φQ 1Q | ≤ 1P ,
mes P
Q∈Qσ

si φQ ∈ R est choisi comme la valeur de f en un point donné de Q. Ainsi la


dénition 2.2.1 est vériée.

2.2.2 Une autre caractérisation des fonctions intégrables


Dénition 2.2.8 Soit f : Rn → R bornée et nulle en dehors d'un pavé. On
dénit

E + (f ) := {v : Rn → R en escalier et telle que f (x) ≤ v(x) pour tout x ∈ Rn }

et

E − (f ) := {u : Rn → R en escalier et telle que u(x) ≤ f (x) pour tout x ∈ Rn } .

On notera que E + (f ) et E − (f ) sont non vides. En eet, si f est nulle en dehors


du pavé P , comme il existe m < M tels que m ≤ f ≤ M sur P , les fonction
m1P et M 1P sont en escalier et vérient m1P ≤ f ≤ M 1P .

Dénition 2.2.9 Soit f : Rn → R bornée et nulle en dehors d'un pavé.

1. On appelle intégrale supérieure de f le nombre

Z 
I + (f ) := inf v(x)dx; v ∈ E + (f ) .
Rn

2. On appelle intégrale inférieure de f le nombre

Z 
I − (f ) := sup u(x)dx; u ∈ E − (f ) .
Rn
3. On dit que f est intégrable si, et seulement si, I + (f˜) = I − (f˜). On dénit
alors l'intégrale de f par
Z
f (x)dx = I + (f ) = I − (f ).
Rn

On notera que I + (f ) et I − (f ) sont bien dénis. En eet, E + (f ) et E − (f ) sont


non vides.
Le prolongement par zéro f˜P est déni pour toute fonction f : P → R. Il n'y a
nul besoin que f soit en escalier. On voit immédiatement que :

Lemme
R 2.2.10R f :P →R est intégrable si, et seulement si, f˜P est intégrable.
On a f˜ =
Rn P P
f.

De plus, si est un pavé en dehors duquel f est nulle et si f ≤ M sur P ,


P
alors pour toute u ∈ E − (f ), u ≤ M sur P et u = 0 hors de P , de sorte que
u(x)dx ≤ M mes P , et une vérication analogue peut être faite pour E + (f ).
R
Rn

Remarque 2.2.11 1. On a toujours I − (f ) ≤ I + (f ). Il peut ne pas y avoir


égalité : prendre f (x) = 1 si x ∈ Q ∩ [0, 1] et f (x) = 0 sinon. Dans ce
cas, I − (f ) = 0 et I + (f ) = 1.
2. Si f est en escalier, son intégrale au sens des dénitions 2.1.4 et 2.2.9
f ∈ E + (f ) I + (f ) ≤ Rn f (x)dx
R
coïncident. En eet, donc
R . De même,
I − (f ) ≥ + −
R
Rn
f (x)dx, ce qui montre que I (f ) = I (f ) =
Rn
f (x)dx.
3. Si n = 1 f est continue par morceaux sur le segment [a, b], alors f
et
(étendue par 0 hors de [a, b]) est bien intégrable au sens de la dénition
2.2.9 et son intégrale coïncide bien avec celle dénie au chapitre 1.

On le vérie d'abord pour f continue sur [a, b]. Soit en eet ε > 0. Il existe
ε
δ > 0 tel que, pour tous u, v ∈ [a, b] avec |u − v| ≤ δ , |f (u) − f (v)| ≤ b−a .
On considère une subdivision (x0 , ..., xN ) de [a, b] avec xi+1 − xi < δ
pour tout i ∈ {0, . . . N − 1}. Pour tout i ∈ {0, N − 1}, on pose mi =
ε
inf [xi ,xi+1 ] f et Mi = sup[xi ,xi+1 ] f , de sorte que 0 ≤ Mi − mi ≤ b−a . Si
PN −1 PN −1
u := i=0 mi 1[xi ,xi+1 [ + f (b)1{b} et v := i=0 mi 1[xi ,xi+1 [ + f (b)1{b} ,
− +
Rb
alors u ∈ E (f ), v ∈ E (f ) et (v − u)(x)dx ≤ ε, de sorte que
a
Z b Z b Z b Z b
u(x)dx ≤ I − (f ) ≤ f (x)dx ≤ I + (f ) ≤ v(x)dx ≤ u(x)dx+ε,
a a a a

et comme c'est vrai pour tout ε > 0, on obtient la conclusion dans ce


cas.

Si f est seulement continue par morceaux, on découpe [a, b] en sous-


intervalles sur chacun desquels f est continue et on applique le résultat
à chaque sous-intervalle.

Proposition 2.2.12 Le produit de deux fonctions intégrables est intégrable


Preuve : Traitons le cas où la fonction est dénie sur P , le cas général en
découle trivialement. Si f est une fonction intégrable telle que m ≤ f ≤ M alors
pour tout  > 0 il existe des fonctions en escalier f1 , f2 avec m ≤ f1 ≤ f ≤ f2 ≤
R
M et P (f2 − f1 ) ≤ . En eet considérons F : R → R est dénie par F (x) = m
pour x ≤ m F (x) = x pour m ≤ x ≤ M et F (x) = M pour x ≥ M . Supposons
que g1 et g2 en escalier encadrent f , c.à.d. g1 ≤ f ≤ g2 . Si on pose f1 = F ◦ g1
et f2 = F ◦ g2 f1 et f2 sont en escalier, vérient m ≤ f1 ≤ f ≤ f2 ≤ M et
f2 − f1 ≤ g2 − g1 . On peut donc trouver pour toutR  > 0 deux fonctions en
escalier φ, ψ telles que |f − φ| ≤ ψ , |φ| ≤ supP |f | et ψ < .
P
Soient f1 , f2 intégrables et (φ1 , ψ1 ), (φ2 , ψ2 ) comme ci dessus.

|f1 f2 − φ1 φ2 | = |f1 f2 − f1 φ2 + f1 φ2 − φ1 φ2 |
≤ |f1 ||f2 − φ2 | + |φ2 ||f1 − φ1 |
≤ sup |f1 |ψ2 + sup |f2 |ψ1 .
P P
R
Posant (Φ, Ψ) = (φ1 .φ2 , supP |f1 |ψ2 + supP |f2 |ψ1 ) on obtient que P Ψ ≤
(supP |f1 |+supP |f2 |). Le produit de deux fonctions en escalier étant en escalier,
la proposition est démontrée.

2.2.3 Parties cubables


Dénition 2.2.13 Soit A ⊂ Rn une partie bornée. On dit que
R A est cubable
si, et seulement si, 1A est intégrable. On pose alors mes A := 1 (x)dx.
Rn A

Exemple 2.2.14 1. Tout pavé de Rn est cubable.


n
2. Toute boule de R est cubable. Toute sphère de Rn est cubable.

3. Pour n = 1, Q ∩ [0, 1] n'est pas cubable.

Proposition 2.2.15 Soient A, B ⊂ Rn des parties cubables. Alors A \ B, A ∪ B


et A∩B sont cubables.

Le cas de A ∩ B résulte de 1A∩B = 1A 1B . Le cas de A \ B résulte de


1A\B = 1A − 1A∩B . Le cas de A ∪ B résulte de 1A∪B = 1A + 1B − 1A∩B .

Lemme 2.2.16 Une partie A ⊂ Rn est cubable si et seulement si pour tout


 > 0, il existe B ⊂ A ⊂ C tel que
• B est une réunion nie de pavés (qu'on peut prendre ouverts),
• C est une réunion nie de pavés (qu'on peut prendre fermés),
• mes C \ B < .
P Preuve : Supposons que ψ en escalier vérie ψ ≤ 1A . On peut écrire ψ =
Q ψQ 1Q où {Q} est une famille de pavés deux à deux disjoints. Si ψQ > 0 on
a Q ⊂ A. Par suite

X
ψ≤ 1Q = 1SQ⊂A Q = 1B 0 ≤ 1A ,
Q⊂A
En particulier B 0 ⊂ A. P
Supposons que φ en escalier vérie φ ≥ 1A . On peut écrire φ= Q φQ 1Q où
{Q} est une famille de pavés deux à deux disjoints. Si Q ∩ A 6= ∅ on a φQ ≥ 1 .
Par suite

X
φ≥ 1Q = 1SQ∩A6=∅ Q = 1C 0 ≥ 1A ,
Q∩A6=∅
0
En particulierA R⊂ C .
φ − ψ ≤ , mes (C 0 \ B 0 ) = Rn 1C 0 \B 0 ≤ Rn φ − ψ ≤ .
R R
En particulier si
Rn
0
On peut remplacer B par la réunion B des seuls pavés ouverts dans la construc-
0 0 0
tion de B et remplacer C par C la réunion des adhérences des pavés de C , on
a toujours B ⊂ A ⊂ C et mes C \ B.

Ce qu'on peut reformuler en une propriété de la frontière de A :

Lemme 2.2.17 Une partie bornée A ⊂ Rn est cubable si et seulement si, pour
tout > 0, sa frontière ∂A est contenue dans une réunion de pavés dont la
mesure est < .

Proposition 2.2.18 Soit P ⊂ Rn un pavé et f1 ≤ f2 deux fonctions intégrables


n+1
sur P . Les parties de R :
• {(x, y) ∈ P × R f1 (x) ≤ y ≤ f2 (x)},
• {(x, y) ∈ P × R f1 (x) < y ≤ f2 (x)},
• {(x, y) ∈ P × R f1 (x) ≤ y < f2 (x)},
• {(x, y) ∈ P × R f1 (x) < y < f2 (x)}
sont cubables.

R Preuve : Choisissons des fonctions en escalier ψi ≤ fi ≤ φi telles que

P
φi − ψi < . Toutes les parties A considérées vérifent :

{(x, y) ∈ P ×R φ1 (x) < y < ψ2 (x)} ⊂ A ⊂ {(x, y) ∈ P ×R ψ1 (x) ≤ y ≤ φ2 (x)}

soit B ⊂ A ⊂ C , B, C réunions nies de pavés et


Z Z
mes (C \ B) ≤ φ2 − ψ2 + φ1 − ψ1 < 2.
P P

En pratique, pour montrer qu'une partie est cubable, on l'écrit comme


n+1
réunion nie de parties de cette forme. Par exemple la boule unité de
p Pn R
est cubable comme on le voit en introduisant f2 = max(0, 1 − i=1 x2i ) et
f1 = −f2 .
Dénition 2.2.19 Soit f : Rn → R intégrable et A une partie cubable de Rn .
On pose : Z Z
f= 1A .f.
A Rn

Cas particulier (c'en est bien un car toute fonction continue sur K se prolonge
à une fonction continue dénie sur Rn ) :
Dénition 2.2.20 [Intégrale d'une fonction continue sur un compact cubable]
Soient K ⊂ Rn un compact cubable et f :K →R continue. On dénit, pour
tout x ∈ Rn , 
f (x) si x ∈ K,
fe(x) :=
0 si x ∈ Rn \ K.
Alors fe est intégrable et on dénit
Z Z
f (x)dx = fe(x)dx.
K Rn

Proposition 2.2.21 Soient K ⊂ Rn


un compact cubable, f, g : K → R conti-
nues et λ, µ ∈ R.
R R R
1. On a
K
(λf + µg)(x)dx = λ K f (x)dx + µ K g(x)dx.
R R
2. Si f (x) ≤ g(x) pour tout x ∈ K , alors f (x)dx ≤ K g(x)dx.
K
◦ R
3. On suppose que K = K . Si f (x) ≥ 0 pour tout x ∈ K et si f (x)dx = 0,
K
alors f (x) = 0 pour tout x ∈ K .
R R
4. On a
K
f (x)dx ≤ |f (x)| dx.
K
◦ R R
5. On suppose que K = K . Si K f (x)dx ≤ K |f (x)| dx, alors f (x) ≥ 0
pour tout x ∈ K ou f (x) ≤ 0 pour tout x ∈ K .

Proposition 2.2.22 [Relation de Chasles] Soient K et L des compacts cu-


bables. On suppose que mes (K ∩ L) = 0. Soit f : K ∪ L → R une fonction
continue. Alors
Z Z Z
f (x)dx = f (x)dx + f (x)dx.
K∪L K L

2.3 Méthodes de Calcul

2.3.1 Théorèmes de Fubini


Ces théorèmes permettent de ramener le calcul de certaines intégrales sur
des parties cubables de Rn à des intégrales sur des intervalles de R.
Théorème 2.3.1 [Théorème de Fubini pour des produits de pavés] Soient n, m ≥
1, P ⊂ R n et Q ⊂ Rm des pavés compacts et f : P ×Q → R une fonction conti-
nue. Alors
Z Z Z  Z Z 
f (x, y)dxdy = f (x, y)dy dx = f (x, y)dx dy.
P ×Q P Q Q P

Remarque 2.3.2 Un cas particulier du théorème 2.3.1 est que, si g:P →R


et h:Q→R sont continues, alors
Z Z  Z 
g(x)h(y)dxdy = g(x)dx g(y)dy .
P ×Q P Q
Preuve du théorème 2.3.1 R: on
R va la faire
 dans le cas R R n = m =1 et on
va seulement prouver l'égalité
P Q
f (x, y)dy dx = Q P
f (x, y)dx dy . On
considère donc a < b et c < d et f : [a, b] × [c, d] → R une fonction continue.
Pour tout t ∈ [c, d], on pose
!
Z t Z b
ϕ(t) = f (x, y)dx dy
c a

et
Z b Z t 
ψ(t) = f (x, y)dy dx.
a c

Pour tout y ∈ [c, d], on pose

Z b
g(y) := f (x, y)dx.
a

La fonction g est continue sur [c, d]. En eet, x 7→ f (x, y) est continue sur [a, b],
y 7→ f (x, y) est continue sur [c, d], et, comme f est continue sur [a, b] × [c, d],
il existe M > 0 tel que |f (x, y)| ≤ M pour tout (x, y) ∈ [a, b] × [c, d]. Comme
la fonction x 7→ M est continue sur [a, b], le corollaire 1.2.36 assure que g est
continue sur [c, d].
Rt
Comme ϕ(t) =
c
g(y)dy , la fonction ϕ est dérivable sur [c, d] et ϕ0 (t) = g(t) =
Rb
a
f (x, t)dx pour tout t ∈ [c, d].
Pour tout t ∈ [c, d] et tout x ∈ [a, b], on pose

Z t
h(x, t) = f (x, y)dy.
c

Pour tout t ∈ [c, d], x 7→ h(x, t) est continue sur [a, b] (conséquence du corollaire
∂h
1.2.36). Pour tout x ∈ [a, b], t 7→ h(x, t) est dérivable ∂hsur [c, d] et ∂t (x, t) =
f (x, t). De plus, pour tout x ∈ [a, b] et tout t ∈ [c, d], ∂t (x, t) = |f (x, t)| ≤ M

et la fonction x 7→ M est continue sur [a, b]. Ainsi, par le corollaire 1.2.38,
Rb Rb
comme ψ(t) =
a
h(x, t)dx, ψ est dérivable sur [c, d] et ψ 0 (t) = a f (x, t)dx.
0 0
Ainsi, ϕ (t) = ψ (t) pour tout t ∈ [c, d], et comme ϕ(a) = ψ(a), on a ϕ(t) = ψ(t)
pour tout t ∈ [c, d] et en particulier, ϕ(d) = ψ(d).

Exemple 2.3.3 Soient 1 < a < b. On veut calculer


Z π
b − cos t
I := ln dt.
0 a − cos t

On remarque que, pour tout t ∈ [0, π],


b
b − cos t
Z
1
ln = dx.
a − cos t a x − cos t
On a donc
!
Z π Z b Z b Z π 
1 1
I= dx dt = dt dx.
0 a x − cos t a 0 x − cos t

t

Soit x ∈ [a, b]. Par le changement de variables u = tan 2 , on obtient que, pour
tout ε > 0,

Z π−ε Z tan( π−ε


2 )
1 1 1
dt = 1−u2
du
0 x − cos t 0 x− 1+u2
1 + u2
Z tan( π−ε
2 ) 1
= du
0 u2 (x
+ 1) + x − 1
Z tan( π−ε
2 )
1 1
= du.
x+1 0 u + x−1
2
x+1
q
x−1
Par le changement de variables u= x+1 v , on obtient donc

q
x+1
Z π−ε Z tan( π−ε
2 )
1 2 1 x−1
dt = √ dv
0 x − cos t x2
−1 0 +1 v2
r  !
2 x+1 π−ε
= √ arctan tan .
x2 − 1 x−1 2

Faisant tendre ε vers 0, on obtient que

Z π
1 π
dt = √ .
0 x − cos t x2 − 1

Il vient que
Z b
1
I=π √ dx.
a x2 − 1
Le changement de variable x = cosh t donne

I = π(β − α),

où α, β > 0 sont tels que cosh α = a et cosh β = b. On a donc

eα + e−α = 2a,

et sieα = √
A, cela donne A2 − 2aA + 1 = √
0, soit A = a + a2 − 1, donc
α = ln a + a2 − 1 et de même β = ln b + b2 − 1 . Finalement,
√ !
b + b2 − 1
I = πln √ .
a + a2 − 1
Théorème 2.3.4 [Intégration par piles] Soient K ⊂ Rn−1 un compact cubable
et ϕ1 , ϕ2 : B → R des fonctions continues telles que ϕ1 (x) ≤ ϕ2 (x) pour tout
x ∈ K . Alors :
n
1. l'ensemble A := {(x, xn ) ∈ R ; ϕ1 (x) ≤ xn ≤ ϕ2 (x)} et est un compact
n
cubable de R ,

2. pour toute fonction continue f : A → R, on a


Z Z Z ϕ2 (x) !
f (x, xn )dxdxn = f (x, xn )dxn dx.
A B ϕ1 (x)

Exemple 2.3.5
 2
R 2 2
D:= (x, y) ∈ R ; x ≤ y ≤ x . On veut
Soit
calculer
D
x dxdy .
2 2
On remarque que D := (x, y) ∈ R ; 0 ≤ x ≤ 1 et x ≤ y ≤ x . Par le théorème
2.3.4,
Z Z 1 Z x  Z 1
2 2 1 1 1
x dxdy = x dy dx = x2 (x − x2 )dx = − = .
D 0 x2 0 4 5 20
Théorème 2.3.6 [Théorème de Fubini pour des fonctions intégrables] Soient
n, m ≥ 1, P ⊂ Rn et Q ⊂ Rm des pavés compacts et f : P ×Q → R une fonction
intégrable sur P × Q.
On suppose que pour tout xR ∈ P (y 7→ f (x, y) est intégrable sur Q.
Alors, la fonction F : (x 7→ Q
f (x, y)dy) est intégrable et :
Z Z Z 
f (x, y)dxdy = f (x, y)dy dx.
P ×Q P Q

Preuve du théorème 2.3.6 : Le théorème est vrai pour les fonctions indi-
catrices de pavés et la clause d'intégrabilité est satisfaite. En eet la restriction
d'une fonction indicatrice d'un pavé à un autre pavé est l'indicatrice du pavé
1 0 0 (x, y)dy = mes Q0 1P 0 (x). Donc cette fonction est
R
intersection. De plus
Q P ×Q
proportionnelle à l'indicatrice d'un pavé. Par linéarité, le théorème est vérié
R
pour les fonctions en escalier, la fonction (x 7→ Q
f (x, y)dy) étant en escalier si
f l'est.
Dans le cas général, utilisant le lemme 2.2.2, on choisit
R f1 ≤ f ≤ f2 un enca-
drement en escalier de f tel que f − f1 <  .
P ×Q 2
La fonction F ne serait pas
dénie sans l'hypothèse que nous faisons mais cette hypothèse étant faite on a
R R
F1 ≤ F ≤ F2 avec F1 , F2 F − F1 = P ×Q f2 − f1 <  en raison
P 2
en escalier et
R R
du cas particulier des fonctions en escalier. Mais évidemment F = P ×Q fi
P i
toujours par ce cas particulier. Ceci observé, le cas général s'obtient par passage
à la limite.

Théorème 2.3.7 A ⊂ Rn un compact cubable.


[Intégration par tranches] Soit
Soient a < b tels que, pour tout (x, xn ) ∈ A, a ≤ xn ≤ b. On suppose que, pour
 n−1

tout xn ∈ [a, b], l'ensemble A(xn ) := x ∈ R ; (x, xn ) ∈ A est un compact
n−1
cubable de R (éventuellement vide). Alors, pour toute fonction continue
f : A → R, on a
Z Z b Z 
f (x, xn )dxdxn = f (x, xn )dx dxn .
A a x∈An
Preuve : Corollaire immédiat du théorème 2.3.6.
Exemple 2.3.8

Soit A > 0 et DA le disque (x, y) ∈ R2 ; x2 + y 2 ≤ A2 . Alors
l'aire de DA vaut

√ !
Z Z A Z A2 −x2
1dxdy = √ dy dx
DA −A − A2 −x2
Z A p
= 2 A2 − x2 dx
Z−A
Ap
= 4 A2 − x2 dx
0Z π
2
= 4A2 sin2 θdθ
0
= πA2 ,

où la quatrième ligne provient du changement de variables x = A cos θ.

2.3.2 Changement de variable


n n
Soient U ⊂ R un ouvert et ϕ : U → R une fonction. On note ϕ(x) =
(ϕ1 (x), ..., ϕn (x)) pour tout x ∈ U . On rappelle que ϕ est de classe C 1 sur U si,
∂ϕi
et seulement si, pour tous i, j ∈ {1, n},
∂xj existe et est continue sur U . Pour
tout x ∈ U , la matrice jacobienne de ϕ au point x est la matrice

 i 
∂ϕ
Jϕ(x) = (x) .
∂xj 1≤i,j≤n

Enn, si U et V sont des ouverts de Rn , et si ϕ : U → V, on dit que ϕ est un


1
C -diéomorphisme de U sur V si, et seulement si :

1. ϕ est une bijection de U sur V,


1
2. ϕ est de classe C sur U,
−1 1
3. ϕ est de classe C sur V.
ϕ est un C 1 -diéomorphisme de U sur V , alors Jϕ(x)
Il est facile de voir que, si
est inversible pour tout x ∈ U . Le théorème d'inversion locale assure que, si ϕ
1
est C et injective sur U et si Jϕ(x) est inversible pour tout x ∈ U , alors ϕ est
1
un C -diéomorphisme de U sur ϕ(U ).

Théorème 2.3.9 n]
[Changement de variables dans les intégrales en dimension
Soient K un compact cubable de Rn Ω et ϕ : Ω → ϕ(Ω)
contenu dans un ouvert
1
un C -diéomorphisme de Ω sur l'ouvert ϕ(Ω). Alors ϕ(K) est un compact
n
cubable de R et, pour toute fonction continue f : ϕ(K) → R,

Z Z
f (y)dy = (f ◦ ϕ)(x) |det Jϕ(x)| dx.
ϕ(K) K
Exemple 2.3.10 [Coordonnées polaires] On pose ϕ(r, θ) := (r cos θ, r sin θ)
pour tout (r, θ) ∈ R2 . On vérie que ϕ est C∞ Jϕ(r, θ) = r. Si
et det

∆ := (r, θ) ∈ R2 ; r ≥ 0

et −π ≤θ ≤π

et
I := (x, y) ∈ R2 ; x ≤ 0

et y=0 ,
◦ ◦
alors ϕ : ∆ → R2 \ I est un C ∞ -diéomorphisme. En eet, si (r, θ) ∈ ∆, r > 0
et −π < θ < π , donc si r sin θ = 0, on a θ = 0, donc r cos θ = r > 0. Ainsi
(r cos θ, r sin θ) ∈
/ I.

Soit maintenant (x, y) ∈ R2 \ I . Si (r, θ) ∈ ∆ est tel que (r cos θ, r sin θ) = (x, y),
on a donc p
r = x2 + y 2 (2.1)

et
x y
cos θ = p , sin θ = p .
x2 + y2 x2 + y2
Comme
θ
1 − tan2

2
cos θ = θ
,
1 − tan2 2
on obtient donc que

r 2 − x2 y2
 
θ2 r−x
tan = = = .
2 r+x (r + x)2 (r + x)2

sin θ ≥ 0, donc 0 ≤ θ ≤ π , donc tan θ2 ≥ 0. De



Si y ≥ 0, on a même, si y ≤ 0,
tan θ2 ≤ 0. Finalement,


 
θ y y
tan = = p .
2 r+x x + x2 + y 2

Comme − π2 < θ
2 < π
2 , on obtient que

y
θ = 2 arctan p . (2.2)
x2 + y2 + x

Réciproquement, si r et θ sont donnés par (2.1) et (2.2), on a bien

θ
1 − tan2

2 x
cos θ = 2 θ
 =p
1 + tan 2 x + y2
2

et
θ

2 tan 2 x
sin θ = θ
=p .
1 + tan2 2 x2 + y 2
Ce calcul montre bien que (r, θ) 7→ (r cos θ, r sin θ) est un C∞ diéomorphisme,
dont la réciproque est connue explicitement.
2
I = R e−x dx. Soient A > 0, DA := (x, y) ∈ R2 ; x2 + y 2 ≤ A2
R 
On veut calculer
et CA := [−A, A]2 . On pose
Z
2 2
IA := e−(x +y ) dxdy.
DA

1
On vérie comme plus haut que
 ϕ
est un C -diéomorphisme de ]0, A[×]−π, π[→
(x, y) ∈ R2 ; 0 < x2 + y 2 < A2 \ [−A, 0] × {0}. On en déduit que
Z Z A  
2 2 2
IA = e−r rdrdθ = 2π re−r dr = π 1 − e−A .
[0,A]×[−π,π] 0

Comme DA ⊂ CA ⊂ DA√2 , on a donc

!2
  Z A
−A2 −x2 2
π 1−e ≤ e dx ≤ π(1 − e−2A ),
−A

et en faisant tendre A vers +∞, on obtient



Z
2
e−x dx = π.
R

Autre exemple : on calcule l'aire du disque DA en écrivant que

A2
Z Z
1dxdy = rdrdθ = 2π = πA2 .
DA [0,A]×[−π,π] 2

Exemple 2.3.11 [Coordonnées sphériques] On dénit

g(r, θ, ϕ) := (r cos θ cos ϕ, r sin θ cos ϕ, r sin ϕ)

pour tous r, θ, ϕ ∈ R. Ceci dénit une fonction de classe C∞ et


 
cos θ cos ϕ −r sin θ cos ϕ r cos θ sin ϕ
Jg(r, θ, ϕ) =  sin θ cos ϕ r cos θ cos ϕ −r sin θ sin ϕ ,
sin ϕ 0 r cos ϕ

donc
detJg(r, θ, ϕ) = r2 cos φ.
On dénit
n π πo
∆ := (r, θ, ϕ) ∈ R3 ; r ≥ 0, −π ≤ θ ≤ π, − ≤ ϕ ≤
2 2
et
I := (x, y, z) ∈ R3 ; x ≤ 0, y = 0 .



Alors g est un C∞ diéomorphisme de ∆ sur R3 \ I . Pour le voir, on commence

par observer que si (r, θ, ϕ) ∈ ∆, g(r, θ, ϕ) ∈ R3 \ I .

On suppose que (r1 , θ1 , ϕ1 ) et (r2 , θ2 , ϕ2 ) appartiennent à ∆ et que g(r1 , θ1 , ϕ1 ) =
g(r2 , θ2 , ϕ2 ) = (x, y, z). Alors r12 = r22 = x2 + y 2 + z 2 , donc r1 = r2 > 0. Ensuite,
sin ϕ1 = sin ϕ2 , donc ϕ1 = ϕ2 ∈] − π2 , + π2 [. On en déduit que cos θ1 = cos θ2
et sin θ1 = sin θ2 , et comme θ1 , θ2 ∈] − π, π[, on a bien θ1 = θ2 . Ainsi, g est

injective sur ∆. p
3
Soit (x, y, z) ∈ R \ I . On pose r = x2 + y 2 + z 2 > 0, puis on dénit ϕ ∈
π π z x
] − 2 , + 2 [ tel que sin ϕ = r . Enn, on dénit θ ∈] − π, π[ tel que cos θ = r cos ϕ
y x2 +y 2
et sin θ = r cos ϕ . Un tel θ existe car
r 2 cos2 ϕ = 1. Les r, θ, ϕ ainsi dénis vérient

bien g(r, θ, ϕ) = (x, y, z). Ainsi g(∆) = R3 \ I .

Enn, comme Jg(r, θ, ϕ) > 0 pour tout (r, θ, ϕ) ∈ ∆, le théorème d'inversion


locale montre bien que g est un C diéomorphisme de ∆ sur R3 \ I .

En termes de navigation marine sur une planète ronde, θ s'interprète comme


la longitude et ϕ comme la latitude.

2.3.3 Calculs d'aires et de volumes


Exemple 2.3.12 Soit a > 0. On veut calculer l'aire de

A := (x, y) ∈ R2 ;

il existe t ∈ [0, 2π] tel que x = a(t − sin t), 0 ≤ y ≤ a(1 − cos t) .

Soit f (t) := a(t − sin t) pour tout t ∈ [0, 2π]. La fonction f est un homéomor-
phisme de [0, 2π] sur [0, 2πa]. Soit g := f −1 et ϕ(x) := a(1 − cos g(x)) pour tout
x ∈ [0, 2πa]. Alors

A = (x, y) ∈ R2 ; 0 ≤ x ≤ 2πa

et 0 ≤ y ≤ ϕ(x) .

On a donc, par le changement de variables x = f (t),


Z 2πa Z 2π Z 2π
aire(A) = a(1−cos g(x))dx = a(1−cos t)f 0 (t)dt = a2 (1−cos t)2 dt = 3πa2 .
0 0 0

Exemple 2.3.13 Soit R > 0. On calcule le volume de

B := (x, y, z) ∈ R3 ; x2 + y 2 + z 2 ≤ R2 .


Ce volume vaut
Z
I = 1dxdydz
ZB
= r2 cos ϕdrdθdϕ
[0,R]×[−π,π]×[− π π
2 ,+ 2 ]
R3 4πR3
= 2π × 2 × = .
3 3
Exemple 2.3.14

n B = (x, y, z) o∈ R3 ; x2 + y 2 + z 2 ≤ 1
Considérons la boule
2
et le cylindre Σ = (x, y, z) ∈ R3 ; x2 + y − 21 ≤ 14 . On cherche le volume
n 2 o
de B ∩ Σ. Soit D := (x, y) ∈ R2 ; x2 + y − 12 ≤ 14 , qui est le disque de
centre
(0, 12 ) et de rayon

1
2 . On remarque que, pour tout (x, y) ∈ D , k(x, y)k ≤
(x, y) − (0, 1 ) + (0, 1 ) ≤ 1, où k·k désigne la norme euclidienne. Par suite,
2 2
n p p o
B ∩ Σ = (x, y, z) ∈ R3 ; (x, y) ∈ D et − 1 − x2 − y 2 ≤ z ≤ 1 − x2 − y 2 ,

si bien que

Z Z √1−x2 −y2 !
mes (B ∩ Σ) = √ dz dxdy
(x,y)∈D
Z − 1−x2 −y 2
p
= 4 1 − x2 − y 2 dxdy
D0

avec D0 := {(x, y) ∈ D; x ≥ 0}. On fait un changement de variables en coor-


0
données polaires. Si ϕ(r, θ) := (r cos θ, r sin θ), alors ϕ(r, θ) ∈ D si, et seulement
2 1 2 1 2
si, (r cos θ) + (r sin θ − ) ≤
2 4 et r cos θ ≥ 0, ce qui équivaut à r − r sin θ ≤ 0
et r cos θ ≥ 0.
π
1
  
Ainsi, ϕ est un C -diéomorphisme de (r, θ) ∈]0, 1[× −0,
2 ; 0 < r < sin θ

sur D, et donc

Z π Z 
2 p
mes (B ∩ Σ) =4 1− r2 rdr dθ
0 0<r<sin θ
Z π
4 2 3
= (1 − (1 − sin2 θ) 2 )dθ
3 0
Z π
4 2 2π 8
= (1 − cos3 θ)dθ = − .
3 0 3 9

2.3.4 Intégrales de surface


Dénition 2.3.15 On appelle surface paramétrée (ou nappe) de R3 de classe
k 2
C (k ≥ 1) la donnée d'un ouvert connexe U ⊂ R et d'une application f :U →
R3 de classe C k . L'ensemble S = f (U ) est appelé le support géométrique de la
surface (U, ϕ).
∂f
Une surface paramétrée est dite régulière si en tout point (x, y) de U , ∂x (x, y)
∂f
et
∂y (x, y) sont linéairement indépendants.

Si (U, f ) et (V, g) sont des surfaces paramétrées de R3 de classe C k , on dit que


(U, f ) et (V, g) sont équivalentes si, et seulement si, il existe un C k -diéomorphisme
ϕ : V → U tel que g = f ◦ ϕ. C'est une relation d'équivalence dans l'ensemble
k
des surfaces paramétrées de classe C .
On rappelle que, si u, v ∈ R3 ,
 
u2 v3 − u3 v2
u ∧ v = u3 v1 − u1 v3  .
u1 v2 − u2 v1

Dénition 2.3.16 Soit (U, f ) une surface paramétrée de R3 de classe C 1. On


dénit l'aire de (U, f ) par
Z
∂f ∂f
aire (U, f ) := ∂x (x, y) ∧ ∂y (x, y) dxdy,

U

où k·k désigne la norme euclidienne. Si (U, f ) et (V, g) sont équivalentes, l'aire


de (U, f ) et l'aire de (V, g) sont égales.

L'invariance par reparamétrisation résulte du théorème 2.3.9.

Il est bien connu que u∧v est nul si et seulement si u et v sont colinéaires. De plus,
dans le cas contraire, on vérie aisément que u∧v est orthogonal à u et v (pour la
3
structure euclidienne standard de R ) donc normal au plan engendré par {u, v}.
D'autre part, il est classique que la norme de u ∧ v est l'aire du parallélogramme

Π de sommets (0, u, v, u + v) c'est à dire kukkvk| sin(θ)| avec θ l'angle (u, [ v).
2
Ceci découle de la formule laisée en exercice que detB (u, v, u ∧ v) = ku ∧ vk
B étant la base canonique. La positivité du déterminant nous enseigne que
(u, v, u ∧ v) est une base directe. Ce déterminant est l'aire du pavé oblique Q
3
de côtés u, v, u ∧ v (par la formule de changement de variable dans R pour les
applications linéaires). Ce pavé étant un prisme droit de base le paralélogramme
Π et de hauteur la norme de u ∧ v , il s'ensuit que l'aire de Π est le quotient de
l'aire de Q par sa hauteur soit ku ∧ vk.
Une autre façon de faire serait de le vérier si les vecteurs ont leur troisième
R2 ⊂ R3 et d'utiliser que si Ω
coordonnée nulle est un élément de SO(3), on a
Ωu ∧ Ωv = Ω(u ∧ v), ce qui découle facilement du la formulation en terme de
produit mixte :
detB (u, v, w) = (u ∧ v, w).
Cette formule n'est pas autre chose que le développement par rapport à la 3ème
colonne du déterminant. On pourra par exemple se référer à la page Wikipédia
du produit vectoriel.

Exemple 2.3.17 Soient u, v, W ∈ R3 trois vecteurs, {u, v} étant une famille


libre. On considère la surface paramétrée f : (U =]0, 1[×]0, 1[→ R3 , (x, y) 7→
W + xu + yv). Le support géométrique est le parallélogramme Π de sommets
W, W + u, W + v, W + u + v (ou plutot son intérieur quand on le voit comme
contenu dans le plan passant par W et de direction le plan vectoriel que u et v
engendrent. On trouve alors aire (U, f ) = ku ∧ vk l'aire du parallélogramme Π.

Considérons une nappe régulière (U, f ) où U est un rectangle. Si on subdivise


susamment les deux cotés de U U en petits rec-
on obtient une subdivision de
tangles U 0 sur lesquels f , comme toute fonction de classe C 1 se laisse approximer
par une application ane fU 0 de U 0 vers R3 comme dans l'exemple précédent
∂f ∂f 0
avec u =
∂x (W ), v = ∂y (W ) ou W est le centre du rectangle U . Par suite f (U )
se laisse approximer par la réunion R des supports géométriques des surfaces
0
paramétrées (U , fU 0 ) c'est à dire par une union de petits parallélogrammes. Par
l'exemple précédent, la somme des aires de ces petits parallélogrammes est une
somme de Riemann pour l'intégrale qui calcule aire (U, f ). Il est intuitivement
plausible que l'aire de la surface f (U ) soit la limite de l'aire de R quand les pas
des subdivisions tendent vers 0 et c'est cette intuition qui guide la dénition
ci-dessus.

Exemple 2.3.18 Si 0<r<R et


 
(R + r cos y) cos x
f (x, y) =  (R + r cos y) sin x  ,
r sin y

avec U =]0, 2π[×]0, 2π[, alors l'aire de (U, f ) (tore de révolution) est

Z
∂f
(x, y) ∧ ∂f (x, y) dxdy = 4π 2 rR.

∂x ∂y
U

Dénition 2.3.19 Soit (U, f ) une surface paramétrée de R3 de classe C 1 telle


que l'adhérence S̄ de son support géométrique soit compact et h ∈ C 0 (S̄, R).
On dénit
Z Z
∂f ∂f
hdσ := h(f (x, y))
∂x (x, y) ∧ (x, y) dxdy.
(U,f ) U ∂y

R R def R
Si (U, f ) et (V, g) sont équivalentes,
(U,f )
hdσ = (V,g)
hdσ = S
hdσ .

Remarque 2.3.20
R R
L'analogue en dimension 1 de
S
−dσ est
Γ
−|ds| au sens
de la dénition 1.3.19.

Dénition 2.3.21 Un compact Σ de R3 est une surface régulière si et seulement


3
si chacun de ses points a un voisinage dans R qui soit le support géométrique
d'une nappe régulière.

Lemme 2.3.22 Soit Φ ∈ C 1 (R3 , R). Supposons que

Φ(x0 , y0 , z0 ) = t et dΦ(x0 ,y0 ,z0 ) 6= 0.

Alors le point (x0 , y0 , z0 ) ∈ Φ−1 (t) a un voisinage V tel que V ∩ Φ−1 (t) est le
support géométrique d'une nappe régulière.

Preuve : Quitte à échanger les rôles de x, y et z on peut supposer ∂Φ


∂z 6= 0. On
a alors, par le théorème des fonction implicites, une fonction ((x, y) 7→ z(x, y))
−1
dénie sur un voisinage connexe de (x0 , y0 ) décrivant localement Φ (t) comme
le graphe de z . On peut alors poser f (x, y) = (x, y, z(x, y)).
Proposition 2.3.23 Soit Φ ∈ C 1 (R3 , R) t ∈ R. Supposons que Φ−1 (t) soit
et
compact et que ∇Φ ne s'annule pas sur Φ (t). Alors Φ−1 (t) est une surface
−1

régulière.

Preuve : Conséquence immédiate du lemme précédent.


Exemple 2.3.24 La sphére est une surface régulière.

Proposition 2.3.25 Soit Σ ⊂ R3 une surface régulière. Il existe alors une


dσ : C 0 (Σ, R) → R telle que pour
R
unique forme linéaire
Σ
touth telle que
h = 0 hors d'un compact contenu dans le support géométrique S ⊂ Σ d'une
nappe régulière comme dans la dénition 2.3.21
Z Z
hdσ = hdσ.
Σ S

Preuve : L'unicité ne sera pas prouvée ici. L'existence résulte du lemme


suivant :

Lemme 2.3.26 Il existe une famille nie (φi )i∈I de fonction continues sur Σ,
φi ≥ 0 étant nulle hors d'un compact KP i contenu dans le support géométrique
Si ⊂ Σ d'une nappe régulière, telle que i∈I φi = 1S .
S
On peut donc poser, observant que i∈I Si = Σ :
Z XZ
hdσ = hφi dσ.
Σ i∈I Si

Preuve du lemme 2.3.26 : Pour chaque point p de Σ, il existe rp > 0 tel


que Σ∩B(p, rp ) est un support géométrique de nappe régulière. Du recouvrement
S r
Σ = S p∈Σ Σ ∩ B(p, 2p ), on peut extraire par compacité un recouvrement ni
Σ = i∈I Σ ∩ B(pi , 2 ). On peut poser ψi (x) = d(x, B(pi , r2i )c ) (restriction à Σ
ri
r
de la distance au fermé {kx − pi k ≥ i } qui est 1-lipschitzienne donc continue).
P 2
On a pour tout p in Σ, i∈I ψi (p) > 0 car p est contenu dans au moins une des
ψi
boules ouvertes B(pi , ri /2). On peut alors poser φi = P
ψi et cette famille
i∈I
convient.

Exemple 2.3.27 Pour la sphére de centre 0 et de rayon r paramétrée en sphé-


riques dσ = r2 cos φdθdϕ. En particulier l'aire de cette sphère est 4πr2 .

Remarque 2.3.28 Si K est un compact cubable dont la frontière ∂K est une


surface régulière par exemple la sphère. Cette surface est alors cubable mais son
volume est nul Z
mes(∂K) = dxdydz = 0
∂K

car elle est contenue dans une union nie de pavés dont la somme des volumes
R
est arbitrairement petite. En revanche aire(∂K) = dσ > 0 puisque Σ n'est
∂K
pas vide.
On peut généraliser comme suit pour des hypersurfaces de Rn qui sont des
objets de dimension n − 1. Le U dans
la dénition de nappe
doit être remplacé
∂f
par un ouvert de Rn−1 . Le facteur ∂x (x, y) ∧ ∂f
∂y (x, y) doit être remplacé par

n
la norme euclidienne du vecteur de R dont les coordonnées sont les mineurs
n−1×n−1 de la jacobienne de l'application f . La théorie précédente se
généralise moyennant des modications mineures.

Exemple 2.3.29 La sphère S


n−1
de centre 0 et de rayon 1 est une hypersur-
face régulière de Rn . L'application naturelle (S n ×]0, +∞[, (t, r) 7→ rt) est une
n n−1
paramétrisation de R \ {0}. On a dx1 . . . dxn = r drdσS n−1 .

2.3.5 Formule de Green-Riemann


Rb
f 0 = [f ]ba est la technique
En une variable réelle, la relation fondamentale
a
de calcul la plus basique qui implique notamment la formule d'intégration par
parties. Son analogue bidimensionnel est la formule de Green-Riemann :

Théorème 2.3.30 Soit K ⊂ R2 un compact cubable dont la frontière est une


réunion nie d'arcs géométriques réguliers Γj , deux Γj distincts ne s'intersectant
qu'en leurs extrémités (on dit alors que ∂K est C 1 par morceaux). Soient A, B ∈
C 1 (Ω, R) où Ω ⊂ R2 est un voisinage ouvert de K . On a :
Z Z
∂B ∂A dx dy
( − )dxdy = ds(A + B ),
K ∂x ∂y ∂K ds ds
R P R ◦

∂K
ds = j Γj
ds l'orientation étant choisi de façon à laisser K à gauche.

En dimension 3, la formule de Green-Ostrogradskii joue ce rôle.

Théorème 2.3.31 K ⊂ R3 un compact cubable dont la frontière est une


Soit
~ ∈ C 1 (Ω, R3 ) où Ω ⊂ R3 est un voisinage ouvert de
surface régulière. Soient A
K . On a : Z Z
∂Ax ∂Ay ∂Az ~ .A,
~
( + + )dxdydz = dσ N
K ∂x ∂y ∂z ∂K

où ~
N est le vecteur unitaire normal à ∂K orienté dans la direction sortante.

L'analogue en dimension supérieure s'appelle formule de Stokes et sa formu-


lation dépasse assez largement le cadre de ce cours.

2.4 Intégrales impropres

Dénition
R 2.4.1 Soit f : Rn → [0, +∞[ continue. On dira que l'intégrale im-
propre
Rn
f (x)dx M > 0 tel que, pour
converge si, et seulement si, il existe
n
R
tout compact cubable
R K ⊂ R ,
K
f (x)dx ≤ M . Cela revient à dire qu'il existe
K > 0 tel que B(0,A) f (x)dx ≤ K pour tout A > 0. Dans ce cas, la limite
R R
limA→+∞ B(0,A) f (x)dx existe dans R et vaut, par dénition, Rn f (x)dx.
En eet, tout compact cubable est inclus dans
R B(0, A) pour un A > 0 et la
fonction A 7→ B(0,A)
f (x)dx est croissante et majorée par M.

Remarque 2.4.2 Si f est intégrable (au sens de la dénition 2.2.9), positive,


bornée et nulle hors d'un pavé, son intégrale impropre converge et a la même
valeur que celle donnée par la dénition 2.2.9.

Exemple 2.4.3
2
+y 2 )
1. L'intégrale impropre de la fonction (x, y) 7→ e−(x
sur R2 est convergente (voir l'exemple 2.3.10).

2. Soit α ∈ R. On dénit f : R2 → [0, +∞[ par

x2 + y 2 ≤ 1,

1 si
f (x, y) =
(x2 + y 2 )α/2 si x2 + y 2 ≥ 1.

Alors l'intégrale impropre de la fonction f sur R2 est convergente si, et


seulement si, α < −2. En eet, si A > 0,
Z Z Z A
(x2 + y 2 )α/2 dxdy = rα+1 drdθ = 2π rα+1 dr,
1≤x2 +y 2 ≤A2 [1,A]×[0,2π] 1

et cette dernière quantité est uniformément bornée pour A > 1 si, et


seulement si, α + 1 < −1.
3. Soit σ > 0. On a :

Z +∞
x2 √
Iσ = e− 2σ dx = 2πσ.
−∞

Pour voir ceci observons que, par le théorème de Fubini sur les pavés
carrés de centre 0 et les propriétés élémentaires des intégrales impropres
Z
x2 +y 2
Iσ2 = e− 2σ dxdy
R2
Z +∞ Z π
−r 2
= r.e 2σ drdθ
0 −π
−r 2
= 2π[−σe 2σ ]+∞
0
= 2πσ.

Plus généralement soit Ω ⊂ Rn un ouvert.

Dénition 2.4.4 Soit f : Ω → R Riemann-intégrable (c'est à dire que pour


tout
R P ⊂ Ω un pavé f |P est intégrable sur P ). On dira que l'intégrale impropre


f (x)dx converge absolumentRsi, et seulement si, il existe M > 0 tel que, pour
tout compact cubable K ⊂ Ω, |f (x)|dx ≤ M .
K

Lemme 2.4.5 Il existe une suite (Kn )n∈N de compacts cubables contenus dans
Ω telle que :
1. Kn ⊂ Kn+1 ,
S
2. n∈N Kn = Ω.
Preuve : Soit Fn := {x ∈ Ω| d(x, 0) ≤ n etd(x, Ωc ) ≤ 1/n}. Ceci dénit une
suite (Fn )n∈N de compacts contenus dans Ω vériant (1) et (2). Il n'est pas
évident qu'ils sont cubables et en général ce sera faux. Recouvrons la frontière
de Fn par une union nie de pavés fermés contenus dans Ω ce qui est possible par
compacité de ∂Fn . Posons Fn∗ la réunion de Fn avec cette union de pavés fermés.
Fn∗ est cubable car sa frontière est est une réunion nie de pavés de mesure nulle.
Fn∗ ,
S
Posons Kn = m≤n c'est un compact cubable. La suite (Kn )n∈N convient.

Théorème
R 2.4.6 Soit f : Ω → R Riemann-intégrable telle que que l'intégrale
impropre

f (x)dx converge absolument. Pour toute suite de compacts comme
R
dans le lemme 2.4.5 (Kn )n∈N , la suite ( f )n∈N converge. Sa limite, qui est
KR
n
indépendante de la suite (Kn )n∈N , se note f.

Exemple 2.4.7 dx
R
1.
Rn \B̄(0,R) r α
converge absolument ssi α > n.
dx
R
2.
B(0,R)\{0} r α
converge absolument ssi α < n.

C'est une conséquence immédaite de l'exemple 2.3.29.


Chapitre 3

Probabilités et statistiques
3.1 Algèbres de Boole et probabilités booléennes

Dénition 3.1.1 Soit Ω un ensemble. Une algèbre de Boole sur Ω est un en-
semble A ⊂ P(Ω) (donc un ensemble formé de parties de Ω) vériant les pro-
priétés suivantes :

1. ∅ ∈ A, Ω ∈ A,
2. pour tout A ∈ A, Ω \ A ∈ A,
3. pour tous A, B ∈ A, A ∪ B ∈ A.

Exemple 3.1.2 Soit Ω un ensemble.

1. L'ensemble P(Ω) est une algèbre de Boole sur Ω.


2. L'ensemble {∅, Ω} est une algèbre de Boole sur Ω.
3. Soit A ⊂ Ω. L'ensemble {∅, A, Ω \ A, Ω} est une algèbre de Boole sur Ω.
n
4. Les parties cubables d'un pavé fermé P ⊂ R forment une algèbre de
Boole sur P
5. Soit Φ : Ω → Ω0 une application et A0 une algèbre de Boole sur Ω0 . Alors
−1
Φ (A0 ) est une algèbre de Boole.

Proposition 3.1.3 Soient Ω un ensemble et A une algèbre de Boole sur Ω.


Alors :
S T
1. pour tout n≥1 et tous A1 , ..., An ∈ A, 1≤k≤n Ak et 1≤k≤n Ak sont
dans A,
2. pour tous A, B ∈ A, A \ B ∈ A.

Preuve : pour 1, on pose B k = Ak pour tout k ∈ {1, n} et Bk = ∅ pour tout


k ≥ n + 1. Alors [ [
Ak = Bk ∈ A.
1≤k≤n k≥1

77
Ensuite,
 
\ [
Ω\ Ak  = (Ω \ Ak ) ∈ A,
1≤k≤n 1≤k≤n
T
donc 1≤k≤n Ak ∈ A.
Enn, pour 2, A \ B = A ∩ (Ω \ B) ∈ A.

Dénition 3.1.4 Soit A ⊂ P(Ω) une algèbre de Boole, avec Ω 6= ∅. Une pro-
babilité booléenne P sur(Ω, A) est une application P : A → [0, 1] telle que :
1. P (Ω) = 1,
2. pour toute suite nie (An )1≤n≤N ∈ A telle que An ∩ Am = ∅ pour tous
n 6= m, !
N
X N
[
P (An ) = P An .
n=1 n=1

Il surait d'imposer cette dernière condition pour N = 2.


Interprétation logique : La notion d'algèbre de Boole est une notion de
nature logique. Les éléments d'une algèbre de Boole sont compris comme les as-
sertions descriptives qui peuvent être faites sur les aspects macroscopiquement
observables d'un phénomène naturel ou social. Le complémentaire de l'élément
représentant une assertion représente l'assertion opposée. La réunion des élé-
ments représentant deux assertions (p) et (q) représente l'assertion (p ou q),
l'intersection représente (p et q). L'ensemble Ω représente l'ensemble des des-
criptions microscopiques idéales non nécessairement observables du phénomène.
C'est une entité métaphysique dont les détails de la constitution n'ont aucune
importance pratique et qui est juste là pour nous rassurer.

3.2 Tribus et probabilités

Tant qu'on étudie que des phénomènes ayant un espace Ω d'états idéaux ni,
on peut se limiter aux algèbres de Boole. Le cas général nécessite des hypothèses
plus strictes.

Dénition 3.2.1 Soit Ω un ensemble. Une tribu sur Ω est un ensemble A ⊂


P(Ω) (donc un ensemble formé de parties de Ω) vériant les propriétés suivantes :
1. ∅ ∈ A, Ω ∈ A,
2. pour tout A ∈ A, Ω \ A ∈ A,
S
3. pour toute suite (An )n≥1 ∈ A, n≥1 An ∈ A.

Exemple 3.2.2 Soit Ω un ensemble.

1. L'ensemble P(Ω) est une tribu sur Ω.


2. L'ensemble {∅, Ω} est une tribu sur Ω.
3. Soit A ⊂ Ω. L'ensemble {∅, A, Ω \ A, Ω} est une tribu sur Ω.
4. Soit Φ : Ω → Ω0 une application et A0 une tribu sur Ω0 . Alors Φ−1 (A0 )
est une tribu sur Ω.
5. Si Ω Ω est une tribu. De plus, une
est ni, toute algèbre de Boole sur
telle algèbre de Boole est de la forme Φ−1 (P(Ω0 )) pour une application
Φ : Ω → Ω0 surjective vers un ensemble Ω0 (qui est donc ni). Les éléments
0
de Ω sont en bijection avec les événements atomiques de A, c'est à dire
les A ∈ A qui ne s'écrivent pas comme A = B ∪ C avec B, C ∈ A non
vides et disjoint.

Proposition 3.2.3 Soient Ω un ensemble et A une tribu sur Ω. Alors :


S T
1. pour tout n≥1 et tous A1 , ..., An ∈ A, 1≤k≤n Ak et 1≤k≤n Ak sont
dans A,
T
2. pour toute suite (An )n≥1 ∈ A, n≥1 An ∈ A,
3. pour tous A, B ∈ A, A \ B ∈ A.

Preuve : pour 1, on pose Bk = Ak pour tout k ∈ {1, n} et Bk = ∅ pour tout


k ≥ n + 1. Alors [ [
Ak = Bk ∈ A.
1≤k≤n k≥1

Ensuite,
 
\ [
Ω\ Ak  = (Ω \ Ak ) ∈ A,
1≤k≤n 1≤k≤n
T
donc 1≤k≤n Ak ∈ A.
De même, pour 2,
 
\ [
Ω\ Ak  = (Ω \ An ) ∈ A,
n≥1 n≥1
T
donc n≥1 An ∈ A.
Enn, pour 3, A \ B = A ∩ (Ω \ B) ∈ A.
Dénition 3.2.4 On appelle espace probabilisable tout couple (Ω, A) formé
d'un ensemble Ω et A une tribu sur Ω. Dans ce cas, les éléments de A sont
appelés événements.

Dénition 3.2.5 Soit (Ω, A) un espace probabilisable, avec Ω 6= ∅. Une pro-


babilité P sur (Ω, A) est une application P : A → [0, 1] telle que :

1. P (Ω) = 1,
2. pour toute suite
P (An )n≥1 ∈ A telle que An ∩ Am = ∅ pour tous n 6= m,
la série n≥1 P (A n ) converge et

 
X [
P (An ) = P  An  .
n≥1 n≥1
On dit aussi que (Ω, A, P ) est un espace probabilisé.

Exemple 3.2.6 On suppose Ω ni de cardinal N et A = P(Ω). Alors, si P (A) =


1
]A pour tout A ∈ P , P est une probabilité sur (Ω, A). En particulier, pour
N
1
tout x ∈ Ω, P ({x}) =
N . La probabilité P s'appelle la probabilité uniforme sur
Ω.

Proposition 3.2.7 Soit (Ω, A, P ) un espace probabilisé. Alors :

1. on a P (∅) = 0,
2. pour tout n ≥ 1 et tous A1 , ..., An ∈ A avec Ak ∩ Al = ∅ pour tous k 6= l,
 
[ Xn
P Ak  = P (Ak ),
1≤k≤n k=1

3. si A ⊂ B, alors P (A) ≤ P (B) et P (B) − P (A) = P (B \ A),


4. pour toute suite (An )n≥1 ∈ A, on a
 
[ +∞
X
P An  ≤ P (An ), (3.1)
n≥1 n=1

P+∞
avec la convention que, si la série
S  n=1 P (An ) diverge, l'inégalité (3.1)

signie que P n≥1 An ≤ +∞, ce qui est immédiat,

5. pour tout A ∈ A, P (Ω \ A) = 1 − P (A),


6. pour toute suite (An )n≥1 ∈ A, si An ⊂ An+1 pour tout n ≥ 1, alors

 
[
P An  = lim P (An ),
n→+∞
n≥1

7. pour toute suite (An )n≥1 ∈ A, si An ⊃ An+1 pour tout n ≥ 1, alors

 
\
P An  = lim P (An ).
n→+∞
n≥1

Preuve : pour 1, on pose An = ∅ pour tout n ≥ 1. Alors An ∈ A pour tout


n≥1 etAk ∩ Al = ∅ pour tous n, m. Par hypothèse, la série P (An ) converge.
Comme son terme général est constant, il vaut 0.
Pour 2, on pose Bk = Ak pour tout k ∈ {1, n} et Bk = ∅ pour tout k ≥ n + 1.
Alors Bk ∩ Bl = ∅ pour tous k 6= l, donc

!  
[n [ X Xn
P Ak = P  Bn  = P (Bn ) = P (Ak ).
k=1 n≥1 n≥1 k=1
On suppose maintenant A ⊂ B. Alors B = A ∪ (B \ A) avec A ∩ (B \ A) = ∅,
donc
P (B) = P (A) + P (B \ A) ≥ P (A).
Soit maintenant (An )n≥1 une suite d'événements dans A. On dénit B1 := A1
et, si nS≥ 1 B
et si on a construit
S 1 , ..., B n ∈ A avec Bk ∩ Bl = ∅ pour tous
Sn
k 6= l, 1≤k≤n Bk = 1≤k≤n Ak et Bn ⊂ An , on pose Bn+1 = An+1 S \ k=1 Bk .
Alors Bn+1 ∈ A et Bn+1 ∩ Bk = ∅ pour tout k ∈ {1, n}. De plus, 1≤k≤n Bn =
S
1≤k≤n A k . Ainsi, comme B n ⊂ A n pour tout n ≥ 1 ,

   
[ [ X X
P An  = P  Bn  = P (Bn ) ≤ P (An ).
n≥1 n≥1 n≥1 n≥1

Soit A ∈ A. Comme A et Ω\A sont disjoints et de réunion Ω, P (A)+P (Ω\A) =


1.
Soit (An )n≥1 ∈ A. On suppose que An ⊂ An+1 pour tout n ≥ 1. On note
que la suite (P (An ))n≥1 est croissante et majorée par 1, donc convergente. On
pose B1 := A1 . Pour tout n ≥ 2, on dénit Bn := An \ An−1 . Alors, si k 6= l,
Bk ∩ Bl = ∅. En eet, supposons k = 1 et l ≥ 2. Si x ∈ B1 = A1 , alors
S ∈ Al−1 donc
x S x∈ / Bl . Si k ≥ 2, et si x ∈ Bk ⊂ Ak ⊂ Al−1 , x ∈ /SBl . On a aussi
n≥1 nA = n≥1 nB . En eet, B n ⊂ A n pour tout n . Si x ∈ n≥1 An et si n
est le plus petit entier tel que x ∈ An , alors ou bien n = 1 et x ∈ B1 , ou bien
n ≥ 2 et x ∈ An \ An−1 , donc x ∈ Bn . Par suite,
   
[ [
P An  = P  Bn 
n≥1 n≥1
X
= P (Bn )
n≥1 X
= P (A1 ) + (P (An ) − P (An−1 ))
n≥2
= lim P (An ).
n→+∞

Soit enn (An )n≥1 ∈ A. On suppose que An ⊃ An+1 pour tout n ≥ 1. Pour
tout n ≥ 1, soit Bn := Ω \ An . Alors Bn ∈ A et Bn ⊂ Bn+1 pour tout n ≥ 1.
Par suite,
   
\ \
P An  = 1 − P Ω \ An 
n≥1 n≥1
 
[
= 1−P  Bn 
n≥1
= 1 − lim P (Bn )
= lim P (An ).
On admettra le résultat suivant dont la preuve n'est ni simple ni éclairante
ni utile dans les raisonnements probabilistes :
Théorème 3.2.8 (Théorème de Carathéodory-Hahn) Soit A une algèbre
de Boole sur Ω. Soit PA une probabibilité booléenne sur A. Alors il existe une
tribu F sur Ω telle que F contient A et P = PF une probabilité sur F étendant
PA . De plus PF = PF 0 sur la tribu F ∩ F 0 .

3.3 Indépendance

On jette un dé équilibré deux fois de suite. On modélise le résultat par


Ω = {1, 6}2 muni de la probabilité uniforme. Soit A l'événement le résultat du
premier lancer est pair et B l'événement le résultat du deuxième lancer vaut
5. On a donc
A = {ω = (ω1 , ω2 ); ω1 ∈ {2, 4, 6}}
et
B = {ω = (ω1 , ω2 ); ω2 = 5} .
On s'intéresse à A ∩ B, qui est l'événement le résultat du premier lancer est
pair et le résultat du deuxième lancer vaut 5. On a

A ∩ B = {2, 4, 6} × {5} ,
de sorte que
3×1 3 1
P (A ∩ B) = = × = P (A)P (B),
6×6 6 6
ce qui traduit le fait que A et B sont des événements indépendants.
Dénition 3.3.1 Soit (Ω, A, P ) un espace probabilisé.

1. Soient n ≥ 1 et A1 , ..., An ∈ A. On dit que (A1 , ..., An ) sont indépendants


si, et seulement si, pour tout k ∈ {1, n} et tous 1 ≤ i1 < ... < ik ≤ n,

P (Ai1 ∩ ... ∩ Aik ) = P (Ai1 )...P (Aik ).

2. Soient I un ensemble et (Ai )i∈I ∈ A. On dit que les (Ai )i∈I sont indé-
pendants si, et seulement si, pour tout entier n≥1 et tous i1 , ..., in ∈ I
avec ik 6= ij pour tous k 6= j , (Ai1 , ..., Ain ) sont indépendants.

Exemple 3.3.2 1. Les événements A et B décrits plus haut sont indépen-


dants.

2. Dans la même situation, on considère

A1 = {(ω1 , ω2 ); ω1 est impair} ,

A2 = {(ω1 , ω2 ); ω2 est impair} ,

A3 = {(ω1 , ω2 ); ω1 + ω2 est impair} .

Alors A1 et A2 sont indépendants, A1 et A3 sont indépendants, A2 et A3


sont indépendants. Toutefois, (A1 , A2 , A3 ) ne sont pas indépendants, car
A1 ∩ A2 ∩ A3 = ∅ et

0 = P (A1 ∩ A2 ∩ A3 ) 6= P (A1 )P (A2 )P (A3 ).


Proposition 3.3.3 Soit (Ω, A, P ) un espace probabilisé.

1. Soient A, B ∈ A des événements indépendants. Alors A et Ω \ B sont


indépendants, B et Ω\A sont indépendants et Ω \ A et Ω \ B sont
indépendants.

2. Soient I un ensemble et (Ai )i∈I ∈ A indépendants. On suppose que


I = I1 ∪ I2 avec I1 , I2 non vides et disjoints. Pour tout i ∈ I , on pose
Bi = Ai si i ∈ I1 et Bi = Ω \ Ai si i ∈ I2 . Alors les (Bi )i∈I sont
indépendants.

Preuve de la proposition 3.3.3 : pour 1, comme

A = (A ∩ B) ∪ (A ∩ (Ω \ B))

et que cette union est disjointe, on a donc

P (A ∩ (Ω \ B)) = P (A) − P (A ∩ B)
= P (A) − P (A)P (B)
= P (A)(1 − P (B))
= P (A)P (Ω \ B).

On montre de même que B et Ω \ A sont indépendants. Cela implique donc que


Ω\B et Ω \ A sont indépendants.
Le point 2 est admis (cf TD).

3.4 Probabilités conditionnelles

Dénition 3.4.1 Soient (Ω, A, P ) un espace probabilisé et B ∈ A tel que


P (B) > 0. Pour tout A ∈ A, on appelle probabilité de A sachant B (ou condi-
tionnée par B) le nombre

P (A ∩ B)
P (A|B) := .
P (B)

Proposition 3.4.2 Soient (Ω, A, P ) un espace probabilisé et B ∈ A tel que


P (B) > 0. L'application A 7→ P (A|B) est une probabilité sur l'espace probabi-
lisable (Ω, A), appelée probabilité conditionnée à B .

Preuve : on a bien P (Ω|B) = 1. De plus, si (Ak )k≥1 ∈ A avec Ak ∩ Aj = ∅


pour tous k 6= j ,
  S  
[ P k≥1 A k ∩ B
P Ak |B  =
P (B)
k≥1
S 
P k≥1 (Ak ∩B
=
P P (B)
k≥1 P (Ak ∩ B)
=
P (B)
X P (Ak ∩ B)
=
P (B)
k≥1
X
= P (Ak |B).
k≥1

Exemple 3.4.3 On jette un dé équilibré deux fois de suite. On modélise le


résultat par Ω = {1, 6}2 muni de la probabilité uniforme. Soit A l'événement
obtenir un 6 au premier lancer et, pour tout k ∈ {2, 12}, Bk l'événement la
somme des deux lancers vaut k . Ainsi,

A = {(ω1 , ω2 ) ∈ Ω; ω1 = 6}

et
Bk = {(ω1 , ω2 ) ∈ Ω; ω1 + ω2 = k} .
On a donc
6 1
P (A) = 2
= ,
6 6
tandis que
P (A ∩ B12 )
P (A|B12 ) = =1
P (B12 )
et
P (A ∩ B11 ) 1
P (A|B11 ) = = .
P (B11 ) 2

Proposition 3.4.4 (Ω, A, P )


Soient un espace probabilisé et B ∈ A tel que
P (B) > 0. Pour tout A ∈ A,

P (A ∩ B) = P (A|B)P (B).

En particulier, A et B sont indépendants si, et seulement si, P (A|B) = P (A).

Proposition 3.4.5 [Probabilités conditionnelles en cascade] Soient


T (Ω,A, P )
un espace probabilisé, n ≥ 2, A1 , ..., An ∈ A tels que P 1≤k≤n−1 Ak > 0.
Alors :
T 
1. pour tout j ∈ {1, n − 1}, P 1≤k≤j A k > 0,
2.    
\ \
P Ak  = P (A1 )P (A2 |A1 )...P An | Ak  .
1≤k≤n 1≤k≤n−1

Preuve : le premier point provient du fait que


\ \
Ak ⊃ Ak .
1≤k≤j 1≤k≤n−1

Pour le deuxième, on montre par récurrence sur k que, pour tout k ∈ {2, n},
   
\ \k
P (A1 )P (A2 |A1 )...P Ak | Aj  = P  Aj  .
1≤j≤k−1 j=1

En eet, c'est immédiat si k = 2. Si c'est vrai pour un k ∈ {2, n − 1}, alors


 
\ T   
k T
P (A1 )P (A2 |A1 )...P Ak+1 | Aj  = P j=1 Aj P Ak+1 | 1≤j≤k Aj
1≤j≤k
 
k+1
\
= P Aj  ,
j=1

ce qui termine la preuve.

Exemple 3.4.6 On tire successivement 4 cartes d'un jeu de 52 cartes. Quelle


est la probabilité de tirer les 4 as ?
Pour tout i ∈ {1, 4}, on appelle Ai l'événement la carte tirée lors du tirage i
est un as. Alors
4
P (A1 ) = ,
52
3
P (A2 ∩ A1 ) = ,
51
2
P (A3 ∩ (A1 ∩ A2 )) =
50
et
1
P (A4 ∩ (A1 ∩ A2 ∩ A3 )) = ,
49
si bien que
4×3×2×1
P (A1 ∩ A2 ∩ A3 ∩ A4 ) = .
52 × 51 × 50 × 49
Dénition 3.4.7 Soit (Ω, A, P ) un espace probabilisé. On appelle système com-
plet de (Ω, A, P ) toute suite (An )n≥1 ∈ A telle que Ak ∩ Al = ∅ pour tous k 6= l
et  
[
P Ak  = 1.
k≥1
Proposition 3.4.8 [Formule des probabilités totales] Soient (Ω, A, P ) un es-
pace probabilisé et (An )n≥1 ∈ A un système complet de (Ω, A, P ). On suppose
que P (An ) > 0 pour tout n ≥ 1. Alors, pour tout A ∈ A,
X
P (A) = P (A|An )P (An ).
n≥1

Preuve :
S
on pose B := Ω \ n≥1 An . On note que

 
[
P (B) = 1 − P  An  = 0.
n≥1

Alors  
[ [
A= (A ∩ An ) (A ∩ B),
n≥1

et l'union est disjointe, de sorte que

X
P (A) = P (A ∩ An ) + P (A ∩ B)
n≥1
X
= P (A|An )P (An ).
n≥1

Proposition 3.4.9 [Fomule de Bayes] Soient (Ω, A, P ) un espace probabilisé


et (An )n≥1 ∈ A un système complet de (Ω, A, P ). On suppose que P (An ) > 0
pour tout entier n ≥ 1. Soit A∈A avec P (A) > 0. Alors, pour tout k ≥ 1,

P (A|Ak )P (Ak )
P (Ak |A) = P .
n≥1 P (A|An )P (An )

Preuve : on note que

P (A|Ak )P (Ak ) = P (A ∩ Ak ),

et la conclusion provient donc de la proposition 3.4.8.

3.5 Variables aléatoires réelles

3.5.1 Généralités
Dénition 3.5.1 Soit (Ω, A, P ) un espace probabilisé. On appelle variable aléa-
toire réelle surΩ toute fonction X : Ω → R telle que, pour tout ouvert U ⊂ R,
X −1 (U ) := {ω ∈ Ω; X(ω) ∈ U } appartienne à A. Cela revient à dire que, pour
−1
tous −∞ ≤ a < b ≤ +∞, X (]a, b[) ∈ A.
Proposition 3.5.2 (Ω, A, P ) un espace probabilisé et X : Ω → R une
Soient
variable aléatoire réelle sur Ω. L'ensemble T des parties A ⊂ R telles que
X −1 (A) ∈ A forme une tribu de R, qui contient les ouverts et les fermés de
R, ainsi que les intervalles de la forme [a, b[ avec −∞ < a < b ≤ +∞ et ceux de
la forme ]a, b] avec −∞ ≤ a < b < +∞.

Preuve : par hypothèse, R ∈ T . Soit (Ak )k≥1 une suite de parties de T. Alors
 
[ [
X −1  Ak  = X −1 (Ak ) ∈ A.
k≥1 k≥1

Ainsi, T est une tribu de


R, qui contient les ouverts de R par dénition d'une
F ⊂ R est fermé,Talors F = R \ U où U est ouvert, donc
variable aléatoire. Si
F ∈ T . Si −∞ < a < b ≤ +∞, [a, b[= k≥1 ]a − k1 , b[∈ T , et de même pour les
intervalles ]a, b].

Dénition 3.5.3 Soient (Ω, A, P ) un espace probabilisé et X une variable aléa-


toire réelle sur Ω. On appelle fonction de répartition de X la fonction dénie
par
FX (t) := P ({X ≤ t})
pour tout t ∈ R.
Voici les propriétés de cette fonction de répartition :

Proposition 3.5.4 Soient (Ω, A, P ) un espace probabilisé et X une variable


aléatoire réelle sur Ω. Alors :

1. FX est croissante, limt→−∞ FX (t) = 0, limt→+∞ FX (t) = 1,


2. pour tous a < b ∈ R, P (a < X ≤ b) = FX (b) − FX (a),
3. FX est continue à droite et possède une limite nie à gauche en tout
point,

4. si t ∈ R, F X est continue en t si, et seulement si, PX ({t}) = 0.


Preuve : FX
il est immédiat que
T est croissante. Si (tk )k≥1 est une suite décrois-
sante et tendant vers −∞, alors k≥1 {X ≤ tk } = ∅, de sorte que S limk FX (tk ) =
0. Si (tk )k≥1 est une suite croissante et tendant vers +∞, alors k≥1 {X ≤ tk } =
Ω, ce qui montre que limk FX (tk ) = 1.
Soient a < b. Alors

P (a < X ≤ b) = P (X ≤ b) − P (X ≤ a) = FX (b) − FX (a).

La croissance de FX entraîne l'existence d'une limite à droite et d'une limite à


gauche en tout point. De plus, soit
Tt ∈ R. Si (tk )k≥1 est une suite décroissante
tendant vers t, alors {X ≤ t} = k≥1 {X ≤ tk }, ce qui montre que FX (t) =
lim FX (tk ).
On remarque enn que, pour toute suite (tk )k≥1 qui tend vers t avec tk ≤ tk+1 <
t,
FX (t) − FX (tk ) = P ({tk < X ≤ t}) → P ({X = t}) .
Comme FX est continue en t si, et seulement si, FX est continue à gauche en t,
la dernière conclusion s'ensuit.
La proposition 3.5.4 possède une réciproque, citée ici sans démonstration :

Théorème 3.5.5 Soit F : R → R croissante, continue à droite en tout point


et telle que limt→−∞ F (t) = 0 et limt→+∞ F (t) = 1. Alors il existe un espace
probabilisé (Ω, A, P ) et une variable aléatoire X sur Ω telle que F = FX .
Proposition 3.5.6 Soit (Ω, A, P ) un espace probabilisé.

1. Soit X : Ω → R une variable aléatoire et f : R → R une fonction


continue. Alorsf ◦ X est une variable aléatoire.
n
2. Soient n ≥ 1, X1 , ..., Xn : Ω → R des variables aléatoires et f : R → R
une fonction continue. Alors f (X1 , ..., Xn ) est une variable aléatoire.

Preuve : pour 1, pour tous a < b ∈ R, (f ◦ X)−1 (]a, b[) = X −1 (f −1 (]a, b[)). Or
−1 −1 −1
f (]a, b[) est un ouvert parce que f est continue, donc X (f (]a, b[)) ∈ A.
Le point 2 se montre de façon analogue, en utilisant le fait que tout ouvert de
Rn est une réunion dénombrable de pavés.

3.5.2 Variables aléatoires réelles indépendantes


Dénition 3.5.7 (Ω, A, P ) un espace probabilisé.
Soit

1. Soient X, Y : Ω → R des variables aléatoires réelles. On dit que X et Y


sont indépendantes si, et seulement si, pour tous ouverts U, V ⊂ R,
P (X −1 (U ) ∩ Y −1 (V )) = P (X −1 (U ))P (Y −1 (V )).

2. Soient I un ensemble et(Xi )i∈I une famille de variables aléatoires réelles.


On dit que la famille (Xi )i∈I est indépendante si, et seulement si, pour
−1
toute famille d'ouverts (Ui )i∈I de R, les événements Xi (Ui ) sont indé-
pendants.

On a les propriétés suivantes :

Proposition 3.5.8 (Ω, A, P ) un espace probabilisé et X, Y : Ω → R des


Soient
variables aléatoires réelles sur Ω. On suppose X et Y indépendantes. Alors :
−1
1. pour tous fermés F, G ⊂ R, P (X (F )∩Y −1 (G)) = P (X −1 (F ))P (Y −1 (G)),
−1
2. pour tous intervalles I, J ⊂ R, P (X (I)∩Y −1 (J)) = P (X −1 (I))P (Y −1 (J)),
3. pour toutes fonctions continues f, g : R → R, f ◦ X et g ◦ Y sont indé-
pendantes.

Preuve : les deux premiers points sont admis. Pour le dernier, soient U, V des
ouverts de R. Alors, comme f −1 (U ) et g −1 (V ) sont des ouverts de R,

P ((f ◦ X)−1 (U ) ∩ (g ◦ Y )−1 (V )) = P (X −1 (f −1 (U )) ∩ Y −1 (g −1 (V )))


= P (X −1 (f −1 (U )))P (Y −1 (g −1 (V )))
= P ((f ◦ X)−1 (U ))P ((g ◦ Y )−1 (V )).
Exemple 3.5.9 Soient (X1 , X2 , X3 ) des variables aléatoires indépendantes. Alors
(X12 , X22 , 3X3 ) sont indépendantes.

On a aussi le résultat suivant, qu'on ne justie pas dans sa généralité :

Proposition 3.5.10 (Ω, A, P ) un espace probabilisé, n ≥ 2 et (X1 , ..., Xn )


Soient
des variables aléatoires indépendantes. Soit k ≤ n, f1 : Rk → R et f2 : Rn−k →
R des fonctions continues. Alors f1 (X1 , ..., Xk ) et f2 (Xk+1 , ..., Xn ) sont des va-
riables aléatoires réelles indépendantes.

Exemple 3.5.11 Soient (X1 , X2 , X3 , X4 ) indépendantes. Alors X13 + X22 et


X3 + 3X4 sont indépendantes.

Proposition 3.5.12 Soient (Ω, A, P ) un espace probabilisé et X, Y : Ω → R


des variables aléatoires réelles sur Ω. Alors X et Y sont indépendantes si, et
seulement si, pour tous x, y ∈ R,

P (X ≤ x et Y ≤ y) = P (X ≤ x)P (Y ≤ y),

3.6 Variables aléatoires discrètes

3.6.1 Dénitions et premières propriétés


Dénition 3.6.1 Soit (Ω, A) un espace probabilisable. Une variable aléatoire
discrète sur Ω X : Ω → N. Cela revient à dire que
est une variable aléatoire
X : Ω → N est une fonction telle que, pour tout n ∈ N, X −1 ({n}) ∈ A. Cela
−1
équivaut à X (B) ∈ A pour tout B ⊂ N.

Exemple 3.6.2 Soit n ≥ 1. On lance n fois de suite une pièce équilibrée. Le


résultat de chaque lancer peut être représenté par 1 si on obtient pile et par
n
0 si on obtient face. On introduit Ω = {0, 1} , muni de la tribu P(Ω) et la
probabilité uniforme P. Pour tout ω = (ω1 , ..., ωn ) ∈ Ω, on pose
n
X
X(ω) := ωi ,
i=1

qui représente le nombre de piles obtenu parmi ces n lancers. Pour tout k∈
{1, n},    n
n 1
P (X = k) = .
k 2

Dénition 3.6.3 Soient (Ω, A, P ) un espace probabilisé et X : Ω → N une


variable aléatoire discrète. Pour toute partie A ⊂ N, on dénit

PX (A) := P X −1 (A) ,


où on rappelle que X −1 (A) := {ω ∈ Ω; X(ω) ∈ A}. L'application PX est une


probabilité sur (N, P(N)), appelée loi de X .
On vérie que PX est une probabilité sur(N, P(N)). En eet,

PX (N) = P X −1 (N) = P (Ω) = 1.




De plus, si (An )n≥1 est une suite de parties de N avec Ak ∩ Al = ∅ pour tous
k 6= l, on a X −1 (Ak ) ∩ X −1 (Al ) = ∅ pour tous k 6= l, si bien que
    
[ [
PX  An  = P X −1  An 
n≥1 n≥1
 
[
= P X −1 (An )
n≥1
X
= P (X −1 (An ))
n≥1
X
= PX (An ).
n≥1

Remarque 3.6.4 1. La loi PX est une probabilité sur l'ensemble des va-
leurs prises par X et non sur Ω.
2. La loi d'une variable aléatoire discrète X est entièrement déterminée par
la connaissance de PX ({k}) pour tout k ∈ N. En eet, si A ⊂ N, on a
alors X
PX (A) = PX ({k}) .
k∈A

On notera souvent PX ({k}) = P (X = k) par la suite.

Exemple 3.6.5 1. Soit p ∈]0, 1[. Une variable aléatoire discrète X suit la
loi de Bernoulli de paramètre p, notée B(p), si, et seulement si, P (X =
0) = 1 − p et P (X = 1) = p. On note que X : Ω → {0, 1}.
2. Soient n ≥ 1 et p ∈]0, 1[. Une variable aléatoire discrète X suit la loi
binomiale de paramètres n et p, notée B(n, p), si, et seulement si, la loi
de X est la loi binomiale B(n, p) sur {0, n}, ce qui veut donc dire

 
n k
P (X = k) = p (1 − p)n−k
k

pour tout k ∈ {0, n}. On note que X : Ω → {0, n}. Si n = 1, on retrouve


la loi de Bernoulli B(p).
3. Soit p ∈]0, 1[. On dit qu'une variable aléatoire discrète X suit la loi
géométrique de paramètre p si, et seulement si,

P ({n}) = p(1 − p)n

pour tout entier n ∈ N. On note que X : Ω → N.


4. Soit λ > 0. On dit qu'une variable aléatoire discrète X suit la loi de
Poisson de paramètre λ, notée P(λ), si, et seulement si, PX suit la loi de
Poisson de paramètre λ, c'est-à-dire, pour tout k ∈ N,

λk
P (X = k) = e−λ .
k!
On notera que X : Ω → N.
5. Soient n, r, r1 des entiers avec 1≤n<r et 0 ≤ r1 ≤ r. On dit qu'une
variable aléatoire discrète X suit la loi hypergéométrique de paramètres
n, r, r1 si, et seulement si,

r1 r−r1
 
k n−k
P (X = k) = r

n

pour tout k ∈ N tel que 0 ≤ k ≤ r1 et n ≥ k ≥ n+r1 −r, et P (X = k) = 0


sinon.

6. Soient n≥1 et p ∈]0, 1[. On dit qu'une variable aléatoire discrète X suit
la loi binomiale négative de paramètres n, p si, et seulement si,
 
n+k−1 n
P (X = k) = p (1 − p)k
n−1
pour tout k ∈ N. On notera que X : Ω → N. De plus, on vérie que la
loi de X est bien une probabilité sur N. En eet, pour tout x ∈] − 1, 1[,
X n + k − 1

(1 − x)−n = xk ,
n−1
k≥0

donc
X n + k − 1
(1 − p)k = p−n .
n−1
k≥0

On examine maintenant la notion d'indépendance pour des variables aléatoires


discrètes.

Proposition 3.6.6 Soit (Ω, A, P ) un espace probabilisé.

1. SoientX, Y : Ω → N des variables aléatoires discrètes. Alors X et Y sont


indépendantes si, et seulement si, pour tous k, l ∈ N,

P (X = k et Y = l) = P (X = k)P (Y = l).
Cela revient à dire que, pour tous A, B ⊂ N,
P (X ∈ A et Y ∈ B) = P (X ∈ A)P (Y ∈ B).

2. Soient I un ensemble et (Xi )i∈I une famille de variables aléatoires dis-


crètes. La famille (Xi )i∈I est indépendante si, et seulement si, pour tous
(Ai )i∈I de N, les événements Xi−1 (Ai ) sont indépendants. Là encore,
cela revient à dire que, pour toute famille (xi )i∈I dans N, la famille des
événements ((Xi = xi ))i∈I est indépendante.
On regarde le cas particulier de la somme de deux variables aléatoires indépen-
dantes :

Proposition 3.6.7 Soient (Ω, A, P ) un espace probabilisé et (X1 , X2 ) des va-


riables aléatoires discrètes indépendantes sur Ω. Alors X1 + X2 est une variable
aléatoire discrète et, pour tout n ∈ N,
n
X
P (X1 + X2 = n) = P (X1 = k)P (X2 = n − k). (3.2)
k=0

Preuve : soit n ∈ N. Alors


[
(X = n) = (X1 = k) ∩ (X2 = n − k) ,
0≤k≤n

ce qui montre que (X = n) est une réunion dénombrable d'événements de A.


De plus, par indépendance de X1 et X2 , et comme les événements (X1 = k) ∩
(X2 = n − k) sont deux à deux disjoints,
X
P (X = n) = P ((X1 = k) ∩ (X2 = n − k))
0≤k≤n
X
= P (X1 = k) P (X2 = n − k) .
0≤k≤n

3.6.2 Espérance, moments d'une variable aléatoire discrète


Dénition 3.6.8 Soient (Ω, A, P ) un espace probabilisé et X : Ω → N une
variable aléatoire discrète. On dit que
P X est intégrable si, et seulement si, la
série n∈N nP (X = n) converge. Dans ce cas, on dénit l'espérance de X par
X
E(X) := nP (X = n).
n∈N

Exemple 3.6.9 1. Soientp ∈]0, 1[ et X une variable aléatoire suivant la


loi de Bernoulli B(p). Alors X est intégrable et E(X) = p.
2. Soient p ∈]0, 1[, n ≥ 1 et X une variable aléatoire suivant la loi binomiale
B(n, p). Alors X est intégrable (car bornée) et
n  
X n k
E(X) = k p (1 − p)n−k
k
k=1 
n 
X n−1 k
= n p (1 − p)n−k
k−1
k=1
n−1
X n − 1
= n pk+1 (1 − p)n−k−1
k
k=0
n−1
X n − 1 
= np pk (1 − p)n−1−k
k
k=0
= np.
Proposition 3.6.10 Soient (Ω, A, P ) un espace probabilisé et X, Y : Ω → N
des variables aléatoires discrètes.

1. Si X X est intégrable.
est bornée, alors

2. S'il existe m ∈ N tel que X(ω) = m pour tout ω ∈ Ω, alors X est


intégrable et E(X) = m.

Preuve : on suppose qu'il existe M >0 tel que X(ω) ≤ M pour tout ω ∈ Ω.
Alors, pour tout entier N > M,
N
X M
X
nP (X = n) = nP (X = n),
n=0 n=0

ce qui montre bien que X est intégrable.


Si X(ω) = m pour toutω ∈ Ω, alors X est bornée donc intégrable, et
X
E(X) = kP (X = k) = mP (X = m) = m.
k∈N

Proposition 3.6.11 Soient (Ω, A, P ) un espace probabilisé et


S X : Ω → N une
variable aléatoire discrète. On suppose que Ω = k≥1 Ak avecAk ∈ A pour
tout k≥1 et Ak ∩ Al = ∅ pour tous k 6= l. Alors :
1. pour tout k ≥ 1, X1Ak est une variable aléatoire discrète,

2. si X est intégrable, alors X1Ak est intégrable pour tout k ≥ 1 et E(X) =


P
k≥1 E(X1Ak ).

Preuve : soit k ≥ 1. Pour tout n ∈ N \ {0},

{ω ∈ Ω; X(ω)1Ak (ω) = n} = ({ω ∈ Ω; X(ω) = n} ∩ Ak )

qui est dans A. Si n = 0,


[
{ω ∈ Ω; X(ω)1Ak (ω) = 0} = ({ω ∈ Ω; X(ω) = 0} ∩ Ak ) (Ω \ Ak ) ,

qui appartient encore à A.


Supposons X intégrable. Soit k ≥ 1. Alors, pour tout N ≥ 1,
X X
nP (X1Ak = n) = nP ({ω ∈ Ω; X(ω) = n} ∩ Ak )
0≤n≤N 1≤n≤N
X
≤ nP ({ω ∈ Ω; X(ω) = n}),
1≤n≤N

ce qui montre que X1Ak est intégrable. De plus, pour tout n∈N avec n 6= 0,
[
{X = n} = {ω ∈ Ak ; X(ω) = n}
k≥1
[
= {ω ∈ Ω; (X1Ak )(ω) = n} ;
k≥1
et l'union est disjointe. Alors,
 
X X X
nP (X = n) =  nP ({ω ∈ Ω; (X1Ak )(ω) = n})
n≥1 n≥1
k≥1
XX
= nP ({ω ∈ Ω; (X1Ak )(ω) = n})
X n≥1
k≥1
= E(X1Ak ).
k≥1

Proposition 3.6.12 Soient (Ω, A, P ) un espace probabilisé et X, Y des va-


riables aléatoires discrètes et intégrables sur Ω. Alors X +Y est intégrable sur
Ω et E(X + Y ) = E(X) + E(Y ).
Preuve : Pour tous k, l ∈ N, soit

Ak := {ω ∈ Ω; X(ω) = k}

et
Bl := {ω ∈ Ω; Y (ω) = l} .
S
On note que Ω= Ak ∩ Bl et que cette union est disjointe.
(k,l)∈N2
On vérie d'abord que X + Y est intégrable. Soit N ≥ 1. Alors
X X X
nP (X + Y = n) = n P ({X + Y = n} ∩ Ak ∩ Bl )
0≤n≤N 0≤n≤N (k,l)∈N2
X X
≤ n P (Ak ∩ Bl )
0≤n≤N
X k+l=n X
≤ kP (Ak ∩ Bl ) + lP (Ak ∩ Bl )
(k,l)∈N2 (k,l)∈N2
X X
= kP (Ak ) + lP (Bl ),
k∈N l∈N

ce qui montre bien que X +Y est intégrable.


Par la proposition 3.6.11,
X
E(X + Y ) = E((X + Y )1Ak ∩Bl ).
(k,l)∈Z2

Or, pour tout (k, l) ∈ N2 ,

E((X + Y )1Ak ∩Bl ) = (k + l)P (Ak ∩ Bl ).

de sorte que
X
E(X + Y ) = (k + l)P (Ak ∩ Bl )
(k,l)∈N2
X X
= kP (Ak ∩ Bl ) + lP (Ak ∩ Bl ).
(k,l)∈N2 (k,l)∈N2
On en déduit que
!
X X X
kP (Ak ∩ Bl ) = kP (Ak ∩ Bl )
(k,l)∈N∗ ×N k≥1 l∈N
X
= kP (Ak ),
k≥1

donc X X
kP (Ak ∩ Bl ) = kP (Ak ) = E(X).
(k,l)∈N×N k∈N

On montre de même que


X X
lP (Ak ∩ Bl ) = lP (Bl ) = E(Y ),
(k,l)∈N×N l∈N

ce qui termine la preuve.

Théorème 3.6.13 [Théorème de transfert] Soient (Ω, A, P ) un espace proba-


X : Ω → N une variable aléatoire discrète, f : N → N une fonction et
bilisé,
Y := f ◦ X . Alors :
1. Y est une variable aléatoire discrète sur Ω,
P
2. Y est intégrable si, et seulement si, la série n∈N f (n)P (X = n) converge.
Dans ce cas,
X
E(Y ) = f (n)P (X = n).
n∈N

Preuve : on a déjà vu le point 1 (proposition 3.5.6). Soit maintenant, pour


tout n ∈ N, An := f −1 ({n}). Alors

P (Y = n) = P ({ω ∈ Ω; f (X(ω)) = n})


= P ({ω ∈ Ω; X(ω) ∈ An }) ,
donc
nP (Y = n) = (X ∈ An )
nPX
= n P (X = k)
k∈An
X
= f (k)P (X = k).
k∈An
S
Ainsi, comme N= n∈N An (union disjointe),
!
X X X
nP (Y = n) = f (k)P (X = k)
n∈N n∈N
X k∈An
= f (k)P (X = k).
k∈N
P
Ainsi, Y est intégrable si, et seulement si, la série k∈N f (k)P (X = k) est
convergente, et on a bien la formule annoncée.
Dénition 3.6.14 (Ω, A, P ) un espace probabilisé, X une variable aléa-
Soient
toire discrète sur Ω k ≥ 1 un entier. Si X k est intégrable, le moment d'ordre
et
k
k de X est déni comme E(X ).

Par le théorème 3.6.13, on a alors

X
E(X k ) = nk P (X = n).
n∈N

Proposition 3.6.15 Soient (Ω, A, P ) un espace probabilisé et X une variable


aléatoire discrète sur Ω. On suppose que X2 est intégrable. Alors X est inté-
grable et
 12
E(X) ≤ E X 2 .

La preuve utilise :

Lemme 3.6.16
P Soient (an )n∈N et (bn )n∈N des suites de réels
P telles que les séries
2 2
P
a
n≥0 n et b
n≥0 n soient convergentes. Alors la série n≥0 an bn est conver-
gente et
! 21 ! 21
X X X
an bn ≤ a2n b2n .



n∈N n∈N n∈N

Preuve du lemme 3.6.16 : il sut de le faire quand an ≥ 0 et bn ≥ 0 pour


tout n ∈ N. Soit N ≥ 1. Pour tout t ∈ R, on pose
X
f (t) := (an + tbn )2 .
n≤N

On a, pour tout t ∈ R,
     
X X X
0 ≤ f (t) =  b2n  t2 + 2  an bn  t +  a2n  .
n≤N n≤N n≤N

b2n = 0,
P
Si n≤N alors bn = 0 pour tout n ≤ N, et on a clairement

  21   12
X X X
an bn ≤  a2n   b2n  . (3.3)
n≤N n≤N n≤N

b2n > 0, alors comme f est une fonction polynôme de degré 2 et f (t) ≥ 0
P
Si n≤N
pour tout t ∈ R, on a encore (3.3). Ainsi,
! 21 ! 12
X X X
an bn ≤ a2n b2n ,
n≤N n∈N n∈N
et comme c'est vrai pour tout N ≥ 1, on obtient bien la conclusion.

Preuve de la proposition 3.6.15 : par le lemme 3.6.16,

1 1
X X
nP (X = n) = n(P (X = n)) 2 (P (X = n)) 2
n∈N n∈N
! 21 ! 12
X X
2
≤ n P (X = n) P (X = n)
n∈N n∈N
 21
= E X2 ,

donc, grâce au théorème de transfert, on obtient la conclusion.

Dénition 3.6.17 Soient (Ω, A, P ) un espace probabilisé et X, Y des variables


aléatoires discrètes sur Ω. On suppose que X 2 et Y 2 sont intégrables.

1. On appelle variance de X la quantité suivante :

Var(X) := E(X 2 ) − (E(X))2 = E((X − E(X))2 ).

On note que X est bien intégrable et Var(X) ≥ 0 par la proposition


3.6.15.

2. De plus, XY est une variable aléatoire discrète intégrable et on dénit


la covariance de X et Y par

Cov(X, Y ) = E(XY ) − E(X)E(Y ).

On vérie que XY est bien une variable aléatoire discrète. En eet, pour tout
n∈N avec n 6= 0,
[ n no
{ω ∈ Ω; X(ω)Y (ω) = n} = {ω ∈ Ω; X(ω) = k}∩ ω ∈ Ω; Y (ω) = ∈ A.
k
k∈N; k|n

Si n = 0,
[
{ω ∈ Ω; X(ω)Y (ω) = 0} = {ω ∈ Ω; X(ω) = 0} {ω ∈ Ω; Y (ω) = 0} ∈ A.

Ainsi, XY est bien une variable aléatoire discrète.

Proposition 3.6.18 Soient (Ω, A, P ) un espace probabilisé et X, Y des va-


riables aléatoires discrètes indépendantes sur Ω. On suppose X 2 et Y 2 inté-
grables. Alors E(XY ) = E(X)E(Y ). En d'autres termes, cov(X, Y ) = 0.
Preuve : on a
X
E(XY ) = nP (XY = n)
n∈N  
X X n
= n P (X = k)P (Y = )
k
n∈N k∈N; k|n
 
X X nk 
= P (X = k)  nP (Y =
)
k∈N n∈N; k|n !
X X
= P (X = k) mkP (Y = m)
k∈N m∈N
! !
X X
= kP (X = k) mP (Y = m)
k∈N m∈N
= E(X)E(Y ).

Remarque 3.6.19 Si cov(X, Y ) = 0, X et Y peuvent ne pas être indépen-


dantes.

Proposition 3.6.20 [Inégalité de Markov] Soient (Ω, A, P ) un espace probabi-


lisé et X une variable aléatoire discrète sur Ω. On suppose X intégrable. Alors,
pour tout λ > 0,
E(X)
P (X ≥ λ) ≤ .
λ
Preuve : on a X
E(X) = nP (X = n)
n≥0
X
≥ nP (X = n)
n≥λ
X
≥ λ P (X = n)
n≥λ
= λP (X ≥ λ) .

Corollaire 3.6.21 [Inégalité de Tchebychev] Soient (Ω, A, P ) un espace pro-


babilisé et X une variable aléatoire discrète sur Ω. On suppose X2 intégrable.
Alors, pour tout λ > 0,
Var(X)
P (|X − E(X)| ≥ λ) ≤ .
λ2
Preuve : on écrit que
 
2
P (|X − E(X)| ≥ λ) = P |X − E(X)| ≥ λ2

2
et on applique l'inégalité de Markov à |X − E(X)| .
3.7 Variables aléatoires à densité

3.7.1 Dénitions et premières propriétés


Dénition 3.7.1 (Ω, A, P ) un espace probabilisé et X : Ω → R une
Soient
variable aléatoire réelle sur Ω. On dit que la loi de X possède une densité si, et
seulement si, il existe une fonction f : R → [0, +∞[ continue par morceaux telle
R +∞
que l'intégrale
−∞
f (x)dx = 1 et, pour tous −∞ ≤ a < b < +∞,
Z b
P (a < X ≤ b) := P (X −1 (]a, b])) = f (x)dx.
a

On dit alors que f est la densité de (la loi de) X.

Proposition 3.7.2 Soient (Ω, A, P ) un espace probabilisé et X : Ω → R une


variable aléatoire réelle sur Ω. On suppose que X possède la densité f . Alors :
1. pour tout a ∈ R, P (X = a) = 0,
2. pour tousa < b ∈ R, P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) =
Rb
P (a < X < b) = a f (x)dx,
Ra
3. pour tout a ∈ R, P (X ≤ a) = f (x)dx,
−∞
R +∞
4. pour tout a ∈ R, P (X ≥ a) = f (x)dx.
a

Preuve : comme k≥1 X −1 (]a − k1 , a]) = X −1 ({a}) et que cette intersection


T
est décroissante, on a

1
P (X = a) = lim P (a − < X ≤ a)
k→+∞ Z
a
k
= lim f (x)dx
k→+∞ 1
a− k
= 0.

Le reste s'en déduit facilement. Par exemple,

P (a < X ≤ b) = P (a < X < b) + P (X = b) = P (a < X < b).

Preuve : soient a < b ∈ R. On a donc


Z b Z a Z b
P (a < X ≤ b) = P (X ≤ b)−P (X ≤ a) = f (t)dt− f (t)dt = f (t)dt.
−∞ −∞ a

Remarque 3.7.3
P
X : Ω → Z une variable discrète. Comme k∈Z P (X =
Soit
k) = 1, il existe k ∈ Z tel que P (X = k) > 0, ce qui montre que X ne possède
pas de densité.

Exemple 3.7.4 Soient (Ω, A, P ) un espace probabilisé et X : Ω → R une


variable aléatoire réelle.
1. Soient a < b ∈ R. On dit que X suit la loi uniforme sur ]a, b[, notée
1
U(]a, b[), si, et seulement si, X possède la densité b−a 1]a,b[ .
2. Soit λ > 0. On dit que X suit la loi exponentielle de paramètre λ, notée
E(λ) si, et seulement si, X possède la densité x 7→ λe−λx 1[0,+∞[ (x).
3. On dit que X suit la loi de Cauchy si, et seulement si, X possède la
1
densité x 7→
π(1+x2 ) .
4. Soient m ∈ R et σ > 0. On dit que X suit la loi normale de paramètres
m etσ 2 , notée N (m, σ 2 ) si, et seulement si, X possède la densité x 7→
(x−m)2 √
√1 e− 2σ2 . Par le changement de variables x − m = σy 2, on vérie
σ 2π
bien que, pour tout A > 0,

A−m
Z A
(x−m)2 √ Z σ√2 −y2 √ Z 2 √
e− 2σ2 dx = σ 2 e dy → σ 2 e−y dy = σ 2π,
−A−m
−A √
σ 2
R

d'après l'exemple 2.3.10 du chapitre 2. Ainsi,


Z
(x−m)2 √
e− 2σ 2 dx = σ 2π.
R

Dénition 3.7.5 (Ω, A, P ) un espace probabilisé et n ≥ 1. On appelle


Soient
variable aléatoire deΩ dans Rn toute fonction X : Ω → Rn telle que, pour tout
n −1
ouvert U ⊂ R , X (U ) := {ω ∈ Ω; X(ω) ∈ U } appartienneQ à A. Cela revient à
−1 n
dire que, pour tous −∞ ≤ ak < bk ≤ +∞, 1 ≤ k ≤ n, X ( k=1 ]ak , bk [) ∈ A.
Proposition 3.7.6 Soient(Ω, A, P ) un espace probabilisé et X : Ω → Rn une
n −1
variable aléatoire sur Ω. L'ensemble T des parties A ⊂ R telles que X (A) ∈
n n
A forme une tribu de RQ , qui contient les ouverts et les fermés de R , ainsi que
n
les pavés de la forme
Qn k=1 [ak , bk [ avec −∞ < ak < bk ≤ +∞ et ceux de la
forme k=1 ]ak , bk ] avec −∞ ≤ ak < bk < +∞.

Preuve analogue à celle de la proposition 3.5.2.

Dénition 3.7.7 (Ω, A, P ) un espace probabilisé et X : Ω → R2 une va-


Soient
riable aléatoire sur Ω. On note X = (X1 , X2 ). Alors X1 et X2 sont des variables
aléatoires réelles sur Ω, appelées marginales de X .

En eet, soit U ⊂ R un ouvert. Alors X1−1 (U ) = X −1 (U × R) ∈ A car U ×R


2
est un ouvert de R . Preuve analogue pour X2 .

Dénition 3.7.8 Soient (Ω, A, P ) un espace probabilisé et X : Ω → Rn une


variable aléatoire sur Ω. On dit que la loi de X possède une densité si, et
n
seulement si, il existe une fonction f : R → [0, +∞[ continue par morceaux
R
telle que l'intégrale
Rn
f (x)dx = 1 et, pour tous −∞ ≤ ak < bk ≤ +∞,
    
Y Y Z
−1 
P X∈
 ]ak , bk ] := P X
  ]ak , bk ]  = Q f (x)dx.
1≤k≤n 1≤k≤n 1≤k≤n ]ak ,bk ]

On dit alors que f est la densité de (la loi de) X.


Exemple 3.7.9 Soient (Ω, A, P ) un espace probabilisé et X une variable aléa-
toire de Ω dans R2 .
1. Soient a<b et c < d. On dit que X suit la loi uniforme sur ]a, b[×]c, d[
1
si, et seulement si, X possède la densité (b−a)(d−c) 1]a,b[×]c,d[ .
2. On dit que X suit la loi normale centrée réduite sur
  R2 si, et seulement
2 2
si, X possède la densité (x, y) 7→ 1
2π exp − x +y
2 .

Concernant la fonction de répartition, dans le cas des variables aléatoires à


densité, on a :

Proposition 3.7.10 Soit X une variable aléatoire à densité, dont la densité


est notée fX . Alors :

1. pour tout x ∈ R, Z x
FX (x) = fX (t)dt,
−∞

2. la fonction FX est continue sur R.


Preuve : par dénition de FX , pour tout x ∈ R, FX (x) = P (X ≤ x) =
Rx
−∞
fX (t)dt. Soit x ∈ R. Alors

  Z x
1
P (X = x) = lim P x− <X≤x = lim fX (t)dt = 0.
n→+∞ n 1
x− n

Le point 2 provient du fait que P (X = a) = 0 pour tout a∈R (proposition


3.5.4).

3.7.2 Espérance et moments d'une variable aléatoire à


densité
Dénition 3.7.11 Soient (Ω, A, P ) un espace probabilisé et X : Ω → R une
variable aléatoire réelle. On suppose que X possède une densité f.
R
1. On dit que X est intégrable si, et seulement si, l'intégrale
R
|x| f (x)dx
est convergente.

2. Si X est intégrable, on dénit son espérance E(X) par


Z
E(X) := xf (x)dx.
R

Exemple 3.7.12 1. Si X N (0, 1), alors X est


suit la loi intégrable et
Z
1 x2
E(X) = √ xe− 2 dx = 0.
2π R
R +∞ x
2. Si X suit la loi de Cauchy, comme l'intégrale
0 1+x2 dx ne converge
pas, X n'est pas intégrable.
Proposition 3.7.13 Soient (Ω, A, P ) un espace probabilisé et X : Ω → R
une variable aléatoire réelle. On suppose que X possède une densité fX . Soit
g:R→R une fonction continue. On pose Y = g ◦ X . Alors :
1. Y est une variable aléatoire réelle sur Ω,
2. si on suppose g de classe C1 et strictement monotone sur R, alors Y
possède une densité fY donnée par

fX (g −1 (y)) (g −1 )0 (y)

si y ∈ g(R),
fY (y) =
0 sinon .

Preuve : pour tout ouvert U ⊂ R, Y


−1
(U ) = X −1 (g −1 (U )). Comme g est
−1 −1
continue, g (U ) est un ouvert donc Y (U ) ∈ A. Cela prouve 1.
Pour 2, on suppose d'abordg strictement croissante. Comme g est un ho-
méomorphisme de R sur son image, g(R) est un intervalle ouvert ]y0 , y1 [ avec
−∞ ≤ y0 < y1 ≤ +∞. On a limx→−∞ g(x) = y0 et limx→+∞ g(x) = y1 . Soit
b ∈]y0 , y1 [. Alors, par le changement de variable x = g −1 (y),

P (Y ≤ b) = P (y0 < g ◦ X ≤ b)
= P (X ≤ g −1 (b))
Z g−1 (b)
= fX (x)dx
Z−∞b
= fX (g −1 (y))(g −1 )0 (y)dy
y0
Z b
= fY (y)dy.
−∞

Cette identité reste valable si


R b ≤ y0 ou b ≥ y1 (ce dernier point est dû au fait
que f (y)dy = 1).
R Y
On en déduit que, si a < b, alors
Z b Z a Z b
P (a < Y ≤ b) = P (Y ≤ b)−P (Y ≤ a) = fY (y)dy− fY (y)dy = fY (y)dy,
−∞ −∞ a

ce qui termine la preuve dans ce cas. On raisonne de même si g est strictement


décroissante.
On étend la dénition de l'espérance au cadre suivant :

Dénition 3.7.14 Soient (Ω, A, P ) un espace probabilisé, n ≥ 1 et X : Ω →


Rn une variable aléatoire. On suppose que X possède une densité fX . Soit
g : Rn → R continue par morceaux. Alors :
1. g◦X est une variable aléatoire,
R
2. on dit que g◦X est intégrable si, et seulement si, l'intégrale
Rn
|g(x)| fX (x)dx
est convergente,

3. si g◦X est intégrable, on dénit l'espérance de la variable aléatoire g◦X


par Z
E(g(X)) = g(x)fX (x)dx.
Rn
On dispose donc de trois dénitions possibles de l'espérance de g ◦X : celle don-
née par la dénition 3.7.14 et celles des dénitions 3.6.8 et 3.7.11. Le théorème
de transfert suivant arme que ces dénitions coïncident si g◦X est discrète
ou à densité :

Théorème 3.7.15 (Ω, A, P )


[Théorème de transfert, variables à densité] Soient
un espace probabilisé, n ≥ 1 et X : Ω → Rn une variable aléatoire. On suppose
n
que X possède une densité fX . Soit g : R → R continue. On suppose que :

1. la variable aléatoire g◦X possède une densité ou est discrète,


R
2. l'intégrale
Rn
|g(x)| fX (x)dx est convergente.

Alors g◦X est intégrable et les expressions de son espérance, au sens des dé-
nitions 3.7.14, 3.6.8 et 3.7.11, coïncident.

Proposition 3.7.16 Soient (Ω, A, P ) un espace probabilisé et X1 , X2 : Ω → Rn


des variables aléatoires intégrables possédant chacune une densité. Alors, pour
tous λ1 , λ2 ∈ R, λ1 X1 + λ2 X2 est une variable aléatoire intégrable et

E(λ1 X1 + λ2 X2 ) = λ1 E(X1 ) + λ2 E(X2 ).

Proposition 3.7.17 Soient (Ω, A, P ) un espace probabilisé et X : Ω → R une


variable aléatoire réelle. On suppose que X possède une densité fX et que X 2
est intégrable. Alors :

1. X est intégrable,

2. on a
Z Z
E(X 2 ) = x2 fX (x)dx, E(X) = xfX (x)dx.
R R

Preuve : pour le premier point, on écrit que, pour tout x ∈ R,

1
|x| fX (x) ≤ (1 + x2 )fX (x),
2

(1 + x2 )fX (x)dx converge par hypothèse. Le deuxième point


R
et l'intégrale
R
provient des dénitions de l'espérance.

Dénition 3.7.18 Soient (Ω, A, P ) un espace probabilisé et X : Ω → R une


variable aléatoire réelle. On suppose que X possède une densité fX et que X 2
est intégrable. On dénit la variance de X par
Z
2 2 2
Var(X) = E((X − E(X)) ) = E(X ) − (E(X)) = (x − E(X))2 fX (x)dx.
R

Exemple 3.7.19 Soient m ∈ R, σ > 0 et X suivant la loi normale N (m, σ 2 ).


 2

|x| exp − (x−m)
R
Alors X est intégrable car
R 2σ 2 dx converge. On a

(x − m)2
Z  
1
E(X) = √ x exp − 2
dx
σ 2π R Z A 2σ
(x − m)2

1
= √ lim x exp − dx
σ 2π A→+∞ Z−A 2σ 2
A−m
y2

1
= √ lim (y + m) exp − 2 dy
σ 2π ZA→+∞ −A−m 2σ
y2
 
1
= √ y exp − 2 dy
σ 2π RZ  2σ2 
1 y
+ m √ exp − 2 dy
σ 2π R 2σ
= m.
On vérie de même que X2 est intégrable, puis que, par changement de variables
et intégration par parties,

(x − m)2
Z  
1
Var(X) = √ (x − m)2 exp − 2
dx
σ 2π R Z A 2σ
(x − m)2

1 2
= √ lim (x − m) exp − dx
σ 2π A→+∞ Z−A 2σ 2
A−m
y2
 
1
= √ lim y 2 exp − 2 dy
σ 2π A→+∞ −A−m 2σ
Z A−m  2
1 2 σ z
= √ σ lim z 2 exp − dz
2π A→+∞ −A−m 2
Z  σ2
1 z
= √ σ 2 exp − dz
2π R 2
2
= σ .
Proposition 3.7.20 [Inégalité de Bienaymé-Tchebyche pour des variables aléa-
toires à densité] Soient (Ω, A, P ) un espace probabilisé et X une variable aléa-
toire réelle sur Ω. On suppose que X possède une densité fX et que X2 est
intégrable. Alors, pour tout λ > 0,
Var(X)
P (|X − E(X)| ≥ λ) ≤ .
λ2
Preuve : on écrit que
Z
Var(X) = (x − E(X))2 fX (x)dx
ZR+∞
≥ (x − E(X))2 fX (x)dx
ZE(X)+λ
E(X)−λ
+ (x − E(X))2 fX (x)dx
−∞
2
≥ λ (P (X ≥ E(X) + λ) + P (X ≤ E(X) − λ))
= λ2 P (|X − E(X)| ≥ λ) .
Proposition 3.7.21 On suppose que X et Y sont indépendantes, que X pos-
sède une densité fX et que Y possède une densité fY . Alors la variable (X, Y )
2
possède la densité f(X,Y ) : R → [0, +∞[ donnée par f(X,Y ) (x, y) = fX (x)fY (y).

Preuve : on la fait en supposant fX et fY continues. Soient −∞ ≤ a < b < +∞


et −∞ ≤ c < d < +∞. Le théorème de Fubini montre que

P ((X, Y ) ∈]a, b]×]c, d]) = P (a < X ≤ b et c < Y ≤ d)


= P (a < X ≤ b)P !(c Z< Y ≤ d) !
Z b d
= fX (x)dx fY (y)dy
Z a c

= f(X,Y ) (x, y)dxdy.


]a,b]×]c,d]

Proposition 3.7.22 Soient (Ω, A, P ) un espace probabilisé et X, Y : Ω → R


des variables aléatoires réelles. Alors :

1. XY est une variable aléatoire réelle,

2. on suppose de plus X et Y indépendantes et intégrables sur Ω. On sup-


pose également que X possède une densité fX et que Y possède une
densité fY . Alors XY est intégrable et

E(XY ) = E(X)E(Y ).

Preuve : si g(x, y) := xy pour tout (x, y) ∈ R2 , alors g est continue et XY =


g ◦ (X, Y ) est donc une variable aléatoire. Pour 2, on a, en notant f(X,Y ) la
densité de la variable (X, Y ), et en admettant la validité du calcul suivant

Z
E(XY ) = xyf(X,Y ) (x, y)dxdy
ZR2
= xyfX (x)fY (y)dxdy
R2
Z  Z 
= xfX (x)dx yfY (y)dy
R R
= E(X)E(Y ).

Proposition 3.7.23 Soient (Ω, A, P ) un espace probabilisé et X, Y : Ω → R


des variables aléatoires réelles indépendantes. Alors X +Y est une variable
aléatoire réelle qui possède la densité

Z
fX+Y (x) = fX (x − y)fY (y)dy := (fX ∗ fY )(x).
R

La fonction fX ∗ fY s'appelle la convolution de fX et fY .


3.8 Convergences de suites de variables aléatoires

3.8.1 Convergence en probabilité d'une suite de variables


aléatoires
Dénition 3.8.1 Soient (Ω, A, P ) un espace probabilisé, (Xk )k≥1 : Ω → R une
suite de variables aléatoires et X : Ω → R une variable aléatoire. On dit que Xk
converge en probabilité vers X si, et seulement si, pour tout ε > 0,

lim P ({|Xk − X| ≥ ε}) = 0.


k

Cela revient à dire que, pour tout ε > 0,

lim P ({|Xk − X| < ε}) = 1.


k

Exemple 3.8.2 (Xn )n≥1 : Ω → {0, 1} une suite de variables de


1. Soit
Bernoulli. On suppose que P (Xn = 1) = pn . Alors Xn → 0 en probabilité
si, et seulement si, limn→+∞ pn = 0, et Xn → 1 en probabilité si, et
seulement si, limn→+∞ pn = 1.

2. Soit p ∈]1, +∞[. Pour tout n ≥ 1, soit Xn : Ω → {0, n} une variable


aléatoire telle que P (Xn = n) = n1p . Alors Xn → 0 en probabilité.

Proposition 3.8.3 Soient (Xn )n≥1 une suite de variables aléatoires sur Ω, X
et Y des variables aléatoires sur Ω. On suppose que Xn → X en probabilité et
Xn → Y en probabilité. Alors X = Y presque sûrement (ce qui veut dire que
P (X 6= Y ) = 0).

Preuve : soit ε > 0. n ≥ 1,


Alors, pour tout entier
n ε [n
o εo
{|X − Y | ≥ ε} ⊂ |X − Xn | ≥ |Y − Xn | ≥ ,
2 2
de sorte que
n ε o n ε o
P ({|X − Y | ≥ ε}) ≤ P |X − Xn | ≥ +P |Y − Xn | ≥ ,
2 2
donc, en faisant tendre n vers +∞, on obtient

P ({|X − Y | ≥ ε}) = 0.

On conclut en remarquant que

[  1

{X 6= Y } = |X − Y | ≥ .
k
k≥1

Proposition 3.8.4 Soient (Xn )n≥1 et (Yn )n≥1 deux suites de variables aléa-
toires sur Ω, X et Y des variables aléatoires sur Ω. On suppose que Xn → X
en probabilité et Yn → Y en probabilité. Alors :
1. Xn + Yn → X + Y en probabilité,

2. pour tout λ ∈ R, λXn → λX en probabilité.

Preuve : soient ε>0 et α > 0. Il existe N1 ≥ 1 tel que

n ε o α
P |Xn − X| ≥ <
2 2
pour tout n ≥ N1 . De même, il existe N2 ≥ 1 tel que
n ε o α
P |Yn − Y | ≥ <
2 2
pour tout n ≥ N2 .
N := max(N1 , N2 ), pour tout n ≥ N ,
Si

n ε o n ε o
P ({|(Xn + Yn ) − (X + Y )| ≥ ε}) ≤ P |Xn − X| ≥ +P |Yn − Y | ≥ < α,
2 2
ce qui montre que

lim P ({|(Xn + Yn ) − (X + Y )| ≥ ε}) = 0.


n→+∞

La preuve du point 2 est analogue.

3.8.2 Convergence en loi d'une suite de variables aléa-


toires
Dénition 3.8.5 (Ω, A, P ) un espace probabilisé, (Xk )k≥1 : Ω → R une
Soient
suite de variables aléatoires etX : Ω → R une variable aléatoire. On dit que Xk
converge vers X en loi si, et seulement si, limk FXk (t) = FX (t) pour tout t ∈ R
en lequel FX est continue (c'est-à-dire tout t ∈ R tel que P ({X = t}) = 0, voir
l'assertion 3 de la proposition 3.5.4).

Exemple 3.8.6 Pour tout k ≥ 1, soit Xk une variable aléatoire de loi uniforme
0, k1 , ..., k−1 1 (ce qui signie que P (Xk = kj ) = k+1
1

sur , pour tout 0 ≤ j ≤ k ).
k
Alors Xk converge en loi vers X , qui suit la loi uniforme sur [0, 1], c'est-à-dire
la loi de densité 1[0,1] . En eet, pour tout x ∈ R (voir la proposition 3.7.10),


 0 si x < 0,
FX (x) = x si 0 < x < 1,
1 si x ≥ 1.

Soit x < 0. Alors pour tout k , FXk (x) = FX (x) = 0. Si x ≥ 1, pour tout k ,
FXk (x) = FX (x) = 1. On suppose maintenant 0 ≤ x < 1. Soient k ≥ 1 et
j ∈ {0, k − 1} tels que kj ≤ x < j+1
k , de sorte que
   
j+1 j j+1 j+2
= FXk ≤ FXk (x) ≤ FXk = ,
k+1 k k k+1
donc

j+1 j+1 x 1
FX (x) − FXk (x) ≤ x − < ≤ − ,
k+1 k(k + 1) k + 1 k(k + 1)
et
j+2 2
FXk (x) − FX (x) ≤ −x≤ ,
k+1 k+1
ce qui montre que limk→+∞ FXk (x) = FX (x).
On examine le lien entre convergence en probabilité et en loi. On remarque
d'abord que la convergence en loi n'entraîne pas la convergence en loi :

Exemple 3.8.7 Pour tout k≥1 et tout ω ∈ [0, 1], on dénit

0 ≤ ω < 21 ,

0 si
Xk (ω) := 1
1 si
2 ≤ω ≤1

si k est pair et
0 ≤ ω < 21 ,

1 si
Xk (ω) := 1
0 si
2 ≤ω ≤1
1 1
si k est impair. Alors la loi de Xk est
2 δ0 + 2 δ1 pour tout k ≥ 1, donc Xk
converge en loi vers X1 . Toutefois, il n'y a pas convergence en probabilité car,
pour tout k pair, |Xk − X1 | = 1 partout.

Pour la réciproque, on va montrer le résultat suivant :

Proposition 3.8.8 Soient (Ω, A, P ) un espace probabilisé, (Xk )k≥1 : Ω → R


une suite de variables aléatoires et X : Ω → R une variable aléatoire. Si Xk → X
en probabilité sur Ω, alors Xk converge en loi vers X .
Preuve : soient x∈R tel que FX soit continue en x et ε > 0. Il existe δ>0
tel que
FX (x) − ε ≤ FX (x − δ) ≤ FX (x + δ) ≤ FX (x) + ε.
De plus, il existe K≥1 tel que, pour tout k ≥ K,
P ({|Xk − X| > δ}) < ε.
Soit alors k ≥ K. On a

FX (x) − ε ≤ P (X ≤ x − δ)
= P (X ≤ x − δ et Xk ≤ x) + P (X ≤ x − δ et Xk > x)
≤ P (Xk ≤ x) + P (Xk − X > δ)
≤ FXk (x) + ε,
et

FXk (x) ≤ P (Xk ≤ x et X ≤ x + δ) + P (Xk ≤ x et X > x + δ)


≤ P (X ≤ x + δ) + P (X − Xk > δ)
≤ FX (x) + 2ε,
ce qui montre bien que limk→+∞ FXk (x) = FX (x).
On peut énoncer une réciproque partielle à la proposition 3.8.8, pour une suite
convergeant en loi vers une constante :
Proposition 3.8.9 Soient (Ω, A, P ) un espace probabilisé, (Xk )k≥1 : Ω → R
une suite de variables aléatoires et a ∈ R. On suppose que Xk → a en loi. Alors
Xk → a en probabilité.

Preuve : on voit que Fa (x) = 0 si x<a et Fa (x) = 1 si x > a. La fonction Fa


est continue en tout x 6= a.
Soit ε > 0. Alors

P (Xk > a + ε) = 1 − FXk (a + ε) → 1 − Fa (a + ε) = 0,


et
P (Xk < a − ε) ≤ FXk (a − ε) → Fa (a − ε) = 0,
si bien que
lim P (|Xk − a| > ε) = 0.
k→+∞
Dans le cas de variables discrètes, la convergence en loi se traduit ainsi :

Proposition 3.8.10 Soient (Xn )n≥1 une suite de variables aléatoires à valeurs
dans N et X N. Alors Xn → X
une variable aléatoire à valeurs dans en loi si,
et seulement si, pour tout k ∈ N, limn→+∞ P (Xn = k) = P (X = k).
Preuve : on remarque d'abord que, pour tout x∈/ N et pour tout n ≥ 1, FXn
et FX sont continues en x.
On suppose d'abord que Xn → X en loi. Soit k ∈ N. Alors
 
1 1
P (X = k) = P k − < X ≤ k +
 2   2 
1 1
= FX k + − FX k −
2  2  
1 1
= lim FXn k + − FXn k −
n→+∞
 2 2
1 1
= lim P k − < Xn ≤ k +
n→+∞ 2 2
= lim P (Xn = k).
n→+∞

On suppose maintenant que, pour tout k ∈ N, limn→+∞ P (Xn = k) = P (X =


k). Soitx ∈ R tel que FX soit continu en x. Si x < 0, FX (x) = FXn (x) = 0
pour tout n ≥ 1.
On suppose maintenant que x ≥ 0. Soit k ∈ N tel que k ≤ x < k + 1. Alors
X≤x si, et seulement si, X ≤ k , si bien que
FX (x) = P (X ≤ x)
Xk
= P (X = j)
j=0
k
X
= lim P (Xn = j)
n→+∞
j=0
= lim P (Xn ≤ k)
n→+∞
= lim P (Xn ≤ x),
n→+∞
ce qui termine la preuve.

3.9 Théorèmes limite

3.9.1 Théorème central limite de Poisson


Théorème 3.9.1 Soient λ > 0 et (pn )n≥1 une suite de nombres de ]0, 1[ telle
quelimn→+∞ npn = λ. Soit (Xn )n≥1 une suite de variables aléatoires telles que,
pour tout n ≥ 1, Xn suit la loi B(n, pn ). Soit enn X suivant la loi de Poisson
P(λ). Alors Xn → X en loi.

Preuve : k ∈ N. Pour tout n ≥ k ,


soit
 
n k 1 n! n−k
P (Xn = k) = p (1 − pn )n−k = (npn )k (1 − pn ) .
k n k! (n − k)!nk
Or
n! n(n − 1)...(n − k + 1)
= →1
(n − k)!nk nk
quand n → +∞. De plus, limn→+∞ (npn )k = λk . Enn, comme limn→+∞ pn =
0,
(n − k)ln(1 − pn ) ∼ −npn → λ
quand n → +∞, de sorte que

n−k
lim (1 − pn ) = e−λ ,
n→+∞

ce qui termine la preuve.

3.9.2 Approximation de la loi binomiale par la loi hyper-


géométrique
Dénition 3.9.2 Soient 1≤n≤N des entiers et p ∈]0, 1[ tel que N p soit un
entier. Soit X une variable aléatoire à valeurs dans N. On dit que X suit une
loi hypergéométrique de paramètres N, n, p si, et seulement si,

N p N (1−p)
 
k n−k
P (X = k) = N

n

pour tout k ∈ {0, N } avec n − N (1 − p) ≤ k ≤ N p, et P (X = k) = 0 sinon.

Soit une urne contenant N boules dont Np sont rouges et N (1 − p) sont noires.
On tire au hasard et sans remise n boules. Si X est le nombre de boules rouges
tirées, alors X suit une loi hypergéométrique de paramètres N, n, p.
Théorème 3.9.3 Soient n≥1 et p ∈]0, 1[. Pour tout entier N ≥1 tel que Np
soit entier, soit XN une variable suivant la loi hypergéométrique de paramètres
N, n, p. Soit X suivant la loi B(n, p). Alors XN → X en loi quand N → +∞.
Preuve : soit k ∈ N. On pose q = 1 − p. Pour N assez grand (dépendant de n
et de k ), on aura bien n − N q ≤ k ≤ N p ≤ N , donc

(N p)!(N q)!n!(N − n)!


P (X = k) =
k!(N p − k)!(n − k)!(N q − n + k)!N !
n! (N p)...(N p − k + 1)(N q)...(N q − n + k + 1)
=
k!(n − k)! N...(N − n + 1)
n! (N p)k (N q)n−k

k!(n
  − k)! Nn
n k n−k
= p q ,
k

ce qui termine la preuve.

3.9.3 Théorème de de Moivre-Laplace


Théorème 3.9.4 Soient p ∈]0, 1[ et (Xn )n≥1 une suite de variables aléatoires.
On suppose que, pour tout n ≥ 1, Xn suit la loi B(n, p). Alors, si X suit la loi
N (0, 1),
X − np
p n →X en loi.
np(1 − p)
En d'autres termes, pour tous a < b,
! Z b  
Xn − np 1 1
lim P a< p ≤b = √ exp − x2 dx. (3.4)
n→+∞ np(1 − p) 2π a 2

3.9.4 Le théorème central limite


Théorème 3.9.5 Soient (Xn )n≥1 une suite de variables aléatoires indépen-
dantes et de même loi, de carré intégrable, non constantes. Soit
p Pn m = E(X1 )
et σ = Var(X1 ). Pour tout n ≥ 1, on pose Sn := k=1 Xk . Soit X suivant la
S −nm
loi N (0, 1). Alors n √ → X en loi.
σ n

On notera que le théorème de de Moivre Laplace est un cas particulier du


théorème central limite. En eet, soit (Xn )n≥1 une suite de variables aléatoires
indépendantes suivant toutes la loi B(p). Alors E(X1 ) = p et Var(X1 ) = p(1−p),
et Sn suit la loi B(n, p) pour tout entier n ≥ 1.

3.9.5 Loi faible des grands nombres


Théorème 3.9.6 [Loi faible des grands nombres] Soient (Xn )n≥1 une suite
de variables aléatoires de même loi, de carré intégrable. On suppose que les
variables (Xn ) sont deux à deux non corrélées, ce qui signie que, pour tous
n 6= mP
, E(Xn Xm ) = E(Xn )E(Xm ). Soit m = E(X1 ). Pour tout n ≥ 1, on pose
n
Sn := k=1 Xk . Alors Snn → m en probabilité.
Preuve :
Pn
m = 0. Comme Sn2 = k=1 Xk2 +2 1≤j<k≤n Xj Xk ,
P
on suppose d'abord que

on a donc E(Sn2 ) = nE(X12 ). Soit ε > 0. Alors


   2 
Sn Sn 2
P >ε
= P 2 >ε

n n
1
≤ E(Sn2 )
n2 ε2
1
= E(X12 ),
nε2
ce qui donne le résultat.
Dans le cas général, on pose Yn := Xn − m pour tout n ≥ 1. Les variables
Yn sont de même loi, de carré intégrable, d'espérance nulle et deux à deux non
corrélées, car si n ≤ m,

E(Yn Ym ) = E(Xn Xm ) − m(E(Xn ) + E(Xm )) + m2 = 0 = E(Yn )E(Ym ).

Ainsi, si fn := Pn Yi
S pour tout n ≥ 1, S
fn
→0 en probabilité. Mais
S
fn
=
i=1 n n
Sn
n − m, ce qui termine la preuve.

Remarque 3.9.7 Si (Xn )n≥1 est une suite de variables aléatoires indépen-
dantes de même loi et de carré intégrable, cette suite satisfait les hypothèses
du théorème 3.9.6.

Corollaire 3.9.8 Soient p ∈]0, 1[ et (An )n≥1 une suite d'événements


Pn indépen-
dants. On suppose que P (An ) = p pour tout n ≥ 1. Alors n1 k=1 1Ak converge
en probabilité vers p.

Preuve : il sut d'appliquer le théorème 3.9.6 à la suite des 1An , compte tenu
de la remarque 3.9.7.

3.10 Vecteurs gaussiens

On se donne un espace probabilisé (Ω, A, P ). On xe d'abord les dénitions


suivantes :

Dénition 3.10.1 Soit X : Ω → Rd un vecteur aléatoire. On note X =


(X1 , ..., Xd ). Chaque Xi est une variable aléatoire.

1. On dit que X est intégrable si, et seulement si, pour tout i ∈ {1, d},
Xi est intégrable. Dans ce cas, l'espérance de X est le vecteur E(X) =
(E(X1 ), ..., E(Xd )).
2. On dit que X est de carré intégrable si, et seulement si, pour tout i ∈
{1, d}, Xi2 est intégrable. Dans ce cas, on dénit la matrice de covariance
de X comme la matrice C ∈ Md (R) donnée par

Cij := E((Xi − E(Xi ))(Xj − E(Xj ))).


Remarque 3.10.2 Si X est de carré intégrable, et si m ∈ Rd , alors la matrice
de covariance de X est égale à celle de X + m.

Proposition 3.10.3 Soit X : Ω → Rd un vecteur aléatoire de carré intégrable.


Alors la matrice de covariance C de X est symétrique positive.

Preuve : il est immédiat que C est symétrique. De plus, si x ∈ Md,1 (R),


X
hCx, xi = xi xj E((Xi − E(Xi ))(Xj − E(Xj )))
1≤i,j≤d
X
= E(xi (Xi − E(Xi ))xj (Xj − E(Xj )))
1≤i,j≤d

 2 
X
= E  xi (Xi − E(Xi ))  ≥ 0.
 
1≤i≤d

On dénit maintenant ce qu'est un vecteur gaussien.

Dénition 3.10.4 Soit X = (X1 , ..., Xd ) une variable aléatoire dénie sur
(Ω, A, P ) et à valeurs dans Rd . On dit que X est un vecteur gaussien si, et seule-
d
ment si, pour tout α = (α1 , ..., αd ) ∈ R , la variable aléatoire réelle hα, Xi =
Pd 2
k=1 αk Xk est gaussienne (c'est-à-dire qu'elle suit une loi N (m, σ ) pour un
m ∈ R et un σ > 0).
On vérie facilement :

Proposition 3.10.5 1. Si X est un vecteur gaussien, alors les composantes


sont gaussiennes.

2. Tout vecteur aléatoire gaussienne est de carré intégrable.

Remarque 3.10.6 La réciproque du point 1 de la proposition 3.10.5 est fausse.


On prend deux variables aléatoires indépendantes U de loi N (0, 1) et ε à valeurs
dans {−1, 1} et de loi uniforme. On vérie facilement que V := εU suit encore
la loi N (0, 1). Mais U + V = (1 + ε)U n'est pas gaussienne car

P (U +V = 0) = P (ε = −1 ou U = 0) = P (ε = −1)+P (U = 0)−P (ε = −1 et U = 0) = P (ε = −1)+P (U = 0)−P (ε =

La variable aléatoire (U, V ) n'est donc pas gaussienne. Re- marquons par ailleurs
que U et V ne sont pas indépendantes. En eet, par indépendance de ε et U ,

E(U 2 V 2 ) = E(U 4 ) = 3 alors que E(U 2 )E(V 2 ) = (E(U 2 ))2 = 1.

Proposition 3.10.7 1. On suppose que X1 , ..., Xd sont des variables aléa-


toires réelles gaussiennes et indépendantes. Alors X = (X1 , ..., Xd ) est
un vecteur gaussien.

2. Si X est un vecteur gaussien à valeurs dans Rd , alors, pour tout entier


m ≥ 1, pour toute matrice A ∈ Mm,d (R) et tout vecteur b ∈ Rm , le
m
vecteur aléatoire AX + b, à valeurs dans R , est gaussien.
Preuve : on admet le point 1. Le point 2 résulte du fait que les coordonnées
de AX sont des combinaisons linéaires de celles de X.
Corollaire 3.10.8 m ∈ Rd et C ∈ Md (R) une matrice symétrique positive.
Soit
Alors il existe un vecteur gaussien X d'espérance m et de matrice de covariance
C.
La preuve utilisera :

Lemme 3.10.9 Soit A ∈ Md (R) une matrice symétrique positive. Alors il


existe une matrice symétrique positive B ∈ Md (R) telle que A = B2.
Preuve du lemme 3.10.9 : il existe une matrice orthogonale O ∈ Md (R)
et une matrice diagonale D ∈ Md (R) à coecients positifs ou nuls telles que
A = ODO−1 . Il existe une matrice Λ ∈ Md (R) à coecients positifs ou nuls tels
2
que D = Λ , si bien que

A = OΛ2 O−1 = (OΛO−1 )(OΛO−1 ) = B 2

avecB = OΛO−1 . La matrice B est symétrique (immédiat) et positive car,


t −1
comme O = O ,

hBX, Xi = hOΛO−1 X, Xi = hΛO−1 X, O−1 Xi ≥ 0,

la dernière inégalité étant due au fait que les coecients de Λ sont positifs.
Preuve du corollaire 3.10.8 : soient Y1 , ..., Yd des variables aléatoires
indépendantes de loi N (0, 1). Alors le vecteur aléatoire Y = (Y1 , ..., Yd ) est
gaussien, d'espérance nulle et de matrice de covariance Id .
La matrice C étant symétrique positive, on peut choisir une matrice symétrique
positive A ∈ Md (R) telle que A2 = At A = C . La variable aléatoire X := m+AY
est alors gaussienne et d'espérance m. La covariance de X est la matrice D ∈
Md (R) telle que
  
X X X
Dij = E((AY )i (AY )j ) = E  aik Yk   ajk Yk  = aik ajk = Cij ,
1≤k≤d 1≤k≤d 1≤k≤d

ce qui montre que C = D.


Proposition 3.10.10 X = (X1 , ..., Xd ) un vecteur gaussien à valeurs dans
Soit
Rd , d'espérance m ∈ Rd et de matrice de covariance C ∈ Md (R). Alors les
variables aléatoires réelles X1 , ..., Xd sont indépendantes si et seulement si C est
diagonale.

Preuve : il est immédiat que, si les X1 , ..., Xd sont indépendantes, alors C est
diagonale. La réciproque est admise.

Remarque 3.10.11 Comme le montre la remarque 3.10.6, la conclusion de


la proposition 3.10.10 est fausse si on suppose seulement que X1 , ..., Xd sont
gaussiennes.
Proposition 3.10.12 Soit X = (X1 , ..., Xd ) un vecteur gaussien à valeurs dans
Rd , d'espérancem ∈ Rd et de matrice de covariance C ∈ Md (R). On suppose C
inversible. Alors X possède une densité donnée par
 
1 1 −1
fX (x) := p d
exp − h(x − m), C (x − m)i .
(2π) det C 2

Preuve : soient Y1 , ..., Yd des variables aléatoires indépendantes de loi N (0, 1).
Alors la variable aléatoire Y = (Y1 , ..., Yd ) est d'espérance nulle et de matrice
de covariance Id , et possède une densité fY donnée par

d 1 2 1 2
Y e− 2 yk e− 2 kyk
fY (y) = √ = p d
.
k=1
2π (2π)

Soit A ∈ Md (R) telle que At A = C . Alors (detA)2 = detAdett A = det C > 0.


En particulier, A est inversible. De plus, on montre que X a même loi que
m+AY (cela vient du fait que ce sont des vecteurs gaussiens de même espérance
d
et de même matrice de covariance). Pour tout pavé B ⊂ R , on a donc, par le
changement de variables x = m + Ay ,

P (X ∈ B) = P (m + AY ∈ B)
1 2
e− 2 kyk
Z
= 1B (m + Ay) p d
dy
Rd (2π)
−1 2
e− 2 kA (x−m)k
Z 1
−1

= 1B (x) p d
det A dx,
Rd (2π)
ce qui montre que X possède une densité donnée par

−1 2
e− 2 kA (x−m)k
1

det A−1 .

fX (x) = p d
(2π)
−1
On termine en remarquant que det(A ) = det(C)−1/2 et que, pour tout z ∈ Rd ,
−1 2
A z = hA−1 z, A−1 zi = hz,t A−1 A−1 zi = hz, C −1 zi.

Remarque 3.10.13 Si C n'est pas inversible, il existe un hyperplan ane H ∈


Rd tel que P (X ∈ H) = 1, donc X ne peut pas admettre de densité.

3.11 Statistique inférentielle

3.11.1 Un exemple
Soient N ≥ 1 un entier et S = {s1 , ..., sN } une population. On veut esti-
mer la proportion θ de personnes parlant l'anglais dans cette population, en
interrogeant seulement n personnes (n ≤ N ).
Soit Ω = S n l'ensemble des échantillons de taille n (avec répétitions). Un élément
ω de Ω est donc de la forme (ω1 , ..., ωn ) avec ωi ∈ S pour tout i ∈ {1, n}. Pour
traduire le fait qu'on fait un sondage au hasard, on munit Ω de la probabilité
uniforme : pour tout ω ∈ Ω,

1
P ({ω}) = .
Nn
A chaque personne sondée, donc pour chaque ωi , on demande si elle parle an-
glais. Pour tout i ∈ {1, n}, on dénit la variable aléatoire Xi : Ω → {0, 1}
par

1 si ωi parle anglais,
Xi (ω) =
0 si ωi ne parle pas anglais.
Pn
Ainsi, pour tout ω ∈ Ω, k=1 Xk (ω) représente le nombre de personnes parlant
anglais dans l'échantillon, et

n
1X
Mn (ω) := Xk (ω)
n
k=1

est la proportion de personnes parlant anglais dans l'échantillon. Alors :

1. pour tout i ∈ {1, n}, Xi suit la loi B(1, θ),


2. les variables (X1 , ..., Xn ) sont indépendantes,

3. nMn suit la loi B(n, θ),


1
4. Pour tout ε > 0, P (θ ∈]Mn − ε, Mn + ε[) ≥ 1 − 4nε2 .
En eet, soit i ∈ {, 1, n}. La variable Xi prend ses valeurs dans {0, 1}. De plus,

P (Xi = 1) = P ({(ω1 , ..., ωn ); ωi parle anglais })


]Ai
= ,
]Ω


Ai := {(ω1 , ..., ωn ); ωi parle anglais }).
On a donc
]Ai = N n−1 × θN,
donc
P (Xi = 1) = θ.
k
Soient maintenant k ∈ {1, n}, 1 ≤ i1 < ... < ik ≤ n et (ε1 , ..., εk ) ∈ {0, 1} .
Alors
]A
P (Xi1 = ε1 , ..., Xik = εk ) = ,
]Ω


A = (ω1 , ..., ωn ); ωij parle anglais pour tout j ∈ {1, k} ).
On a donc

k
Y
P (Xi1 = ε1 , ..., Xik = εk ) = (θ)k = P (Xij = εj ),
j=1

ce qui montre bien l'indépendance annoncée. On dit que les variables X1 , ..., Xn
forment un échantillon de taille n de loi de Bernoulli de paramètre θ.
Comme nMn est une somme de variables aléatoires indépendantes suivant toutes
la loi B(1, θ), nMn suit la loi B(n, θ). Enn, on remarque que
n
1X
E(Mn ) = E(Xk ) = θ
n
k=1

et
1
Var(Mn ) = θ(1 − θ),
n
donc
P (|Mn − θ| > ε) = P (|Mn − E(Mn )| > ε)
2
= P (|Mn − E(Mn )| > ε2 )
1
≤ Var (Mn )
ε2
1
= θ(1 − θ)
nε2
1
≤ .
4nε2
q
5
On prend par exemple ε= n . On fait un sondage de taille n, ce qui revient
à choisir ω, et on observe
i X1 (ω), ..,
qXn (ω), puis q
on calcule
h Mn (ω). Alors, θ
appartient à l'intervalle Mn (ω) − n , Mn (ω) + n5 avec une
5
conance au
1
moins égale à 1− 4nε2 = 0, 95.

3.11.2 Estimateur
Voici la situation générale. On suppose qu'un phénomène suit une loi de
probabilité connue, notée µθ , qui dépend de certains paramètres inconnus θ. On
note Θ l'ensemble des valeurs que peut prendre θ. Dans l'exemple du paragraphe
3.11.1, µθ est une loi de Bernoulli de paramètre θ ∈ Θ =]0, 1[.

Dénition 3.11.1 Soit n ≥ 1.


1. On appelle échantillon de taille n et de loi µθ tout n-uplet de variables
aléatoires indépendantes (X1 , ..., Xn ) et toutes de loi µθ (les Xi sont
dénies sur un espace probabilisé (Ω, A, P )).

2. On appelle observation ou réalisation de l'échantillon tout n-uplet (X1 (ω), ..., Xn (ω))
pour un ω ∈ Ω.
Soit (X1 , ..., Xn ) un échantillon de loi µθ . On note P la loi de (X1 , ..., Xn ). Soit
x = (x1 , ..., xn ) ∈ X une observation.
Dénition 3.11.2 1. Soit f : Θ → R une fonction. On appelle estimateur
de f (θ) une variable aléatoire Tn (X1 , ..., Xn ) à valeurs dans f (Θ), uti-
lisée pour estimer f (θ). On appelle estimateur ponctuel toute valeur de
l'estimateur en un point ω.
2. Un estimateur Tn (X1 , ..., Xn ) est dit consistent (ou convergent) si, et
seulement si, Tn (X1 , ..., Xn ) converge en probabilités vers f (θ) quand n
tend vers +∞, c'est-à-dire que, pour tout ε > 0,

lim P (|Tn (X1 , ..., Xn ) − f (θ)| > ε) = 0.


n→+∞

3. Si l'estimateur Tn (X1 , ..., Xn ) est intégrable, son biais est déni par

E(Tn (X1 , ..., Xn )) − f (θ)

pour tout θ ∈ Θ. On dit que Tn (X1 , ..., Xn ) est un estimateur sans biais
si, et seulement si, pour tout θ ∈ Θ,

E(Tn (X1 , ..., Xn )) = f (θ).

Exemple 3.11.3 Soit (X1 , ..., Xn ) un échantillonp


de loi µθ . On suppose les Xk
de carré intégrable et on note m = E(X1 ) et σ = Var(X1 ).
1. On veut estimer m. Un estimateur possible est la moyenne empirique :

n
1X
Mn = X := Xi .
n i=1

On vérie que Mn est un estimateur consistant et sans biais de m . En


eet, E(Mn ) = m pour tout n. De plus, soit ε > 0. On a
n
!
1 X
2
P (|Mn − m| > ε) ≤ 2 2 E (Xk − m) .
n ε
k=1

Or
n
X n
X n
X
(Xk − m)2 = Xk2 − 2m Xk + nm2 ,
k=1 k=1 k=1

donc !
n
X
2
= n E(X12 ) − m2 = nσ 2 ,

E (Xk − m)
k=1

si bien que
σ2
P (|Mn − m| > ε) ≤ →0
nε2
quand n → +∞. On vient de (re)démontrer la loi faible des grands
nombres pour des variables de carré intégrable.

On notera que, si les Xk sont de loi B(1, θ), alors nMn est de loi B(n, θ).
Si les Xk sont de loi N (m, σ 2 ), alors Mn est de loi N (m, n1 σ 2 ).
2. On veut estimer σ2 . Si m est connue, on prend comme estimateur
n
1X
Vn = (Xk − m)2 .
n
k=1

On vérie que Vn est un estimateur sans biais de σ 2 . En eet, comme Xk


est d'espérance m pour tout k ∈ {1, m},

n
1X
E(Vn ) = E((Xk − m)2 ) = σ 2 .
n
k=1
4
De plus, si les Xk sont intégrables, l'estimateur est consistant. En eet,

n n
1X 2 1X
Vn = Xk − 2m Xk + m2 ,
n n
k=1 k=1

et la loi faible des grands nombres montre que Vn → E(X12 )−2mE(X1 )+


2
m = E(X12 ) 2 2
− m = σ en probabilité.
Si m n'est pas connue, on prend comme estimateur la variance empirique,
dénie par
n
1 X
Sn2 = (Xk − Mn )2 .
n−1
k=1
On vérie que Vn est un estimateur sans biais de σ2 . En eet,
n
1 X
E(Sn2 ) = E((Xk − Mn )2 ).
n−1
k=1

On calcule
 
n
1 X X
E(Mn2 ) = E(Xk2 ) + E(Xk Xl )
n2
k=1 k6=l
1 n−1 2
= E(X12 ) + m ,
n n
la dernière ligne venant du fait que, comme Xk et Xl sont indépendantes
2
pour k 6= l, E(Xk Xl ) = E(Xk )E(Xl ) = m .
Soit k ∈ {1, n}. On calcule

1X 1
E(Xk Mn ) = E(Xk Xl ) + E(Xk2 )
n n
l6=k
n−1 2 1
= m + E(X12 ).
n n
Par suite,

1
E(Sn2 ) nE(X12 ) − 2(n − 1)m2 − 2E(X12 ) + E(X12 ) + (n − 1)m2

=
n−1
1
(n − 1)E(X12 ) − (n − 1)m2

=
n−1
= σ2 .
3.11.3 Intervalles de conance
On reprend les notations de la section précédente. Au lieu d'estimer f (θ)
de façon ponctuelle, on peut chercher un intervalle dépendant d'une observa-
tion, pour lequel on pourra dire que f (θ) appartient à cet intervalle avec une
probabilité qu'on sait estimer.

Dénition 3.11.4 Soit α ∈]0, 1[. On appelle intervalle de conance au niveau


α pour f (θ) toute famille d'intervalles (I(x1 , ..., xn ); (x1 , ..., xn ) ∈ X ) telle que,
pour tout θ ∈ Θ,
P (f (θ) ∈ I(X1 , ..., Xn )) ≥ α.
Proposition 3.11.5 (X1 , .., Xn ) un échantillon de loi µθ . Soit P la loi du
Soit
vecteur (X1 , ..., Xn ). ϕ(X1 , ..., Xn ) un estimateur sans biais de f (θ). On
Soit
suppose que, pour tout θ ∈ Θ, ϕ(X1 , ..., Xn ) est de carré intégrable (pour P ) et
qu'il existe r > 0 tel que, pour tout θ ∈ Θ,

Var(ϕ(X1 , ..., Xn )) ≤ r.
Soit α ∈]0, 1[. Alors
 r r  
r r
ϕ(x1 , ..., xn ) − , ϕ(x1 , ..., xn ) + ; (x1 , ..., xn ) ∈ X
1−α 1−α
est un intervalle de conance pour f (θ) au niveau α.
Preuve : soit θ ∈ Θ. On calcule
 r   r 
r r
P |f (θ) − ϕ(X1 , ..., Xn )| > = P |E(ϕ(X1 , ..., Xn )) − ϕ(X1 , ..., Xn )| >
1−α 1−α
1−α
≤ Var(ϕ(X1 , ..., Xn ))
r
≤ 1 − α,
ce qui donne bien la conclusion.

Remarque 3.11.6 Reprenons l'exemple de la section 3.11.1. Ici, (X1 , ..., Xn )


est un échantillon suivant la loi de Bernoulli de paramètre θ Θ =]0, 1[.
avec
n
L'ensemble
Pn X est {0, 1} . On prend f (θ) = θ. La moyenne empirique Mn =
1
n k=1 Xk est un estimateur sans biais de θ. Comme
1
Var(Mn ) ≤ ,
4n
1
on peut appliquer la proposition 3.11.5 avec r = 4n . Si α = 0, 95, alors on
obtient l'intervalle de conance
# n n
" !
1X √ 1X √ n
xk − 5n, xk + 5n ; (x1 , ..., xn ) ∈ {0, 1| .
n n
k=1 k=1

Par exemple, si nP= 500 et que, sur les observations réalisées, 75 personnes
1 n 75 1 1

parlent l'anglais,
n k=1 xk = 500 = 0, 15, et on peut dire que θ ∈ 0, 15 − 10 , 0, 15 + 10
avec une conance de 0, 95.
Dénition 3.11.7 Soit (In )n≥1 une suite d'intervalles de conance, chaque In
ne dépendant que de X1 , ..., Xn . On dit que le niveau de conance asymptotique
de la suite (In )n≥1 vaut a si, et seulement si, pour tout θ ∈ Θ,

lim P (θ ∈ In ) = a.
n→+∞

Exemple 3.11.8 On a vu que Mn est un estimateur consistant et sans biais


de m. x > 0,
De plus, par le théorème central limite, pour tout


 
Mn − m
P ( n |Mn − m| ≤ xσ) = P √ ≤ x → P (|Z| ≤ x),
σ n
où Z suit la loi N (0, 1). Si a > 0, une table fournit xa > 0 tel que P (|Z| ≤
xa ) = a. Alors il vient que

P ( n |Mn − m| ≤ xa σ) → a.
h P i
1 n Pn
Cela signie que x k − x a √σ , 1 x k + x a √σ est un intervalle de
n k=1 n n k=1 n
conance asymptotique de m au niveau a.

3.11.4 Intervalle de uctuation


Dénition 3.11.9 Soient X une variable aléatoire réelle, α ∈]0, 1[ et a < b des
réels. On dit que [a, b] est un intervalle de uctuation pour X au niveau α si, et
seulement si,
P (a ≤ X ≤ b) ≥ 1 − α.
Proposition 3.11.10 p ∈]0, 1[. Soient α ∈]0, 1[, Z une variable aléatoire
Soit
suivant la loi N (0, 1)uα > 0 tel que P (|Z| ≤ uα ) = 1 − α. Soit (Xn )n≥1 une
et
suite de variables aléatoires. On suppose que, pour tout n ≥ 1, Xn suit la loi
B(n, p). Pour tout n ≥ 1, on pose
" r r #
p(1 − p) p(1 − p)
In = p − uα , p + uα .
n n

Alors  
Xn
lim P ∈ In = 1 − α.
n→+∞ n
Preuve : le théorème de Moivre-Laplace assure que
!
X − np
n
lim P ≤ uα = P (|Z| ≤ uα ) = 1 − α.

p
n→+∞ np(1 − p)

Or

X − np Xn − np
n
≤ uα ⇔ −uα ≤ p ≤ uα

p
np(1 − p) np(1 − p)
r r
p(1 − p) Xn p(1 − p)
⇔ p− uα ≤ ≤p+ uα .
n n n
1
Pour α = 0, 05 = 20 , on a uα = 1, 96, donc

" r r #
p(1 − p) p(1 − p)
In = p − 1, 96 , p + 1, 96 .
n n

1
On notera que p(1 − p) ≤ 4 , donc

p 1, 96
1, 96 p(1 − p) ≤ ≤ 1,
2
de sorte que
 
1 1
In ⊂ p − √ , p + √ .
n n
 q q 
p(1−p)
L'intervalle p − 1, 96
n , p + 1, 96 p(1−p)n gure dans les programmes de
h i
1 1
terminale S, alors que p − √ , p + √ se trouve dans ceux de seconde.
n n

3.11.5 Conséquences sur la prise de décision


On reprend l'exemple du sondage pour savoir si les personnes parlent anglais
ou non. On fait une hypothèse sur la proportion p de personnes parlant l'anglais
dans la population, et on veut vérier sa validité par un sondage. On eectue
un sondage sur n personnes et on note f la proportion de personnes parlant
l'anglais dans cet échantillon.
On considère que l'intervalle In est utilisable pour une approximation de la loi
B(n, p) par la loi N (0, 1) (c'est-à-dire que n ≥ 30, np ≥ 5 et n(1 − p) ≥ 5).
Alors :

1. Si f∈
/ In , l'hypothèse sur p est considérée comme non valable.

2. Si f ∈ In , on ne peut pas rejeter l'hypothèse suite au sondage.

Il faut distinguer cette démarche de celle de l'intervalle de conance. Dans ce


dernier cas, on ne connaît pas p, et on n'a aucun moyen de faire une hypothèse
sur p. On évalue la probabilité que p appartienne à un intervalle déterminé grâce
à l'observation faite au moyen du sondage.

Vous aimerez peut-être aussi