Vous êtes sur la page 1sur 31

14.

Variables aléatoires à densité


MP4 2021-2022
M.LAAMOUM

I Variables à densité
1. Generalité
Définition I.1
Une variable aléatoire est dite continue ou à densité si il existe une fonction
𝑓 définie de ℝ dans ℝ vérifiant

𝑓 est positive sur ℝ,

𝑓 est continue sauf peut-être en un nombre fini de points où elle admet


une limite à gauche et une limite à droite finies ou non.
+∞
∫ 𝑓 (𝑥)𝑑𝑥 = 1,
−∞

et telle que pour tous réels 𝑎 ≤ 𝑏 avec éventuellement 𝑎 = −∞ et 𝑏 = +∞


𝑏
𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = ∫ 𝑓 (𝑥)𝑑𝑥.
𝑎

On dit que 𝑓 est une densité de 𝑋.

Remarques I.1
Réciproquement pour toute fonction 𝑓 vérifiant les propriétés ci dessus, il
existe une variable aléatoire 𝑋 définie sur un espace de probabilité convenable
et admettant 𝑓 comme densité.

Définition I.2
Soit 𝑋 une variable aléatoire à densité 𝑓, la fonction de répartition de 𝑓 notée
𝐹𝑋 est définie pour tout réel 𝑥
𝑥
𝐹𝑋 (𝑥) = ∫ 𝑓 (𝑡)𝑑𝑡.
−∞

La fonction 𝐹𝑋 est continue, continûment dérivable sauf peut-être en un nom-


bre fini de points et on a en tout point 𝑥 où 𝑓 est continue

𝐹𝑋′ (𝑥) = 𝑓 (𝑥).

Proposition I.1

Soit 𝑋 une variable aléatoire à densité 𝑓, pour tout réel 𝑥

𝑃(𝑋 = 𝑥) = 0.
I VARIABLES À DENSITÉ 2. Fonction d’une variable aléatoire continue

Pour tous réels 𝑎 ≤ 𝑏

𝑃(𝑎 < 𝑋 < 𝑏) = 𝑃(𝑎 ≤ 𝑋 < 𝑏)


= 𝑃(𝑋 ≤ 𝑏) − 𝑃(𝑋 ≤ 𝑎)
= 𝐹 (𝑏) − 𝐹 (𝑎)
𝑏
= ∫ 𝑓 (𝑥)𝑑𝑥.
𝑎

Définition I.3
Deux var. 𝑋 et 𝑌 sont dites indépendantes si et seulement 𝑠𝑖

ℙ(𝑋 ∈ 𝐴, 𝑌 ∈ 𝐵) = ℙ(𝑋 ∈ 𝐴)ℙ(𝑋 ∈ 𝐵), ∀𝐴, 𝐵 ⊂ ℝ

Remarques I.2
On montrer que l’indépendance est équivalente à

ℙ(𝑋 ≤ 𝑎, 𝑌 ≤ 𝑏) = ℙ(𝑋 ≤ 𝑎)ℙ(𝑌 ≤ 𝑏), ∀(𝑎, 𝑏) ∈ ℝ2

En général 𝑋1 , .., 𝑋𝑛 sont mutuellement indépendantes ssi

ℙ(𝑋1 ≤ 𝑎1 , .., 𝑋𝑛 ≤ 𝑎𝑛 ) = ℙ(𝑋 ≤ 𝑎1 )...ℙ(𝑌 ≤ 𝑎𝑛 ), ∀(𝑎𝑖 ) ∈ ℝ𝑛

2. Fonction d’une variable aléatoire continue


Soit 𝑋 une variable aléatoire est continue de densité 𝑓 et de fonction de répartition
𝐹. Soit 𝜙 une fonction continue définie sur 𝑋 (Ω), alors 𝑌 = 𝜙(𝑋 ) est une variable
aléatoire.

1 Calcul de densité de 𝑎𝑋 + 𝑏 :
Soit 𝑎 > 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃(𝑌 ≤ 𝑥) = 𝑃(𝑋 ≤ ) = 𝐹( )
𝑎 𝑎
si 𝑎 < 0,
𝑥 −𝑏 𝑥 −𝑏
𝑃(𝑌 ≤ 𝑥) = 𝑃(𝑋 ≥ ) = 1 − 𝐹( )
𝑎 𝑎
En dérivant on obtient la densité de 𝑌
1 𝑥 −𝑏
𝑔(𝑥) = 𝑓( ).
|𝑎| 𝑎

2 Calcul de densité de 𝑋 2 :
Soit 𝑥 ∈ ℝ
si 𝑥 < 0, 𝑃(𝑌 ≤ 𝑥) = 0.
si 𝑥 > 0, 𝑃(𝑌 ≤ 𝑥) = 𝑃(−√𝑥 ≤ 𝑋 ≤ √𝑥) = 𝐹 (√𝑥) − 𝐹 (−√𝑥).
En dérivant on obtient la densité de 𝑌

𝑔(𝑥) = 0 si 𝑥 < 0.
1
𝑔(𝑥) = (𝑓 (√𝑥) + 𝑓 (−√𝑥)) si 𝑥 > 0.
2√𝑥

2 M.LAAMOUM
II MOMENTS D’UNE VARIABLE ALÉATOIRES À DENSITÉ

3 Calcul de densité de 𝑒 𝑋 :
Soit 𝑥 ∈ ℝ
si 𝑥 < 0, 𝑃(𝑌 ≤ 𝑥) = 0.
si 𝑥 > 0, 𝑃(𝑌 ≤ 𝑥) = 𝑃(𝑋 ≤ 𝐿𝑛(𝑥)) = 𝐹 (𝐿𝑛(𝑥)).
En dérivant on obtient la densité de 𝑌

𝑔(𝑥) = 0 si 𝑥 < 0.
1
𝑔(𝑥) = (𝑓 (𝐿𝑛(𝑥)) si 𝑥 > 0.
𝑥

4 Calcul de densité de 𝜑(𝑋 ), avec 𝜑 de classe 𝐶 1 et strictement monotone:


On obtient
1
𝑔(𝑥) = 𝑓 (𝜑 −1 (𝑥)) ′−1 .
𝜑 (𝑥))

II Moments d’une variable aléatoires à densité


1. Esperance
Définition II.1
Soit 𝑋 une variable aléatoire à densité 𝑓, telle que la fonction 𝑡 ↦ 𝑡𝑓 (𝑡) est
intégrable sur ℝ. On appelle espérance ou moyenne de 𝑋 le réel défini par
+∞
𝐸(𝑋 ) = ∫ 𝑡𝑓 (𝑡)𝑑𝑡.
−∞

Si 𝐸(𝑋 ) = 0, la variable 𝑋 est dite centrée.

Proposition II.1

Soit 𝑋 une variable aléatoire à densité 𝑓, On sous rés èrve d’existence :

𝐸(𝜆𝑋 ) = 𝜆𝐸(𝑋 )

𝐸(𝑋 + 𝑌 ) = 𝐸(𝑋 ) + 𝐸(𝑌 )

𝑋 ≤ 𝑌 ⟹ 𝐸(𝑋 ) ≤ 𝐸(𝑌 )

Cette proposition exprime que l’espérance est une forme linéaire positive ou
croissante sur l’espace vectoriel des variables aléatoires admettant une espérance.
Théorème II.1 Théorème de transfert
Soit 𝑋 une variable aléatoire à densité 𝑓 et 𝜙 une fonction continue sur un
intervalle contenant 𝑋 (Ω) alors 𝐸(𝜙(𝑋 )) existe et
+∞
𝐸(𝜙(𝑋 )) = ∫ 𝜙(𝑡)𝑓 (𝑡)𝑑𝑡
−∞

si et seulement si la fonction 𝑡 ↦ 𝜙(𝑡)𝑓 (𝑡) est intégrable sur ℝ.

3 M.LAAMOUM
II MOMENTS D’UNE VARIABLE ALÉATOIRES À DENSITÉ 2. Variance

2. Variance
Définition II.2
Soit 𝑋 une variable aléatoire à densité 𝑓, si la variable aléatoire (𝑋 − 𝐸(𝑋 ))2
admet une espérance on a
+∞
𝑉 𝑎𝑟(𝑋 ) = 𝐸((𝑋 − 𝐸(𝑋 ))2 ) = ∫ (𝑡 − 𝐸(𝑋 ))2 𝑓 (𝑡)𝑑𝑡.
−∞

L’écart-type est la racine carrée de la variance.


Si la variance vaut 1, on dit que la variable 𝑋 est réduite.

Proposition II.2

Soit 𝑋 une variable aléatoire à densité 𝑓, on a :

𝑉 𝑎𝑟(𝑋 ) = 𝐸(𝑋 2 ) − (𝐸(𝑋 ))2 .

𝑉 𝑎𝑟(𝑋 ) ≥ 0,

𝑉 𝑎𝑟(𝑎𝑋 ) = 𝑎2 𝑉 𝑎𝑟(𝑋 )

𝑉 𝑎𝑟(𝑋 + 𝑏) = 𝑉 𝑎𝑟(𝑋 ).
𝑋 −𝑚
si 𝑋 est d’espérance 𝑚 et d’écart-type 𝜎 ≠ 0, alors la variable 𝑌 = 𝜎
est centrée réduite.

Proposition II.3

Si 𝑋 et 𝑌 deux variables aléatoires indépendantes à densité et qui admettent


une variance alors :

𝑉 𝑎𝑟(𝑋 + 𝑌 ) = 𝑉 𝑎𝑟(𝑋 ) + 𝑉 𝑎𝑟(𝑌 ).

3. Moment d’ordre 𝑟
Définition II.3
Soit 𝑋 une variable aléatoire à densité 𝑓, soit 𝑟 un entier naturel ≥ 1.Si la
fonction 𝑡 ↦ 𝑡 𝑟 𝑓 (𝑡) est intégrable sur ℝ On appelle moment d’ordre 𝑟
+∞
𝐸(𝑋 𝑟 ) = ∫ 𝑡 𝑟 𝑓 (𝑡)𝑑𝑡.
−∞

On appelle moment centré d’ordre 𝑟


+∞
𝐸((𝑋 − 𝑚)𝑟 ) = ∫ (𝑡 − 𝑚)𝑟 𝑓 (𝑡)𝑑𝑡.
−∞

4. Lois usuelles
1 loi uniforme sur [𝑎, 𝑏] notée 𝒰([𝑎, 𝑏]).
Une densité de cette loi est
1
𝑓 (𝑥) = 1 .
𝑏 − 𝑎 [𝑎,𝑏]
4 M.LAAMOUM
II MOMENTS D’UNE VARIABLE ALÉATOIRES À DENSITÉ 4. Lois usuelles

On a
𝑎+𝑏 (𝑏 − 𝑎)2
𝐸(𝑋 ) = et 𝑉 𝑎𝑟(𝑋 ) = .
2 12
2 loi exponentielle de paramètre 𝜆 notée ℰ (𝜆),
Une densité est
𝑓 (𝑥) = 𝜆𝑒 −𝜆𝑥 1ℝ+ .
On a
1 1
𝐸(𝑋 ) = et 𝑉 𝑎𝑟(𝑋 ) = 2 .
𝜆 𝜆
3 loi normale 𝒩 (𝑚, 𝜎 2 )

Une densité 2
1 − 12 ( 𝑥−𝑚 )
𝑓 (𝑥) = 𝑒 𝜎
𝜎√2𝜋
On a
𝐸(𝑋 ) = 𝑚 et 𝑉 𝑎𝑟(𝑋 ) = 𝜎 2
En particulier si 𝑋 suit la loi normale 𝒩 (𝑚, 𝜎 2 ) , alors 𝑍 = 𝑋 −𝑚
𝜎
suit la loi
normale centrée réduite 𝒩 (0, 1) .
Graphe de la densité de la loi Gamma de paramètre v= 2, 3, 4.
4 loi gamma 𝛾 (𝜈) et Γ(𝑏, 𝜈)
+∞ 𝑥−1 −𝑡
On rappelle que Γ(𝑥) = ∫0 𝑡 𝑒 𝑑𝑡 pour 𝑥 > 0. 0.3

La densité de la loi 𝛾 (𝜈), 𝜈 > 0, est


1 𝜈−1 −𝑡
0.2

𝑓 (𝑡) = 𝑡 𝑒 1ℝ+ .
Γ(𝜈)
0.1

On a
𝐸(𝑋 ) = 𝜈 et 𝑉 𝑎𝑟(𝑋 ) = 𝜈.
0.0

Avec 𝜈 = 1 on retrouve la loi exponentielle de paramètre 1.


0 2 4 6
x

Si 𝑋 suit la loi 𝛾 (𝜈), alors 𝑌 = 𝑏𝑋, 𝑏 > 0, suit la loi Γ(𝑏, 𝜈). Une densité de 𝑌 est
1 𝑡 1 𝜈−1 −𝑡/𝑏
𝑓 (𝑡) = 𝑓𝑋 ( ) = 𝑡 𝑒 1ℝ+ .
𝑏 𝑏 Γ(𝜈)𝑏 𝜈
On a sans calcul
𝐸(𝑌 ) = 𝑏𝜈 et 𝑉 𝑎𝑟(𝑌 ) = 𝑏 2 𝜈.
On a Γ(𝑏, 1) est une loi exponentielle de paramètre 1/𝑏.

Remarques II.1
La loi exponentielle a une caractéristique : elle est sans mémoire c.a.d :

𝑃(𝑋 > 𝑡 + ℎ|𝑋 > 𝑡) = 𝑃(𝑋 > ℎ).

Toute variable sans mémoire à densité et à valeurs dans ℝ+ est exponentielle


En effet si 𝑋 suit une loi exponentielle de paramètre 𝜆, alors

𝑃(𝑋 > 𝑡) = 𝑒 −𝜆𝑡 ,

donc
𝑃(𝑋 > 𝑡 + ℎ, 𝑋 > 𝑡)
𝑃(𝑋 > 𝑡 + ℎ|𝑋 > 𝑡) = = 𝑒 −𝜆ℎ = 𝑃(𝑋 > ℎ).
𝑃(𝑋 > 𝑡)

5 M.LAAMOUM
III CONVERGENCES 5. Somme de variables aléatoires à densité

Réciproquement si 𝑋 est sans mémoire et à valeurs dans ℝ+ , on pose 𝑔(𝑡) =


𝑃(𝑋 > 𝑡). La propriété sans mémoire devient

𝑔(𝑡 + ℎ) = 𝑔(𝑡)𝑔(ℎ).

On montre alors que pour tout entier 𝑛, 𝑔(𝑛) = 𝑒 −𝜆𝑛 avec 𝜆 = −𝑙𝑛(𝑔(1) si
𝑔(1) > 0. Puis 𝑔(𝑝/𝑞) = 𝑒 −𝜆𝑝/𝑞 , puis avec la continuité de 𝑔 on conclut sur
ℝ+ .

5. Somme de variables aléatoires à densité


Théorème II.2
Soit 𝑋 et 𝑌 deux variables aléatoires indépendantes à densité 𝑓𝑋 et 𝑓𝑌 . Si la
fonction ℎ définie pour tout 𝑥 réel par
+∞
ℎ(𝑥) = ∫ 𝑓𝑋 (𝑡) 𝑓𝑌 (𝑥 − 𝑡)𝑑𝑡
−∞

est continue sauf peut-être un nombre fini de points, alors ℎ est une densité
de 𝑍 = 𝑋 + 𝑌.

Proposition II.4

1) Soit 𝑋𝑖 𝑛 variables aléatoires indépendantes suivant respectivement les


lois normales 𝒩 (𝑚𝑖 , 𝜎𝑖2 ), alors la somme 𝑋1 + ⋯ + 𝑋𝑛 suit la loi normale
𝑛 𝑛
𝒩 ( ∑ 𝑚𝑖 , ∑ 𝜎𝑖2 )
𝑖=1 𝑖=1

2) Soit 𝑋𝑖 𝑛 variables aléatoires indépendantes suivant respectivement les


lois gamma Γ(𝑏, 𝑎𝑖 ), alors la somme 𝑋1 + ⋯ + 𝑋𝑛 suit la loi gamma
𝑛
Γ(𝑏, ∑ 𝑎𝑖 )
𝑖=1

3) Soit 𝑋𝑖 𝑛 variables aléatoires indépendantes suivant une loi exponen-


tielle de paramètre 𝜆 soit ℰ (𝜆), alors la somme 𝑋1 + ⋯ + 𝑋𝑛 suit la loi
gamma Γ(1/𝜆, 𝑛).

III Convergences
Dans cette partie, on étudie le comportement de somme de variables aléatoires in-
dépendantes lorsque le nombre de termes tend vers l’infini.

1. Inégalité de Bienaymé-Tchebychev
Théorème III.1 Inégalité de Markov
Soit 𝑋 une variable aléatoire réelle définie sur un espace probabilisé (Ω, ℱ , 𝑃)
telle que 𝑋 (Ω) ⊂ ℝ+ et possédant une espérance 𝑚 = 𝐸(𝑋 ), alors on a

𝐸(𝑋 )
∀𝜆 > 0 𝑃 (𝑋 ≥ 𝜆) ≤ .
𝜆

6 M.LAAMOUM
III CONVERGENCES 2. Loi faible des grands nombres

Démonstration
Soit 𝑓 la densité de 𝑋.
+∞ +∞ +∞
𝐸(𝑋 ) = ∫ 𝑥𝑓 (𝑥)𝑑𝑥 ≥ ∫ 𝑥𝑓 (𝑥)𝑑𝑥 ≥ ∫ 𝜆𝑓 (𝑥)𝑑𝑥.
0 𝜆 𝜆
+∞
Or 𝑃 (𝑋 ≥ 𝜆) = ∫𝜆 𝑓 (𝑥)𝑑𝑥, d’ou le résultat.

Théorème III.2 Inégalité de Bienaymé-Tchebychev


Soit 𝑋 une variable aléatoire réelle définie sur un espace probabilisé (Ω, ℱ , 𝑃)
possédant une espérance 𝑚 = 𝐸(𝑋 ) et une variance 𝜎 2 = 𝑉 𝑎𝑟(𝑋 ), alors on a

𝜎2
∀𝜀 > 0 𝑃 (|𝑋 − 𝑚| ≥ 𝜀) ≤ .
𝜀2

Démonstration
on applique l’inégalité de Markov pour la variable 𝑌 = (𝑋 − 𝑚)2 et 𝜆 = 𝜀 2

2. Loi faible des grands nombres


Théorème III.3 Loi faible des grands nombres
Soit (𝑋𝑖 )𝑖∈𝑁 une suite de variables aléatoires réelles définies sur un espace
probabilisé (Ω, ℱ , 𝑃) indépendantes, de même loi, possédant une espérance
𝑚 = 𝐸(𝑋 ) et une variance 𝜎 2 = 𝑉 𝑎𝑟(𝑋 ). On pose
𝑛
∑ 𝑋𝑖
𝑖=1
𝑋𝑛 = .
𝑛
Alors on a
𝜎2
∀𝜀 > 0 𝑃 (|𝑋𝑛 − 𝑚| ≥ 𝜀) ≤ .
𝑛𝜀 2
Par conséquent
∀𝜀 > 0 lim 𝑃 (|𝑋𝑛 − 𝑚| ≥ 𝜀) = 0.
𝑛→∞

Démonstration
Puisque les variables sont indépendantes

𝜎2
𝐸(𝑋𝑛 ) = 𝑚 et 𝑉 𝑎𝑟(𝑋𝑛 ) = .
𝑛
On applique l’inégalité de BT et on obtient le résultat.

Définition III.1 Convergence en probabilité


Soit (𝑋𝑛 )𝑛∈𝑁 une suite de variables aléatoires réelles et 𝑋 une variable aléa-
toire réelles définies sur un espace probabilisé (Ω, ℱ , 𝑃), on dit que (𝑋𝑛 ) con-
verge en probabilité vers 𝑋 si

∀𝜀 > 0 lim 𝑃 (|𝑋𝑛 − 𝑋 | ≥ 𝜀) = 0.


𝑛→∞

7 M.LAAMOUM
III CONVERGENCES 3. Théorème de la limite centrée

Exemple III.1

Méthode de Monte Carlo pour le calcul d’ue intégrale. On souhaite calculer


1
𝐼 (𝑓 ) = ∫ 𝑓 (𝑥)𝑑𝑥
0

où 𝑓 est une fonction continue sur [0, 1]. Si les méthodes classiques ne perme-
ttent pas le calcul de 𝐼 (𝑓 ), on peut utiliser la méthode suivante : soit (𝑋𝑖 )𝑖∈𝑁
une suite de variables aléatoires réelles définies sur un espace probabilisé
(Ω, ℱ , 𝑃) suivant la loi uniforme sur [0, 1]. On pose
𝑛
∑ 𝑓 (𝑋𝑖 )
𝑖=1
𝑓= .
𝑛
1
D’après la loi des grands nombres 𝑓 tend vers 𝐸(𝑓 (𝑋 )) = ∫0 𝑓 (𝑥)𝑑𝑥 = 𝐼 (𝑓 ).
2
Comme exemple prenons 𝑓 (𝑥) = 1 𝑒 −𝑥 /2 . Avec 1000 points, une réalisa-
√2𝜋
tion a donnée 0,3417, la valeur dans les tables est 0,3413.

Définition III.2 Convergence en loi


Soit (𝑋𝑛 )𝑛∈𝑁 une suite de variables aléatoires réelles et 𝑋 une variable aléa-
toire réelles définies sur un espace probabilisé (Ω, ℱ , 𝑃), on note 𝐹𝑛 la fonc-
tion de répartition de 𝑋𝑛 et 𝐹 celle de 𝑋. on dit que (𝑋𝑛 ) converge en loi vers
𝑋 si en tout point 𝑥 où 𝐹 est continue

lim 𝐹𝑛 (𝑥) = 𝐹 (𝑥).


𝑛→∞

3. Théorème de la limite centrée


Théorème III.4 Théorème de la limite centrée
Soit (𝑋𝑛 )𝑛∈𝑁 une suite de variables aléatoires réelles définies sur un espace
probabilisé (Ω, ℱ , 𝑃) indépendantes, de même loi, possédant une espérance
𝑚 = 𝐸(𝑋 ) et une variance 𝜎 2 = 𝑉 𝑎𝑟(𝑋 ). On pose
𝑛
∑ 𝑋𝑖
𝑖=1 𝑋𝑛 − 𝑚
𝑋𝑛 = et 𝑍𝑛 = .
𝑛 𝜎 / √𝑛

Alors 𝑍𝑛 converge en loi vers une variable aléatoire réelle de loi 𝒩 (0, 1).

Remarques III.1
Ce théorème est très utile car il permet d’effectuer le calcul de :
𝑃(𝑎 < 𝑋𝑛 < 𝑏) = 𝑃(𝑎1 < 𝑍𝑛 < 𝑏1 ), on remplace alors 𝑍𝑛 par une loi normale.

8 M.LAAMOUM
III CONVERGENCES 4. Approximations

4. Approximations
Proposition III.1 Approximation de la loi binomiale par la loi normale
𝑌𝑛 −𝑛𝑝
On suppose que 𝑌𝑛 suit une loi binomiale ℬ(𝑛, 𝑝), on pose 𝑍𝑛 = , alors
√𝑛𝑝𝑞
(𝑍𝑛 ) converge en loi vers une variable aléatoire réelle de loi 𝒩 (0, 1).

Démonstration
On applique TLC à des variables 𝑋𝑛 suivant une loi de Bernoulli ℬ(1, 𝑝). Pra-
tiquement, pour 𝑛 ≥ 30, 𝑛𝑝 < 15 et 𝑛𝑝𝑞 < 5, on approche la loi binomiale
ℬ(𝑛, 𝑝) par la loi normale 𝒩 (𝑛𝑝, 𝑛𝑝𝑞).

Proposition III.2 Approximation de la loi de Poisson par la loi normale


𝑋𝑛 −𝑛𝑝
On suppose que 𝑌𝑛 suit une loi de poisson 𝒫 (𝑛𝑝), on pose 𝑍𝑛 = , alors
√𝑛𝑝
(𝑍𝑛 ) converge en loi vers une variable aléatoire réelle de loi 𝒩 (0, 1).
clous boules
Démonstration
On applique TLC à des variables 𝑋𝑛 suivant une loi de Poisson 𝒫 (𝑝).
Pratiquement, pour 𝜆 ≥ 15, on considère que 𝒫 (𝜆) suit 𝒩 (𝜆, 𝜆).

5. Correction de continuité
Lorsque l’on approche une loi discrète par une loi continue, il est nécessaire de
remplacer chaque valeur prise par 𝑋 discrète par un intervalle car 𝑃(𝑋𝑑𝑖𝑠𝑐𝑟𝑒𝑡𝑒 ̀ = 𝑘) =
𝑃(𝑋𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑒 = 𝑘) = 0 !
Soit 𝑋𝑑 une variable discrète à valeurs dans {0, ⋯ , 𝑛}, on l’approche par une vari-
able continue 𝑋𝑐 , on a:

∀1 ≤ 𝑖 ≤ 𝑛 𝑃(𝑋𝑑 = 𝑖) = 𝑃(𝑖 − 1/2 < 𝑋𝑐 < 𝑖 + 1/2)

et Planche de Galton
𝑃(𝑋𝑑 = 0) = 𝑃(0 < 𝑋𝑐 < 1/2) 𝑃(𝑋𝑑 = 𝑛) = 𝑃(𝑛 − 1/2 < 𝑋𝑐 < 𝑛).

Par exemple soit 𝑋 de loi ℬ(50; 0, 4), 𝑃(𝑋 = 25) = (50 25 25


25)(0, 4) (0, 6) ∼ 0, 0405.
On approche 𝑋 avec la loi normale 𝒩 (20, 12), 𝑃(𝑋 = 25) = 𝑃(24, 5 < 𝑋 < 25, 5)
.
Or
24, 5 − 20 𝑋 − 20 25, 5 − 20
0.12

𝑃(24, 5 < 𝑋 < 25, 5) = 𝑃( < < ),


2 √3 2 √3 2 √3
0.10

comme 𝑋 −20 suit une loi normale centrée réduite:


0.08

2√3
0.06

25, 5 − 20 24, 5 − 20
𝑃(24, 5 < 𝑋 < 25, 5) = Φ( ) − Φ( ),
0.04

2 √3 2√3
0.02

où Φ est la fonction de répartition de la loi normale centrée réduite, d’où


0.00

F 0 5 10 15 20
X

𝑃(24, 5 < 𝑋 < 25, 5) = Φ(1, 588) − Φ(1, 299) = 0, 0408. Approximation d’une loi B(100, 0.1) par une loi N (10, 9).

9 M.LAAMOUM
Probabilités : Chapitre 4 Exercices

Exercices corrigés : Variables aléatoires à densité


Exercice 1:
Déterminer si les fonctions suivantes sont des densités de probabilité et si oui déterminer la fonction
de répartition de la VAR associée à cette densité.
( 
0 si t < 0 0 si t < 0
1. g(t) = −2t 2. u(t) = 3 2
4te si t > 0  e−t/2 1 − e−t/2

si t > 0
2

0 si t < 0
3. f (t) = 1 −t On pensera au changement de variable u = e−t .
 e ln(1 + et ) si t > 0
2 ln 2

Exercice 2: 
0 si t ∈]1;
/ 2]
Soit f la fonction définie sur R par : f (t) = a
√ si t ∈]1; 2]
t−1
Déterminer a pour que f soit une densité de probabilité

Exercice 3:
Déterminer si les fonctions suivantes sont les fonctions de répartition d’une variable à densité. Si oui,
en donner une densité.
1

0 si x < 0 2. ∀x ∈ R, F (x) = 1 −
1. F (x) =  x 2 −x
 1 + ex
1 − 1 + e si x > 0
2

Exercice 4: (
0 si x < 0
Soit X une VAR dont la fonction de répartition F est définie par : F (x) = 2
1 − e−x /2 si x > 0
Montrer que X est une variable à densité et déterminer une densité de X.

Exercice 5:
Calculer, si elle existe, l’espérance de la variable X dont une densité est :
( 
0 si t < 0 0 si t < 1
1. g(t) = 2. h(t) = 4 ln t
4te−2t si t > 0  si t > 1
t3

Exercice 6: 
 4 (1 − x)1/3 si 0 6 x 6 1
On considère la fonction f définie par : f (x) = 3
0 sinon
1. Montrer que f est la densité d’une variable aléatoire Y .
2. Déterminer la fonction de répartition F de la variable Y . Construire sa représentation graphique
dans un repère orthonormal.
3. Calculer l’espérance de la variable Y .
4. Calculer la probabilité de l’événement [0, 488 < Y 6 1, 2]

Probabilités : Chapitre 4 Exercices Page 1 Variables aléatoires à densité


Exercice 7:
Reprendre l’exercice 5 et calculer, si elle existe, la variance de la variable aléatoire associée aux densités
données.

Exercice 8:
Soit X une VAR qui suit une loi uniforme sur [a; b]. Montrer que X admet une variance et la calculer.

Exercice 9:
On suppose que la distance en mètres parcourue par un javelot suit une loi normale. Au cours d’un
entrainement, on constate que :
– 10% des javelots atteignent plus de 75 mètres.
– 25% des javelots parcourent moins de 50 mètres.
Calculer la longueur moyenne parcourue par un javelot ainsi que l’écart-type de cette longueur.
On donne au dos la table de valeurs de la fonction de répartition de la loi N (0, 1).

Exercice 10:
Soit X une variable aléatoire suivant la loi exponentielle E(λ).

1. Déterminer la loi de la variable aléatoire Y = X.
2. Déterminer une densité de X 2 .
3. Déterminer une densité de X 3 .

Exercice 11:
Soit X une variable aléatoire à densité dont la fonction de répartition F est strictement croissante.
Déterminer la loi de la variable aléatoire Y = F (X).

Exercice 12:
Soit X une variable aléatoire dont une densité est la fonction f définie sur R par :
(
e−|x| si − ln 2 6 x 6 ln 2
f (x) =
0 sinon

1. Déterminer la fonction de répartition F de X.


2. On pose Y = |X|. Déterminer la fonction de répartition G de Y puis montrer que Y est une variable
à densité et donner une densité de Y .

Exercice 13:
Soit X une VAR admettant une densité f . On suppose que X prends ses valeurs dans R+ . Soit Y = [X]
(partie entière de X)
1. Déterminer la loi de Y .
2. a) Montrer que E(Y ) existe si et seulement si E(X) existe.
b) Montrer que si E(X) existe alors : E(Y ) 6 E(X) 6 E(Y ) + 1.

Probabilités : Chapitre 4 Exercices Page 2 Variables aléatoires à densité


Exercice 14:
Après enquête, on estime que le temps de passage à une caisse, exprimé en unités de temps, est une
variable aléatoire T dont une densité de probabilité est donnée par la fonction f définie par :
(
xe−x si x > 0
f (x) =
0 si x < 0

1. Rappeler la définition d’une densité de probabilité d’une variable aléatoire X suivant une loi expo-
nentielle de paramètre λ = 1. Donner la valeur de l’espérance et de la variance de X.
2. Utiliser la question précédente pour vérifier que f est bien une densité de probabilité, puis montrer
que T admet une espérance que l’on déterminera.
Quel est le temps moyen de passage en caisse ?
3. a) Démontrer que la fonction de répartition de T , notée FT est définie par :
(
0 si x < 0
FT (x) = −x
1 − (x + 1)e si x > 0

b) Montrer que la probabilité que le temps de passage en caisse soit inférieur à deux unités(de temps)
2e − 3
sachant qu’il est supérieur à une unité est égale à .
2e
4. Un jour donné, trois clients A, B, C se présentent simultanément devant deux caisses libres. Par
courtoisie, C décide de laisser passer A et B et de prendre la place du premier d’entre eux qui aura
terminé. On suppose que les variables TA et TB correspondant au temps de passage en caisse de A
et B sont indépendantes.
a) M désignant le temps d’attente du client C exprimer M en fonction de TA et TB .
b) Montrer que la fonction de répartition de la variable aléatoire M est donnée par :
(
0 si t < 0
P (M 6 t) =
1 − (1 + t)2 e−2t si t > 0

c) Prouver que M est une variable à densité et expliciter une densité de M.

Probabilités : Chapitre 4 Exercices Page 3 Variables aléatoires à densité


Correction
Exercice 1:
1. (i) On remarque tout d’abord que g est bien une fonction positive car 0 > 0 et pour t > 0,
4te−2t > 0.
(ii) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction
t → 4te−2t est continue sur ]0; +∞[. Donc g est continue sur R∗ .
De plus lim g = 0 = lim+
g = g(0) donc g est en fait continue sur R.
0
− 0
(Dans notre théorème il suffit que la fonction soit continue sauf éventuellement en un nombre
fini de points donc nous ne sommes pas obligés de vérifier la continuité de g en 0.)
Z 0
(iii) Comme g est nulle sur ] − ∞; 0[, l’intégrale g(t) dt est convergente et vaut 0.
−∞
Z +∞
Sur [0; +∞[, g est continue donc l’intégrale g(t) dt ne pose problème qu’en +∞.
0
Soit A > 0, par intégration par parties :
Z A Z A
−2t −2t A
2e−2t dt = −2Ae−2A − e−2A + 1
 
4te dt = −2te 0
+
0 0

Z +∞
−2A −2A
Or lim − 2Ae −e + 1 = 1 donc l’intégrale g(t) dt est convergente et vaut 1.
A→+∞ 0
Z +∞
En conclusion g(t) dt est convergente et vaut 1.
−∞
g est une densité de probabilité.
Z x
Soit X une VAR de densité g. Notons G sa fonction de répartition. Par définition G(x) = g(t) dt.
−∞
Z x
Si x < 0 alors G(x) = 0 dt = 0.
−∞
Z 0 Z x
Si x > 0 alors G(x) = 0 dt + 4te−2t dt = 0 − 2xe−2x − e−2x + 1 = 1 − (2x + 1)e−2x . (Inutile de
−∞ 0
refaire le calcul, il a été fait dans le point (iii).)
(
0 si x < 0
G(x) =
1 − (2x + 1)e−2x si x > 0
2. (i) On remarque tout d’abord que u est bien une fonction positive car 0 > 0 et pour t > 0,
3 −t/2 2
e 1 − e−t/2 > 0.
2
(ii) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction
3 2
t → e−t/2 1 − e−t/2 est continue sur ]0; +∞[. Donc u est continue sur R∗ .
2
De plus lim u = 0 = lim u = u(0) donc u est en fait continue sur R.
0− 0+
Z 0
(iii) Comme u est nulle sur ] − ∞; 0[, l’intégrale u(t) dt est convergente et vaut 0.
−∞
Z +∞
Sur [0; +∞[, u est continue donc l’intégrale u(t) dt ne pose problème qu’en +∞.
0
Soit A > 0 :
A
3 −t/2
Z
2 A
1 − e−t/2 dt = (1 − e−t/2 )3 0 = (1 − e−A/2 )3

e
0 2

Probabilités : Chapitre 4 Exercices Page 5 Variables aléatoires à densité


Z +∞
−A/2 3
Or lim (1 − e ) = 1 donc l’intégrale u(t) dt est convergente et vaut 1.
A→+∞ 0
Z +∞
En conclusion u(t) dt est convergente et vaut 1.
−∞
u est une densité de probabilité.
Z x
Soit X une VAR de densité u. Notons U sa fonction de répartition. Par définition U(x) = u(t) dt.
Z x −∞

Si x < 0 alors U(x) = 0 dt = 0.


−∞
Z 0 Z x
3 −t/2 2
Si x > 0 alors U(x) = 0 dt + e 1 − e−t/2 dt = (1 − e−x/2 )3 . (Inutile de refaire le calcul,
−∞ 0 2
il a été fait dans le point (iii).)
(
0 si x < 0
U(x) = −x/2 3
(1 − e ) si x > 0
3. (i) On remarque tout d’abord que f est bien une fonction positive car 0 > 0 et pour t > 0,
1 −t
e ln(1 + et ) > 0.
2 ln 2
(ii) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction
1 −t
t→ e ln(1 + et ) est continue sur ]0; +∞[. Donc f est continue sur R∗ .
2 ln 2
f est donc continue sur R∗ .
Z 0
(iii) Comme f est nulle sur ] − ∞; 0[, l’intégrale f (t) dt est convergente et vaut 0.
−∞
Z +∞
Sur [0; +∞[, f est continue donc l’intégrale f (t) dt ne pose problème qu’en +∞.
0
Soit A > 0, grâce au changement de variable u = e−t (qui nous donne t = − ln(u) et donc
1
dt = − du) :
u
Z A Z e−A Z e−A 
1 −1 −1
  
1 −t t 1 1+u
e ln(1 + e ) dt = u ln 1 + du = ln du
0 2 ln 2 2 ln 2 1 u u 2 ln 2 1 u
Z e−A
−1
= (ln(1 + u) − ln(u)) du
2 ln 2 1
−1
[(1 + u) ln(1 + u) − (1 + u) − u ln(u) + u]e1
−A
=
2 ln 2
−1
(1 + e−A ) ln(1 + e−A ) − 1 − e−A ln(e−A ) − 2 ln 2 + 1

=
2 ln 2
(1 + e−A ) ln(1 + e−A ) Ae−A
=1− −
2 ln 2 2 ln 2
Z +∞
(1 + e−A ) ln(1 + e−A ) Ae−A
Or lim 1 − − = 1 donc l’intégrale f (t) dt est convergente
A→+∞ 2 ln 2 2 ln 2 0
et vaut 1. Z +∞
En conclusion f (t) dt est convergente et vaut 1.
−∞
f est une densité de probabilité.
Z x
Soit X une VAR de densité f . Notons F sa fonction de répartition. Par définition F (x) = f (t) dt.
Z x −∞

Si x < 0 alors F (x) = 0 dt = 0.


−∞

Probabilités : Chapitre 4 Exercices Page 6 Variables aléatoires à densité


0 x
1 −t (1 + e−x ) ln(1 + e−x ) xe−x
Z Z
Si x > 0 alors F (x) = 0 dt+ e ln(1 + et ) dt = 1 − − . (Inutile
−∞ 0 2 ln 2 2 ln 2 2 ln 2
de refaire le calcul, il a été fait dans le point (iii).)

0 si x < 0
F (x) = −x −x −x
1 − (1 + e ) ln(1 + e ) − xe si x > 0
2 ln 2 2 ln 2

Exercice 2:
(i) On remarque tout d’abord que pour que f soit bien une fonction positive il faut que a > 0 car 0 > 0
a
et pour t ∈]1; 2], √ > 0 ⇔ a > 0.
t−1
a
(ii) La fonction nulle est continue sur ] − ∞; 1]∪]2; +∞[ et la fonction t → √ est continue sur ]1; 2]
t−1
pour toute valeur de a.
Quelle que soit la valeur de a, f est continue sur R \ {1; 2}.
Z 1 Z +∞
(iii) Comme f est nulle sur ] − ∞; 1]∪]2; +∞[, les intégrales f (t) dt et f (t) dt sont convergentes
−∞ 2
et valent 0. Z 2
Sur ]1; 2], f est continue donc l’intégrale f (t) dt ne pose problème qu’en 1.
1
Soit 1 < A 6 2, :
a 2  √ √
Z
2

dt = 2a t − 1 A = 2a − 2a A − 1
A t−1

Z 2
Or lim 2a − 2a A − 1 = 2a donc l’intégrale f (t) dt est convergente et vaut 2a.
A→1 1
Z +∞
En conclusion f (t) dt est convergente et vaut 2a.
−∞

1
Pour que f soit une densité de probabilité il faut donc que a = .
2

Exercice 3:
1. (i) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction
 x 2 −x
x→1− 1+ e est continue sur ]0; +∞[. Donc F est continue sur R∗ .
2
De plus lim F = 0 = lim+
F = F (0) donc F est en fait continue sur R.
0
− 0
(ii) Pour les même raisons que la continuité sur R∗ , F est de classe C 1 su R∗ .
(iii) Sur ] − ∞; 0[, F est constante donc croissante.
 x  −x  x 2 −x x x  −x
Sur ]0; +∞[, F ′ (x) = − 1 + e + 1+ e = 1+ e . Donc pour x > 0,

2 2 2 2
F (x) > 0 et donc F est croissante sur ]0; +∞[.
F est croissante sur ] − ∞; 0[ et sur ]0; +∞[ et comme F est continue sur R, F est croissante
sur R.
 x 2 −x
(iv) lim F (x) = lim 0 = 0 et grâce aux croissances comparées, lim 1+ e = 0 donc
x→−∞ x→−∞ x→+∞ 2
lim F (x) = 1.
x→+∞

F est bien la fonction de répartition d’une variable à densité X.

Probabilités : Chapitre 4 Exercices Page 7 Variables aléatoires à densité


(
0 si x < 0
Une densité de X est par exemple f (x) = x  x  −x .
1+ e si x > 0
2 2
Il suffit de prendre la dérivée de F pour obtenir une densité.
2. (i) La fonction x → 1 + ex est de classe C ∞ sur R et ne s’annule pas sur R. Donc F est de classe
C ∞ sur R et donc en particulier continue sur R.
(ii) Pour les même raisons que la continuité sur R, F est de classe C 1 su R.
ex
(iii) Pour tout réel x, F ′ (x) = . Donc pour x ∈ R, F ′ (x) > 0 et donc F est croissante sur
(1 + ex )2
R.
1
(iv) lim F (x) = lim 1 − = 1 − 1 = 0 et lim F (x) = 1 − 0 = 1.
x→−∞ x→−∞ 1 + ex x→+∞

F est bien la fonction de répartition d’une variable à densité X.


ex
Une densité de X est par exemple f (x) = .
(1 + ex )2

Exercice 4:
(i) La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction x →
2
1 − e−x /2 est continue sur ]0; +∞[. Donc F est continue sur R∗ .
De plus lim F = 0 = lim
+
F = F (0) donc F est en fait continue sur R.
0
− 0
(ii) La fonction nulle est de classe C 1 sur ] − ∞; 0[ et par produit de fonctions de classe C 1 , la fonction
2
x → 1 − e−x /2 est de classe C 1 sur ]0; +∞[. Donc F est de classe C 1 sur R∗ .
X est donc une variable à densité.
Pour obtenir une densité il suffit de dériver(F là où F est dérivable.
0 si x < 0
Une densité de X est par exemple f (x) = 2 .
xe−x /2 si x > 0

Exercice 5:
Z 0
1. Comme t → t g(t) est nulle sur ] − ∞; 0[, l’intégrale t g(t) dt est absolument convergente et vaut
−∞
0. Z +∞
Sur [0; +∞[, t → |t g(t)| est continue donc l’intégrale |t g(t)| dt ne pose problème qu’en +∞.
0
Soit A > 0, par intégration par parties :
Z A Z A Z A Z A
2 −2t 2 −2t A −2t 2 −2A
4te−2t dt
 
|t g(t)| dt = 4t e dt = −2t e 0
+ 4te dt = −2A e +
0 0 0 0
Z A
Dans l’exercice 1 on a calculé : 4te−2t dt = −2Ae−2A − e−2A + 1
0
Z A
Donc |t g(t)| dt = −2A2 e−2A − 2Ae−2A − e−2A + 1.
0
Z +∞
2 −2A −2A −2A
Or lim −2A e −2Ae −e +1 = 1 donc l’intégrale t g(t) dt est absolument convergente
A→+∞ 0
et vaut 1. Z +∞
En conclusion t g(t) dt est absolument convergente et vaut 1.
−∞

X admet donc une espérance et E(X) = 1.

Probabilités : Chapitre 4 Exercices Page 8 Variables aléatoires à densité


Z 1
2. Comme t → t h(t) est nulle sur ] − ∞; 1[, l’intégrale t h(t) dt est absolument convergente et vaut
−∞
0. Z +∞
Sur [1; +∞[, t → |t h(t)| est continue donc l’intégrale |t h(t)| dt ne pose problème qu’en +∞.
1
Soit A > 1, par intégration par parties :
A A  A Z A
4 ln(t) 4 ln(t) 4 4 ln(A) 4
Z Z
|t h(t)| dt = 2
dt = − + 2
dt = − − +4
1 1 t t 1 1 t A A
Z +∞
4 ln(A) 4
Or lim − − + 4 = 4 donc l’intégrale t h(t) dt est absolument convergente et vaut
A→+∞ A A 1
4. Z +∞
En conclusion |t h(t)| dt est convergente et vaut 4.
−∞

X admet donc une espérance et E(X) = 4.

Exercice 6:
1. (i) Pour x 6∈ [0; 1] on a f (x) = 0 > 0 et si x ∈ [0; 1], (1 − x) > 0 donc f (x) > 0.
f est bien une fonction à valeurs positives.
(ii) f est bien continue sur ] − ∞; 0[ et sur ]1; +∞[ car f est la fonction nulle sur ces intervalles.
Sur ]0; 1[ f est la composée de fonction continues donc f est continue.
f est donc continue sur R \ {0; 1}.
Z 0 Z +∞
(iii) Les intégrales f (x) dx et f (x) dx sont convergentes car f est nulle sur ces intervalles
−∞ 1
et ces intégrales valent 0.
Z 1
Sur [0; 1] la fonction f est continue donc l’intégrale f (x) dx est convergente. De plus :
0
Z 1 1
f (x) dx = −(1 − x)4/3 0 = 1

0

Z +∞ Z +∞
Donc f (x) dx est convergente et f (x) dx = 1
−∞ −∞
f est bien une densité de probabilité.
Z x
2. Par définition F (x) = f (t) dt.
−∞
Z x
• Si x < 0, F (x) = 0 dt = 0.
−∞
Z 0 Z x Z x
4
• Si 0 6 x 6 1, F (x) = f (t) dt + f (t) dt = (1 − t)1/3 dt = 1 − (1 − x)4/3 .
3
Z 0 −∞ Z 1 0 Z x 0 Z 1
4
• Si x > 1, F (x) = f (t) dt + f (t) dt + f (t) dt = (1 − t)1/3 dt = 1.
−∞ 0 1 0 3

0
 si x < 0
F (x) = 1 − (1 − x) 4/3
si 0 6 x 6 1

1 si x > 1

Probabilités : Chapitre 4 Exercices Page 9 Variables aléatoires à densité


1.0

0.5

−1 1
Z +∞
3. Pour les mêmes raisons qu’à la question 1, l’intégrale xf (x) dx est absolument convergente donc
−∞
Y admet une espérance et :
Z +∞ Z 1
4
E(Y ) = xf (x) dx = x(1 − x)1/3 dx
−∞ 0 3
Z 1  1
 4/3 1
 4/3 3 7/3 3
= −x(1 − x) 0
+ (1 − x) dx = − (1 − x) =
0 7 0 7

3
E(Y ) =
7
4. P (0, 488 < Y 6 1, 2) = F (1, 2) − F (0, 488) = 1 − 1 + (1 − 0, 488)4/3 = (0, 512)4/3 = 0, 4096

Exercice 7:
1. On a déjà vu que X admet une espérance et que E(X) = 1. Montrons maintenant que X admet un
moment d’ordre 2. Z 0
2
t → t g(t) est nulle sur ] − ∞; 0[, l’intégrale t2 g(t) dt est absolument convergente et vaut 0.
−∞
Z +∞
2 2
Sur [0; +∞[, t → |t g(t)| = t g(t) est continue donc l’intégrale t2 g(t) dt ne pose problème
0
qu’en +∞.
Soit A > 0, par intégration par parties :
Z A Z A A A
3
Z Z
2 3 −2t 3 −2t A 2 −2t 3 −2A
4t2 e−2t dt
 
t g(t) dt = 4t e dt = −2t e 0
+ 6t e dt = −2A e +
0 0 0 2 0

Z A
On a déjà calculé dans l’exercice 5 : 4t2 e−2t dt = −2A2 e−2A − 2Ae−2A − e−2A + 1.
0
Z A
3 3
Donc t2 g(t) dt = −2A3 e−2A − 3A2 e−2A − 3Ae−2A − e−2A + .
0 2 2
3 3 3
Or lim − 2A3 e−2A − 3A2 e−2A − 3Ae−2A − e−2A + = .
A→+∞ 2 2 2
Z +∞
3
Donc t2 g(t) dt converge absolument et E(X 2 ) = .
−∞ 2
3 1
On a donc V (X) = E(X 2 ) − E(X)2 = − 1 =
2 2

Probabilités : Chapitre 4 Exercices Page 10 Variables aléatoires à densité


2. On a déjà vu que X admet une espérance et que E(X) = 4. Montrons maintenant que X admet un
moment d’ordre 2. Z 1
2
Comme t → t h(t) est nulle sur ] − ∞; 1[, l’intégrale t2 h(t) dt est absolument convergente et
−∞
vaut 0. Z +∞
2 2
Sur [1; +∞[, t → |t h(t)| = t h(t) est continue donc l’intégrale t2 h(t) dt ne pose problème
1
qu’en +∞.
Soit A > 1 :
A A
4 ln(t)
Z Z
2
A
dt = 2(ln(t))2 1 = 2(ln(A))2

t h(t) dt =
1 1 t
Z +∞
Or lim 2(ln(A))2 = +∞ donc l’intégrale t2 h(t) dt est divergente.
A→+∞ 1
X n’admet donc pas de moment d’ordre 2 et donc X n’admet pas de variance.

Exercice 8:
On rappelle qu’une densité d’une variable aléatoire X qui suit une loi uniforme sur [a; b] est :

 1

si x ∈ [a; b]
f (t) = b − a
0 sinon

a+b
On sait déjà que X admet une espérance et que E(X) = .
2
Montrons que X admet un moment d’ordre 2. Z a Z +∞
2
2
t → t f (t) est nulle sur ] − ∞; a[ et sur ]b; +∞[ donc les intégrales t f (t) dt et t2 f (t) dt sont
−∞ b
convergentes et valent 0. Z b
2
De plus t → t f (t) est continue sur [a; b] donc t2 f (t) dt est convergente.
a
X admet donc un moment d’ordre 2 et :
b  3 b
t2 1 t b3 − a3 b2 + ab + a2
Z
2
E(X ) = dt = = =
a b−a b − a 3 a 3(b − a) 3
car b − a = (b − a)(b + ab + a2 ) (division euclidienne).
3 3 2

X admet donc une variance et


b2 + ab + a2 (a + b)2
V (X) = E(X 2 ) − E(X 2 ) = −
3 4
2 2 2 2
4(b + ab + a ) − 3(a + 2ab + b ) a2 − 2ab + b2
= =
12 12
(b − a)2
=
12

Exercice 9:
Notons X la VAR égale à la distance parcourue par le javelot. D’après l’énoncé, X suit une loi normale
de paramètres m et σ.
Le but de cet exercice est de trouver m et σ.
L’énoncé nous dit que :

P (X > 75) = 0, 1 et P (X < 50) = 0, 25

Probabilités : Chapitre 4 Exercices Page 11 Variables aléatoires à densité


X−m
On sait d’après le cours que lorsque X suit une loi normale de paramètres m et σ alors X ∗ =
σ
suit une loi normale de paramètres 0 et 1.
X −m 75 − m 75 − m
   
Or P (X > 75) = P (X − m > 75 − m) = P > = P X∗ > = 1−
σ σ σ
75 − m
 
Φ .
σ
75 − m 75 − m
   
On a donc 1 − Φ = 0, 1 ⇔ Φ = 0, 9.
σ σ
75 − m
D’après la table de valeurs on a donc ≈ 1, 28.
σ
50 − m
 
De même P (X < 50) = Φ = 0, 25.
σ
Dans la tableon ne trouve
 pas la valeur 0,25 donc  on va utiliser une astuce : Φ(−t) = 1 − Φ(t).
 petite 
50 − m m − 50 m − 50
On a donc Φ = 0, 25 ⇔ 1 − Φ = 0, 25 ⇔ Φ = 0, 75.
σ σ σ
m − 50
On déduit de la table de valeur que ≈ 0, 67.
σ
Il nous faut donc maintenant résoudre le système :

 75 − m ≈ 1, 28
  
σ 75 − m ≈ 1, 28σ m ≈ 58, 59
m − 50 ⇔ ⇔

 ≈ 0, 67 m − 50 ≈ 0, 67σ σ ≈ 12, 82
σ

La longueur moyenne parcourue par le javelot est 58, 69 et l’écart type est 12, 82.

Exercice 10:
On rappelle que la fonction de répartition d’une VAR X qui suit un loi exponentielle de paramètre λ
est donnée par :
(
0 si x < 0
F (x) =
1 − e−λx si x > 0

1. Notons G la fonction de répartition de Y . Par définition G(x) = P (Y 6 x) = P ( X 6 x).

• Si x < 0, P ( X 6 x) = 0.
√ 2
• Si x > 0, P ( X 6 x) = P (X 6 x2 ) = F (x2 ) = 1 − e−λx
(
0 si x < 0
On a donc G(x) = −λx2
.
1−e si x > 0
On montre facilement que G est continue sur R et de classe C 1 sur R∗ donc G est la fonction de
répartition d’une variable à densité et une densité de Y est par exemple :
(
0 si x < 0
g(x) = 2
2λxe−λx si x > 0

2. On pose Z = X 2 et on note H la fonction de répartition de Z.


Par définition H(x) = P (Z 6 x) = P (X 2 6 x).
• Si x < 0, P (X 2 6 x) = 0.
√ √ √ √ √ √
• Si x > 0, P (X 2 6 x) = P (− x 6 X 6 x) = F ( x) − F (− x) = 1 − e−λ x car F (− x) = 0.
(
0 si x < 0
On a donc H(x) = √
−λ x
.
1−e si x > 0

Probabilités : Chapitre 4 Exercices Page 12 Variables aléatoires à densité


H est continue sur R et de classe C 1 sur R∗ donc Z est une variable à densité et une densité de Z
est par exemple : 
0 si x 6 0
h(x) = λ −λ√x
 √ e si x > 0
2 x
3. On note T la fonction de répartition de X 3 .
Par définition T (x) = P (X 3 6 x).
• Si x < 0, P (X 3 6 x) = 0.
1/3
• Si x > 0, P (X 3 6 x) = P (X 6 x1/3 ) = F (x1/3 ) = 1 − e−λx .
(
0 si x < 0
On a donc T (x) = 1/3 .
1 − e−λx si x > 0
T est continue sur R et de classe C 1 sur R∗ donc X 3 est une variable à densité et une densité de X 3
est par exemple : 
0 si x 6 0
t(x) = λ −λx1/3
 e si x > 0
3x2/3

Exercice 11:
F est strictement croissante d’après les hypothèses de l’énoncé et est continue sur R car c’est la fonction
de répartition d’une variable à densité. Donc d’après le théorème de bijection monotone, F réalise une
bijection de R sur ]lim F ; lim F [=]0; 1[.
−∞ +∞
On note G fonction de répartition de la VAR Y = F (X).
Par définition G(x) = P (Y 6 x) = P (F (X) 6 x).
• Si x < 0 alors G(x) = 0 (il est impossible d’avoir F (X) < 0)
• Si x > 1 alors G(x) = 1 car l’événement [F (X) 6 1] est certain.
• Si 0 6 x 6 1 alorsG(x) = P (X 6 F −1 (x)) = F (F −1 (x)) = x.
0 si x < 0

On a donc G(x) = x si 0 6 x 6 1 .

1 si x > 1

On reconnait ici la fonction de répartition d’une VAR qui suit une loi uniforme sur [0; 1].
F (X) suit une loi uniforme sur [0; 1].

Exercice 12: Z x
1. Par définition F (x) = P (X 6 x) = f (t) dt.
Z x −∞

• Si x < − ln 2 alors F (x) = 0 dt = 0.


−∞
• Si − ln 2 6 x < 0 alors
− ln 2 x
1
Z Z
 x
F (x) = 0 dt + e−(−t) dt = et − ln 2 = ex −
−∞ − ln 2 2
• Si 0 6 x 6 ln 2 alors
Z − ln 2 0 x
1 3
Z Z
−(−t)
 0 x
e−t dt = et − ln 2 + −e−t 0 = 1 − − e−x + 1 = − e−x

F (x) = 0 dt + e dt +
−∞ − ln 2 0 2 2
• Si x > ln 2 alors
Z − ln 2 Z 0 Z ln 2 Z x
−(−t) −t
 0 ln 2
0 dt = et − ln 2 + −e−t 0 = 1

F (x) = 0 dt + e dt + e dt +
−∞ − ln 2 0 ln 2

Probabilités : Chapitre 4 Exercices Page 13 Variables aléatoires à densité




 0 si x < − ln 2
ex − 1


si − ln 2 6 x < 0

On a donc F (x) = 3 2

 − e−x si 0 6 x 6 ln 2
2



1 si x > ln 2

2. Par définition G(x) = P (Y 6 x) = P (|X| 6 x).


• Si x < 0 alors G(x) = 0
• Si x > 0 alors P (|X| 6 x) = P (−x 6 X 6 x) = F (x) − F (−x).
3 1
Donc si x > ln 2, G(x) = 1 − 0 = 1 et si 0 6 x 6 ln 2 alors G((x) = − e−x − e−x + = 2(1 − e−x )
 2 2
0
 si x < 0
−x
On a donc G(x) = 2(1 − e ) si 0 6 x 6 ln 2 .

1 si x > ln 2

On montre facilement que G est une fonction continue sur R et de classe C 1 sur R \ {0, ln 2}.
Y est donc bien une variable à densité et une densité de Y est par exemple
(
2e−x si x ∈ [0; ln 2]
g(x) =
0 sinon

Exercice 13:
1. Y (Ω) = N et pour tout k ∈ N :
Z k+1
P (Y = k) = P ([X] = k) = P (k 6 X < k + 1) = f (t) dt
k

2. a) On a ici une équivalence à démontrer donc on va montrer les deux implications.


•⇒:
X Z k+1
Si E(Y ) existe alors k f (t) dt est convergente.
k
Z +∞
On veut montrer que tf (t) dt est convergente car on sait que f est nulle sur ] − ∞; 0[ donc
Z 0 0

tf (t) dt est convergente et vaut 0.


−∞
Z +∞ +∞ Z
X k+1
Or on remarque que s’il y a convergence : tf (t) dt = tf (t) dt. Montrons donc plutôt
0 k=0 k
+∞ Z
X k+1
que tf (t) dt est convergente.
k=0 k
Z k+1 Z k+1
On a ∀t ∈ [k; k + 1], tf (t) 6 (k + 1)f (t) = kf (t) + f (t) donc tf (t) dt 6 k f (t) dt +
Z k+1 k k

f (t) dt.
k
X Z k+1 XZ k+1 Z +∞
On sait que k f (t) dt converge et de plus f (t) dt converge car f (t) dt converge
k k 0
et vaut 1.Z
X k+1 Z +∞
Donc tf (t) dt est convergente et ainsi tf (t) dt est convergente.
k 0

Probabilités : Chapitre 4 Exercices Page 14 Variables aléatoires à densité


X admet donc une espérance.
•⇐:
XZ k+1
Si E(X) existe alors tf (t) dt est convergente.
k
Z k+1 Z k+1 X Z k+1
Or on a k f (t) dt 6 tf (t) dt donc k f (t) dt est convergente et ainsi Y admet
k k k
une espérance.
b) Supposons que E(X) existe (alors E(Y ) existe). On a vu que
Z k+1 Z k+1 Z k+1 Z k+1
k f (t) dt 6 tf (t) dt 6 k f (t) dt + f (t) dt
k k k k
+∞
X Z k+1 +∞ Z
X k+1 +∞ Z
X k+1 +∞ Z
X k+1
⇒ k f (t) dt 6 tf (t) dt 6 k f (t) dt + f (t) dt
k=0 k k=0 k k=0 k k=0 k
⇒E(Y ) 6 E(X) 6 E(Y ) + 1

Exercice 14: ECRICOME 2007


1. Une densité d’une variable aléatoire suivant une loi exponentielle de paramètre 1 est
(
0 si x < 0
g(t) =
e−x si x > 0

De plus on a E(X) = 1 et V (X) = 1.


2. La fonction f est nulle sur ] − ∞; 0[ donc sur cet intervalle c’est une fonction continue et positive.
Sur ]0; +∞[ f est le produit de deux fonction continue sur ce même intervalle donc f est continue
sur ]0; +∞[. De plus sur cet intervalle x est positif et l’exponentielle est toujours positive, donc f est
positive sur cet intervalle.
De plus lim
+
f = lim f = 0 = f (0) donc f est continue en 0.
0 − 0
Ainsi f est une fonction continue et positive sur R.
Z +∞
Il nous reste à étudier la convergence et la valeur de l’intégrale f (x) dx. Or on remarque que
Z +∞ Z +∞ −∞

f (x) dx = xg(x) dx et comme on sait que X admet un espérance on peut affirmer que
−∞ Z +∞ −∞
l’intégrale f (x) dx est convergente et vaut E(X) = 1.
−∞
Donc f est bien une densité de probabilité.
Z +∞ Z +∞
Si E(T ) existe, on a E(T ) = xf (x) dx = x2 g(x) dx. Comme on sait que X admet une
−∞ −∞
variance, on peut donc dire que X admet un moment d’ordre 2 et donc T admet une espérance.
D’après la formule de Kœnig,

E(T ) = E(X 2 ) = V (X) + E(X)2 = 2

Ainsi le temps moyen de passage en caisse est de deux unités de temps.


Z x
3. a) Par définition de la fonction de répartition FT (x) = f (t) dt.
−∞
Z x
• Si x < 0, FT (x) = 0 dt = 0
−∞

Probabilités : Chapitre 4 Exercices Page 15 Variables aléatoires à densité


Z x Z 0 Z x
• Si x > 0, FT (x) = f (t) dt = 0 dt + te−t dt. Donc
−∞ −∞ 0
Z x Z x
−t
FT (x) = te dt = [−te−t ]x0 + e−t dt = −xe−x − e−x + 1
0 0

On a donc bien (
0 si x < 0
Ft (x) =
1 − (x + 1)e−x si x > 0
b) On veut calculer
P ([T > 1] ∩ [T 6 2])
P[T >1] (T 6 2) =
P (T > 1)
P (1 6 T 6 2) FT (2) − FT (1)
= =
1 − P (T 6 1) 1 − FT (1)
−2 −1
−3e + 2e 2e − 3
= −1
= en multipliant en haut et en bas par e2
2e 2e
4. a) Le client C pourra passer en caisse dès que le plus rapide de A ou B aura fini. Donc le temps
d’attente de C correspond au plus petit temps de passage entre A et B :
M = min(TA , TB )

b) Les temps de passage TA et TB n’étant jamais négatifs, lorsque t ∈] − ∞; 0[, P (M 6 t) = 0.


Si t ∈ R+ , alors
P (M 6 t) = 1 − P (M > t) = 1 − P ([TA > t] ∩ [TB > t])
= 1 − P ([TA > t]) × P ([TB > t]) car les temps de passage des clients sont indépendants
= 1 − (1 − FTA (t))(1 − FTB (t))
= 1 − (t + 1)e−t × (t + 1)e−t
= 1 − (t + 1)2 e−2t
Dons on a bien (
0 si t < 0
P (M 6 t) =
1 − (t + 1)2 e−2t si t > 0
c) Notons H la fonction de répartition de M. (H(t) = P (M 6 t))
Il nous faut montrer que H est une fonction continue sur R et C 1 sur R sauf peut être en un
nombre fini de point pour pouvoir affirmer que M est une variable à densité.
• Sur ] − ∞ : 0[, H est la fonction nulle donc c’est une fonction C 1 .
• Sur ]0; +∞[, les fonction t → (1 + t)2 et t → e−t sont C 1 donc H est de classe C 1 sur cet
intervalle.
• Il nous reste à étudier la continuité en 0. On a lim H = 0 et lim
+
H = 1 − 1 = 0 = H(0) donc
− 0 0
H est bien continue en 0.
Ainsi H est une fonction continue sur R et de classe C 1 sur R∗ .
M est donc bien une variable à densité.
Pour obtenir une densité de M, il faut dériver H et compléter aux points où H n’est pas dérivable.
Une densité de M est donc le fonction suivante :
(
0 si t < 0
h(t) = −2t
2t(1 + t)e si t > 0

Probabilités : Chapitre 4 Exercices Page 16 Variables aléatoires à densité


Probabilités : Chapitre 5 Exercices

Exercices corrigés : Convergences et approximations


Exercice 1:
En utilisant l’inégalité de Bienaymé-Tchebychev, montrer que pour tout x > 0
Z x √
 
−t2 /2 1
e dt > 2π 1 − 2
−∞ 2x

Exercice 2:
Soit (Xi )i∈N une suite de VAR deux à deux indépendantes. On suppose
que Xi suit une loi de Bernouilli
!
X + · · · + X n
1 n 1 X
de paramètre pi . On souhaite démontrer que pour tout ε, lim P − pi < ε = 1.

n→+∞ n n i=1
1. A quel résultat de cours cela vous fait-il penser ? Peut-on appliquer ici ce théorème ?
2. En vous inspirant de la démonstration du théorème cité dans la question précédente démontrer le
résultat demandé.

Exercice 3:
Soit (Xn )n>1 une suite de VAR définies sur un même espace probabilisé, indépendantes, suivant une
loi uniforme sur [0; 1]. Pour n > 1 on définit :

Mn = max(X1 , · · · , Xn ) et Yn = n(1 − Mn )

On rappelle que pour tout x ∈ R, [Mn 6 x] = [X1 6 x] ∩ [X2 6 x] ∩ · · · ∩ [Xn 6 x].


1. Déterminer la fonction de répartition de Mn , puis celle de Yn .
2. Montrer que la suite (Yn ) converge en loi vers une variable remarquable.

Exercice 4:
On considère une suite (Xn )n∈N∗ de variables de Poisson indépendantes de paramètre 1.
On pose Sn = X1 + · · · + Xn .
1. Quelle est la loi de Sn ?
2. Exprimer P (Sn 6 n) en fonction de n.
3. En utilisant le théorème de la limite centrée, montrer que :
n
X nk 1
lim e−n =
n→+∞
k=0
k! 2

Exercice 5:
Soit n un entier supérieur ou égal à 2. On considère n variables aléatoires indépendantes Z1 , · · · , Zn
Z1 + · · · + Zn
suivant toutes la loi géométrique de paramètre p (p ∈]0; 1[). On pose de plus Mn = .
n
1. Déterminer l’espérance m et l’écart type σn de Mn .
Z 1
2
2. Montrer que lim P (0 6 Mn − m 6 σn ) existe et exprimer sa valeur à l’aide de e−x /2 dx.
n→+∞ 0

Probabilités : Chapitre 5 Exercices Page 1 Convergences et approximations


Exercice 6:
Chaque année, M. Durand effectue deux fois par jour, 5 jours par semaine et pendant 46 semaines, un
trajet en voiture dont la durée est une VAR X qui suit une loi d’espérance 45 min et d’écart-type 10 min.
On suppose que les durées des trajets sont mutuellement indépendantes. Quelle est la probabilité pour que
21000 − 460 × 45
M. Durand passe au moins 350 h dans sa voiture au cours de l’année ? (On donne √ ≈ 1, 40)
46000

Exercice 7:
Un lot de N pots de confiture contient 0, 2% de pots avariés. On cherche à calculer la probabilité que,
parmi 1000 pots, il y ait au plus 4 pots avariés ?
Pour cela on notera X la VAR aléatoire égale au nombre de pots avariés parmi 1000 pots, on reconnaitra
une loi usuelle et on supposera N bien choisi pour pouvoir effectuer des approximations de loi

Exercice 8:
Une entreprise fabrique des jouets électroniques. Après la fabrication de ces jouets, malgré des contrôles,
0, 6% des jouets restent défectueux : un jouet sortant de l’entreprise a ainsi la probabilité 0, 006 d’être
défectueux. On considère un lot de n jouets et parmi ceux-ci on appelle Xn le nombre de jouets défectueux.
1. Quelle est la loi de la variable aléatoire Xn ?
2. Pour n = 500, par quelle loi peut-on approcher la loi de la variable aléatoire Xn ? En déduire, pour
cette valeur de n, une approximation de la probabilité qu’il y ait au plus deux jouets défectueux.

Exercice 9:
Une entreprise compte 300 employés. Chacun d’eux téléphone en moyenne 6 minutes par heure. Quel
est le nombre de lignes que l’entreprise doit installer pour que la probabilité que toutes les lignes soient
utilisées au même instant soit au plus égale à 0,025.
On notera N le nombre de lignes installées dans l’entreprise, X la VAR égale au nombre d’employés
qui téléphonent à une instant t fixé, et on commencera au départ par calculer la probabilité qu’un employé
donné soit en √train de téléphoner à une instant t.
On donne 27 × 1, 96 + 30 ≈ 40, 18.

Exercice 10:
Un dé régulier est lancé 9 000 fois. On cherche à déterminer la probabilité de l’événement ≪ on a obtenu
100
6 entre 1 400 et 1 600 fois ≫. On note X la VAR égale au nombre de 6 obtenus. On donne √ ≈ 2, 83
1250
100, 5
et √ ≈ 2, 84.
1250
1. Quelle est la loi de X
2. Par quelle loi peut-on approcher la loi de X.
3. Calculer la probabilité demandée dans l’énoncé de deux façon : avec correction de continuité et sans
correction de continuité. Commenter les résultats obtenus.
4. A l’aide de l’inégalité de Bienaymé-Tchebychev, donner une minoration de la probabilité demandée.
Commenter.

Probabilités : Chapitre 5 Exercices Page 2 Convergences et approximations


Correction
Exercice 1:
L’intégrale qui entre en jeu dans cette inégalité fait apparaitre une exponentielle qui nous fait penser
à la densité de la loi normale centrée réduite. Z x
1 2
Soit donc X une VAR qui suit la loi normale centrée réduite. On a alors P (X 6 x) = √ e−t /2 dt.
2π −∞
Comme on a E(X) = 0 et V (X) = 1 l’inégalité de Bienaymé-Tchebychev s’écrit :
1
∀x > 0, P (|X| > x) 6
x2
De plus on a [|X| > x] = [X > x] ∪ [X 6 −x] et comme cette union est incompatible :

P (|X| > x) = P (X > x) + P (X 6 −x) = 1 − Φ(x) + Φ(−x) = 1 − Φ(x) + 1 − Φ(x) = 2(1 − P (X 6 x))

On a donc :
1
∀x > 0, P (|X| > x) 6
x2
1
⇔2(1 − P (X 6 x)) 6
x2
1
⇔P (X 6 x) > 1 − 2
Z x 2x
1 2 1
⇔√ e−t /2 dt > 1 − 2
2π 2x
Z x −∞ √
 
−t2 /2 1
⇔ e dt > 2π 1 − 2
−∞ 2x

Exercice 2:
n
X1 + · · · + Xn 1X
1. On pose Xn = . On a alors E(Xn = pi . On s’intéresse donc dans cette question
n n i=1
à P (|Xn − E(Xn )| < ε) ce qui nous fait penser à la loi faible des grand nombre. Mais ici on ne peut
pas appliquer ce théorème car les Xi n’ont pas tous la même espérance.
n n
1X 1X
2. Comme les Xi sont supposées indépendantes on a V (Xn ) = 2 V (Xi ) = 2 pi (1 − pi ).
n i=1 n i=1
D’après l’inégalité de Bienaymé-Tchebychev, on a :

V (Xn )
0 6 P (|Xn − E(Xn )| > ε) 6
ε2
V (Xn )
⇒1 − 6 1 − P (|Xn − E(Xn )| > ε) 6 1
ε2
V (Xn )
⇒1 − 6 P (|Xn − E(Xn )| < ε) 6 1
ε2
n
1X 1
Or on sait que pi (1 − pi ) 6 1 donc V (Xn ) 6 2 1 = . Comme de plus V (Xn ) > 0 on a donc
n i=1 n
lim V (Xn ) = 0.
n→+∞
On en déduit donc que lim P (|Xn − E(Xn )| < ε) = 1.
n→+∞

Probabilités : Chapitre 5 Exercices Page 3 Convergences et approximations


Exercice 3:
1. Notons Fi la fonction de répartition de Xi , Gn la fonction de répartition de Mn et Hn la fonction de
répartition de Yn .
• Par définition, on a :

∀x ∈ R, Gn (x) = P (Mn 6 x)
= P ([X1 6 x] ∩ · · · ∩ [Xn 6 x])
= P (X1 6 x) × · · · × P (Xn 6 x) car les Xi sont indépendantes
= F1 (x) × · · · × Fn (x)

0 si x < 0

Or on sait que les Xi suivent une loi uniforme sur [0; 1] donc : Fi (x) = x si 0 6 x 6 1

1 si x > 1


0
 si x < 0
On a donc Gn (x) = xn si 0 6 x 6 1

1 si x > 1

• On a de plus :
 x  x
∀x ∈ R, Hn (x) = P (Yn 6 x) = P (n(1 − Mn ) 6 x) = P Mn > 1 − = 1 − Gn 1 −
n n
 x
Pour pouvoir exprimer proprement Hn (x) en fonction de x, il nous faut calculer Gn 1 − . Pour
n
cela nous devons distinguer plusieurscas :
x x
• Si 1 − < 0 : ⇔ 1 < ⇔ n < x on a Hn (x) = 1 − 0 = 1.
n  n
x x   x n
• Si 0 6 1 − 6 1 : ⇔ −1 6 − 6 0 ⇔ 0 6 x 6 n on a Hn (x) = 1 − 1 − .
n  n  n
x x
• Si 1 − > 1 : ⇔ 0 > ⇔ x < 0 on a Hn (x) = 1 − 1 = 0.
n n
0  si x < 0


x n
En conclusion : Hn (x) = 1 − 1 − si 0 6 x 6 n

 n
1 si x > n
2. On doit donc ici étudier la limite de Hn (x) lorsque n tend vers +∞ pour chaque x réel. Dans la
définition de Hn il y a trois positions possibles pour x mais on remarque que lorsque n → +∞, le
cas x > n va disparaitre. On va donc ici distinguer deux cas pour la position de x.
• Soit x un réel fixé tel que x < 0. On a alors lim Hn (x) = lim 0 = 0.
n→+∞ n→+∞
• Soit x un réel fixé tel que x > 0. Lorsque n va tendre vers +∞, n va devenir très grand et donc à
x n
partir d’un moment on aura 0 6 x 6 n. On aura donc Hn (x) = 1 − 1 − = 1 − en ln(1−x/n) .
n
x x
Or lorsque n → +∞, → 0 donc ln(1 − x/n) ∼ − et ainsi n ln(1 − x/n) ∼ −x. On a donc
n n→+∞ n n→+∞
n ln(1−x/n) −x
lim 1 − e = 1−e .
n→+∞
En conclusion Yn converge en loi vers une VAR Y dont la fonction de répartition est :
(
0 si x < 0
H(x) =
1 − e−x si x > 0

Y suit donc la loi exponentielle de paramètre 1.

Probabilités : Chapitre 5 Exercices Page 4 Convergences et approximations


Exercice 4:
1. Un somme de VAR indépendantes suivants une loi de Poisson suit une loi de Poisson. Donc Sn suit
une loi de Poisson de paramètre 1 + 1 + · · · + 1 = n.
2. On sait que [Sn 6 n] = [Sn = 0] ∪ [Sn = 1] ∪ · · · ∪ [Sn = n] donc comme c’est une union d’événements
n n
X X nk
incompatibles on a P (Sn 6 n) = P (Sn = k) = e−n .
k=0 k=0
k!
3. Les VAR (Xn ) suivent une même loi, sont indépendantes et ont une variance égale à 1 donc non
nulle. Le théorème de la limite centrée nous dit donc que Sn∗ converge en loi une VAR X qui suit
la loi normale centrée réduite. Cela signifie que pour tout x ∈ R, lim P (Sn∗ 6 x) = P (X 6 x) =
n→+∞
Z x −t2 /2
e
√ dt.
−∞ 2π
Sn − n
Or on a Sn∗ = √ donc P (Sn 6 n) = P (Sn∗ 6 0). On en déduit donc que
n
Z 0 −t2 /2
e
lim P (Sn 6 n) = √ dt
n→+∞ −∞ 2π
n 2
−n n
k
1 +∞ e−t /2
X Z
2
=⇒ lim e = √ dt car la fonction t → e−t /2 est paire
n→+∞ k! 2 −∞ 2π
k=0
n
−n
X nk 1
=⇒ lim e = car l’intégrale d’une densité vaut 1
n→+∞
k=0
k! 2

Exercice 5: Extrait EML 2006


 
1 1 1 1 1
1. Par linéarité de l’espérance on a E(Mn ) = (E(Z1 ) + · · · + E(Zn )) = +···+ = . Donc
n n p p p
1
m= .
p
1
De plus comme on a supposé que les Zi sont indépendantes, on a V (Mn ) = 2 (V (Z1 )+· · ·+V (Zn )) =
  r n
1 1−p 1−p 1−p 1−p
+···+ 2 = . Donc σn = .
n2 p2 p np2 np2
 
Mn − m
2. On remarque que P (0 6 Mn − m 6 σn ) = P 0 6 6 1 = P (0 6 Mn∗ 6 1).
σn
Or d’après le théorème de la limite centrée (les Zi sont indépendantes, suivent la même loi de
variance non nulle) Mn∗ converge en loi vers une VAR M ∗ suivant la loi normale centrée réduite.
Donc lim P (0 6 Mn − m 6 σn ) existe et
n→+∞

1
1
Z
2 /2
lim P (0 6 Mn − m 6 σn ) = lim P (0 6 Mn∗ ∗
6 1) = P (0 6 M 6 1) = √ e−x dx
n→+∞ n→+∞ 2π 0

Exercice 6:
Au cours de l’année M. Durand effectue donc 2 × 5 × 46 = 460 trajets.
Notons Xi la VAR égale à la durée en minutes du i-ème trajet. L’énoncé nous dit que les VAR Xi sont
mutuellement indépendantes et que E(Xi ) = 45 et V (Xi ) = 100.
X460
Le temps que passe M. Durand dans sa voiture en une année est donc Y = Xi et on cherche à
i=1
calculer P (Y > 21000).

Probabilités : Chapitre 5 Exercices Page 5 Convergences et approximations


La fait de voir une somme de VAR indépendantes suivants toutes la même loi de variance non nulle
nous fait penser au théorème de la limite centrée.
Comme ici 460 > 30 on peut approcher la loi de Y ∗ par la loi normale centrée réduite.
Y − 460 × 45
On a Y ∗ = √ donc
46000
 
∗ 21000 − 460 × 45
P (Y > 21000) = P Y > √ ≈ P (Y ∗ > 1, 40) ≈ 1 − Φ(1, 40) ≈ 0, 0808
46000

Exercice 7:
Soit donc X la VAR égale au nombres de pots avariés parmi 1000 pots. On peut voir X comme un
système de tirage sans remise. En effet, on dispose d’un lot de N parmi lequel il y a 0,2 % de pots avariés
et 99,8 % de pots non avariés. Parmi ces N pots on en choisit 1000 (tirage sans remise) et on compte le
nombre de pots avariés parmi ces 1000 pots. On reconnait donc ici que X suit la loi hypergéométrique de
paramètres (N, 1000, 0.002).
Le but de cet exercice est de calculer P (X 6 4).
L’énoncé nous dit que l’on peut supposer N bien choisi pour faire des approximations de loi.
On suppose donc que N > 10000 et donc X suit approximativement une loi binomiale de paramètres
(1000, 0.002).
De plus on remarque que 1000 > 30 et 0, 002 6 0, 1 donc on peut en fait approcher la loi de X par la
loi de Poisson de paramètre 1000 × 0, 002 = 2.
La table de la loi de Poisson nous donne alors P (X 6 4) ≈ 0, 9473

Exercice 8:
1. Xn compte le nombre de réalisations de l’événements ≪ le jouet est défectueux ≫, qui est de probabilité
0.006, parmi n jouets. Xn suit donc la loi binomiale de paramètres (n, 0.006).
2. Dans cette question on suppose que n = 500. On a donc n > 30 et 0, 006 6 0, 1 donc on peut
approcher la loi de X500 par la loi de Poisson de paramètre 500 × 0, 006 = 3.
On cherche donc à calculer P (X 6 2) et d’après la table de valeurs de la loi de Poisson on a :

P (X 6 2) ≈ 0, 4232

Exercice 9:
Comme un employé téléphone en moyenne 6 minutes par heures, la probabilité qu’un employé donné
6 1
soit en train de téléphoner à un instant t est = .
60 10
X est la VAR qui compte le nombre de réalisation de l’événement ≪ l’employé téléphone à l’instant t ≫,
qui est de probabilité 0, 1, parmi 300 employés. X suit donc une loi binomiale de paramètres (300, 0.1).
On cherche donc N pour que P (X > N) 6 0, 025.
On remarque ici que 300 > 30, 300 × 0, 1 = 30 > 5 et 300 × 0, 9 = 270 > 5 donc on peut approcher
X − 30
la loi de X par la loi normale de paramètres (30, 27) ou encore la loi de X ∗ = √ par la loi normale
27
centrée réduite.
On a alors :    
∗ N − 30 N − 30
P (X > N) = P X > √ ≈1−Φ √
27 27

Probabilités : Chapitre 5 Exercices Page 6 Convergences et approximations


On cherche donc N tel que
 
N − 30
1−Φ √ 6 0, 025
27
 
N − 30
⇐⇒Φ √ > 0, 975 ≈ Φ(1, 96)
27
N − 30
⇐⇒ √ > 1, 96 car Φ est croissante
27

⇐⇒N > 27 × 1, 96 + 30 ≈ 40, 18
Il faut donc avoir installé au moins 41 lignes téléphoniques.

Exercice 10:
1
1. X compte le nombre de réalisations de l’événement ≪ obtenir 6 ≫, qui est de probabilité
, au cours
6
 
1
de 9000 réalisation d’une même expérience donc X suit une loi binomiale de paramètre 9000,
6
1 5
2. On remarque que 9000 > 30, 9000 × > 5 et 9000 × > 5 donc on peut approcher la loi de X
6 6
X − 1500
par la loi normale de paramètres (1500, 1250) ou encore la loi de X ∗ = √ par la loi normale
1250
centrée réduite.
3. On veut calculer P (1400 6 X 6 1600).
• Sans correction de continuité :
 
1400 − 1500 ∗ 1600 − 1500
P (1400 6 X 6 1600) = P √ 6X 6 √
1250 1250

≈ P (−2, 83 6 X 6 2, 83)
≈ Φ(2, 83) − Φ(−2, 83)
≈ 2Φ(2, 83) − 1 ≈ 0, 9954
• Avec correction de continuité :

P (1400 6 X 6 1600) = P (1399, 5 6 X 6 1600, 5)


 
−100, 5 ∗ 100, 5
=P √ 6X 6 √
1250 1250

≈ P (−2, 84 6 X 6 2, 84)
≈ Φ(2, 84) − Φ(−2, 84)
≈ 2Φ(2, 84) − 1 ≈ 0, 9954
On remarque qu’il n’y a ici aucune différence si on utilise la correction de continuité ou si on ne
l’utilise pas.
4. On a E(X) = 1500 et V (X) = 1250.
De plus on remarque que
P (1400 6 X 6 1600) = P (−100 6 X − 1500 6 100) = P (|X − 1500| 6 100)
= 1 − P (|X − 1500| > 100) = 1 − P (|X − 1500| > 101)
1250
Or, d’après l’inégalité de Bienaymé-Tchebychev on a P (|X − 1500| > 101) 6 et donc
1012
1250
P (1400 6 X 6 1600) > 1 − ≈ 0, 8775
1012
La minoration de B-T n’est pas du tout précise...

Probabilités : Chapitre 5 Exercices Page 7 Convergences et approximations

Vous aimerez peut-être aussi