Vous êtes sur la page 1sur 13

Probabilités (partie 3)

Auteur : ET-TAHRI Fouad


Professeur agrégé de Mathématiques à l'école Royale de l'Air
ettahrifouad1@gmail.com

https://www.youtube.com/channel/UCWrHPjpNXZiGHqSw6hseiLw?view_as=subscriber
https://ettahrifouad1.wixsite.com/prepasmarrakech
8 mars 2021

1
Probabilités (partie 3)

Sommaire

I) Variables aléatoires réelles continues 3


1) Variable aléatoire réelle continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2) Variables aléatoires réelles usuelles de lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3) Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II) Espérance, Variance et Moments d'une variable aléatoire continue 7
1) Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2) Moments, Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
a) Variance, Écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
b) Variance des lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
III) Inégalités, Notion de convergence et théorèmes de limites 10
1) Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2) Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
a) Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
b) Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3) Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

https://ettahrifouad1.wixsite.com/prepasmarrakech 2/13 ettahrifouad1@gmail.com


Dans tout ce qui suit, (Ω, T , P) désigne un espace probabilisé.

I) Variables aléatoires réelles continues

1) Variable aléatoire réelle continue

Dénition 1 (V.a.r de loi continue).


Une variable aléatoire réelle X est dite de loi continue si sa fonction de répartition FX est continue sur R et de classe C 1
sur R \ D où D une partie nie ou vide.
Dans ce cas, on appelle densité de X la fonction fX dénie par :
(
si t ∈ R \ D
0
FX (t)
∀t ∈ R, fX (t) =
0 si t ∈ D

Proposition 1 (Propriétés de fX ).
Soit X une v.a.r de loi continue de fonction de densité fX . Alors

¬ fX est positive et continue sur R \ D où D une partie nie ou vide.


Z +∞ Z +∞
­ fX (t)dt converge et fX (t)dt = 1.
−∞ −∞

Remarque 1.
Comme FX est continue sur R, alors ∀a ∈ R, P(X = a) = 0.

Proposition 2 (Loi d'une v.a.r.c).


Soit X une variable aléatoire réelle de loi continue.
Pour tout a, b ∈ R, tels que a < b, on a
Z a
¬ P(X < a) = P(X ≤ a) = fX (t)dt.
−∞
Z +∞
­ P(X > a) = P(X ≥ a) = fX (t)dt.
a
Z b
® P(a < X < b) = P(a < X ≤ b) = P(a ≤ X < b) = P(a ≤ X ≤ b) = fX (t)dt.
a

Remarque 2 (fX caractérise la loi de X ).


La connaissance de fX permet de calculer P(X ∈ I) pour tout intervalle I de R.
D'où fX caractérise la loi de X .

2) Variables aléatoires réelles usuelles de lois continues


Soit X une variable aléatoire réelle de loi continue.

Dénition 2 (loi uniforme).


On dit X suit la loi uniforme sur [a, b] où a, b ∈ R tels que a < b si

si t ∈ [a, b]
(
1
fX (t) = b−a
0 si t ∈
/ [a, b]

On note X ∼ U ([a, b]).

https://ettahrifouad1.wixsite.com/prepasmarrakech 3/13 ettahrifouad1@gmail.com


Dénition 3 (loi exponentielle).
On dit X suit la loi exponentielle de paramètre λ > 0 et si
(
λe−λt si t ≥ 0
fX (t) =
0 si t < 0

On note X ∼ E(λ).

Dénition 4 (loi Gamma).


On dit X suit la loi Gamma de paramètre (α, λ) où α, λ > 0 si
λα α−1 −λt
si t > 0
(
Γ(α)
t e
fX (t) =
0 si t ≤ 0
Z +∞
où Γ(α) = xα−1 e−x dx.
0
On note X ∼ Γ(α, λ).

Dénition 5 (loi normale).


On dit X suit la loi normale ou Gaussienne de paramètre (µ, σ 2 ) où µ ∈ R et σ > 0 si
1 (t−µ)2
∀t ∈ R, fX (t) = √ e− 2σ2
σ 2π

On note X ∼ N (µ, σ 2 ).
Lorsque X ∼ N (0, 1), on dit X suit la loi normale centrée réduite.

Exercice 1 (Exemples de calcul de la loi de f (X))


¬ Soit X ∼ E(λ), on pose Y = −X + 1, montrer que Y est une v.a.r de loi continue.

­ Soit X ∼ N (0, 1), on pose Z = X 2 .

(a) En utilisant, la loi normale centrée réduite, calculer Γ( 12 ).


Z +∞
(où ∀x > 0, Γ(x) = tx−1 e−t dt).
0

(b) Montrer que Y est une v.a.r de loi continue. Reconnaitre la loi de Z .
Solution
Soit x ∈ R.
Z +∞
¬ On a FY (x) = P(Y ≤ x) = P(−X + 1 ≤ x) = P(X ≥ 1 − x) = fX (t)dt,
( 1−x
λe−λt si t ≥ 0
Puisque X ∼ E(λ), alors fX (t) =
0 si t > 0
Z 0 Z +∞ Z +∞
I Si 1 − x ≤ 0, alors FY (x) = fX (t)dt + fX (t)dt = fX (t)dt = [−e−λt ]+∞
0 = 1.
1−x 0 0
Z +∞
I Si 1 − x > 0, alors FY (x) = fX (t)dt = [−e−λt ]+∞1−x = e
−λ(1−x)
.
( 1−x
e−λ(1−x) si x < 1
On en conclut que FY (x) =
1 si x ≥ 1
Comme FY est continue sur R est de classe C 1 sur R \ {1}, alors Y est une v.a.r à densité et on a
(
λe−λ(1−x) si x < 1
fY (x) =
0 si x ≥ 1
2
Z x
Comme X suit la loi normale centrée réduite, alors ∀x ∈ R, fX (x) = et FX (x) = fX (t)dt.
x
√1 e− 2

−∞

https://ettahrifouad1.wixsite.com/prepasmarrakech 4/13 ettahrifouad1@gmail.com


Z +∞
En particulier fX (u)du = 1.
−∞
2
­ (a) Le changement de variable t = u2 , fournit
  Z +∞ −t √ Z +∞ − u2
1 e
Γ = √ dt = 2 e 2 du
2 0 t 0
Z +∞
fX (u)du
√ √ Z +∞ √ √ −∞ √
= 2× 2π fX (u)du = 2 × 2π = π
0 2
(b) Soit x ∈ R, FZ (x) = P(Z ≤ x) = P(X 2 ≤ x).

I Si x < 0, alors (X 2 ≤ x) = ∅, d'où FZ (x) = 0.


√ √
I Si x > 0, alors (X 2 ≤ x) = (− x 6 X 6 x).
Donc
√ √
Z x Z x
FZ (x) = √
fX (t)dt = 2 fX (t)dt
− x 0
√ !
Z x Z 0
= 2 fX (t)dt − fX (t)dt
−∞ −∞


 
1
= 2 FX ( x) −
2
( √
2FX ( x) − 1 si x ≥ 0
Ainsi FZ (x) =
0 si x < 0

On a FZ est continue sur R, puisque FX est de classe C 1 sur R et u 7→ u est de classe C 1 sur ]0, +∞[, alors FZ
est de classe C 1 sur R \ {0}, ainsi Z suit une loi à densité fZ donnée par :
√ √
F ( x) si x > 0
0
( (
(2FX ( x) − 1) si x > 0
0 1
2 2√ x X
fZ (x) = =
0 si x ≤ 0 0 si x ≤ 0
 1
si x > 0  ( 2 )12 x 21 −1 e− x2 si x > 0
1
( x
√ 1 e− 2
= 2πx = Γ( 2 )
0 si x ≤ 0 0 si x ≤ 0

Il s'ensuit que Z ∼ Γ( 12 , 21 )
Exercice 2 (Exemple de calcul de la loi de Z = f (X, Y ))
Soit X et Y deux

variables aléatoires réelles sur l'espace probabilisé (Ω, T , P).
X ∼ E(1)

On suppose que Y ∼ B( 21 )
X et Y indépendantes


On pose Z = Y +1 .
X

¬ Vérier que Z est une variable aléatoire réelle.

­ Montrer que Z est à densité et déterminer fZ .


Solution
¬ Comme la fonction ϕ : (x, y) 7→ y+1
x
est continue sur R × (R \ {−1}), car c'est une fraction rationnelle dénie sur
R × (R \ {−1}), donc Z = ϕ(X, Y ) est une variable aléatoire réelle.

­ Soit t ∈ R, on a Y (Ω) = {0, 1}, donc (Y = 0) et (Y = 1) forment un système complet d'événements.


Alors
(Z ≤ t) = (Z ≤ t) ∩ Ω = (Z ≤ t) ∩ ((Y = 0) ∪ (Y = 1))
= [(Z ≤ t) ∩ (Y = 0)] ∪ [(Z ≤ t) ∩ (Y = 1)]
     
X X
= ≤ t ∩ (Y = 0) ∪ ≤ t ∩ (Y = 1)
Y +1 Y +1
= [(X ≤ t) ∩ (Y = 0)] ∪ [(X ≤ 2t) ∩ (Y = 1)]

https://ettahrifouad1.wixsite.com/prepasmarrakech 5/13 ettahrifouad1@gmail.com


Puisque les événements [(X ≤ t) ∩ (Y = 0)] et [(X ≤ 2t) ∩ (Y = 1)] sont disjoints, alors
FZ (t) = P(Z ≤ t) = P ((X ≤ t) ∩ (Y = 0)) + P ((X ≤ 2t) ∩ (Y = 1))
Or les variables aléatoires X et Y sont indépendantes, alors
FZ (t) = P(X ≤ t)P(Y = 0) + P(X ≤ 2t)P(Y = 1)
1
= (FX (t) + FX (2t))
2
( (
e−t si t ≥ 0 1 − e−t si t > 0
On a fX (t) = , alors FX (t) = .
0 si t < 0 0 si t ≤ 0
(
− e−t − e−2t ) si t > 0
1
(2
Par suite FZ (t) = 2 .
0 si t ≤ 0
Comme FZ est continue sur R et de classe C 1 sur R \ {1}, alors Z est une variable aléatoire réelle à densité et on a :
(
1
(e−t + 2e−2t ) si t > 0
fZ (t) = 2 
0 si t ≤ 0

3) Somme de variables aléatoires indépendantes

Théorème 1 (Somme de v.a.d indépendantes).


Soit X et Y deux variables aléatoires réelles indépendantes sur (Ω, T , P).

¬ Si X est une variable aléatoire réelle discrète et Y une variable aléatoire réelle de loi continue.
Alors la variable aléatoire réelle S = X + Y est de loi continue et on a :
X
∀x ∈ R, fS (x) = P(X = k)fY (x − k)
k∈X(ω)

­ Si X et Y deux variables aléatoires réelles de lois continues.


Alors la variable aléatoire réelle S = X + Y est de loi continue et on a :
Z +∞
∀x ∈ R, fS (x) = fX (t)fY (x − t)dt
−∞
Z +∞
= fY (t)fX (x − t)dt
−∞

Exercice 3
Soit p ∈]0, 1[ et X ∼ B(p) et Y ∼ E(1) et X et Y sont indépendantes.
Montrer que S = X + Y est une variable aléatoire réelle à densité en déterminant fS .
Solution
En utilisant le théorème précédent, on en déduit que S est une variable aléatoire réelle de loi continue et on a :
X
∀x ∈ R, fS (x) = P(X = k)fY (x − k)
k∈X(ω)

= P(X = 0)fY (x) + P(X = 1)fY (x − 1)


= pfY (x) + (1 − p)fY (x − 1)

si x < 0

0
(
e−t si t ≥ 0

Comme fY (t) = , alors fS (x) = pe −x
si 0 ≤ x < 1 
0 si t < 0
+ (1 − p)ex−1 si x ≥ 1
 −x

pe

Application 1.
¬ Si X et Y deux v.a.r indépendantes suivant la loi exponentielle de paramètre λ > 0, (X, Y ∼ E(λ)).
Alors X + Y suit la loi Gamma de paramètre (2, λ), (X + Y ∼ Γ(2, λ)).

­ Si X et Y deux v.a.r indépendantes suivant la loi normale , X ∼ N (µ1 , σ12 ), Y ∼ N (µ2 , σ22 ).
Alors X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ).

https://ettahrifouad1.wixsite.com/prepasmarrakech 6/13 ettahrifouad1@gmail.com


II) Espérance, Variance et Moments d'une variable aléatoire continue

On considère X, Y deux variables aléatoires réelles continues sur (Ω, T , P).

1) Espérance

Dénition 6 (Espérance).
On dit que X admet une espérance si la fonction t 7−→ tfX (t) est intégrable sur R.
Z +∞
Dans ce cas, on note E(X) l'espérance de X et on a E(X) = tfX (t)dt.
−∞

Espérance des lois continues usuelles

Variable aléatoire ( Densité Espérance


1
si t ∈ [a, b]
Uniforme : X ∼ U ([a, b]) f (t) = b−a E(X) = a+b

(
0 si t ∈
/ [a, b] 2

λe −λt
si t ≥ 0
Exponentielle : X ∼ E(λ) f (t) = E(X) = 1
0 si t < 0 λ
( α
λ
t α−1 −λt
e si t > 0
Gamma : X ∼ Γ(α, λ) f (t) = Γ(α) E(X) = α
0 si t ≤ 0 λ

(t−µ)2
Normale : X ∼ N (µ, σ 2 ) f (t) = √1
σ 2π
e− 2σ 2 E(X) = µ

Théorème 2 (Théorème de transfert).


Soit X une v.a.r continue et g : R → R une fonction telle que g(X) une variable aléatoire réelle, alors

g(X) admet une espérance ⇐⇒ t 7−→ g(t)fX (t) est intégrable sur R
Z +∞
Dans ce cas : E(g(X)) = g(t)fX (t)dt.
−∞

Remarque 3.
Le théorème de transfert permet de calculer E(g(X)) sans avoir la loi g(X).

Exercice 4
Soit X une variable aléatoire réelle dénie sur un espace probabilisé (Ω, T , P) et suivant la loi normale centrée réduite.
Montrer que Y = X 2 admet une espérance et la calculer.
Solution
D'après le théorème de transfert Y admet une espérance si, et seulement si, t 7−→ t2 fX (t) intégrable sur R.
t2
On a t 7−→ t2 fX (t) = √12π t2 e− 2 est continue et paire sur R, comme t2 (t2 fX (t)) → 0, alors t 7−→ t2 fX (t) intégrable
t→+∞
sur R.
Ainsi Y admet une espérance et on a :
+∞ Z +∞
1
Z
t2
E(Y ) = t2 fX (t)dt = √ t2 e− 2 dt
−∞ 2π −∞
Z +∞  0
1 t 2 
= √ t −e− 2 dt
2π −∞
i+∞ Z +∞
1 h t2 1 t2
= √ −te− 2 +√ e− 2 dt
I.P.P 2π −∞ 2π −∞
Z +∞ Z +∞
1 t 2
= √ e− 2 dt = fX (t)dt = 1
2π −∞ −∞

https://ettahrifouad1.wixsite.com/prepasmarrakech 7/13 ettahrifouad1@gmail.com


Proposition 3 (Propriétés de l'espérance).
On suppose que X et Y possèdent une espérance et Z une v.a.r, alors

I Linéarité : ∀α, β ∈ R, αX + βY admet une espérance et on a E(αX + βY ) = αE(X) + βE(Y ).


I Positivité : X ≥ 0 =⇒ E(X) ≥ 0.

I Croissance : X ≤ Y =⇒ E(X) ≤ E(Y ).

I Inégalité triangulaire : E(|X + Y |) ≤ E(|X|) + E(|Y |).


I Comparaison : Si |Z| ≤ X , alors Z admet une espérance et E(|Z|) ≤ E(X).
I Produit : Si X et Y sont indépendantes, alors XY admet une espérance et E(XY ) = E(X)E(Y ).

Remarque 4.
En général, E(XY ) = E(X)E(Y ) =⇒ X et Y indépendantes est fausse.

Par récurrence sur n ≥ 2, on obtient le :


Corollaire 1.
n
Soit X1 , X2 , ..., Xn des variables aléatoires de lois continues et indépendants, admettant une espérance, alors
Y
Xk
! k=1
n n
admet une espérance et E E(Xk ).
Y Y
Xk =
k=1 k=1 !
n
Si de plus X1 , X2 , ..., Xn sont de même loi, alors E = (E(X1 ))n .
Y
Xk
k=1

2) Moments, Variance
a) Variance, Écart-type
Dénition 7 (Moments d'ordre k).
Soit k ∈ N∗ . On dit que X admet un moment d'ordre k si X k admet une espérance.
Dans ce cas E(X k ) s'appelle le moment d'ordre k de X .

Remarque 5.
X admet un moment d'ordre k =⇒ ∀j ∈ [[1, k]], X admet un moment d'ordre j .

En utilisant le théorème de transfert, on déduit la :


Proposition 4.
Soit k ∈ N∗ . Alors

X admet un moment d'ordre k ⇐⇒ la fonction t 7−→ tk fX (t) est intégrable sur R


Dans ce cas Z +∞
E(X k ) = tk fX (t)dt
−∞

Dénition 8 (Variance, Écart type).


I On dit que X admet une variance, si X admet un moment d'ordre 2.
On appelle variance de X , notée V(X) la quantité V(X) = E(X − E(X))2 .

I On appelle écart type de X , notée σ(X) la quantité σ(X) = V(X).


p

https://ettahrifouad1.wixsite.com/prepasmarrakech 8/13 ettahrifouad1@gmail.com


Proposition 5.
On suppose que X admet une variance, alors

I V(X) = E(X 2 ) − (E(X))2 .

I V(X) ≥ 0 et V(X) = 0 ⇐⇒ ∃c ∈ R, P(X = c) = 1 (on dit que X est constante presque sûrement.)

I Pour tout α, β ∈ R, αX + β admet une variance et on a V(αX + β) = α2 V(X) et σ(αX + β) = |α|σ(X).

Dénition 9 (v.a.r centrée réduite).


¬ Si E(X) = 0, on dit que X est centrée.

­ Si V(X) = 1, on dit que X est réduite.

® Si E(X) = 0 et V(X) = 1, on dit que X est centrée réduite.

Remarque 6.
On suppose que X admet une variance tel que V(X) > 0, alors
I Y = X − E(X) est centrée.

I Z= X
σ(X)
est réduite.

I W = X−E(X)
σ(X)
est centrée réduite.

Proposition 6 (Inégalité de Cauchy-Schwartz).


On suppose que X et Y admettant un moment d'ordre 2, alors XY admet une espérance et on a l'inégalité de Cauchy-
Schwartz : p p
|E(XY )| ≤ E(X 2 ) E(Y 2 )

X = 0

Avec |E(XY )| = ou .
p p
E(X 2 ) E(Y 2 ) ⇐⇒
∃α ∈ R, Y = αX presque sûrement


Y = αX presque sûrement signie que P(Y = αX) = 1.

b) Variance des lois continues usuelles


Variable aléatoire ( Densité Variance
1
si t ∈ [a, b] (b−a)2
Uniforme : X ∼ U ([a, b]) f (t) = b−a V(X) =
(
0 si t ∈
/ [a, b] 12

λe−λt si t ≥ 0
Exponentielle : X ∼ E(λ) f (t) = V(X) = 1
0 si t < 0 λ2
( α
λ
t α−1 −λt
e si t > 0
Gamma : X ∼ Γ(α, λ) f (t) = Γ(α) V(X) = α
0 si t ≤ 0 λ2

(t−µ)2
Normale : X ∼ N (µ, σ 2 ) f (t) = σ
√1

e− 2σ 2 V(X) = σ 2

Remarque 7.
On dénit la covariance de deux variables aléatoires réelles quelconques, comme dans le cas de deux variables aléatoires
réelles discrètes et on a les mêmes propriétés.

https://ettahrifouad1.wixsite.com/prepasmarrakech 9/13 ettahrifouad1@gmail.com


Proposition 7 (Variance de la somme).
On suppose que X et Y admettant un moment d'ordre 2, alors

¬ X + Y admet une variance et on a : V(X + Y ) = V(X) + V(Y ) + 2C(X, Y ).

­ Si de plus X et Y sont indépendantes, alors V(X + Y ) = V(X) + V(Y ).

Corollaire 2 (Généralisation ).
Soient X1 , ..., Xn des v.a.r admettant un moment d'ordre 2, alors
n n
! n
Xk admet une variance et on a : V C(Xi , Xj ).
X X X X
¬ Xk = V(Xk ) + 2
k=1 k=1 k=1 1≤i<j≤n
n
! n
­ Si de plus X1 , ..., Xn sont indépendantes, alors V V(Xk ).
X X
Xk =
k=1 k=1

Application 2.
n
1 X
Soit (Xn )n∈N∗ une suite de v.a.r indépendantes de même loi. Pour tout n ∈ N, on pose Sn = Xk . Alors
n k=1
V(X1 )
E(Sn ) = E(X1 ) et V(Sn ) =
n

Remarque 8.
On dénit le coecient de corrélation linéaire de deux variables aléatoires réelles quelconques, comme dans le cas de deux
variables aléatoires réelles discrètes et on a les mêmes propriétés.

III) Inégalités, Notion de convergence et théorèmes de limites

1) Inégalités

Théorème 3 (Inégalité de Markov).


Soit X une variable aléatoire réelle positive, admettant une espérance.
Alors
E(X)
∀ε > 0, P(X ≥ ε) ≤
ε

Théorème 4 (Inégalité de Bienyamé-Tchebychev).


Soit X une variable aléatoire réelle, admettant un moment d'ordre 2.
Alors
V(X)
∀ε > 0, P(|X − E(X)| ≥ ε) ≤
ε2

Remarque 9.
La variance permet de contrôler l'écart entre X et son espérance.

Exercice 5
Soit n un entier naturel et X une variable aléatoire suivant la loi géométrique G( n1 ).

¬ Montrer que P(X > n2 ) 6 1


n
.

­ Montrer que P(X > 2n) 6 1 − 1


n
.

https://ettahrifouad1.wixsite.com/prepasmarrakech 10/13 ettahrifouad1@gmail.com


Solution
¬ Comme X(Ω) = N∗ , alors X est positive, or X admet une espérance et E(X) = 1
1 = n.
n
D'après l'inégalité de Markov, on obtient
E(X) 1
P(X > n2 ) 6 =
n2
n
­ On peut remarquer que (X ≥ 2n) = (|X − n| ≥ n) = (|X − E(X)| ≥ n), car X est positive. Or X admet une
1
variance et V(X) = 1− n
( 1 )2
= n2 − n, par l'inégalité de Bienaymé-Tchebychev, on obtient
n

V(X) 1
P(X > 2n) = P(|X − E(X)| ≥ n) 6 =1− 
n2 n
Théorème 5 (Inégalité de Jensen).
Soit X une variable aléatoire réelle, admettant une espérance et ϕ : R −→ R une fonction convexe.
Alors
ϕ (E(X)) ≤ E (ϕ(X))

2) Convergence
a) Convergence en probabilité
Dénition 10 (Convergence en probabilité).
Soit (Xn )n∈N une suite de variables aléatoires sur (Ω, T , P) et X une variable aléatoire réelle sur (Ω, T , P).
On dit que (Xn )n∈N converge en probabilité vers X si :
∀ε > 0, lim P(|Xn − X| ≥ ε) = 0
n→+∞

Exemples
¬ Soit (Xn )n∈N∗ une suite de variables aléatoires discrètes sur (Ω, T , P) dénie par :

Xn (Ω) = {0, n}

1
P(Xn = 0) = 1 − n
1

P(Xn = n) = n

Alors (Xn )n∈N converge en probabilité vers la variable constante X = 0.

­ Soit (Xn )n∈N∗ une suite de variables aléatoires continues sur (Ω, T , P) telle que Xn ∼ U ([0, 1
n
]).
Alors (Xn )n∈N converge en probabilité vers la variable constante X = 0.
Solution
¬ Soit ε > 0,
∀n ≥ 1, (|Xn − X| ≥ ε) = (|Xn | ≥ ε) = (Xn ≥ ε) = (Xn = n).
Alors P(|Xn − X| ≥ ε) = P(Xn = n) = n1 → 0.
n→+∞

­ Soit ε > 0,
∀n ≥ 1, (|Xn − X| ≥ ε) = (|Xn | ≥ ε) = (Xn ≤ −ε) ∪ (Xn ≥ ε).
Alors P(|Xn − X| (≥ ε) = P(Xn ≤ −ε) + P(Xn ≥ ε).
1
= n si t ∈ [0, n1 Z −ε
]
Comme fXn (t) = , alors P(Xn ≤ −ε) = fXn (t)dt = 0.
1
n −0
0 si t ∈ [0, n1 ] −∞
Z +∞
Puisque 1
−→
n n→+∞
0 et ε > 0, alors il existe N ∈ N, ∀n ≥ N , 1
n
< ε, ainsi P(Xn ≥ ε) = fXn (t)dt = 0.
ε
Par suite ∀n ≥ N , P(|Xn − X| ≥ ε) = 0,
D'où P(|Xn − X| ≥ ε) → 0 
n→+∞

Proposition 8.
Soit X une variable aléatoire sur (Ω, T , P) et (fn )n∈N une suite de fonctions de R vers R qui converge simplement vers
f : R −→ R.
Alors (fn (X))n∈N converge en probabilité vers f (X).

Exemple Soit X une variable aléatoire sur (Ω, T , P), alors


 
X n
converge en probabilité vers eX 

1+ n n≥1

https://ettahrifouad1.wixsite.com/prepasmarrakech 11/13 ettahrifouad1@gmail.com


b) Convergence en loi
Dénition 11 (Convergence en loi).
Soit (Xn )n∈N une suite de variables aléatoires réelles sur (Ω, T , P) et X une variable aléatoire réelle sur (Ω, T , P).
On dit que (Xn )n∈N converge en loi vers X si :
∀t ∈ R \ DX , lim FXn (t) = FX (t)
n→+∞

où DX est l'ensemble de points de discontinuité de FX .

Exemple Soit (Xn )n∈N une suite de variables aléatoires continues sur (Ω, T , P) telle que Xn ∼ N (0, n1 ).

Alors (Xn )n∈N converge en loi vers la variable constante X = 0. 

Voici une caractérisation de la convergence en loi pour une suite (Xn )n∈N de variables aléatoires réelles discrètes sur (Ω, T , P)
à valeurs dans N.
Proposition 9 (Caractérisation).
Soit (Xn )n∈N une suite de variables aléatoires réelles sur (Ω, T , P) à valeurs dans N et X une variable aléatoire réelle
sur (Ω, T , P) à valeurs dans N.
Alors
(Xn )n∈N converge en loi vers X ⇐⇒ ∀k ∈ N, lim P(Xn = k) = P(X = k)
n→+∞

Application 3.
Soit (pn )n∈N une suite de réels de [0, 1] tel que lim npn = λ et (Xn )n∈N une suite de variable aléatoire telle que
n→+∞
Xn suit la loi binomiale de paramètre (n, pn ).
Alors la suite (Xn )n∈N converge en loi vers X où X suit la loi de Poisson de paramètre λ.

Preuve :
Soit k ∈ N, on a P(Xn = k) = nk pkn (1 − pn )n−k

nk k λk
Donc P(Xn = k) = n(n−1)···(n−k+1) pkn (1 − pn )n−k ∼ p (1 − pn )n−k ∼ (1 − pn )n−k
k! n→+∞ k! n n→+∞ k!
ln(1−pn )
Comme (1 − pn )n−k = e(n−k) ln(1−pn ) = e−(n−k)pn −pn −→ e−λ , car npn −→ λ et pn ∼ λ
−→ 0
n→+∞ n→+∞ n→+∞ n n→+∞
k k
Par suite λ
k!
(1 − pn )n−k −→ λ
e−λ = P(X = k), ainsi P(Xn = k) −→ P(X = k) 
n→+∞ k! n→+∞

Proposition 10.
Soit (Xn )n∈N une suite de variables aléatoires réelles sur (Ω, T , P) et X une variable aléatoire réelle sur (Ω, T , P).
Si (Xn )n∈N converge en probabilité vers X , alors (Xn )n∈N converge en loi vers X .

Remarque 10.
En général, la réciproque est fausse, comme le montre l'exemple suivant : X ∈ B( 12 ) et ∀n ∈ N, Xn = 1 − X .

3) Théorèmes limites

Théorème 6 (Loi faible de grand nombre).


Soit (Xn )n∈N∗ une suite de variables aléatoires réelles sur (Ω, T , P) de même loi et admettant un moment d'ordre 2.
  n
Sn
Alors converge en probabilité vers la variable aléatoire constante E(X1 ), où Sn = Xk .
X
n n≥1 k=1

https://ettahrifouad1.wixsite.com/prepasmarrakech 12/13 ettahrifouad1@gmail.com


Théorème 7 (de la limite centrée).
Soit (Xn )n∈N∗ une suite de variables aléatoires réelles sur (Ω, T , P) de même loi et admettant un moment d'ordre 2.
n
Sn − E(Sn )
 
Alors converge en loi vers la variable normale centrée réduite N (0, 1), où Sn = Xk .
X

Sn n≥1 k=1
Sn − nE(X1 )
 
Autrement dit : √ converge en loi vers la variable normale centrée réduite N (0, 1)
σ(X1 ) n n≥1

Exercice 6
Appliquer le théorème central limite à une suite (Xn )n≥1 de variables aléatoires indépendantes de loi de Poisson de paramètre
n
nk 1
1, pour démontrer que .
X
lim e−n =
n→+∞
k=0
k! 2

Solution
Comme (Xn )n>1 est une suite de variables aléatoires
 indépendantes
 de même loi admettant un moment d'ordre 2 et E(Xn ) = 1,
V(Xn ) = 1, par le théorème central limite, X1 +...+X

n
n −n
converge en loi vers N où N suit la loi normale centrale réduite.
  n≥1

En particulier P X1 +...+X
√ n −n ≤ 0
n
−→ P(N ≤ 0) = 21 , car fN est paire.
n→+∞
D'autrepart X1 + ... + Xn suit la loi de poisson de paramètre n,
n n
X1 + ... + Xn − n nk nk
donc P
X X
√ ≤0 = P(X1 + ... + Xn ≤ n) = e−n = e−n 
n k=0
k! k=0
k!

https://ettahrifouad1.wixsite.com/prepasmarrakech 13/13 ettahrifouad1@gmail.com

Vous aimerez peut-être aussi