Vous êtes sur la page 1sur 21

h

bi
CHAPITRE

ta
ch
Lois de Probabilités usuelles et Théorème limites

ou
6.1 Lois discrètes

M
e
6.1.1 Loi uniforme
Définition 6.1.1
an
On dit q’une variable aléatoire X suit une loi uniforme discrète lorsque toutes les valeurs prises
par X sont équiprobables. Si X(Ω) = {1, 2, . . . , n} est l’ensemble des valeurs prises par X, alors
ufi

1
P(X = i) = , ∀ i
n

Les paramètres de X sont :


So

n+1 n2 − 1
E(X) = ; V (X) =
2 12

Exemple: 6.1.1
K

Soit La variable aléatoire X donnant le nombre obtenu lors d’un lancer d’un dé équilibré, suit une
T-

loi uniforme

1
P(X = 1) = P(X = 2) = P(X = 3) = P(X = 4) = P(X = 5) = P(X = 6) =
6
ES

72
6.1.2 Loi de Bernoulli
Définition 6.1.2
Soit une variable aléatoire discrète. On dit que X suit une loi de Bernoulli de paramètre p, si et
seulement si, l’ensemble des valeurs possible de X est réduit à {0, 1} (X(Ω)) = {0, 1}) et sa loi de

h
probabilité est définie par :

bi
P(X = 0) = q = (1 − p) et P(X = 1) = p

ta
Remarque:
Une variable aléatoire discrète de Bernoulli modélise souvent le résultat d’une épreuve aléatoire

ch
(dite épreuve de Bernoulli) n’ayant que deux issues possibles :
— L’une, appelée ≪ succès ≫ , a la probabilité p de se réaliser ;

ou
— L’une, appelée ≪ échec ≫ , a la probabilité q de se réaliser ;

Les valeurs caractéristiques d’une variable aléatoire discrète X qui suit une loi de Bernoulli sont

M
données par : X ∼ B(p)
E(X) = p, V (X) = pq = p(1 − p)
Exemple: 6.1.2
e
On prélève au hasard un échantillon d’une pièce d’un lot important de pièces fabriquées dont 3 %
an
de pièces sont défectueuses. On pose : X = 1 si la pièce obtenu est défectueuse et X = 0 sinon.
X(Ω) = {0, 1}. On a P(X = 1) = 0.03 et P(X = 0) = 0.97.
La variable aléatoire X ∼ B(0.03) D’autre part,
ufi


E(X) = 0.03, V (X) = 0.0291, σ = 0.0291 = 0.17
So

6.1.3 Loi Binomiale

La loi binomiale est une loi de probabilité discrète définie sur le X(Ω) = {0, 1, . . . , n}. Cette loi
correspond à une expérience aléatoire dans laquelle on répèten fois de manière indépendante une
K

expérience de Bernoulli avec une probabilité de succès égale à p. On compte alors le nombre de
succès, c’est-à-dire le nombre de fois où la réalisation de la variable de Bernoulli est égale à 1. Le
T-

nombre total de succès, noté X, est une variable aléatoire admettant une distribution binomiale de
paramètres n et p
ES

73
Définition 6.1.3
Soit X une variable aléatoire discrète. On dit que X suit une loi Binomiale de paramètres n et p,
si et seulement si, l’ensemble des valeurs possible de X est {0, 1, . . . , n} (X(Ω) = {0, 1, . . . , n}) et
sa loi de probabilité est définie par :

h
P(X = k) = Cnk pk q n−k ; ∀k ∈ {0, . . . , n}

bi
Remarque:

ta
Une variable aléatoire discrète Binomiale de paramètres n et p, modélise souvent le résultat d’une
épreuve aléatoire de n tirage avec remise dont l’objectif est de compter le nombre de succès :

ch
— n : le nombre de tirages ;
— p : la probabilité de succès au cours de chacune des n tirages.
On note X ∼ B(n, p).

ou
Les valeurs caractéristiques d’une variable aléatoire discrète X qui suit une loi de Binomiale
sont données par :

M
E(X) = np; V (X) = npq
Exemple: 6.1.3
On prélève au hasard un échantillon (tirage successif avec remise) de 7 pièces d’un lot important
e
de pièces fabriquées dont 3 % de pièces sont défectueuses. On pose :
an
X = le nombre de pièces défectueuses obtenu

Alors, la variable aléatoire X ∼ B(7, 0.03).


ufi
So

X(Ω) = {0, 1, . . . , 7}

P(X = k) = C7k pk q 7−k

E(X) = np = 0.21, V (X) = npq = 0.20


K

Exemple: 6.1.4
Grâce aux tarifs réduits de toutes sortes, 90 % des voyageurs de la compagnie de transport bénéficient
T-

de tarifs réduites. Chaque soir, un contrôleur prend les billets de 5 passagers choisis au hasard dans
5 voitures différentes. On note par X la variable aléatoire définie par :
ES

X = le nombre de billets tarif réduit que trouve le contrôleur.

74
La variable aléatoire X ∼ B(5, 0.9)

6.1.4 Loi Géométrique

On répète de manière indépendante une expérience de Bernoulli avec une probabilité de


succès égale à p jusqu’au premier succès. Soit X la variable qui correspond au rang du premier

h
succès : ce rang est nécessairement supérieur ou égal à 1 et inférieur ou égal à n, donc X(Ω) =

bi
{1, 2, . . . , n, . . . }.
Définition 6.1.4

ta
Soit X une variable aléatoire discrète. On dit que X suit une loi géométrique de paramètres p
(on note X ∼ Geom(p)), si et seulement si, l’ensemble des valeurs possible de X est {1, . . . , n, . . . }

ch
(X(Ω) = {1, . . . , n, . . . }) et sa loi de probabilité est définie par :

ou
P(X = k) = (1 − p)k−1 p; ∀k ∈ N∗

Les valeurs caractéristiques d’une variable aléatoire discrète X qui suit une loi de Géométrique sont
données par :
1
E(X) = ;
p
V (X) =
M 1−p
p2
ne
6.1.5 Loi de poisson

La loi de Poisson décrit la probabilité qu’un événement se réalise durant un intervalle de temps
a

donné, lorsque la probabilité de réalisation d’un événement est très faible et que le nombre d’essais
ufi

est très grand. C’est une loi qui est en général utilisée pour modéliser des événements rares tels que
des pannes
So

Définition 6.1.5
Soit X une variable aléatoire discrète. On dit que X suit une loi de Poisson de paramètre λ > 0
(on note : X ∼ P(λ)), si et seulement si, l’ensemble des valeurs possible de X est {0, 1, . . . , n, . . . }
(X(Ω) = N) et sa loi de probabilité est de la forme :
K

λk
P(X = k) = e−λ , ∀k ∈ N.
T-

k!
Les valeurs caractéristiques d’une variable aléatoire discrète X qui suit une loi de Poisson de
paramètre λ, sont données par :
ES

E(X) = λ, V (X) = λ

75
Les valeurs caractéristiques d’une variable aléatoire discrète X qui suit une loi de Poisson de
paramètre λ, sont données par :
E(X) = λ, V (X) = λ

h
La loi de Poisson est utilisée dans les cas suivants : le nombre de pannes d’un système arrivées
dans un laps de temps... nombre d’appels téléphoniques enregistrés par un central ...nombre d’ac-

bi
cidents survenus à un assuré ...nombre d’arrivées à un guichet et la dans la finance pour modéliser

ta
la probabilité de défaut d’un crédit,...
Exemple: 6.1.5

ch
Un employé de la compagnie de transport contrôle chaque lundi 100 voyageurs. On note par X la
variable aléatoire définie par :

ou
X = : le nombre de situations irrégulières que trouve le contrôleur.

La variable aléatoire X ∼ P(2)

M
e
an
ufi

Exemple: 6.1.6
So

Lorsque n devient grand, le calcul des probabilités d’une loi binomiale X ∼ B(n, p) P(X = k) =
Cnk pk (1 − p)n−k devient très fastidieux. On va donc, sous certaines conditions, trouver une approxi-
mation de P(X = k) plus maniable.
K
T-

Comportement asymptotique

Si n→∞ et p→0
ES

alors X ∼ B(n, p) → P(λ) avec np → λ

76
Remarque:
Cette approximation est correcte si n ≥ 50 et np ≤ 5.

h
bi
ta
ch
ou
Exemple: 6.1.7

M
Exercice d’application
Dans une population très nombreuse, des études régulières ont montré qu’il y avait 2 % d’individus
de type A. Calculer la probabilité, dans un échantillon de 100 individus tirés au hasard, d’obtenir :
e
an
1. aucun individu du type A ;

2. au moins deux individus du type A.


ufi

Correction Exercice d’application

Soit X le nombre d’individus du type A figurant dans l’échantillon. Chacun des n = 100
So

individus a la probabilité p = 0, 02 d’être du type A. Et les tirages des individus peuvent être
considérés comme indépendants car la population est très nombreuse.
Dans ce cas, X suit la loi binomiale B(100; 0, 02).
K

1. P(X = 0) = 0.1326

2. P(X ≥ 2) = 1 − P(X = 0) − P(X = 1) = 1 − (0.98)100 − 100 × 0.02 × (0.98)99 = 0.5967


T-
ES

77
6.2 Lois de probabilités continues

6.2.1 Loi uniforme

Soient a, b ∈ R, tels que b ≥ a

h
Définition 6.2.1

bi
On dit qu’une variable aléatoire continue, X, suit une loi uniforme continue (X ∼ U[a,b] ) sur
X(Ω) = [a, b] si sa fonction de densité est définie par :

ta
1


 si x ∈ [a, b]

ch
f (x) = b−a
 0

/ [a, b]
si x ∈

ou
Exemple: 6.2.1
Considérons une variable aléatoire X distribuée selon une loi uniforme continue sur X(Ω) = [0, 20],
sa fonction de densité est définie par

M
1


si x ∈ [0, 20]
20

f (x) =
 0

/ [0, 20]
si x ∈
e
an
Si X ∼ U[a,b] , alors la fonction de répartition de X est donnée par

0 si x<a
ufi




 t−a

FX (t) = si a≤t≤b


 b−a
 1

si x>b
So

Exemple: 6.2.2
Soit X ∼ U[0,20] , alors FX (5) = 14 . Le premier quartile est égal à 5
K

Propriété: 1
Si X ∼ U[a,b] , alors
T-

a+b (b − a)2
E(X) = V (X) =
2 12
ES

78
h
bi
ta
ch
Figure 6.1 – Fonctions de densité et de répartition de la loi uniforme continue U[3,6]

ou
6.2.2 Loi exponentielle

M
Les lois exponentielles modélisent des durées aléatoires, comme des durées de vie de particules
en physique.
Définition 6.2.2
e
oit X une v.a. continue. On dit que X suit une loi Exponentielle de paramètre λ > 0 (intensité) si
an
l’ensemble des valeurs possible X(Ω) = R+ et sa densité de probabilité est définie par :

 0

si t<0
ufi

fX (t) =
 λe−λt

si t ≥ 0
So

Si X suit une loi exponentielle d’intensité λ > 0 on note : X ∼ Exp(λ).


Propriété: 2
Si X ∼ Exp(λ), alors la fonction de répartition de X, FX est donnée par :
K


 0

si t<0
FX (t) =
T-

 1 − e−λt

si t ≥ 0
ES

79
h
bi
ta
ch
Figure 6.2 – Fonctions de densité et de répartition de la loi exponentielle

ou
Propriété: 3

M
Si X ∼ Exp(λ), alors
1 1
E(X) = V (X) =
λ λ2
e
an
6.2.3 Loi normale

La loi normale, ou loi de Laplace-Gauss, est une loi de probabilité continue définie sur l’ensemble
ufi

des réels R. C’est sans conteste la loi de probabilité continue la plus utilisée, notamment en raison
du théorème central limite. La densité de la loi normale dépend d’un paramètre de location (qui
correspond à son espérance) noté µ et d’un paramètre d’échelle (qui correspond à sa variance) noté
So

σ2 .
Définition 6.2.3
On dit qu’une v.a. X suit suit une loi normale d’espérance µ et de variance σ 2 , notée N (µ, σ 2 ), si
K

sa fonction de densité est définie sur X(Ω) = R par :

1 1
2 !
x−µ

T-

fX (x) = √ exp − ∀x ∈ R
2πσ 2 2 σ

avec µ ∈ R et σ ∈ R+ .
ES

80
h
bi
ta
ch
Figure 6.3 – Exemple de fonctions de densité de lois normales

ou
Proposition: 6.2.1

M
Si X ∼ N (µ, σ 2 ), alors :

E(X) = µ ; V (X) = σ 2 .
e
Parmi les lois normales générales, on distingue la loi normale centrée réduite ou loi normale
an
standard, d’espérance nulle et de variance égale à 1.
Définition 6.2.4
ufi

On dit qu’une v.a. X suit une loi normale centrée réduite, notée N (0, 1), si sa fonction de densité
est définie par :
1
!
x2
φ(x) = √ exp − ∀ x ∈ R.
So

2π 2

Remarques:
— Si X est une v.a aléatoire de loi normale centrée réduite, alors E(X) = 0 et V (X) = 1.
K

— On admet que
X −µ
X ∼ N (µ, σ 2 ) ⇐⇒ ∼ N (0, 1)
σ
T-

Propriété: 4
Si X ∼ N (µ, σ 2 ), alors sa fonction de répartition FX est donnée par :
ES

81
h
bi
ta
ch
Figure 6.4 – Exemple de répartition de lois normales

ou
1 1
Z t Z t 2 !
u−µ

FX (t) = fX (u)du = √ exp − du ∀t ∈R
2

M
−∞ −∞ 2πσ 2 σ

Définition 6.2.5
La fonction de répartition de la loi normale centrée réduite N (0, 1), notée Φ(t), est définie par :
ne
1 x2
Z t Z t
Φ(t) = φ(x)dx = √ exp(− ) dx ∀ t ∈ R
−∞ −∞ 2π 2
a

Remarque:
Pour de nombreuses lois continues usuelles (loi normale, loi du khi-deux, loi de Student, loi de
ufi

Fisher-Snedecor, etc.), il est impossible d’exprimer la fonction de répartition avec des fonctions
simples. Toutefois, il est possible de déterminer numériquement la valeur de FX (x) : pour cela on
So

utilise soit des logiciels, soit des tables de loi.

Exemples: 6.2.1
K

Soit X une variable aléatoire qui suit la loi normale centrée réduite.
— Φ(0, 52) = P(X ≤ 0, 52) = 0, 6985
T-

— P(X > 0, 33) = 1 − P(x ≤ 0, 33) = 1 − Φ(0, 33) = 1 − 0, 6293 = 0, 3707


— P(0 ≤ X ≤ 0, 6) = Φ(0, 6) − Φ(0) = 0, 7257 − 0, 5 = 0, 2257
ES

82
h
bi
ta
ch
ou
Remarque:
Si X ∼ N (µ, σ 2 ) et on veuille calculer FX (c) = P(X ≤ c) où c est une valeur réelle. On peut alors
exprimer cette probabilité cumulée à l’aide de la fonction de répartition Φ(.) de la loi N (0, 1),

M
X −µ c−µ c−µ
   
FX (c) = P(X ≤ c) = P ≤ =Φ
σ σ σ
e
Exemple: 6.2.3
Soit X une variable aléatoire réelle telle que X ∼ N (0, 8, 4). Calculons la probabilité cumulée
an
FX (1, 84).

X − 0, 8 1.84 − 0, 8
 
ufi

FX (1, 84) = P(X ≤ 1, 84) = P ≤ = Φ(0.52) = 0, 6985


2 2

Remarque:
— La table e la loi normale donne les valeurs de Φ(x) en fonction de x pour 0 ≤ x ≤ 4.09 avec
So

0, 01 comme pas.
— La table donne Φ(x) uniquement pour des valeurs positives de x. Pour des valeurs négatives,
on utilise le fait que Φ(x) = 1 − Φ(−x) pour x ≤ 0.
K

Exemple: 6.2.4
Soit X une variable aléatoire réelle telle que X ∼ N (0, 8, 4). Calculons la probabilité cumulée
T-

FX (−0, 4).
ES

83
X − 0, 8 −0, 4 − 0, 8
 
FX (−0, 4) = P(X ≤ −0, 4) = P ≤
2 2
X − 0, 8
 
=P ≤ −0, 6
2
= Φ(−0, 6)

h
= 1 − Φ(0, 6)

bi
= 1 − 0, 7257 = 0, 2743

ta
Proposition: 6.2.2
Soient X1 , . . . , Xn des variables aléatoires réelles indépendantes telles que Xi ∼ N (µi , σi2 ) pour

ch
i = 1, . . . , n alors
n
Xi ∼ N (µ, σ 2 )
X

i=1

ou
avec µ = =
Pn Pn
i=1 µi et σ2 2
i=1 σi .

6.2.4 Loi du Khi-deux

M
— La loi Khi-deux est une loi de probabilité continue définie sur X(Ω) = R+ .
— Sa densité dépend d’un paramètre appelé nombre de degrés de liberté, noté k ∈ N∗ .
e
Définition 6.2.6
Soient X1 , X2 , . . . , Xk des variables aléatoires réelles indépendantes telles que Xi ∼ N (0, 1) pour
an
i = 1, . . . , k ∈ N. Alors
k
Xi2 ∼ χ2 (k)
X
ufi

i=1

Remarque:
si la variable X suit une loi normale centrée réduite, la variable X 2 suit une distribution du khi-deux
So

à 1 degré de liberté.

Définition 6.2.7
Un variable aléatoire réelle X suit une loi de Khi-deux à k ∈ N∗ degrés de liberté sur X(Ω) = R+
K

si sa fonction de densité est définie par :

1 x
T-

 
k
−1
fX (x) =  x 2 exp − , ∀x ≥ 0
k
22 Γ k 2
2
ES

84
Remarque:
La fonction gamma, notée Γ(x), est définie pour tout x ∈ R par :
Z +∞
Γ(x) = tx−1 exp (−t) dt.
0

Cette fonction gamma est programmée dans tous les logiciels de statistique et les tableurs (fonction

h
GAMMA par exemple sous Excel).

bi
Si x ∈ N, alors Γ(x) = (x − 1)!

ta
Exemple: 6.2.5
Soit X ∼ χ2 (4). La densité de X évaluée au point x = 2 est égale à :

ch
1 2
 
4
−1
fX (2) =  x 2 exp −
4
22 Γ 4 2
2

ou
exp(−1)
Sachant que Γ(2) = (2 − 1)! = 1, on trouve fX (2) = 2 = 0, 1839

Remarque:

M
Comme pour la loi normale, il n’existe pas de forme analytique pour la fonction de répartition de
la loi du khi-deux. Par conséquent si l’on souhaite calculer une probabilité cumulée pour une loi du
khi-deux on doit recourir à une table statistique, à un logiciel de statistique ou à un tableur (par
ne
exemple la fonction LOI.KHIDEUX sous Excel).
a

Une table de la fonction de répartition de la loi du khi-deux est disponible. Sur cette table sont
ufi

reportées les valeurs z ayant une probabilité p d’être dépassées, i. e. P(X ≥ z) = p. Les probabilités
p figurent en en-têtes de colonnes et vont de 0, 001 à 0, 99. En ligne figure le nombre de degrés de
liberté k de la loi du khi-deux qui varie de 1 à 120.
So
K
T-
ES

85
h
bi
ta
ch
ou
Exemple: 6.2.6

M
Soit X ∼ χ(5). On souhaite calculer la probabilité cumulée FX (1, 61) = P(X ≤ 1, 61) = 1 − P(X ≥
1, 61) Sur la ligne k = 5 on cherche la valeur la plus proche de 1, 61. Cette valeur figure dans le
tableau et correspond à une probabilité p égale à 0, 9. Par conséquent, FX (1, 61) = P(X ≤ 1, 61) =
ne
1 − P(X ≥ 1, 61) = 1 − 0, 9 = 0, 10

Propriété: 5
a

Soit X ∼ χ2 (k), alors E(X) = k et V (X) = 2k.


ufi

6.2.5 Loi de Student


Définition 6.2.8
So

Une X une v.a réelle définie sur X(Ω) = R suit une loi de Student si sa fonction de densité est
définie par :   !− ν+1
Γ ν+12 x2 2
K

fX (x) = √ 1 + , ∀x ∈ R
νπΓ ν2

ν

— La densité d’une loi de Student une loi de probabilité continue définie sur l’ensemble des
T-

réels R.
— La densité d’une loi de Student dépend d’un paramètre appelé nombre de degrés de liberté,
ES

noté ν ∈ N∗ .

86
— Si une variable aléatoire X dé fini e sur X(Ω) = R suit une loi de Student à ν degrés de
liberté, on note alors X ∼ t(ν)
Propriété: 6 (Définition)
Soient Y et Z deux variables aléatoires réelles indépendantes telles que Y ∼ N (0, 1) et Z ∼ χ2 (ν),
alors

h
Y
p ∼ t(ν)

bi
Z/ν
Remarques:

ta
1. Comme pour la loi normale et la loi du khi-deux, il n’existe pas de forme analytique pour
la fonction de répartition de la loi de Student (on peut utiliser la fonction LOI.STUDENT

ch
sous Excel).

2. La plupart du temps on utilise les tables de la loi de Student pour déterminer des probabilités

ou
du type P(|X| ≥ z). Les probabilités p figurent en en-têtes de colonnes et vont de 0,005 à
0,90. En ligne figure le nombre de degrés de liberté v de la loi deStudent qui varie de 1 à 20.

M
Propriétés: 1
Si X ∼ χ(ν) alors E(X) = 0 si ν ≥ 2 et V (X) = ν
ν−2 si ν ≥ 3
ne
6.3 Théorèmes limites

Toutes les variables aléatoires sont définies sur le même espace probabilisé (Ω, F, P). Soit
a

(Xn )n∈N une suite de variables aléatoires et X une autre variable aléatoire.
ufi

Définition 6.3.1
On dit que la suite (Xn )n∈N converge en probabilité vers X si
So

∀ ε > 0, lim P (|Xn − X| > ε) = 0


n→+∞

P
On note Xn −
→ X.
K

Définition 6.3.2
Soit une suite de variables aléatoires (Xn ) ayant pour fonction de répartition Fn . On dit que (Xn )
T-

converge en loi (ou en distribution) vers une variable aléatoire X définie sur X(Ω) et ayant pour
fonction de répartition F si
ES

lim Fn (x) = F (x) ∀x ∈ X(Ω)


n→+∞

87
h
bi
ta
ch
ou
Figure 6.5 – Illustration de la notion de convergence en loi

M
d
On note Xn −
→ X. e
Théorème 6.3.1
an
Soient des variables aléatoires X1 , . . . , Xn indépendantes telles que E(Xi ) = m et V (Xi ) = σ 2 ,
∀i = 1, · · · , n. La moyenne empirique de ces variables converge en probabilité vers l’espérance m :
ufi

n
1X
X̄n = → E(Xi ) = m
P
Xi −
n i=1

Exemple: 6.3.1
So

On considère n variables aléatoires discrètes X1 , . . . , Xn indépendantes et identiquement distribuées


telles que Xi ∼ P(λ). D’après les propriétés de la loi de Poisson, on sait que E(Xi ) = λ. Par
conséquent, d’après le loi faible des grands nombres, on a :
K

n
1X
X̄n =
P
Xi −
→λ
n i=1
T-

Exemple: 6.3.2
On considère des variables aléatoires indépendantes et identiquement distribuées selon une loi uni-
ES

forme Xi ∼ U[0,10] , ∀i = 1, . . . , n avec E(Xi ) = 5. On applique la procédure suivante :

88
h
bi
ta
ch
ou
Figure 6.6 – Illustration de la loi faible des grands nombres

M
1. Grâce à un logiciel, on tire des réalisations {x1 , . . . , xn } des n variables {X1 , . . . , Xn }. Si
n = 3, on obtient par exemple trois réalisations {1, 7363; 4, 9926; 7, 6626}.
e
2. On calcule une réalisation de la moyenne empirique Ȳn . Cette réalisation est notée ȳn =
an
Dans l’exemple précédent, on obtient Ȳn = 4, 8105.
1 Pn
n i=1 yi .

3. On répète 5000 fois les étapes 1 et 2. On obtient ainsi 10000 réalisations de la variable Ȳn .

4. On construit l’histogramme de ces 10000 réalisations.


ufi

5. On répète l’expérience pour différentes valeurs de la dimension n (taille d’échantillon). Il


convient de ne pas confondre ici la taille d’échantillon n (par exemple 3) et le nombre de
So

réplications 10000.
K

On observe que lorsque la dimension n est très grande, les réalisations de la moyenne empirique
Ȳn tendent à se concentrer autour de la valeur de l’espérance E(Yi ) = 5.
T-

Le théorème central limite est sans conteste le théorème fondamental de la statistique inférentielle.
ES

89
Théorème 6.3.2
Soient X1 , . . . , Xn une séquence de variables aléatoires indépendantes et identiquement distribuées
avec une espérance finie E(Xi ) = m et une variance finie V (Xi ) = σ 2 , ∀i = 1, . . . , n. Alors
1 Pn
i=1 Xi −m d

h
n √ → N (0, 1)

σ/ n

bi
Remarque:
Le théorème central limite s’applique quelle que soit la distribution des variables aléatoires X1 , . . . , Xn .

ta
La seule hypothèse est que ces variables doivent être indépendantes et identiquement distribuées.

On considère des variables aléatoires indépendantes et identiquement distribuées selon une loi

ch
du khi-deux Xi ∼ χ(2), ∀i = 1, . . . , n avec E(Xi ) = 2 et V (Xi ) = 4 On applique la procédure
suivante :

ou
1. Grâce à un logiciel, on tire des réalisations {x1 , . . . , xn } des n variables {X1 , . . . , Xn }. Si
n = 3, on obtient par exemple trois réalisations {0, 7444; 1, 5487; 1, 8604}.

M
2. On calcule une réalisation de la moyenne empirique X̄n . Dans l’exemple précédent, on obtient
x̄n = 1, 3845.

3. On considère la variable aléatoire transformée :


e
1 Pn
i=1 Xi −m
an
Zn = n √
σ/ n
À partir de la réalisation de la moyenne empirique x̄n on calcule une réalisation de cette
x̄n − 2
variable transformée comme zn = √ Dans l’exemple précédent on obtient une valeur
ufi

2/ 3
de zn = −0, 5331.

4. On répète cette procédure 5000 fois (étapes 1 à 3). On obtient alors 5 000 réalisations de la
So

variable zn ·

5. On construit un histogramme de ces 5000 réalisations et l’on compare cet histogramme à la


densité d’une loi normale centrée réduite N (0, 1).
K

Sur la figure sont reportés l’histogramme des 5000 réalisations Zn , la fonction de densité d’une
loi normale centrée réduite, et un estimateur kernel de la densité de la variable Zn , obtenus pour
T-

deux valeurs de n, à savoir n = 10 et n = 10000. On observe que lorsque la dimension n est très
grande, la distribution empirique de la variable transformée Zn tends vers une distribution normale
ES

centrée et réduite.

90
h
bi
ta
ch
ou
Propriété: 7
Lorsque le nombre de degrés de liberté tend vers l’infini, la distribution de Student converge (en
distribution) vers la loi normale centrée réduite.

M
a ne
ufi
So
K
T-
ES

91
h
bi
ta
ch
ou
M
a ne
Figure 6.7 – Fonction de densité de la loi de Student
ufi
So
K
T-
ES

92

Vous aimerez peut-être aussi