Vous êtes sur la page 1sur 8

Chap.III : Convergences. Théorèmes limites.

Approximations.

I- Autres lois.
Loi discrète :
 Loi hypergéométrique de paramètres N, n et p :
Soit N et 𝑛 deux entiers naturels tels que 𝑛 ≤ N et p ∈ [0,1] tel que Np soit entier.
Une variable aléatoire X suit une loi hypergéométrique de paramètres N, 𝑛 et p, notée (ℋ, n, p),
si la variable aléatoire X prend la valeur k avec la probabilité égale à :
𝑁𝑝 𝑁−𝑁𝑝
( 𝑘 )( 𝑛−𝑘 )
𝑃(𝑋 = 𝑘) = . Nous notons 𝑞 le nombre 1 − 𝑝.
(𝑁
𝑛)
Remarques :
1. La loi hypergéométrique modélise toutes les situations qui s'apparentent à un tirage sans
remise.
2. La loi hypergéométrique prend les valeurs entières comprises entre max(0, 𝑛 − 𝑁 + 𝑁𝑝) et
min(𝑁𝑝, 𝑛).
Propriétés :
L'espérance et la variance d'une variable aléatoire 𝑋 suivant une loi hypergéométrique de
paramètres 𝑁, 𝑛, 𝑝 sont égales respectivement à
𝑁−𝑛 𝑁−𝑛
𝐸[𝑋] = 𝑛𝑝 et 𝑉𝑎𝑟[𝑋] = 𝑛𝑝(1 − 𝑝) 𝑁−1 = 𝑛𝑝𝑞 𝑁−1
Remarques :
1. L'espérance d'une loi hypergéométrique (ℋ, n, p) est égale à l'espérance d'une loi binomiale
ℬ(𝑛, 𝑝).
2. La variance d'une loi hypergéométrique (ℋ, n, p) est égale à la variance d'une loi binomiale
𝑁−𝑛
ℬ(𝑛, 𝑝) au facteur multiplicatif près. Dans un contexte statistique, ce facteur s'appelle le
𝑁−1
facteur d'exhaustivité. Il est toujours inférieur ou égal à 1.

 Loi géométrique de paramètre p :


Soit 𝑝 ∈ ]0; 1[. Une variable aléatoire 𝑋 suit une loi géométrique de paramètre 𝑝, notée 𝐺(𝑝), si
la variable aléatoire 𝑋 prend la valeur 𝑘 ≥ 1 avec la probabilité égale à :
𝑃(𝑋 = 𝑘) = (1 − 𝑝)𝑘−1 𝑝.
Remarques :
1. Cette loi sert généralement lorsque nous nous intéressons au temps d’attente du premier
succès, c’est-à-dire au nombre d’essais nécessaires pour obtenir un succès, lors d’une succession
d’expériences aléatoires indépendantes n’ayant que deux issues possibles : le succès avec une
probabilité p et l’échec avec une probabilité 1 − p.
2. La loi géométrique est parfois utilisée pour modéliser des durées de vie. Par exemple, la loi
géométrique est le modèle discret de la mort d’une particule radioactive. La loi géométrique est
la version discrète d’une loi absolument continue : la loi exponentielle.
Propriétés :
L’espérance et la variance d’une variable aléatoire X suivant une loi géométrique de paramètre 𝑝
sont égales respectivement à :
1 1−𝑝
𝐸[𝑋] = 𝑝 et 𝑉[𝑋] = .
𝑝2

Loi continue :
 Loi Gamma Г(𝒓, 𝝀) :
La loi exponentielle est un cas particulier d’une famille de lois appelées lois gamm ;a.
Une variable aléatoire 𝑋 à valeurs dans [0, +∞[ suit une loi gamma de paramètres r et λ
(r > 0, λ > 0), notée Г(𝑟, 𝜆), si 𝑋 est une variable continue et admet pour densité de probabilité la
fonction 𝑓(𝑥) suivante :
𝜆𝑟 𝑟−1
𝑥 𝑒𝑥𝑝(−𝜆𝑥) 𝑝𝑜𝑢𝑟 𝑥 ≥ 0
𝑓(𝑥) = { Г(𝑟)
0 𝑝𝑜𝑢𝑟 𝑥 < 0
+∞
où Г(𝑟) = ∫0 𝑥 𝑟−1 exp(−𝑥) 𝑑𝑥 est la fonction gamma d’Euler.
Remarque :
Pour 𝑟 = 1, Г(1, 𝜆) coïncide avec la loi exponentielle 𝜀(𝜆).
Propriétés :
1. La fonction de répartition d’une loi gamma Г(𝑟, 𝜆) n’a pas de forme explicite.
2. Soit 𝑋 une variable aléatoire qui suit une loi gamma Г(𝑟, 𝜆). Nous avons :
𝑟 𝑟
𝐸(𝑋) = 𝜆 et 𝑉(𝑋) = 𝜆2
3. Si (𝑋1 ; 𝑋2 ) est un couple de variables aléatoires indépendantes de lois respectivement
gamma Г(𝑟1 , 𝜆) et gamma Г(𝑟2 , 𝜆) alors la somme 𝑋1 + 𝑋2 suit une loi gamma Г(𝑟1 + 𝑟2 , 𝜆).
4. La loi gamma Г(𝑛, 𝜆), (n entier > 0, λ > 0) coïncide avec la loi de la somme de n variables
aléatoires indépendantes suivant toutes la loi exponentielle 𝜀(𝜆).
5. Soit 𝑌 une variable aléatoire qui suit la loi normale N (0,1). Alors 𝑋 = 𝑌 2 a pour loi
Г(1/2, 1/2).
6. Soit (𝑌1 ,. . . , 𝑌𝑛 ) un système de n variables aléatoires indépendantes suivant la loi
normale N (0,1). Alors 𝑌1 2 + . . . + 𝑌𝑛 2 n suit une loi gamma Г(n/2, 1/2). Cette loi n’est rien
d’autre que la loi du khi-deux à n degrés de liberté.

 Lois bêta 𝑩𝒆𝒕𝒂(𝒏, 𝒑) :


Une variable aléatoire 𝑋 à valeurs dans [0, 1] suit une loi bêta de paramètres 𝑛 et 𝑝
(𝑛 > 0 , 𝑝 > 0), notée 𝐵𝑒𝑡𝑎(𝑛, 𝑝), si 𝑋 est une variable continue et admet pour densité de
probabilité la fonction 𝑓(𝑥) suivante :
1
𝑥 𝑛−1 (1 − 𝑥)𝑝−1 𝑝𝑜𝑢𝑟 0 ≤ 𝑥 ≤ 1
𝑓(𝑥) = {𝐵(𝑛,𝑝)
0 𝑠𝑖𝑛𝑜𝑛

Г(𝑛)Г(𝑝)
avec 𝐵(𝑛, 𝑝) = qui est la fonction Beta.
Г(𝑛+𝑝)
Propriétés :
1. La fonction de répartition d’une loi bêta 𝐵𝑒𝑡𝑎(𝑛, 𝑝) n’a pas de forme explicite.
2. Soit 𝑋 une variable aléatoire qui suit une loi bêta 𝐵𝑒𝑡𝑎(𝑛, 𝑝). Nous avons :
𝑛 𝑛𝑝
𝐸(𝑋) = 𝑛+𝑝 et 𝑉(𝑋) = (𝑛+𝑝+1)(𝑛+𝑝)2

 Loi de Fisher-Snedecor 𝑭(𝒏, 𝒑) :


Soit 𝑛 et 𝑝 deux entiers positifs. Une variable aléatoire 𝑋 suit une loi de Fisher-Snedecor (ou loi
de Fisher) à 𝑛 et 𝑝 degrés de liberté, notée 𝐹(𝑛, 𝑝) , si 𝑋 est une variable continue et admet
pour densité de probabilité la fonction 𝑓(𝑥) suivante :
𝑛+𝑝 𝑛−2
Г( 2 ) 𝑛 𝑛 𝑥 2
𝑓 (𝑥 ) = 𝑛 𝑝 ( )
2 𝑛+𝑝 pour 𝑥 ≥ 0 et 𝑓(𝑥) = 0 si 𝑥 < 0.
Г( )Г( ) 𝑝 (1+𝑛𝑥) 2
2 2 𝑝
Propriétés :
1.Soit 𝑋 une variable aléatoire qui suit une loi de Fisher 𝐹(𝑛, 𝑝). Nous avons :
𝑝
si 𝑝 ≥ 3 , 𝐸(𝑋) =
𝑝−2
2𝑝2 (𝑛+𝑝−2)
si 𝑝 ≥ 5 , 𝑉(𝑋) =
𝑛(𝑝−2)2 (𝑝−4)
2. Soit 𝑋 et 𝑌 étant deux variables aléatoires suivant indépendamment des lois du χ2 à 𝑛 et 𝑝
𝑋/𝑛
degrés de liberté respectivement. Alors la variable aléatoire 𝑌/𝑝
suit une loi de Fisher-Snedecor à
𝑛 degrés de liberté au numérateur et 𝑝 degrés de liberté au dénominateur.

II- Moments et fonctions génératrices d'une variable


aléatoire.
Loi discrète :
Théorème du transfert : Soit g une fonction définie sur 𝑋(Ω) à valeurs dans 𝐼𝑅. Lorsque g(X)
admet une espérance mathématique, nous avons : 𝐸(𝑔(𝑋)) = ∑𝑖 𝑔(𝑥𝑖 )𝑝(𝑥𝑖 ).
Moment simple et moment centré d'ordre r :
Soit 𝑟 ∈ 𝐼𝑁 ∗ . Sous réserve d'existence (s’il existe), nous appelons moment simple d'ordre 𝒓 de la
variable aléatoire 𝑿 la valeur : 𝜇𝑟 (𝑋) = 𝐸(𝑋 𝑟 ).
Remarques :
1. Le moment d'ordre 1 de la variable aléatoire 𝑋, noté plus simplement 𝜇 ou encore 𝜇(𝑋) s'il y a
plusieurs variables aléatoires à distinguer, est l'espérance mathématique 𝐸(𝑋) de 𝑋.
2. Si une variable aléatoire possède un moment simple d'ordre 𝑟, elle possède un moment simple
pour tout ordre 𝑠 ∈ [1, 𝑟].
3. Si 𝑋(Ω) est un ensemble fini, alors la variable aléatoire 𝑋 admet des moments simples à tous les
ordres 𝑟 ∈ 𝐼𝑁 ∗ .

- Soit 𝑟 ∈ 𝐼𝑁 ∗ . Sous réserve d'existence, nous appelons moment centré d'ordre 𝒓 de 𝑿 le réel :
𝑟
𝜇𝑚𝑟 (𝑋) = 𝐸((𝑋 − 𝐸(𝑋)) ) = 𝐸((𝑋 − 𝜇)𝑟 ).
Remarques :
1. Pour 𝑟 = 1, nous avons 𝜇𝑚1 (𝑋) = 𝐸(𝑋 − 𝜇) = 0.
Pour 𝑟 = 2, 𝜇𝑚2 (𝑋) est appelée la variance de 𝑋 noté 𝑉𝑎𝑟(𝑋) ou 𝑉(𝑋) ou encore 𝜎 2 .
2. Si une variable aléatoire possède un moment centré d'ordre 𝑟, elle possède un moment centré
pour tout ordre 𝑠 ∈ [1, 𝑟].
3. Si 𝑋(Ω) est un ensemble fini, alors la variable aléatoire 𝑋 admet des moments centrés à tous les
ordres 𝑟 ∈ 𝐼𝑁 ∗ .
4. Si la variable aléatoire 𝑋 ne possède pas d'espérance mathématique, alors la variable 𝑋 ne peut
admettre de moment centré.

Propriété :
1. Pour tous réels a et b et pour toute variable aléatoire discrète X admettant une variance, nous
avons : 𝑉(𝑎𝑋 + 𝑏) = 𝑎2 𝑉(𝑋)
2. 𝑉(𝑋) = 𝐸((𝑋 − 𝜇)2 ) = 𝜇𝑚2 (𝑋)
3. Le moment centré d'ordre 3, lorsqu'il existe, de la v.a.d. 𝑋 dont σ > 0 fournit le coefficient
𝐸((𝑋−𝜇)3 )
d'asymétrie :
𝜎3
4. Le moment centré d'ordre 4, lorsqu'il existe, de la v.a.d. 𝑋 dont σ > 0 fournit le coefficient
𝐸((𝑋−𝜇)4 )
d'aplatissement : −3
𝜎4
5. La formule de Huygens : 𝑉(𝑋) = 𝐸(𝑋 2 ) − 𝐸 2 (𝑋)

Vocabulaires :
– Si 𝐸(𝑋) = 0, alors 𝑋 est une variable aléatoire centrée.
– Si 𝑉(𝑋) = 1, alors 𝑋 est une variable aléatoire réduite.
𝑋−𝜇𝑋
– Si 𝑋 admet une variance non nulle, la variable 𝑋 ∗ = est appelée variable centrée et
𝜎𝑋
réduite associée à 𝑿.
Fonctions génératrices d’une variable aléatoire discrète :
Fonction génératrice des moments :
Considérons la fonction 𝑔𝑋 (𝑡) = 𝐸(exp(𝑡𝑋)) définie pour l'ensemble des valeurs de 𝑡 pour
lesquelles 𝐸(𝑒𝑥𝑝(𝑡 𝑋)) < +∞. 𝑔𝑋 (𝑡) est la fonction génératrice des moments de la variable aléatoire
discrète 𝑿 lorsqu'elle est définie dans un voisinage de l'origine.
Propriété :
Le moment d'ordre 𝑟 de 𝑋 est donné par :
𝜇𝑟 = 𝑔𝑋 (𝑟) (0) avec 𝑔𝑋 (𝑟) est la dérivée d'ordre 𝑟 de 𝑔𝑋 .

Fonction génératrice :
Nous appelons fonction génératrice de la variable aléatoire discrète 𝑿 à valeurs dans IN, la série entière
𝐺𝑋 (𝑡) = ∑+∞ 𝑘 𝑋
𝑘=0 𝑡 𝑃(𝑋 = 𝑘) = 𝐸(𝑡 ) , 𝑡 ∈ [−1, +1].
La fonction génératrice ne dépend que de la loi de 𝑋. Elle caractérise la loi de 𝑋.

Loi continue :
Théorème du transfert : Soit 𝐼 un intervalle d’extrémités 𝑎 et 𝑏, (−∞ ≤ 𝑎 < 𝑏 ≤ +∞),
contenant 𝑋(Ω). Soit 𝑔 une fonction à valeurs dans IR définie et continue sur 𝐼 sauf en un nombre fini de
valeurs.
𝑏
𝑔(𝑋) admet une espérance mathématique 𝐸(𝑔(𝑋)) si et seulement si ∫𝑎 𝑔(𝑡) 𝑓𝑋 (𝑡)𝑑𝑡 est absolument
𝑏
convergente et nous avons : 𝐸(𝑔(𝑋)) = ∫𝑎 𝑔(𝑡) 𝑓𝑋 (𝑡)𝑑𝑡.
Moment simple et moment centré d’ordre r :
-Soit 𝑟 ∈ 𝐼𝑁 ∗ . Sous réserve d’existence, nous appelons moment simple d’ordre 𝒓 de la variable aléatoire
𝑿 la valeur :
+∞
𝜇𝑟 (𝑋) = 𝐸(𝑋 𝑟 ) = ∫−∞ 𝑡 𝑟 𝑓𝑋 (𝑡)𝑑𝑡.
Remarques :
1. Le moment d’ordre 1 de la variable aléatoire 𝑋, noté plus simplement 𝜇 ou encore 𝜇(𝑋) s’il y a
plusieurs variables aléatoires à distinguer, est l’espérance mathématique 𝐸(𝑋) de 𝑋.
2. Si une variable aléatoire possède un moment simple d’ordre 𝑟, elle possède un moment simple
pour tout ordre 𝑠 ∈ [1, 𝑟].

-Soit 𝑟 ∈ 𝐼𝑁 ∗ . Sous réserve d’existence, nous appelons moment centré d’ordre r de X le réel :
𝑟
𝜇𝑚𝑟 (𝑋) = 𝐸((𝑋 − 𝐸(𝑋)) ) = 𝐸((𝑋 − 𝜇)𝑟 ).
Remarques :
1. Pour r = 1, nous avons 𝜇𝑚1 (𝑋) = 𝐸(𝑋 − 𝜇) = 0.
Pour r = 2, 𝜇𝑚1 (𝑋) est appelée la variance 𝑉(𝑋) de 𝑋.
2. Si une variable aléatoire possède un moment centré d’ordre r, elle possède un moment centré
pour tout ordre s ∈ [1, r].
3. Si la variable aléatoire X ne possède pas d’espérance mathématique, alors la variable X ne peut
admettre de moment centré.
Théorème :
X admet une variance si et seulement si X2 admet une espérance mathématique. La formule de
Huygens est alors valable : 𝑉(𝑋) = 𝐸(𝑋 2 ) − 𝐸 2 (𝑋).

Propriétés :
1. 𝑉(𝑋) = 𝐸((𝑋 − 𝜇)2 ) = 𝜇𝑚2 (𝑋).
2. 𝑉(𝑎𝑋 + 𝑏) = 𝑎2 𝑉(𝑋).

Vocabulaires :
– Si 𝐸(𝑋) = 0, alors 𝑋 est une variable aléatoire centrée.
– Si 𝑉(𝑋) = 1, alors 𝑋 est une variable aléatoire réduite.
𝑋−𝜇𝑋
– Si 𝑋 admet une variance non nulle, la variable 𝑋 ∗ = est appelée variable centrée et
𝜎𝑋
réduite associée à 𝑿.

Fonction génératrice des moments :


Considérons la fonction 𝑔𝑋 (𝑡) = 𝐸(𝑒𝑥𝑝(𝑡𝑋)) définie pour l’ensemble des valeurs de t pour
lesquelles 𝐸(𝑒𝑥𝑝(𝑡𝑋)) < +∞. 𝑔𝑋 (𝑡) est la fonction génératrice des moments de la variable aléatoire
continue X lorsqu’elle est définie dans un voisinage de l’origine.

III- Convergences.
Convergence en loi :
Soit (𝑋𝑛 )𝑛≥1 une suite de variables aléatoires définies sur un même espace probabilisé (𝛺, ℱ, 𝑃) et
𝐹𝑛 la suite des fonctions de répartition correspondantes. Soit 𝑋 une variable aléatoire définie sur le
même espace probabilisé (𝛺, ℱ, 𝑃) et 𝐹𝑋 sa fonction de répartition. Nous disons que la suite (𝑋𝑛 )𝑛≥1
converge en loi vers 𝑋 si, en tout point 𝑥 de continuité de 𝐹𝑋 , nous avons :
lim 𝐹𝑛 (𝑥) = 𝐹𝑋 (𝑥).
𝑛→+∞
Remarques :
1. Pour des variables discrètes à valeurs entières, la convergence en loi vers une variable discrète à
valeurs entières s'exprime par : ∀𝑘 ∈ 𝐼𝑁, lim 𝑃(𝑋𝑛 = 𝑘) = 𝑃(𝑋 = 𝑘).
𝑛→+∞
2. La suite (𝑋𝑛 )𝑛≥1 converge en loi vers 𝑋 si et seulement si pour tout couple de points 𝑎 et 𝑏 de
continuité de 𝐹𝑋 , nous avons : lim 𝑃(𝑎 < 𝑋𝑛 ≤ 𝑏) = 𝑃(𝑎 < 𝑋 ≤ 𝑏).
𝑛→+∞
Convergence en probabilité :
Soit (𝑋𝑛 )𝑛≥1 une suite de variables aléatoires définies sur un même espace probabilisé (𝛺, ℱ, 𝑃) et
𝑋 une variable aléatoire définie sur le même espace. Nous disons que la suite (𝑋𝑛 )𝑛≥1 converge en
probabilité vers 𝑋 si, pour tout 𝜀 > 0, on a :
lim 𝑃(|𝑋𝑛 − 𝑋| ≥ 𝜀) = 0.
𝑛→+∞
Remarques :
1. La convergence en probabilité implique la convergence en loi.
2. La convergence en loi est la plus utilisée en pratique car elle permet d'approcher la fonction de
répartition de 𝑋𝑛 par celle de 𝑋 lorsque 𝑛 est « grand ».

IV- Théorèmes limites.


Inégalité de Markov : Soit 𝑋 une variable aléatoire définie sur un espace probabilisé (𝛺, ℱ, 𝑃)
admettant un moment d'ordre 1. Alors nous avons, pour tout ε > 0 :
𝐸(|𝑋|)
𝑃(|𝑋| ≥ 𝜀) ≤ .
𝜀

Inégalité de Bienaymé-Tchébychev : Soit 𝑋 une variable aléatoire définie sur un espace


probabilisé (𝛺, ℱ, 𝑃) admettant un moment d'ordre 2. Alors nous avons, pour tout ε > 0 :
𝑉(𝑋)
𝑃(|𝑋 − 𝐸(𝑋)| ≥ 𝜀) ≤ .
𝜀2

Cas particulier : Variables aléatoires de Bernoulli


Soit 𝑋1 , . . . , 𝑋𝑛 , 𝑛 variables aléatoires indépendantes et identiquement distribuées qui suivent
1
une loi de Bernoulli ℬ(𝑝). Soit 𝑋̅𝑛 = ∑𝑛
𝑖=1 𝑋𝑖 . Alors nous avons, pour tout ε > 0 :
𝑛
𝑝(1−𝑝) 1
𝑃(|𝑋̅ 𝑛 − 𝑝| ≥ 𝜀) ≤ ≤ .
𝑛𝜀 2 4𝑛𝜀 2
La dernière inégalité provient du fait que la fonction de [0,1] dans R qui à p associe p (1 − p)
est maximale pour p = 1/2 et vaut alors 1/4.

Loi faible des grands nombres : Soit (𝑋𝑛 )𝑛≥1 une suite de variables aléatoires de même loi sur
un espace probabilisé (𝛺, ℱ, 𝑃), deux à deux indépendantes, ayant une espérance 𝜇 et une variance 𝜎 2 .
1
Posons 𝑋̅𝑛 = ∑𝑛 𝑋.
𝑛 𝑖=1 𝑖
Alors la suite (𝑋̅𝑛 )𝑛≥1 converge en probabilité vers la variable aléatoire constante et égale à 𝜇.

Théorème de la limite centrée (ou théorème central-limite) : Soit (𝑋𝑛 )𝑛≥1 une suite de
variables aléatoires indépendantes et identiquement distribuées, ayant une espérance 𝜇 et une variance
𝑋̅𝑛 −𝜇
𝜎 2 . Posons 𝑌𝑛 = 𝜎 · Alors la suite (𝑌𝑛 )𝑛≥1 converge en loi vers une variable aléatoire de loi normale
⁄ 𝑛

𝑁(0,1).
V- Approximations.
Approximation de la loi hypergéométrique par la loi binomiale :
Soit E un ensemble de 𝑁 éléments, dont une proportion p de type A. Nous effectuons n tirages
sans remise dans E. Soit 𝑋𝑁 le nombre d'éléments de type A obtenus. La variable aléatoire 𝑋𝑁 suit
alors la loi hypergéométrique ℋ(𝑁, 𝑛, 𝑝). Alors la suite (𝑋𝑁 )𝑁≥1 converge en loi vers une variable
aléatoire de loi binomiale 𝐵(𝑛, 𝑝).
Remarque : Ainsi, lorsque 𝑁 devient très grand, n et p restant fixes, effectuer des tirages sans
remise revient à effectuer des tirages avec remise.
En pratique : La loi hypergéométrique ℋ(𝑁, 𝑛, 𝑝) peut être approchée par la loi binomiale
𝐵(𝑛, 𝑝) lorsque 𝑁 ≥ 10𝑛.

Approximation de la loi binomiale par la loi de Poisson :


Soit 𝜆 un nombre réel fixé dans [0,1]. Soit (𝑋𝑛 )𝑛≥1 une suite de variables aléatoires de loi
binomiale 𝐵(𝑛, 𝑝𝑛 ) telle que : lim 𝑛𝑝𝑛 = 𝜆.
𝑛→+∞
Alors la suite (𝑋𝑛 )𝑛≥1 converge en loi vers une variable aléatoire de loi de Poisson 𝑃(𝜆).
En pratique : La loi binomiale 𝐵(𝑛, 𝑝) peut être approchée par la loi de Poisson 𝑃(𝑛𝑝) lorsque :
𝑝 ≤ 0,1
{ 𝑛 ≥ 30
𝑛𝑝 < 15
ou lorsque d'autres conditions données par l'énoncé sont vérifiées.
Attention, dans certains cas, l'astuce sera d'approcher la loi binomiale 𝐵(𝑛, 1 − 𝑝) et non la loi
binomiale 𝐵(𝑛, 𝑝).

Approximation de la loi binomiale par la loi normale :


Soit (𝑋𝑛 )𝑛≥1 une suite de variables aléatoires indépendantes de loi de Bernoulli 𝐵(𝑝),
𝑆𝑛 −𝑛𝑝
où 𝑝 ∈]0,1[. 𝑆𝑛 = ∑𝑛𝑘=1 𝑋𝑘 suit la loi binomiale 𝐵(𝑛, 𝑝). Alors la suite ( ) converge en loi
√𝑛𝑝(1−𝑝)
𝑛≥1
vers une variable aléatoire de loi normale 𝑁(0,1).
En pratique : La loi binomiale 𝐵(𝑛, 𝑝) peut être approchée par la loi normale 𝑁(𝑛𝑝, √𝑛𝑝(1 − 𝑝))
𝑛 ≥ 30
lorsque : { 𝑛𝑝 ≥ 15 ou lorsque d'autres conditions données par l'énoncé sont vérifiées.
𝑛𝑝(1 − 𝑝) > 5
Correction de continuité : Si la variable aléatoire X suit la loi binomiale B(n,p), alors la variable
aléatoire X prend des valeurs entières positives entre 0 et n. Remplacer la loi binomiale B(n,p) par la
loi normale N  np, √np(1 − p) revient à considérer la variable aléatoire X comme une variable qui
prend donc toutes les valeurs réelles. L'intervalle [k − 0,5; k + 0,5[ est l'ensemble des nombres réels
qui s'arrondis sent à k, c'est-à-dire pour k ∈ [[1,n − 1]], nous remplacerons P(X = k) par P(k − 0,5  X <
k + 0,5).

Vous aimerez peut-être aussi