Vous êtes sur la page 1sur 6

2.

5 Quelques lois discrètes usuelles

2.5.1 Loi uniforme discrète

Soit X une v.a.d définie sur un espace probabilisé (Ω, A, P ) et à valeurs dans E = {x1 , . . . , xn }. On dit que X

suit une loi uniforme discrète sur E si :

1
P (X = xi ) = pour tout i ∈ [1 : n].
n

Exemple :

Si X suit la loi uniforme discrète sur {1, . . . , n}, (c-à-d : xi = i), alors

n n
X 1X n+1
E(X) = xi P (X = xi ) = i= .
i=1
n i=1 2

n n
X 1X 2 (n + 1)(2n + 1)
E(X 2 ) = x2i P (X = xi ) = i = .
i=1
n i=1 6

n2 − 1
V (X) = E(X 2 ) − (E(X))2 = .
12

2.5.2 Loi de Bernoulli

Soit X une v.a.d définie sur un espace probabilisé (Ω, A, P ). On dit que X suit la loi de Bernoulli, notée B(p),

de paramètre p ∈]0, 1[ si X(Ω) = {0, 1}, et :

P (X = 1) = p et P (X = 0) = 1 − p.

On dit aussi que :

P (succès) = p et P (échec) = 1 − p.

De manière équivalente : P (X = x) = px (1 − p)1−x , x ∈ {0, 1}. Exemple :


1
Si X suit la loi de Bernoulli B , alors X modélise par exemple le lancer d’une pièce de monnaie équilibrée une
2
seule fois. On a :

  1   1
P obtenir (P) = P (succès) = , P obtenir (F) = P (échec) = .
2 2

Soit (Ω, A, P ) un espace probabilisé et X une v.a.d qui suit la loi de Bernoulli B(p), alors,

E(X) = p et V (X) = p(1 − p).

1
Preuve :

Si X suit la loi B(p), alors X(Ω) = {0, 1}, P (X = 1) = p et P (X = 0) = 1 − p.

Par conséquent,
   
E(X) = 0 × P (X = 0) + 1 × P (X = 1) = p.
   
E(X 2 ) = 02 × P (X = 0) + 12 × P (X = 1) = p.

Finalement,

V (X) = E(X 2 ) − (E(X))2 = p − p2 = p(1 − p).

2.5.3 Loi Binomiale

Soit X une v.a.d définie sur un espace probabilisé (Ω, A, P ). On dit que X suit la loi Binomiale, notée B(n, p),

de paramètres n ∈ N∗ et p ∈]0, 1[ si :

X(Ω) = {0, . . . , n} et pour tout k ∈ X(Ω) :

P (X = k) = Cnk pk (1 − p)n−k .

La loi Binomiale B(n, p) modélise le nombre de succès dans une suite d’expériences indépendantes où il y a une

probabilité p de succès à chacune. Ainsi :

- P (X = k) est la probabilité d’avoir exactement k succès en n épreuves

- pk est la probabilité des k succès, (par indépendance des tirages).

- (1 − p)n−k est la probabilité des n − k échecs.

- Cnk pour tenir compte de l’ordre de tous les choix possibles des k succès sur n.

Exemples :

- Pour n = 1, on a : B(1, p) = B(p).

- On lance (n = 10) fois d’une manière indépendante une pièce de monnaie équilibrée.
 1
Si X représente le nombre de faces obtenues, alors X suit la loi Binomiale B 10, .
2
La probabilité d’obtenir exactement (k = 3) fois (F) dans (n = 10) lancers est :

 1 3  1 10−3 15
3
P (X = 3) = C10 1− = .
2 2 128

Soient X1 , . . . , Xn n v.a.d(s) indépendantes définies sur le même espace probabilisé (Ω, A, P ) et suivant chacune

une loi de Bernoulli B(p), alors la v.a.d somme X = X1 + . . . + Xn suit la loi Binomiale B(n, p). Preuve :

2
Il est clair que X(Ω) = {0, . . . , n} et pour tout k ∈ X(Ω), on a :

 
[
P (X = k) = P (X1 + . . . + Xn = k) = P  (X1 = x1 )∩, . . . , ∩(Xn = xn )
 
xi ∈{0,1}
x1 +...+xn =k

X
= P ((X1 = x1 )∩, . . . , ∩(Xn = xn ))
xi ∈{0,1}
x1 +...+xn =k

X
= P (X1 = x1 ) × . . . × P (Xn = xn )
xi ∈{0,1}
x1 +...+xn =k

X
= px1 (1 − p)1−x1 × . . . × pxn (1 − p)1−xn
xi ∈{0,1}
x1 +...+xn =k

X
= px1 +...+xn (1 − p)n−(x1 +...+xn )
xi ∈{0,1}
x1 +...+xn =k

  
= pk (1 − p)n−k × card (x1 , . . . , xn ) ∈ {0, 1}n ; x1 + . . . + xn = k

= Cnk pk (1 − p)n−k .

Soit (Ω, A, P ) un espace probabilisé et X une v.a.d qui suit une loi Binomiale B(n, p), alors,

E(X) = np et V (X) = np(1 − p).

Preuve :

D’après le Théorème 3.5.6, On peut écrire : X = X1 + . . . + Xn où X1 , . . . , Xn sont n v.a.d(s) indépendantes et


n
X  X n
suivant toutes une loi de Bernoulli B(p). Alors d’après la Proposition 3.5.3 on a : E(X) = E Xi = E(Xi ) =
i=1 i=1
p + . . . + p = np. (par linéarité)

De plus, la Proposition 3.4.4 nous donne :

n
X  Xn
V (X) = V Xi = V (Xi ) = p(1 − p) + . . . + p(1 − p) = np(1 − p).
i=1 i=1

2.5.4 Loi géométrique

Soit X une v.a.d définie sur un espace probabilisé (Ω, A, P ). On dit que X suit la loi géométrique notée, Geo(p),

de paramètre p ∈]0, 1[ si : X(Ω) = N∗ et pour tout k ∈ N∗ :

P (X = k) = p(1 − p)k−1 .

Exemple :

3
1
Si X suit la loi géométrique Geo , alors X modélise l’expérience aléatoire du lancer infini d’une pièce de monnaie
2
équilibrée jusqu’à l’obtention de (F). La probabilité d’obtenir (F) dans le cinquième lancer est :

1 1 5−1 1
P (X = 5) = 1− = .
2 2 32

Soit (Ω, A, P ) un espace probabilisé et X une v.a.d qui suit une loi Geo(p), alors,

1 1−p
E(X) = et V (X) = .
p p2

Preuve :

On a : X(Ω) = N∗ et pour tout k ∈ N∗ : P (X = k) = p(1 − p)k−1 . Alors, en utilisant une série géométrique et la
P
propriété de dérivation par rapport à p sous le signe , on obtient :

+∞ +∞ +∞ ′ ′
X X X  1 1
E(X) = kP (X = k) = kp(1 − p)k−1 = −p (1 − p)k = −p = .
1 − (1 − p) p
k=1 k=1 k=0

+∞
X +∞
X +∞
X
E(X(X − 1)) = k(k − 1)P (X = k) = k(k − 1)p(1 − p)k−1 = p(1 − p) k(k − 1)(1 − p)k−2
k=1 k=1 k=2

+∞ ′′
X 2(1 − p)
= p(1 − p) (1 − p)k = .
p2
k=0

Par conséquent,
1−p
V (X) = E(X 2 ) − (E(X))2 = E(X(X − 1)) + E(X) − (E(X))2 = .
p2

Soient (Ω, A, P ) un espace probabilisé, X une v.a.d qui suit une loi géométrique Geo(p) et FX sa fonction de

répartition, alors pour tout x ∈ N∗ , on a :

FX (x) = 1 − (1 − p)x .

Preuve : Il suffit d’utiliser la somme d’une suite géométrique :

x
X x
X x−1
X
FX (x) = P (X ≤ x) = P (X = k) = p(1 − p)k−1 = p (1 − p)k = 1 − (1 − p)x .
k=1 k=1 k=0

4
2.5.5 Loi de Poisson

Soit X une v.a.d définie sur un espace probabilisé (Ω, A, P ). On dit que X suit la loi de Poisson notée P de

paramètre λ > 0 si : X(Ω) = N et pour tout k ∈ N :

λk
P (X = k) = exp(−λ) .
k!

Exemple :

Soit X une v.a.d qui suit la loi de Poisson P(2), alors

20 25
P (X = 0) = exp(−2) ≈ 0.135 P (X = 5) = exp(−2) ≈ 0.036.
0! 5!

Soit (Ω, A, P ) un espace probabilisé et X une v.a.d qui suit une loi de Poisson P(λ), alors E(X) = V (X) = λ.

Preuve :
+∞ +∞ +∞
X X λk X λk−1
E(X) = kP (X = k) = k exp(−λ) = λ exp(−λ)
k! (k − 1)!
k=0 k=0 k=1

+∞ k′ 
X
λ  
= λ exp(−λ) ′
= λ exp(−λ) exp(λ) = λ. (k ′ = k − 1)

k!
k =0

+∞ +∞ +∞
X X λk X λk−2
E(X(X − 1)) = k(k − 1)P (X = k) = k(k − 1) exp(−λ) = λ2 exp(−λ)
k! (k − 2)!
k=0 k=0 k=2

+∞ k′ 
X
λ
= λ2 exp(−λ) ′!
= λ2 exp(−λ) exp(λ) = λ2 . (k ′ = k − 2)

k
k =0

Finalement,

V (X) = E(X 2 ) − (E(X))2 = E(X(X − 1)) + E(X) − (E(X))2 = λ.

Exercice :

Un central téléphonique reçoit en moyenne 100 appels par heure. En supposant que le nombre d’appels durant un

intervalle de temps quelconque suit une loi de Poisson.

1) Quelle est la probabilité que le central reçoive trois appels en deux minutes ?

2) Quelle est la probabilité pour qu’en deux minutes, il reçoive au moins un appel ?

5
Correction :

1) En deux minutes, on peut s’attendre à ce que le nombre d’appel soit :

2 × 100 10
λ = E(X) = = .
60 3

Ainsi, la probabilité d’obtenir trois appels en deux minutes est :

10 3
  
10 3
P (X = 3) = exp − ≃ 0, 220.
3 3!

2) La probabilité d’obtenir au moins un appel en deux minutes est :

 
10
P (X ≥ 1) = 1 − P (X < 1) = 1 − P (X = 0) = 1 − exp − ≃ 0, 964.
3

Soient X1 , . . . , Xn n v.a.d(s) indépendantes définies sur le même espace probabilisé (Ω, A, P ) où chaque Xi , i ∈
Xn 
[1 : n] suit une loi de Poisson P(λi ), alors la v.a.d somme X = X1 + . . . + Xn suit la loi de Poisson P λi .
i=1
Preuve :

Par récurrence, il suffit de démontrer le résultat pour n = 2.

Posons : X = X1 + X2 où Xi suit la loi de Poisson P(λi ), i = 1, 2 et montrons que X suit la loi de Poisson

P(λ1 + λ2 ). D’après la Proposition 3.4.2, pour tout x ∈ N, on a :

x
X
P (X = x) = P (X1 + X2 = x) = P (X1 = x1 ) × P (X2 = x − x1 ) (x1 ≥ 0 ; x − x1 ≥ 0)
x1 =0

x
X λx1 1 λx−x1
= exp(−λ1 ) exp(−λ2 ) 2
x1 =0
x1 ! (x − x1 )!
 
exp − (λ1 + λ2 ) X x
x!λx1 1 λ2x−x1
=
x! x !(x − x1 )!
x =0 1 1

 
exp − (λ1 + λ2 ) x
X
= Cxx1 λx1 1 λ2x−x1
x! x1 =0
 
exp − (λ1 + λ2 )
= (λ1 + λ2 )x . (formule du binôme de Newton)
x!

Vous aimerez peut-être aussi