Vous êtes sur la page 1sur 5

Chapitre 6

Lois de Probabilité Discrètes Usuelles

On a vu dans le chapitre précédent qu’à une variable aléatoire X définie sur un


univers Ω, est associée une fonction P (X = k), appelée loi de probabilité de X.
Évidemment, les lois de probabilité existantes en pratique sont en nombre extrême-
ment important. Cependant, certaines de ces lois ont reçu une attention particulière
grâce à leurs utilités dans les applications pratiques. Celles-ci ont donc reçu des noms
particuliers.

6.1 Loi uniforme


Définition. On dit qu’une variable aléatoire X suit une loi uniforme discrète sur
l’ensemble {x1 , x2 , · · · , xn } si :
1. X(Ω) = {x1 , x2 , · · · , xk },
1
2. P (X = k) = , ∀ k ∈ {x1 , x2 , · · · , xn }.
n
On note alors :
X ∼ U{x1 ,x2 ,··· ,xn }
Situation caractéristique. Cette loi modélise une expérience aléatoire dont les
résultats sont équiprobables.
Propriétés. La variable aléatoire X admet une espérance et une variance et on a :
x1 + x2 + · · · + xn x2 + x22 + · · · + x2n
E(X) = , et V (X) = 1 − [E(X)]2 .
n n
Remarque. Dans le cas particulier d’une variable aléatoire X suivant une loi uni-
forme discrète sur l’ensemble {1, · · · , n}, on écrit :
X ∼ U{1,2,··· ,n}
De plus, on a :
n+1 n2 − 1
E(X) = , et V (X) = .
2 12

1
USTHB : 1ère année ING ST 2022/2023 Probabilités et Statistique

Exemple. Prenons l’exemple d’un lancé de dé équilibré. Soit X la v.a. égale au


résultat du dé, on a :
1
X(Ω) = {1, 2, 3, 4, 5, 6}, et P (X = k) = , ∀ k ∈ X(Ω).
6
Ainsi, on peut écrire : X ∼ U{1,2,3,4,5,6} . On aura donc :

7 35
E(X) = , et V (X) = .
2 12

6.2 Loi de Bernoulli


Définition. Une épreuve de Bernoulli est une expérience aléatoire dont les seuls
résultats possibles sont les deux événements {X = 1} et {X = 0} appelés respecti-
vement succès et échec. Considérons la variable aléatoire X telle que :
1. X(Ω) = {0, 1},
2. P (X = k) = pk (1 − p)1−k , ∀ k ∈ {0, 1} (P (X = 1) = p et P (X = 0) = 1 − p).
On dit alors que X suit une loi de Bernoulli et On note :

X ∼ B(p)

Situation caractéristique. Cette loi modélise une expérience aléatoire qui a uni-
quement deux issues appelées "succès" ou "échec". En effet, le chiffre 1 représente le
"succès" alors que le chiffre 0 représente "l’échec".

Propriétés. La variable aléatoire X admet une espérance et une variance et on a :

E(X) = p, et V (X) = p(1 − p).

Exemple. Dans un lancer d’une pièce de monnaie bien équilibrée, les deux résultats
possibles sont Pile ou Face. On peut attribuer à Pile la valeur 0 et à Face on attribue
1. On a :
X(Ω) = {0, 1},
1 1
P (X = 1) = P ({Face}) = , et P (X = 0) = P ({Pile}) = .
2 2
 
1
Ainsi, on peut écrire : X ∼ B . On aura donc :
2
1 1
E(X) = , et V (X) = .
2 4

2
USTHB : 1ère année ING ST 2022/2023 Probabilités et Statistique

6.3 Loi binomiale


Définition. On dit qu’une variable aléatoire X suit une loi binomiale de paramètres
n et p si :
1. X(Ω) = {0, 1, 2, · · · , n},
2. P (X = k) = Cnk pk (1 − p)n−k , ∀ k ∈ X(Ω).
On note alors :
X ∼ B(n, p)
Situation caractéristique. Cette loi modélise une expérience aléatoire où on répète
n fois de manière identique et indépendante une épreuve de Bernoulli de paramètre
p, p étant la probabilité d’avoir le succès.
La variable aléatoire X compte le nombre de succès obtenus dans une suite de n
épreuves de Bernoulli répétées de manière indépendante avec une probabilité p de
succès
Propriétés. La variable aléatoire X admet une espérance et une variance et on a :
E(X) = np, et V (X) = np(1 − p).
Remarque.
• La loi de Bernoulli est une loi binomiale particulière où n = 1.
• On peut voir X comme la somme de n variables aléatoires indépendantes
Y1 , Y2 , · · · , Yn de loi de Bernoulli de paramètre p chacune :
Xn
X= Yi , où Y ∼ B(p), ∀ i = 1, 2, · · · , n.
i=1

Exemple. On lance, 10 fois de suite, une pièce de monnaie bien équilibrée et on


observe la suite des résultats obtenus. Soit X la variable aléatoire qui compte le
nombre de Piles obtenus dans la suite des 10 lancées. Alors
 
1
X ∼ B 10, .
2
Considérons, à présent, l’événement A : "obtenir exactement 3 piles". Alors
 3  7
3 1 1 15
P (A) = P (X = 3) = C10 =
2 2 128
Exemple. On tire successivement, et avec remise, 8 boules d’une urne contenant
3 boules blanches et 7 boules noires. Notons X la variable aléatoire qui compte le
nombre de boules blanches tirées. Alors
 
3
X ∼ B 8,
10
Ainsi, la probabilité que, par exemple, les trois boules blanches soient toutes tirées
est :  3  5
3 3 7
P (X = 3) = C8 = 0.254
10 10

3
USTHB : 1ère année ING ST 2022/2023 Probabilités et Statistique

6.4 Loi géométrique


Définition. On dit qu’une variable aléatoire X suit une loi géométrique de para-
mètres p :
1. X(Ω) = N∗ ,
2. P (X = k) = p(1 − p)k−1 , ∀ k ∈ X(Ω).
On note alors :
X ∼ G(p)

Situation caractéristique. La loi géométrique modélise le rang du premier succès


en répétant une épreuve de Bernoulli (dont la probabilité de succès est p) de manière
identique et indépendante à l’infini (théoriquement).

Propriétés. La variable aléatoire X admet une espérance et une variance et on a :


1 1−p
E(X) = , et V (X) = .
p p2
Exemple. On lance continuellement un dé non truqué jusqu’à obtenir un six.
Désignons par X la v.a. représentant le nombre de lancers nécessaires pour obtenir
1
un six. Dans ce cas, la v.a. X suit une loi géométrique de paramètre , et on écrit :
6
 
1
X∼G
6

On se demande, à présent, de calculer la probabilité que la première fois où l’on


obtient un six soit au 10 ème tirage :
 9
1 1
P (X = 10) = 1−
6 6

Exemple. Une urne contient 4 boules blanches et 6 boules noires. on effectue des
tirages au hasard avec remise, et on note X la variable aléatoire qui compte le nombre
nécessaire de tirages pour obtenir la première fois une boule blanche. On a alors :
 
2
X∼G
5

On se demande, à présent, de calculer la probabilité que la première fois où l’on


obtient une boule blanche soit au 20 ème tirage :
 19
2 2
P (X = 20) = 1−
5 5

4
USTHB : 1ère année ING ST 2022/2023 Probabilités et Statistique

6.5 Loi de Poisson


Définition. On dit qu’une variable aléatoire X suit une loi de Poisson de paramètres
λ>0:
1. X(Ω) = N,
λk
2. P (X = k) = e−λ , ∀ k ∈ X(Ω).
k!
On note alors :
X ∼ P(λ)

Situation caractéristique. La loi de Poisson décrit la probabilité qu’un événement


se réalise durant un intervalle de temps donné, lorsque la probabilité de réalisation
d’un événement est très faible.
C’est la loi qui modélise bien les fréquentations (nombre de clients à une caisse dans
une journée, nombre des appels reçus dans un centre téléphonique, . . .)

Propriétés. La variable aléatoire X admet une espérance et une variance et on a :

E(X) = V (X) = λ.

6.5.1 Approximation de la loi binomiale par la loi de Poisson


La loi binomiale dépend de deux paramètres n et p. Lorsque n devient grand, le
calcul de ses probabilités devient très fastidieux. Sous condition que :
 
n > 30 n > 50
ou
np < 5 p < 0.1

on peut approximer la loi binomiale B(n, p) par la loi de Poisson de paramètre λ = np,
P(λ = np).

Exemple. Soit X une variable aléatoire qui suit une loi binomiale de paramètres
n = 51, et p = 0.09, (B(51, 0.09)). Soit Y une variable aléatoire qui suit une loi de
Poisson de paramètre λ = np = 4.59 (P(4.59)).

k 0 1 2 3 4 5
P (X = k) 0.008 0.041 0.102 0.164 0.195 0.181
P (Y = k) 0.010 0.047 0.107 0.164 0.188 0.172

l’approximation de la loi binomiale par une loi de Poisson donne des valeurs de
probabilités presque identiques à 10−2 près.

Vous aimerez peut-être aussi