Vous êtes sur la page 1sur 16

Chapitre 1

Probabilité discrète

1.1 Variable aléatoire

Dénition
Une variable aléatoire (notée v.a) X est une variable associée à une expérience ou
à un groupe d'expériences aléatoires et servant à caractériser le résultat de cette
expérience ou de ce groupe d'expériences. On peut donc considérer X comme une
application
X : Ω −→ R
ω −→ X(ω)
On distingue entre les variables aléatoires discrètes et les variables aléatoires
continues.

1.2 Variable aléatoire discrète

Dénition
Une variable aléatoire est dite discrète si elle ne prend que des valeurs numériques
isolées.

Exemple :
1. Soit X la variable aléatoire qui caractérise le numéro que porte la face obtenue
pour l'expérience aléatoire "jet d'un dé". X est une variable aléatoire discrète,
elle peut prendre les valeurs entières 1, 2, 3, 4, 5, et 6.
2. Dans une urne qui contient 3 boules rouges et 2 boules blanches, on tire
simultanément 2 boules et on note X la variable aléatoire qui caractérise le
nombre de boules rouges obtenues.

1
3. Dans une urne qui contient 3 boules rouges et 2 boules blanches, on tire
simultanément 2 boules. On note X la variable aléatoire qui caractérise le
gain obtenu à chaque tirage si on suppose qu'on gagne 2E pour chaque boule
rouge et on perd -3E pour chaque boule blanche.

1.2.1 Loi de probabilité ou distribution de probabilité

À chacune des valeurs xk que peut prendre une variable aléatoire X, correspond
une probabilité p(xk ), c'est la probabilité que la variable aléatoire X prend la valeur
xk :
p(xk ) = p(X = xk ) = pk
L'ensemble des valeurs admissibles xk et des probabilités correspondantes p(xk )
constitue une distribution de probabilité discrète. La relation entre xk et p(xk ) est
appelée loi de probabilité.

Soit X une v.a discrète nie telle que X(Ω) = {x1 , . . . , xn } La loi de probabilité
de X est dénie par la suite :

p1 = P (X = x1 ), . . . , pn = P (X = xn )

avec n
X
pk ≥ 0 ∀k = 1, 2, ..., n et pk = 1
k=1

Exemple :

1. On lace un dé et on note par X le numéro obtenu. Donc on a X(Ω) =


{1, 2, 3, 4, 5, 6}. La loi de probabilité de X est
xi 1 2 3 4 5 6
P (X = xi ) 1/6 1/6 1/6 1/6 1/6 1/6
2. On lance trois fois une pièce régulière. Lorsqu'il sort pile, on gagne 1E, s'il
sort face 0E. Soit X le gain obtenu par le joueur. L'expérience aléatoire
considérée a 8 éventualités équi-probables :

Ω = {F F F, F F P, F P F, P F F, F P P, P F P, P P F, P P P }

et à chaque éventualité ω ∈ Ω, correspond une valeur X(ω) du gain X.


On peut résumer ceci par un tableau :
ω FFF FFP FPF PFF FPP PFP PPF PPP
X(ω) 0 1 1 1 2 2 2 3
P (ω) 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8

2
On voit que X(Ω) = {0, 1, 2, 3} et on détermine aussitôt les événements
[X = xi ] :
[X = 0] = {F F F }
[X = 1] = {F F P, F P F, P F F }
[X = 2] = {F P P, P F P, P P F }
[X = 3] = {P P P }
On en déduit la loi de probabilité de X :
xi 0 1 2 3
P (X = xi ) 1/8 3/8 3/8 1/8

1.2.2 Fonction de répartition

La fonction de répartition (ou distribution cumulée des probabilités) d'une


variable aléatoire X est dénit comme une application :

F : R −→ [0, 1]

xi −→ F (xi ) = P (X ≤ xi )
Propriétés :

1. ∀x ∈ R, F (x) ∈ [0, 1]
2. F est une fonction croissante
3. lim F (x) = 0, lim F (x) = 1
x→−∞ x→+∞

4. ∀a ∈ R, P (X ≤ a) = F (a)
5. ∀(a, b) ∈ R2 , F (b) − F (a) = P (a < X ≤ b)
6. ∀a ∈ R, P (X > a) = 1 − F (a)

3
1.2.3 Loi de probabilité d'un couple de variables aléatoires

discrètes

On considère un couple de variables aléatoires discrètes (X , Y), avec X(Ω) =


{x1 , . . . , xk } et Y (Ω) = {y1 , . . . , yp }. À chaque couple de valeurs (xi , yj ), avec
xi ∈ X(Ω), yj ∈ Y (Ω), correspond une probabilité p(xi , yj ), i = 1, ..., k, j = 1, ..., p,
qui est la probabilité d'observer simultanément la valeur xi pour X et la valeur yj
pour Y. On écrit
P (X = xi et Y = yj ) = p(xi , yj ) = pij

4
L'ensemble des valeurs admissibles (xi , yj ) et des probabilités correspondantes
p(xi , yj ) forme une loi de probabilité à deux variables.
La loi de probabilité discrète à deux variables se présente sous forme d'un
tableau à deux entrées :

 Probabilités conjointes : p(xi , yj ) est dite probabilité conjointe. C'est la pro-


babilité d'obtenir la valeur xi et la valeur yj en même temps.
 Probabilités marginales :
p
X
p(xi , yj ) = p(xi )
j=1

p(xi ) est dite probabilité marginale de X. C'est la probabilité d'obtenir la


valeur xi quelque soit la valeur de Y.
k
X
p(xi , yj ) = p(yj )
i=1

p(yj ) est dite probabilité marginale de Y. C'est la probabilité d'obtenir la


valeur yj quelque soit la valeur de X.
Le cumul de toutes les probabilités conjointes p(xi , yj ) est égal à 1.
p
k X k p
X X X
p(xi , yj ) = p(xi , yj ) = p(xi , yj ) = 1
i=1 j=1 i=1 j=1

Exemple :
Dans une urne contenant 4 boules blanches, 6 boules noires et 10 boules rouges,
on prélève au hasard et avec remise 3 boules.

5
Soient la variable aléatoire X qui représente le nombre de boules blanches obte-
nues, et la variable aléatoire Y qui représente le nombre de boules noires obtenues.

P(0 et 0) est la probabilité que les trois boules tirées soient rouges, les prélève-
ments sont indépendants (tirage avec remise), on peut donc écrire :
10 10 10
p(0, 0) = = 0.125
20 20 20
P(0 et 1) est la probabilité que deux boules tirées soient rouges et une noire, il y
a trois possibilités, on peut donc écrire :
10 10 6
p(0, 0) = 3 = 0.225
20 20 20
P(0 et 2) est la probabilité que deux boules tirées soient noires et une rouge, il y
a trois possibilités, on peut donc écrire :
6 6 10
p(0, 2) = 3 = 0.135
20 20 20
P(1 et 0) est la probabilité que deux boules tirées soient rouges et une blanche, il
y a trois possibilités, on peut donc écrire :
10 10 4
p(1, 0) = 3 = 0.15
20 20 20
P(1 et 1) est la probabilité qu'une boule tirée soit blanche, et une noire et une
rouge, il y a six possibilités, on peut donc écrire :
4 10 6
p(1, 1) = 3 = 0, 18
20 20 20
P(1 et 2) est la probabilité que deux boules tirées soient noires et une blanche, il
y a trois possibilités, on peut donc écrire :
6 6 4
p(1, 2) = 3 = 0, 054
20 20 20
P(2 et 0) est la probabilité que deux boules tirées soient blanches et une rouge, il
y a trois possibilités, on peut donc écrire :
4 4 10
p(2; 0) = 3 = 0.06
20 20 20
P(2 et 1) est la probabilité qu'une boule tirée soit noire, et deux blanches, il y a
trois possibilités, on peut donc écrire :
6 4 4
p(2, 1) = 3 = 0, 036
20 20 20
6
P(2 et 2) est la probabilité que deux boules tirées soient noires et deux blanches,
ce qui est impossible car on tire que trois boules. On peut donc écrire :

P (2, 2) = 0

La loi de probabilités du couple de variables aléatoires (X,Y) est :

1.2.4 Variables aléatoires indépendantes

On dit que les variables aléatoires X et Y sont indépendantes si elles sont as-
sociées à deux expériences aléatoires indépendantes. Autrement dit, si pour tout
xi ∈ X(Ω) et tout yj ∈ Y (Ω), les événements [X = xi ] et [Y = yj ] sont indépen-
dantes. Dans ce cas on a :

P ([X = xi ]et[Y = yj ]) = P ([X = xi ])P ([Y = yj ])

Exemple :

1. On lance deux dés à six faces (un rouge, et un bleu). On appelle X le numéro
de la face du dé bleu, et Y le numéro de la face du dé rouge. On appelle S la
somme des faces obtenues.
 Les variables X et Y sont indépendantes.
 Les variables X et S ne sont pas indépendantes.
 Les variables Y et S ne sont pas indépendantes
2. On donne deux variables aléatoires discrètes X vériant P (X = −1) =
1 1 1
, P (X = 0) = , P (X = 1) = et Y = X 2 .
3 6 2
La loi de Y :

yi 0 1
P (Y = yi ) 1/6 5/6

7
Loi du couple (X,Y ) : on calcule la probabilité obtenue pour chaque couple

On a par exemple : P (−1, 0) = P ((X = −1) ∩ (Y = 0)) = 0. Or, P (X =


1 1 1
−1) × P (Y = 0) = × = 6= 0. X et Y ne sont donc pas indépen-
3 6 18
dantes. (ce résultat était prévisible puisque, par construction, la variable Y
est dépendante de la variable X).

1.2.5 Loi de la somme et de produit

Loi de la somme
Soient X et Y deux v.a discrètes. La loi de X+Y est dénie par :
X X
P (X + Y = s) = P (X = x, Y = s − x) = P (X = s − y, Y = y)
x∈X y∈Y

Si X et Y sont indépendantes
X X
P (X + Y = s) = P (X = x)P (Y = s − x) = P (X = s − y)P (Y = y)
x∈X y∈Y

Exemple :
On considère deux roues A et B dénies ainsi :
 pour la roue A : on a 20 % de chance de tomber sur le nombre 10, 50 %
de chance de tomber sur le nombre 20 et 30% de chance de tomber sur le
nombre 30.

8
 pour la roue B : on a 40% de chance de tomber sur le nombre 10 et 60% de
chance de tomber sur le nombre 20. On lance successivement les deux roues,
on note X la variable aléatoire égale au nombre obtenu pour la roue A et Y la
variable aléatoire égale au nombre obtenu pour la roue B. nombres obtenus.
Les deux variables X et Y sont indépendantes l'une de l'autre.
La loi de X est donnée par :

xi 10 20 30
P (X = xi ) 0.2 0.5 0.3

La loi de Y est donnée par :

yi 10 20
P (Y = yi ) 0.4 0.6

La loi de S = X + Y est donnée par :

si 20 30 40 50
P (S = si ) 0.08 0.32 0.42 0.18

Loi du produit
Soient X et Y deux v.a discrètes. La loi de X × Y est dénie par :
X
P (X × Y = z) = P (X = x, Y = y)
x×y=z/(x,y)∈(X×Y )

Si X et Y sont indépendantes, alors on :


X
P (X × Y = z) = P (X = x)P (Y = y)
x×y=z/(x,y)∈(X×Y )

Exemple :
Un sac contient 4 boules numérotées de 1 à 4. On tire successivement et avec re-
mise deux boules, et note X1 et X2 les nombres obtenus. Donc, X1 (Ω) = X2 (Ω) =
{1, 2, 3, 4}.
La loi Z = X1 × X2 est donnée par :

zi 1 2 3 4 6 8 9 12 16
P (Z = zi ) 1/16 2/16 2/16 3/16 2/16 2/16 1/16 2/16 1/16

9
P (X1 × X2 = 4) = P (X1 = 1, X2 = 4) + P (X1 = 2, X2 = 2) + P (X1 = 4, X2 = 1)
1 1 1
= + +
16 16 16
3
=
16

1.2.6 Caractéristiques d'une variable aléatoire discrète

1. Espérance mathématique : Soit X une variable aléatoire discrète avec


X(Ω) = {x1 , ..., xk }. L'espérance mathématique de X représente sa valeur
moyenne, elle remplace la moyenne arithmétique dans le cas d'une variable
statistique. Elle est dénit par
k
X
E(X) = xi p(xi )
i=1

Une v.a X est dite centrée si et seulement si son espérance est nulle. Si X
admet une espérance alors la v.a X − E(X) est centrée.
Propriétés :
E(a) = a, pour toute constante a
E(aX + b) = aE(X) + b
E(X + Y ) = E(X) + E(Y )
E(X − Y ) = E(X) − E(Y )
E(X × Y ) = E(X) × E(Y ) si X et Y sont deux v.a indépendantes.
2. Variance et écart-type : Comme pour la moyenne, la variance d'une va-
riable aléatoire conserve la même dénition que la variance d'une variable
statistique. C'est l'espérance mathématique des carrés des écarts par rapport
à l'espérance. Elle dénit par :

V (X) = E[(X − E(X))2 ] = E(X 2 ) − E(X)2

L'écart-type est égale à la racine carrée de la variance :


p
σ = V (X)

Propriétés :
 Si X est une constante, on a V(X)=0
 V (aX + b) = a2 V (X), ∀a, b ∈ R
 Si X et Y sont indépendantes, on a

V (X + Y ) = V (X) + V (Y ) et V (X − Y ) = V (X) + V (Y )

10
3. Covariance d'un couple de variables aléatoires : la covariance d'un
couple de variables aléatoires conserve la même dénition que la covariance
de deux variables statistiques. Elle permet d'étudier le sens de la relation
entre deux variables. C'est l'espérance mathématique des produits des écarts
par rapport aux espérances. Elle est dénit par :

Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y )

Propriétés :
Soient X et Y deux v.a :
 V (X + Y ) = V (X) + V (Y ) + 2Cov(X, Y )
 V (X − Y ) = V (X) + V (Y ) − 2Cov(X, Y )
 Si X et Y sont indépendantes, alors on Cov(X, Y ) = 0.
4. Coecient de corrélation linéaire : le coecient de corrélation linéaire,
désigné par r, a pour objet de mesurer le degré de la relation linéaire entre
deux variables X et Y.
Cov(X, Y )
r(X, Y ) = p
V (X)V (Y )

Cette dénition montre que le coecient de corrélation linéaire possède le


même signe que la covariance et qu'il est toujours compris entre -1 et 1.

−1 ≤ r(X, Y ) ≤ 1

Exemple :
Soit la distribution de probabilité à deux variables suivante :

11
12
1.3 Loi de probabilité discrète

Une probabilité est dite discrète si elle est associée à une variable aléatoire
discrète. Il existe plusieurs lois de probabilités discrète, les plus utilisées sont :

1.3.1 Loi de Bernoulli

La loi de Bernoulli intervient dans le cas d'une seule expérience aléatoire à


laquelle on associe un événement aléatoire quelconque à deux issues :succès et
échec par exemple (vrai ou faux). Soit X la variable aléatoire qui caractérise cette
expérience, on a :

X = 0, si le résultat est un échec,




X = 1, si le résultat est un succès.

La réalisation de l'événement au cours de cette expérience est appelée succès


et la probabilité de réalisation est dite probabilité de succès, désignée par

P (X = 1) = p

Par contre la non réalisation de l'événement est appelée échec et la probabilité de


non réalisation est dite probabilité d'échec, désignée par

P (X = 0) = q = 1 − p

La variable aléatoire X qui caractérise le nombre de succès au cours d'une seule


expérience aléatoire est appelée variable de Bernoulli, elle prend les valeurs en-
tières 0 et 1 avec les probabilités respectives q et p.

Une variable aléatoire X qui suit une loi de Bernoulli de paramètres p, est dé-
signée par : X ∼ B(p).

Les caractéristiques d'une variable Bernoulli


P2 sont :
 Espérance mathématique : E(X) = i=1 xi pi (x) = 0 × q + 1 × p
 Variance : V (X) = E(X 2 ) − E(X)2 = p − p2 = pq

Exemple : On lance une pièce de monnaie une seule fois. Soit X la variable
aléatoire qui caractérise le nombre de pile obtenus. X est une variable de Bernoulli,
elle prend les valeurs entières 0 et 1 avec la probabilité constante 0,5, càd :

P (X = 1) = 0.5 et P (X = 0) = 1 − 0.5 = 0.5

13
1.3.2 Loi Binomiale

La loi binomiale intervient dans le cas de plusieurs expériences aléatoires iden-


tiques et indépendantes dont l'issue est un succès ou un échec.

La réalisation de l'événement au cours de chacune des expériences est appelée


succès et la probabilité de réalisation est dite probabilité de succès, désignée par
p. Par contre la non réalisation de l'événement est appelée échec et la probabilité
de non réalisation est dite probabilité d'échec, désignée par q = 1 − p.

On considère que l'expérience se répète n fois et le nombre de succès est repré-


senté par la variable aléatoire X. On a

X(Ω) = {0, 1, 2, . . . , n}

La probabilité d'obtenir k succès et donc (n-k) échecs au cours de n expériences


aléatoires indépendantes est :

P (X = k) = Cnk pk (1 − p)n−k , ∀k ∈ X(Ω)

Une variable aléatoire X qui suit une loi binomiale de paramètres n et p, est dési-
gnée par : X ∼ B(n, p).

La variable Bernoulli est un cas particulier de la loi binomiale, elle correspond


à la loi binomiale de paramètres 1 et p.
Une variable binomiale de paramètres n et p, peut être considérée comme étant
la somme de n variables de Bernoulli identiques et indépendantes de même para-
mètre p. On peut donc écrire

X = X1 + X2 + . . . , +Xn

Avec Xi (i=1 à n) est une variable de Bernoulli telle que :

E(Xi ) = p, V (Xi ) = pq

 L'espérance de la loi binomiale :

E(X) = E(X1 + ... + Xn ) = E(X1 ) + ...E(Xn ) = np

 La variance de la loi binomiale :

V (X) = V (X1 + ... + Xn ) = V (X1 ) + ...V (Xn ) = pq + ... + pq = npq

14
Exemple : On lance une pièce de monnaie 20 fois de suite. Ces expériences
sont identiques et indépendantes. On considère comme succès "obtenir Pile" et
comme échec "obtenir Face". Soit X la variable aléatoire qui caractérise le nombre
de succès. Soit p la probabilité de succès au cour de chaque lancer, donc p=1/2.
On calcule la probabilité d'obtenir 15 succès (donc 5 échec) :
15 15
P (X = 15) = C20 p (1 − p)5

1.3.3 Loi de poisson

La loi de poisson intervient pour un événement qui se répète plusieurs fois pen-
dant une durée de temps déterminée et avec une moyenne donnée notée λ.

Exemple :
1. Nombre d'appels reçus par un standard téléphonique.
2. Nombre d'accidents de la circulation.
3. Nombre de visiteur d'un centre commercial.
La variable aléatoire X qui caractérise le nombre de réalisations de ce phéno-
mène est appelée variable de poisson de paramètre λ, elle prend les valeurs
entières 0, 1, 2, . . . (X(Ω) = N), et on note X ∼ P(λ), avec
λk exp(−λ)
P (X = k) = , ∀k ∈ N
k!
L'espérance et la variance de X sont :

E(X) = V (X) = λ

Exemple : Une usine produit des bouteilles d'eau. Parmi celles-ci, 3 sont
défectueuses. On appelle X la variable aléatoire qui, à tout lot de 100 bouteilles
prises au hasard, associe le nombre de bouteilles défectueuses. On admet que X suit
une loi de Poisson de paramètre 3. La probabilité qu'un tel lot ait deux bouteilles
défectueuses est :
32
P (X = 2) = e−3
2!

1.3.4 Approximation de la loi binomiale par la loi de poisson

La loi binomiale B(n, p) peut être approchée par la loi de poisson P (λ) avec
λ = n × p si : 
 n > 30,
p ≤ 0.1,
n × p < 15.

15
c'est à dire :
λk exp(−λ)
Cnk pk (1 − p)n−k ≈
k!
Exemple :Soit X une v.a qui suit la loi B(40, 0.03). Donc, n = 40 > 30, p =
0.03 < 0.1 et λ = n × p < 15.
2
P (X = 2) = C40 0.032 0.9738 ≈ 0.2206

Or B(40, 0.03) peut être approchée par P (40 × 0.03), et si X suit la loi P (1.2), on
a
1.22 exp(−1.2)
P (X = 2) = ≈ 0.2168
2!

16

Vous aimerez peut-être aussi