Vous êtes sur la page 1sur 16

Chapitre 3 – Variables aléatoires finies 19

Chapitre 3 VARIABLES ALÉATOIRES FINIES


Dans la plupart des phénomènes aléatoires, on s’intéresse à une fonction du résultat d’une expérience
aléatoire plutôt qu’au résultat lui-même. Le concept mathématique qui représente d’une façon efficace ce
genre de situation est celui de variable aléatoire. Les variables aléatoires les plus couramment étudiées
sont les variables aléatoires réelles.
Dans ce chapitre, on utilisera le terme variable aléatoire pour désigner une variable aléatoire réelle.

3.1 GÉNÉRALITÉS
3.1.1 Définitions
 Soit (U, Р (U), p) un espace probabilisé fini. Une variable aléatoire X est une application qui à tout
événement élémentaire de l’univers U associe un nombre réel.

Autrement dit, X est une application de U dans ℝ.


 X(U), appelé univers image, est l’ensemble des valeurs prises par X. U étant fini, X(U) l’est également.
 (X = xi) = {uU, X(u) = xi} désigne l’événement la variable aléatoire X prend la valeur xi.
 On utilise la notation (X  xi) = {uU, X(u)  xi} pour l’événement la variable aléatoire X prend une
valeur inférieure ou égale à xi. Il en est de même pour les notations (X  xi), (X  xi) et (X  xi).
 X–1 (xi) est l’ensemble des antécédents de xi par X.

Remarque :
 Une variable aléatoire X est une application et non une variable.
 Dire que X est une variable aléatoire signifie que ses valeurs sont aléatoires ; elles dépendent du
résultat de l’expérience aléatoire.
Exemple 3.1 :
On lance une pièce de monnaie bien équilibrée deux fois de suite.
L’univers U est constitué de 4 événements élémentaires :
U = PP, PF, FP, FF
Soit X le nombre de côtés face obtenu. Ainsi, X est une variable aléatoire qui prend les valeurs 0, 1 et 2.
Par conséquent, X(U) = {0, 1, 2}.
 (X = 0) désigne l’événement le côté face n’est pas sorti, et X–1 (0) l’ensemble des antécédents de 0 par
X. On a alors : (X = 0) = X–1 (0) = PP. (X = 0) est un événement élémentaire.
 (X = 1) représente l’événement le côté face est sorti une fois, et X–1 (1) l’ensemble des antécédents
de 1 par X. On a donc : (X = 1) = X–1 (1) = PF, FP. (X = 1) n’est pas un événement élémentaire.
 (X = 2) symbolise l’événement le côté face est sorti deux fois, et X–1 (2) l’ensemble des antécédents
de 2 par X. Ainsi : (X = 2) = X–1 (2) = FF. (X = 2) est aussi un événement élémentaire.

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 20

Le schéma ci-dessous résume la situation.


Univers U Variable aléatoire X X(U)
(Ensemble d’événements (Application de U dans ℝ) (Ensemble des valeurs
élémentaires u) prises par X)
Événement
(X = 0)
PP
0 x1
Événement PF
(X = 1) 1 x2
FP
2 x3
Événement FF
(X = 2)

3.1.2 Opérations usuelles


Soit X, Y deux variables aléatoires définies sur l’univers fini U, a un nombre réel et f une fonction définie

sur un intervalle I de ℝ tel que X(U)  I. On peut alors définir les variables aléatoires finies suivantes :

 X+Y (addition)
 aX (multiplication par un scalaire)
 XY (multiplication)
 f oX (transfert)
Il est à noter que l’on ne parle pas de composition mais de transfert. La raison est que, la fonction f qui
permet de passer d’une variable aléatoire finie à une autre (i.e. de X à foX), n’est pas en soi une variable
aléatoire : ce n’est qu’une fonction de transfert.

3.1.3 Loi de probabilité


La loi de probabilité d’une variable aléatoire finie permet de connaître les chances d’apparition des
différentes valeurs de cette variable.
a) Définition
Soit l’événement (X = xi) pour lequel la variable aléatoire X prend la valeur xi. Nous voulons calculer la
probabilité pi = p(X = xi) pour 1  i  n.
Les couples (xi, pi) pour 1  i  n définissent la loi de probabilité de la variable aléatoire finie X. Cette loi
est généralement représentée sous la forme d’un tableau à double entrée :
xi x1 x2 … xn
pi = p(X = xi) p1 p2 … pn
Les propriétés de la loi de probabilité de la variable aléatoire finie X sont les suivantes :
 i, 0  pi  1 ;
n
  pi = 1.
i 1

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 21

Exemple 3.2 :
Soit X la variable aléatoire définie dans l’exemple 3.1. Déterminer la loi de probabilité de X.
Puisque la pièce est bien équilibrée, les événements élémentaires sont équiprobables. La loi de
probabilité de X est donnée par le tableau suivant :
xi x1 = 0 x2 = 1 x3 = 2

pi = p(X = xi) p1 = 1 p2 = 1 p3 = 1
4 2 4

(X = 0) est l’événement le côté face n’est pas sorti, alors p1 = p(X = 0) = p({PP}) = 1
4
(X = 1) est l’événement le côté face est sorti une fois, donc p2 = p(X = 1) = p({PF, FP}) = p({PF}) + p({FP}) = 1
2
(X = 2) est l’événement le côté face est sorti deux fois, ainsi p3 = p(X = 2) = p({FF}) = 1 .
4
b) Représentation graphique
On peut représenter graphiquement la loi de probabilité d’une variable aléatoire finie X sous la forme d’un
diagramme en bâtons.
Exemple 3.3 :
Soit X la variable aléatoire définie dans l’exemple 3.1. Donner la représentation graphique de la loi de
probabilité de X.
La représentation graphique de la loi de probabilité de X est le diagramme en bâtons ci-dessous :

3.1.4 Fonction de répartition


a) Définition
Soit X une variable aléatoire définie sur l’univers fini U. On appelle fonction de répartition de X,

l’application de ℝ dans [0, 1] définie par :

a ℝ, F(a) = p(X  a)


Pour une variable aléatoire finie X de loi de probabilité (xi, pi) pour 1  i  n, la fonction de répartition n'est
autre que le cumul des probabilités individuelles :
a ℝ, F(a) =  p(X  x i )
xi  a

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 22

Le graphe de F est une courbe en escalier (i.e. constante par morceaux) qui pour x = xi subit un saut de pi.
b) Propriétés
La fonction de répartition F jouit des propriétés suivantes :
 F est croissante sur ℝ ;
 F est continue à droite en tout point de ℝ ;
 lim F(x) = 0 et lim F(x) = 1 ;
x   x  +
 p(a  X  b) = F(b) – F(a).
Exemple 3.4 :
Soit X la variable aléatoire définie dans l’exemple 3.1. Déterminer la fonction de répartition de X puis
tracer son graphe. Calculer : F(0.5), F(1.9), p(0  X  1), p(X  1), p(1  X  2).
La fonction de répartition F associée à X est définie par F(a) = p(X  a) =  p(X  x i ) . On a :
xi  a
Pour a  0 : F(a) = p(X  a) = p(X  0) = p() = 0

Pour 0  a  1 : F(a) = p(X  a) = p(0  X  1) = p(X  1) – p(X  0) = p(X = 0) = 1


4

Pour 1  a  2 : F(a) = p(X  a) = p(0  X  2) = p(X  2) – p(X  0) = p(X = 0) + p(X = 1) = 3


4
Pour a  2 : F(a) = p(X  a) = p(0  X  2) = p(X  2) – p(X  0) = p(X = 0) + p(X = 1) + p(X = 2) =1.

Le graphe de F est la courbe en escalier suivante :

F(0.5) = p(X  0.5) = p(X = 0) = 1/4 ;


F(1.9) = p(X  1.9) = p(X = 0) + p(X = 1) = 3/4 ;
p(0  X  1) = p(X  1) – p(X  0) = [p(X = 0) + p(X = 1)] – p(X = 0) = 1/2 ;
p(X  1) = 1 – p(X  1) = 1 – [p(X = 0) + p(X = 1)] = 1/4 ;
p(1  X  2) = p(X  2) – p(X  1) = [p(X = 0) + p(X = 1) + p(X = 2)] – p(X = 0) = 3/4.

3.2 ESPÉRANCE MATHÉMATIQUE – MOMENTS


3.2.1 Définitions
 Soit X une variable aléatoire définie sur l’univers fini U, de loi de probabilité (xi, pi) pour 1  i  n.

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 23

L’espérance mathématique, ou moyenne, de X est le nombre réel, noté E(X) ou m, défini par :
n
E(X) = m =  x i pi
i 1
Remarque : Cette définition est à rapprocher de la définition de la moyenne d’une série statistique : la
fréquence fi de la valeur observée xi de la variable statistique X est remplacée par la probabilité pi de la
valeur xi pour la variable aléatoire X.
Soit X une variable aléatoire définie sur l’univers fini U et r un entier naturel non nul.
 On appelle moment d’ordre r de X la quantité définie par :
n
mr = E(Xr) =  x i pi
r

i 1

 On appelle moment centré d’ordre r de X la quantité définie par :


n
E((X – E(X))r ) =  (x i  m) pi
r

i 1

Remarque :
 L’espérance de la variable aléatoire X est son moment d’ordre 1.
 Le moment centré d’ordre r de X est le moment d’ordre r de la variable aléatoire X – m.
3.2.2 Propriétés
Soit X, Y deux variables aléatoires définies sur l’univers fini U, a et b des réels, alors :
E(aX + b) = aE(X) + b
E(X + Y) = E(X) + E(Y)
3.2.3 Théorème de transfert
Soit X une variable aléatoire définie sur l’univers fini U, et g une application définie sur X(U). Alors :

E(g(X)) =  g(xi ) p(X  xi )


xi  X(U)

Remarque : Pour déterminer l’espérance de la variable aléatoire g(X), il est inutile de calculer la loi de g(X),
il suffit de connaitre celle de X.
Exemple 3.5 :
Soit X la variable aléatoire définie dans l’exemple 3.1. Déterminer l’espérance et le moment d’ordre 2 de X.
L’espérance de la variable aléatoire X est :
3
E(X) =  x i .p(X  x i ) = (0 1 + 1 1 + 2 1 ) = 1
i 1 4 2 4
Le moment d’ordre 2 de X est :
3
E(X2) =  x i2 .p(X  x i ) = (0 1 + 1 1 + 4 1 ) = 3 .
i 1 4 2 4 2

3.3 VARIANCE – ÉCART-TYPE


3.3.1 Définitions
Soit X une variable aléatoire définie sur l’univers fini U, de loi de probabilité (xi, pi) pour 1  i  n, admettant

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 24

une espérance mathématique m.


 On appelle variance de X la quantité, notée V(X), définie par :
n
V(X) =  (x i  m) pi
2

i 1

 On appelle écart-type de X, noté (X), la racine carrée de sa variance :


(X) = V(X)
Remarque :
 La variance d’une variable aléatoire X est son moment centré d’ordre 2 (noté m2).
 Pour calculer la variance, on utilise la formule de Kœnig plutôt que celle de la définition :
V(X) = E(X2) – [E(X)]2 = m2 – m2
3.3.2 Propriétés
Soit X une variable aléatoire définie sur l’univers fini U et a un nombre réel, alors :
 V(aX) = a2 V(X)
 V(X + a) = V(X)
Exemple 3.6 :
Soit X la variable aléatoire définie dans l’exemple 3.1. Déterminer la variance et l’écart-type de X.
La variance de la variable aléatoire X, en vertu de la formule de Kœnig, est donnée par :
V(X) = E(X2) – [E(X)]2
Or, d’après l’exemple 3.5 précédent, on a :
E(X) = 1
E(X2) = 3/2
Il en résulte :

V(X) = 3 – 1 = 1
2 2
L’écart-type de la variable aléatoire X est :

(X) = V(X) = 1 .
2
3.4 COUPLES DE VARIABLES ALÉATOIRES FINIES
3.4.1 Loi conjointe - Lois marginales
Définition : Soit X, Y deux variables aléatoires définies sur l’univers fini U. Les variables aléatoires X et Y
ont respectivement pour ensemble de valeurs distinctes :
X(U) = {x1, x2, ..., xn} et Y(U) = {y1, y2, ..., ym}
La loi du couple (X, Y) ou loi de probabilité conjointe est définie par :
 les valeurs (xi, yj) du couple (X, Y) pour chaque xi  X(U) et chaque yj  Y(U)
 les probabilités correspondantes pij = p(X = xi ,Y = yj) = p[(X = xi)  (Y = yj)].

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 25

On écrit en général la loi du couple (X, Y) sous la forme d’un tableau à double entrée :
Y y1 y2 … ym pi. = p(X = xi)
X
x1 p11 p12 … p1m p1.
x2 p21 p22 … p2m p2.
… … … … … ...
xn pn1 pn2 … pnm pn.
p.j = p(Y = yj) p.1 p.2 ... p.m 1

La loi du couple (X, Y) jouit des propriétés suivantes :


 pour tout couple (i, j), 0  pij  1 ;
n m
   pij = 1.
i 1 j 1
La loi de probabilité de la variable aléatoire X (resp. la loi de probabilité de la variable aléatoire Y) est
appelée loi marginale de X (resp. loi marginale de Y).
La connaissance de la loi du couple (X, Y) permet de trouver ses lois marginales :
m
 i{1, ..., n} : pi. = p(X= xi) =  pij = pi1 + pi2 + … + pim (somme de la ligne i du tableau)
j 1
n
 j{1, ..., m} : p.j = p(Y= yj) =  pij = p1j + p2j + … + pnj (somme de la colonne j du tableau)
i 1
On a les relations :
n m n m
 pi. =  p.j =   pij = 1
i 1 j 1 i 1 j 1

Si on connaît la loi d’un couple aléatoire, on peut en déduire ses lois marginales. La réciproque est fausse.
Exemple 3.7 :
Soit le couple (X, Y) dont la loi de probabilité est donnée par le tableau suivant :
X Y 0 1 2 3
0 0 1/8 2/8 1/8
1 1/8 2/8 1/8 0
Donner les lois marginales de X et Y.
D’une part, on a :
4
p1. = p(X = 0) =  p1j = 0 + 1 + 2 + 1 = 1
j 1 8 8 8 2
4
p2. = p(X = 1) =  p2j = 1 + 2 + 1 + 0 = 1
j 1 8 8 8 2
Ainsi, la loi marginale de la variable aléatoire X est :
xi 0 1
pi. = p(X = xi) 1/2 1/2
D’autre part, on a :

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 26

2
p.1 = p(Y = 0) =  p i1 = 0 + 1 = 1
i 1 8 8
2
p.2 = p(Y = 1) =  p i2 = 1 + 2 = 3
i 1 8 8 8
2
p.3 = p(Y = 2) =  p i3 = 2 + 1 = 3
i 1 8 8 8
2
p.4 = p(Y = 3) =  p i4 = 1 + 0 = 1
i 1 8 8
Alors la loi marginale de la variable aléatoire Y est :
yj 0 1 2 3
p.j = p(Y = yj) 1/8 3/8 3/8 1/8

3.4.2 Fonction de répartition conjointe


Définitions
 Soit X, Y deux variables aléatoires définies sur l’univers fini U. On appelle fonction de répartition du
couple (X, Y) ou fonction de répartition conjointe, la fonction FXY de ℝ2 dans [0, 1] définie pour chaque
couple (x, y)ℝ2 par :
FXY (x, y) = p(X  x, Y  y) =   p(X= xi, Y = yj), où xi  X(U) et yj  Y(U)
xi  x yj  y

 On appelle fonction de répartition marginale de X, la fonction FX de ℝ dans [0, 1] définie pour chaque
xℝ par :
FX (x) = p(X  x)
La fonction FX (x) se calcule en cumulant les probabilités selon la formule suivante :
0 pour x  x 1
 i

FX (x) =   pk . pour x i  x  x i 1 ; i  1, ..., n 1
k 1
 1 pour x  x n
 On appelle fonction de répartition marginale de Y, la fonction FY de ℝ dans [0, 1] définie pour chaque
yℝ par :
FY (y) = p(Y  y)
La fonction FY (y) se calcule en cumulant les probabilités selon la formule suivante :
0 pour y  y1
 j
FY (y) =   p. k pour y j  y  y j  1 ; j  1, ..., m1
k1
 1 pour y  ym

Exemple 3.8 :
Une urne contient 4 boules blanches et 3 boules noires. On tire au hasard, successivement et sans remise
2 boules de cette urne. Soit X, Y deux variables aléatoires telles que :
Ali Bouchetob Probabilités RE2 = SD (Batna)
Chapitre 3 – Variables aléatoires finies 27

 1 si la première boule tirée est blanche


X =
 0 sinon
 1 si la seconde boule tirée est blanche
Y =
 0 sinon
Donner la loi du couple (X, Y). Établir la fonction de répartition conjointe et les fonctions de répartition
marginales de X et Y.

(X = 0, Y = 0) est l’événement "tirer une boule noire puis une noire", ainsi p11 = p(X = 0, Y = 0) = 3  2 = 1
7 6 7

(X = 0, Y = 1) est l’événement "tirer une boule noire puis une blanche", donc p12 = p(X = 0, Y = 1) = 3  4 = 2
7 6 7

(X = 1, Y = 0) est l’événement "tirer une boule blanche puis une noire", alors p21 = p(X = 1, Y = 0) = 4  3 = 2
7 6 7

(X = 1, Y = 1) est l’événement "tirer une boule blanche puis une blanche", d’où p22 = p(X = 1, Y = 1) = 4  3 = 2
7 6 7
Le tableau suivant donne la loi du couple (X, Y), ainsi que les lois marginales de X et Y :

X Y 0 1 p(X = xi)
0 1/7 2/7 3/7
1 2/7 2/7 4/7
p(Y = yj) 3/7 4/7 1

On calcule la fonction de répartition conjointe FXY (x, y) à partir de la loi de probabilité conjointe du couple
(X, Y) en cumulant les probabilités selon la formule FXY (x, y) =   pij . On obtient alors :
xi  x yj  y

Pour x  0 et y  0 : FXY (x, y) = 0

Pour 0  x  1 et 0  y  1 : FXY (x, y) = 1/7


Pour 0  x  1 et y  1 : FXY (x, y) = 3/7

Pour x  1 et 0  y  1 : FXY (x, y) = 5/7

Pour x  1 et y  1 : FXY (x, y) = 1.

La fonction de répartition marginale de X est :


Pour x  0 : FX (x) = 0

Pour 0  x  1 : FX (x) = 3/7


Pour x  1 : FX (x) = 1.

La fonction de répartition marginale de Y est :


Pour y  0 : FY (y) = 0

Pour 0  y  1 : FY (y) = 3/7


Pour y  1 : FY (y) = 1.

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 28

3.4.3 Indépendance
a) Définition
Soit X, Y deux variables aléatoires définies sur l’univers fini U. X et Y sont indépendantes si et seulement si
quels que soient i{1, ..., n} et j{1, ..., m} :
p(X = xi, Y = yj) = p(X = xi).p(Y = yj)
b) Propriétés
Soit X, Y deux variables aléatoires indépendantes définies sur l’univers fini U. Alors :
 E(XY) = E(X).E(Y)
 V(X+Y) = V(X) + V(Y)
Exemple 3.9 :
Soit les données de l’exemple 3.7. X et Y sont-elles des variables aléatoires indépendantes ?
X et Y ne sont pas indépendantes puisque :
p(X = 0, Y = 0) = 0  p(X = 0).p(Y = 0) = 1  1 = 1 .
2 8 16
3.4.4 Lois conditionnelles
a) Définition
Soit X, Y deux variables aléatoires définies sur l’univers fini U. Pour yj fixé, la loi conditionnelle de la
variable X sachant (Y = yj) est donnée par :
p(X  x i , Y  yj ) p ij
p (Y  yj ) (X  x i ) = =
p( Y  yj ) p. j

De même, pour xi fixé, la loi conditionnelle de la variable Y sachant (X = xi) est donnée par :
p(X  x i , Y  yj ) pij
p(X  xi ) (Y  yj ) = =
p(X  x i ) pi .
b) Propriétés
n
 y j :  p (Y  yj ) (X  xi )  1
i 1
m
 x i :  p (X  xi ) (Y  yj )  1
j 1

 Si X et Y sont indépendantes, p (Y  yj ) (X  x i ) = p(X = xi) i, j

 Si X et Y sont indépendantes, p(X  xi ) (Y  yj ) = p(Y = yj) i, j


Exemple 3.10 :
Soit le couple (X, Y) dont la loi de probabilité est donnée par le tableau suivant :
X Y 0 1
0 2/5 1/5
1 1/10 3/10
Donner les lois conditionnelles de X et Y.
Ali Bouchetob Probabilités RE2 = SD (Batna)
Chapitre 3 – Variables aléatoires finies 29

Calculons d’abord les lois marginales de X et Y :


X Y 0 1 p(X = xi)
0 2/5 1/5 3/5
1 1/10 3/10 2/5
p(Y = yj) 1/2 1/2 1

 La loi conditionnelle de X sachant (Y = 0) est :


p(X  0, Y  0) 2
p(Y  0 ) (X  0) = = 2 = 4
p(Y  0) 5 5

p(X  1, Y  0) 1
p(Y  0 ) (X  1) = = 2 = 1
p(Y  0) 10 5

 La loi conditionnelle de X sachant (Y = 1) est :


p(X  0, Y  1) 1
p(Y  1 ) (X  0) = = 2 = 2
p(Y  1) 5 5

p(X  1, Y  1) 3
p(Y  1 ) (X  1) = = 2 = 3
p(Y  1) 10 5

 La loi conditionnelle de Y sachant (X = 0) est :


p(X  0, Y  0) 2 5 2
p(X  0 ) (Y  0) = =  =
p(X  0) 5 3 3

p(X  0, Y  1) 1 5 1
p(X  0 ) (Y  1) = =  =
p(X  0) 5 3 3

 La loi conditionnelle de Y sachant (X = 1) est :


p(X  1, Y  0) 1 5 1
p(X  1 ) (Y  0) = =  =
p(X  1) 10 2 4

p(X  1, Y  1) 3 5 3
p(X  1 ) (Y  1) = =  =
p(X  1) 10 2 4

3.4.5 Covariance et Corrélation


a) Définitions
Soit X, Y deux variables aléatoires définies sur l’univers fini U.
 On appelle covariance de X et Y la quantité, notée cov(X, Y), définie par :
cov(X, Y) = E[(X – E(X)).(Y – E(Y))]
 On appelle coefficient de corrélation linéaire la quantité, notée r(X, Y), définie par :
cov(X, Y)
r(X, Y) =
σ(X) σ(Y)
b) Propriétés
Soit X, Y deux variables aléatoires définies sur l’univers fini U et a, b, c et d des réels, alors :

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 30

 On a aussi cov(X, Y) = E(XY) – E(X).E(Y) : c’est la formule de Kœnig.


 cov(X, Y) = cov(Y, X)
 cov(X, X) = V(X)
 V(aX + bY) = a2V(X) + 2abcov(X, Y) + b2V(Y)
 Si X et Y sont indépendantes alors cov(X, Y) = 0, d’où r(X, Y) = 0. La réciproque est fausse.
 –1  r(X, Y)  1
 r(aX + b, cY + d) = r(X, Y) avec a, c  0.
 Si r(X, Y) =  1, il existe deux réels a et b tels que Y = aX + b et a est du signe de r.
Exemple 3.11 :
Soit les données de l’exemple 3.7. Calculer le coefficient de corrélation linéaire r(X, Y).

Par définition : r(X, Y) = cov(X, Y)


σ(X) σ(Y)
En vertu de la formule de Kœnig :
cov(X, Y) = E(XY) – E(X).E(Y)
2 4 2
E(XY) =   x i .y j .pij =  x i [y1pi1 + y2pi2 + y3pi3 + y4pi4]
i 1 j 1 i 1

= x1(y1p11 + y2p12 + y3p13 + y4p14) + x2(y1p21 + y2p22 + y3p23 + y4p24) = 0 + (0 1 + 1 2 + 2 1 + 3 0) = 1


8 8 8 2
2 4
E(X) =  x i .p(X  x i ) = 0 1 + 1 1 = 1 et E(Y) =  yj .p(Y  y j ) = 0 1 + 1 3 + 2 3 + 3 1 = 3
i 1 2 2 2 j 1 8 8 8 8 2
Il en résulte :
cov(X, Y) = 1 – 1  3 = – 1
2 2 2 4
D’une part, on a :
V(X) = E(X2) – [E(X)]2 et (X) = V(X)
2
E(X2) =  x i .p(X  x i ) = 0 1 + 1 1 = 1
2
i 1 2 2 2

V(X) = 1 – 1 = 1 d’où (X) = 1/4


2 4 4
D’autre part, on a :
V(Y) = E(Y2) – [E(Y)]2 et (Y) = V(Y)
4
E(Y2) =  y 2j . p(Y  y j ) = 0 1 + 1 3 + 4 3 + 9 1 = 3
j 1 8 8 8 8

V(Y) = 3 – 9 = 3 d’où (Y) = 3/4


4 4
Finalement :
r(X, Y) =  1/4 = – 3/3 .
1/4 3/4

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 31

3.5 LOIS FINIES USUELLES


3.5.1 Loi uniforme
Soit X une variable aléatoire définie sur l’univers fini U. On dit que la variable aléatoire X suit une loi
discrète uniforme sur X(U) = {x1, x2, …, xn} si :

i[1, n], p(X = xi) = n1


Cette loi apparait lors du lancer d’un dé non truqué, choix d’une carte au hasard dans un jeu de cartes, ...
Elle a pour espérance (ou moyenne) :
n n
E(X) = m =  x i .pi = 1  x i
i 1 n i 1
et pour variance :
2
n n 
V(X) = E(X2) – [E(X)]2 = 1  x 2i – 12   x i 
n i 1 n  i1 
Cas particulier :
Si X(U) = {1, 2, …, n} alors :

E(X) = n  1 et V(X) = n  1 .
2

2 12
Exemple 3.12 :
On lance un dé ordinaire non truqué. X est la variable aléatoire égale au nombre qui apparait sur la face
supérieure. Calculer l’espérance E(X) et la variance V(X).
L’univers U est constitué de 6 événements élémentaires :
U = 1, 2, 3, 4, 5, 6
L’ensemble des valeurs prises par X est :
X(U) = 1, 2, 3, 4, 5, 6
Vu que le dé est non truqué, chaque événement élémentaire est équiprobable. On a alors :

p(X = 1) = p(X = 2) = p(X = 3) = p(X = 4) = p(X = 5) = p(X = 6) = 1


6
L’espérance de la variable aléatoire X est :
6
E(X) =  x i .p(X  x i ) = (1 1 + 2 1 + 3 1 + 4 1 + 5 1 + 6 1 ) = 7
i1 6 6 6 6 6 6 2
En vertu de la formule de Kœnig, la variance de X, est donnée par :
V(X) = E(X2) – [E(X)]2
6
=  x i2 .p(X  x i ) – [E(X)]2
i 1

= (1 1 + 4 1 + 9 1 + 16 1 + 25 1 + 36 1 ) – 49 = 35 .


6 6 6 6 6 6 4 12

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 32

3.5.2 Loi de Bernoulli


Une épreuve de Bernoulli est une expérience aléatoire ayant deux issues, l’une appelée succès l’autre
échec, de probabilités respectives p et q = 1– p.
On définit alors la variable aléatoire X qui vaut 1 en cas de succès et 0 en cas d’échec :
p(X = 1) = p ; p(X = 0) = q
La loi de probabilité de la variable aléatoire X est appelée loi de Bernoulli de paramètre p, caractérisée par
X(U) = {0, 1}.
Elle apparait lors du lancer d’une pièce (pile ou face), l’état d’un composant (fonctionne ou en panne), ...
Cette loi a pour espérance (ou moyenne) :
n
E(X) = m =  x i .pi = 0q + 1p = p
i 1

et pour variance :
V(X) = E(X2) – [E(X)]2 = p – p 2 = p(1– p) = pq
Exemple 3.13 :
On tire au hasard une boule d’une urne contenant 10 boules dont 4 rouges. X est la variable aléatoire
comptabilisant le nombre de boules rouges obtenu. Calculer l’espérance E(X) et la variance V(X).
Cette expérience aléatoire possède deux issues : obtenir une boule rouge (succès) ou non (échec). X suit
donc une loi de Bernoulli de paramètre p = 4/10 = 2/5. Alors :

E(X) = p = 2
5

V(X) = p(1– p) = 6 .
25

3.5.3 Loi Binomiale


La loi binomiale est la loi de probabilité d’une variable aléatoire représentant une série d’épreuves de
Bernoulli possédant les propriétés suivantes :
 Chaque épreuve donne lieu à deux éventualités exclusives de probabilités p et q = 1 – p ;
 Les épreuves répétées sont indépendantes les unes des autres ;
 La variable aléatoire X correspondante prend pour valeur le nombre de succès k dans une suite de n
épreuves.
La probabilité d’obtenir exactement k succès, indépendamment de l’ordre dans lequel ils se réalisent, dans
une suite de n épreuves est :

p(X = k) = Ckn pk qn – k avec 0  k  n


L’exemple classique d’un tel processus est le tirage avec remise ou non exhaustif.

Ali Bouchetob Probabilités RE2 = SD (Batna)


Chapitre 3 – Variables aléatoires finies 33

La loi de probabilité de la variable aléatoire X est appelée loi binomiale de paramètres n et p, caractérisée
par X(U) = {0, 1, ..., n}.
Cette loi a pour espérance (ou moyenne) :
n n
E(X) = m =  x i .pi =  k Ckn pk qn k = np
i 1 k 0

et pour variance :
n n
V(X) =  (x i  m) pi =  (k np)2 Ckn pk qn k = np(1 – p) = npq
2

i 1 k 0

Exemple 3.14 :
Une pièce de monnaie bien équilibrée est lancée 6 fois. Quelle est la probabilité d’obtenir 2 faces.
L’expérience est une suite de 6 lancers dont les résultats sont indépendants les uns des autres. Un résultat
peut être soit face (succès) soit pile (échec). Soit X la variable aléatoire comptabilisant le nombre de côtés

face à la fin de ces lancers. La pièce de monnaie étant bien équilibrée, p = q = 1 . Par conséquent, X suit
2

une loi binomiale de paramètres n = 6 et p = 1 .


2
La probabilité d’obtenir exactement 2 succès dans une suite de 6 épreuves est :
2 4
 1  15
1
p(X = 2) = C 26  
  =
 2  64
2
On déduit facilement les valeurs :

E(X) = np = 3 et V(X) = np(1 – p) = 3 .


2

3.5.4 Loi Hypergéométrique


Soit une population contenant N individus dont r d’entre eux présentent le caractère étudié. On prélève au
hasard un échantillon de taille n (sans remise). Soit X la variable aléatoire qui représente le nombre
d’individus de l’échantillon présentant le caractère étudié.
La probabilité pour que X = k est :
k n k
Cr CN  r
p(X = k) =
n
CN
La loi de probabilité de la variable X est appelée loi hypergéométrique de paramètres N, n et r ayant pour
espérance :

E(X) = n r
N
et pour variance :

V(X) = n r (1  r ) N  n
N N N1
Ali Bouchetob Probabilités RE2 = SD (Batna)
Chapitre 3 – Variables aléatoires finies 34

Exemple 3.15 :
On voudrait former un comité de 2 personnes choisies parmi 5 candidats : 3 hommes et 2 femmes. Soit X
la variable aléatoire qui représente le nombre de femmes dans le comité. Quelle est la probabilité de
choisir une femme ? Calculer E(X) et V(X).
La variable aléatoire X suit une loi hypergéométrique de paramètres N = 5, n = 2 et r = 2.
La probabilité de choisir une femme est :

C12 C13
p(X = 1) = = 3
C25 5
On déduit facilement les valeurs de l’espérance et de la variance :

E(X) = n r = 2  2 = 4
N 5 5

V(X) = n r (1  r ) N  n = 2  2  3  3 = 9 .
N N N1 5 5 4 25

Ali Bouchetob Probabilités RE2 = SD (Batna)

Vous aimerez peut-être aussi