Vous êtes sur la page 1sur 13

2 LIC-RO-Sect A CHAP1. Proba2. 2021-2022.

CHAPITRE 1
Vecteurs Aléatoires Discrets

1. Généralités
Un vecteur aléatoire est un vecteur (X 1 ; X 2 ; :::; X n ) composé de n variables aléatoires réelles dé…nies sur
un même espace de probabilité ( ;T ; P ): Dans ce chapitre, nous considérons le cas n = 2 , où les v.a sont
de même nature i.e les deux discrètes.

Dé…nition 1.1
Soit X et Y deux v.a réelles discrètes alors le couple (X; Y ) est appelé vecteur aléatoire discret.
:
Dans la suite, on utilisera les notations suivantes:
X = X( ) = fxi ; i 2 Ig , avec I N : le support de X :

Y = Y ( ) = fyj ; j 2 Jg , avec J N : le support de Y:

(X;Y ) = X Y = f(xi ,yj ) = xi 2 X , yj 2 Y , i 2 I et j 2 J g pour le support du couple (X; Y ):


:
2. La loi de Probabilité Conjointe
Si (X; Y ) est un vecteur aléatoire discret, alors sa loi de probabilité conjointe est dé…nie par:

P (X = xi ; Y = yj ) = P (X = xi \ Y = yj ) = pij ; 8(xi ; yj ) 2 (X;Y ) ; i 2 I; j 2 J

Propriétés 2.1.
La loi de probabilité conjointe véri…e les deux propriétés suivantes:
1- P pijP 0 8i 2 I; 8j 2 J .
2- pij = 1:
i2I j2J

- Pour toute parties A et B dans R, on a:


X X X X
P (X 2 A; Y 2 B) = P (X = xi ; Y = yj ) = pij
xi 2 A; yj 2 B xi 2A; yj 2B

Exemple 1.
On jette deux dés bien équilibrés. Soit (X; Y ) un vecteur aléatoire.

On note par X le chi¤re obtenu par le 1er dé et Y la somme des chi¤res obtenus sur les deux dés.

On aura: = f1; 2; 3; 4; 5; 6g f1; 2; 3; 4; 5; 6g avec j j = 6 6 = 36:

Ainsi X = f1; 2; 3; 4; 5; 6g et Y = f2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12g :

et donc (X;Y ) = f1; 2; 3; 4; 5; 6g f2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12g avec (X;Y ) = 66:

On peut déterminer les probabilités conjointes suivantes:


1 1
P (X = 1; Y = 2) = P (f(1; 1)g) = ; P (X = 1; Y = 7) = P (f(1; 6)g) = ;
36 36
P (X = 1; Y = 8) = P (ff?gg) = 0:
1
P (X = 2; Y = 2) = P (f?g) = 0, P (X = 2; Y = 7) = P (f(2; 5)g) = :
36

1
Chap1. Proba2. 2021-2022

3. Les lois marginales


Soit (X; Y ) un vecteur aléatoire discret, de loi conjointe (pij )i2I;j2J alors les lois (distributions) marginales
de X et de Y respectivement sont:
X X
P (X = xi ) = P (X = xi , Y = yj ) = pij = pi: ; 8i 2 I:
j2J j2J

X X
P (Y = yj ) = P (X = xi , Y = yj ) = pij = p:j ; 8j 2 J
i2I i2I
P P
Aussi nous avons: P (X = xi ) = 1 et P (Y = yj ) = 1:
i2I j2J

Représentation de la loi conjointe et des lois marginale

Xn Y y1 yj Loi de X
x1 p11 p1j p1:
.. .. .. ..
. . . .
xi pi1 pij pi:
.. .. .. ..
. . . .
Loi de Y p:1 p:j 1

4. La fonction de répartition conjointe.


La fonction de répartition du vecteur (X; Y ) est dé…nie par:

X X
FX;Y (x; y) = P [(X x) \ (Y y)] = P (X = xi ; Y = yj ): 8(x; y) 2 R2
i: xi x; j: yj y

Propriétés 4.1.
La fonction de répartition FX;Y (x; y) possède les propriétés suivantes:

1- 8(x; y) 2 R2 ; 0 FX;Y (x; y) 1:

2- limx! 1 ou y! 1 FX;Y (x; y) = 0 et limx! +1 et y! +1 FX;Y (x; y) = 1:

3-8y 2 R; l’application x ! FX;Y (x; y) est croissante et continue à droite.

4-8x 2 R; l’application y ! FX;Y (x; y) est croissante et continue à droite.

5- 8x 2 R , FX (x) = limy! +1 FX;Y (x; y) , 8y 2 R , FY (y) = limx! +1 FX;Y (x; y):

5. Les lois conditionnelles


Soit (X; Y ) un vecteur aléatoire discret de loi conjointe (pij )i2I;j2J , alors on peut dé…nir les fonctions de
probabilités conditionnelles par:

a/- La loi de X j Y = y j ; 8j 2 J:

P (X = xi ; Y = yj ) pij
P (X = xi j Y = yj ) = = 8i 2 I avec P (Y = yj ) 6= 0
P (Y = yj ) p:j

2
Chap1. Proba2. 2021-2022.

b/- La loi de Y j X = xi ; 8i 2 I

P (X = xi ; Y = yj ) pij
P (Y = yj j X = xi ) = = 8j 2 J avec P (X = xi ) 6= 0
P (X = xi ) pi:
P P
Aussi nous avons: P (X = xi j Y = yj ) = 1 et P (Y = yj j X = xi ) = 1:
i2I j2J

- Pour toute parties A et B dans R, nous avons :

P (X 2 A; Y 2 B)
P (X 2 A j Y 2 B) =
P (Y 2 B)
aussi:

P (X 2 A; Y 2 B)
P (Y 2 B j X 2 A) =
P (X 2 A)

et soit une généralisation de la formule des probabilités totales:


X
P (Y 2 B) = P (Y 2 B j X = xi ) P (X = xi ):
i2I

6. L’indépendance.
Les variables aléatoires X et Y sont indépendantes si et seulement si :

P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj ) ,8(i; j) 2 I J;

Exemple 2
On lance une piece de monnaie équilibrée 3 fois et soit :
X : Le nombre total de piles obtenues sur les trois lancers.
Y : Le nombre de piles obtenues au premier lancer.

1/- Trouver la loi conjointe du vecteur (X; Y ) et les lois marginales.

On aura: ( )
= (P P P ) ; (P P F ) ; (P F P ) ; (P F F ) ; (F P P ); (F P F ) ; (F F P ); (F F F ) .
X=3;Y =1 X=2;Y =1 X=2;Y =1 X=1;Y =1 X=2;Y =0 X=1;Y =0 X=1;Y =0 X=0;Y =0

Ainsi: X = f0; 1; 2; 3g et Y = f0; 1g :

et donc (X;Y ) = f0; 1; 2; 3g f0; 1g avec (X;Y ) =4 2 = 8:

1
P (X = 0; Y = 0) = P (f(F F F ))g) = , P (X = 0; Y = 1) = P (f?g) = 0 .
8
2 1
P (X = 1; Y = 0) = P (f(F P F ); (F F P )g) = , P (X = 1; Y = 1) = P (f(P F F )g) = :
8 8
1 2
P (X = 2; Y = 0) = P (f(F P P )g) = , P (X = 2; Y = 1) = P (f(P P F ); (P F P )g) = :
8 8
1
P (X = 3; Y = 0) = P (f?g) = 0 , P (X = 3; Y = 1) = P ((P P P )) = :
8

3
Chap1. Proba2. 2021-2022.

On résume les probabilités conjointes ainsi que les lois marginales dans le tableau suivant:

Xn Y y1 = 0 y2 = 1 Loi de X
1 1
x1 = 0 p11 = 8
p12 = 0 p1: = 8

2 1 3
x2 = 1 p21 = 8
p22 = 8
p2: = 8

1 2 3
x3 = 2 p31 = 8
p32 = 8
p3: = 8

1 1
x4 = 3 p41 = 0 p42 = 8
p4: = 8

1 1
Loi de Y p:1 = 2
p:2 = 2
1

2/- Déterminer la loi conditionnelle de X j Y = 1

P (X = xi ; Y = 1) pi2 pi2
P (X = xi j Y = 1) = = = 1 8i 2 f1; 2; 3; 4g
P (Y = 1) p:2 2

xi 0 1 2 3
On obtient la loi conditionnelle de X j Y = 1: 1 2 1
P (X = xi j Y = 1) 0 4 4 4

2/- Déterminer la loi conditionnelle de Y j X = 2:

P (X = 2; Y = yj ) p3j p3j
P (Y = yj j X = 2) = = = 3 8j 2 f1; 2g :
P (X = 2) p3: 8

yj 0 1
On obtientl a loi conditionnelle de Y j X = 2: 1 2
P (Y = yj j X = 2) 3 3

3/- Les v.a X et Y sont elles indépendantes?

X et Y sont indépendantes ssi Pij = Pi: P:j , 8(i; j) 2 I J:

1 1
On a: P12 = 0 , P1: = 8
et P:2 = 2
) P12 6= P1: P:2 ) X et Y sont dépendantes.

4
Chap1. Proba2. 2021-2022

7. L’espérance mathématique:
Soit (X; Y ) un vecteur aléatoire discret . L’espérance du vecteur (X; Y ); notée: E [(X; Y )] est aussi un
vecteur donnée par:

E [(X; Y )] = (E [X] ; E [Y ])

Théorème 7.1. (de Transfert)


Soit h(X; Y ) une fonction réelle du couple (X; Y ); l’espérance de h(X; Y ) ,si elle existe, est donnée par:
XX XX
E [h(X; Y )] = [h(xi ; yj ) P (X = xi ; Y = yj )] = h(xi ; yj ) Pij
i2I j2J i2I j2J

En particulier, on peut déterminer E [XY ] comme suit:


XX
E [XY ] = [xi yj P (X = xi ; Y = yj )] :
i2I j2J

Proposition 7.1.
Soit deux v.a discrètes X et Y admettant chacune une espérance mathématique, alors X + Y admet une
espérance donnée par:

E [X + Y ] = E [X] +E [Y ]
Preuve:

XX
E [X + Y ] = [(xi + yj ) P (X = xi ; Y = yj )] On applique le Théorème 7.1
i2I j2J
XX XX
= [xi P (X = xi ; Y = yj )] + [yj P (X = xi ; Y = yj )]
i2I j2J i2I j2J
X X X X
= xi P (X = xi ; Y = yj ) + yj P (X = xi ; Y = yj )
i2I j2J j2J i2I
X X
= xi P (X = xi ) + yj P (Y = yj )
i2I j2J
= E [X] + E [Y ] :

8. Variance et Covariance:
En théorie des probabilités et en satatistique, la covariance entre deux variables aléatoires est un nombre
permettant de mesurer leurs écarts conjoints par rapport à leurs espérances respectives.

Dé…nition 8.1.
Soit X et Y deux variables aléatoires admettant un moment d’ordre 2. On appelle covariance de X et Y
le réel:
Cov(X; Y ) = E [(X E [X]) (Y E [Y ])]

5
Chap1. Proba2. 2021-2022

Proposition 8.1.
Soit X et Y deux variables aléatoires.

1/- Cov(X; Y ) = E [XY ] E [X] E [Y ] :

2/- V ar(X + Y ) = V ar(X) + V ar(Y ) + 2 Cov(X; Y ):

3/- V ar(aX + bY ) = a2 V ar(X) + b2 V ar(Y ) + 2ab Cov(X; Y ) 8(a; b) 2 R2 :

Preuve.
1/-

Cov(X; Y ) = E [ (X E [X]) (Y E [Y ]) ]

= E [ XY XE [Y ] Y E [X] + E [X] E [Y ] ]

= E [XY ] E [X] E [Y ] E [Y ] E [X] + E [X] E [Y ]

= E [XY ] E [X] E [Y ] :

2/-

V ar(X + Y ) = E (X + Y )2 [ E(X + Y )]2

= E X 2 + 2XY + Y 2 [ E (X) + E (Y )]2

= E X 2 + 2E [XY ] + E Y 2 E [X]2 2E [X] E [Y ] E [Y ]2

= E X2 E [X]2 + E Y 2 E [Y ]2 + 2 (E [XY ] E [X] E [Y ]) :

= V ar(X) + V ar(Y ) + 2Cov(X; Y ):

3/- Exercice.

Propriétés 8.1.
Soit X et Y deux variables aléatoires on a:

1/- Cov(X; Y ) = Cov(Y; X):

2/- Cov(X; X) = V ar(X) ; Cov(Y; Y ) = V ar(Y ):

3/- La matrice de variance-covariance du vecteur (X; Y ) notée X Y est une matrice carrée symétrique
dé…nie par:

V ar(X) Cov(X; Y )
X Y =
Cov(Y; X) V ar(Y )

6
Chap1. Proba2. 2021-2022

Proposition 8.2.
Soit X et Y deux variables aléatoires indépendantes alors on a:

1/- E [XY ] = E [X] E [Y ] :

2/- Cov(X; Y ) = 0:

3/- V ar(X + Y ) = V ar(X) + V ar(Y ):

Preuve.

1/- X et Y indépendantes ) Pij = Pi: P:j 8(i; j) 2 I J donc:

XX
E [XY ] = [xi yj Pi: P:j ]
i2I j2J
X X
= xi Pi: yj P:j
i2I j2J

= E [X] E [Y ] :

2/-

Cov(X; Y ) = E [XY ] E [X] E [Y ]

= E [X] E [Y ] E [X] E [Y ] car X etY indépendantes

= 0:

Remarque: Cov(X; Y ) = 0 ; X et Y indépendantes.

3/-

V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y )

= V ar(X) + V ar(Y ): car Cov(X; Y ) = 0

Dé…nition 8.2.
Le coé¢ cient de corrélation linéaire entre X et Y est la quantité:

Cov(X; Y )
XY =p p avec : j XY j 1:
V ar(X) V ar(Y )

Si j XY j 0:75 ont dit que la corrélation est forte.

7
Chap1. Proba2. 2021-2022

Exemple 3.
On lance un dé équilibré et on considère les variables aléatoires X et Y dé…nies par:
X = 0 si le résultat du dé est pair et X = 1 sinon.
Y = 0 si le résultat du dé est 2 ou 4 et Y = 1 sinon.

1/- Déterminer la loi conjointe du couple (X; Y ) et les lois marginales.

On a: = 1 ; 2 ; 3 ; 4 ; 5 ; 6 .
X=1;Y =1 X=0;Y =0 X=1;Y =1 X=0;Y =0 X=1;Y =1 X=0;Y =1

et donc: X = f0; 1g et Y = f0; 1g :

et (X;Y ) = f0; 1g2 avec (X;Y ) =2 2 = 4:

2 1
donc: P (X = 0; Y = 0) = P (f2; 4g) = 6
; P (X = 0; Y = 1) = P (f6g) = 6
.

P (X = 1; Y = 0) = P (f?g) = 0 ; P (X = 1; Y = 1) = P (f1; 3; 5g) = 36 .

X n Y 0 1 Pi:
2 1 1
0 6 6 2

Ainsi on obtient les probabilités conjointes: 3 1 :


1 0 6 2

1 2
P:j 3 3

2/- X et Y sont-elles indépendantes? Calculer Cov(X; Y ).

1 1
On a P (X = 1; Y = 0) = 0 , P (X = 1) = 2
et P (Y = 0) = 3

donc P (X = 1; Y = 0) 6= P (X = 1) P (Y = 0) ) X et Y sont dépendantes.

3/- Calculer Cov(X; Y ).

On a: Cov(X; Y ) =E [XY ] E [X] E [Y ] :

P
2 P
2
E [XY ] = [xi yj P (X = xi ; Y = yj )]
i=1 j=1
2 1 3
= 0 0 6
+ 0 1 6
+ (1 0 0) + 1 1 6

= 36 :

P
2
1 1
E [X] = xi P (X = xi ) = 0 2
+ 1 2
= 12 :
i=1
P
2
1 2
E [Y ] = yj P (Y = yj ) = 0 3
+ 1 3
= 23 :
j=1

Ainsi : Cov(X; Y ) = 36 1
2
2
3
= 16 :

8
Chap1. Proba2. 2021-2022
9. Espérance conditionnelle.
Dé…nitions 9.1.
Soit (X; Y ) un vecteur aléatoire discret .

L’espérance conditionnelle de X j Y = yj est donnée par:

X
E(X j Y = yj ) = [xi P (X = xi j Y = yj )] ,8j 2 J
i2I

L’espérance conditionnelle de Y j X = xi est donnée par:

X
E(Y j X = xi ) = [yj P (Y = yj j X = xi ) ] ,8i 2 I
j2J

Dé…nition 9.2
- L’espérance conditionnelle de Y j X notée E(Y j X) est une variable aléatoire qui prend les valeurs
E(Y j X = xi ) 8i 2 I avec des probabilités pi: .

- L’espérance conditionnelle de X j Y notée E(X j Y ) est une variable aléatoire qui prend les valeurs
E(X j Y = yj ) 8j 2 J avec des probabilités pj:

Exemple 4.
Soit (X; Y ) un vecteur aléatoire discret dont la loi conjointe est dé…nie par le tableau çi dessous:

X n Y 0 1 pi:
2 1 3
0 6 6 6

3 3
1 0 6 6

2 4
p:j 6 6

1- Déterminer la distribution de E(X j Y ):

On doit trouver E(X j Y = 0) et E(X j Y = 1) pour cela on a besoin des lois conditionnelles: X j Y = 0
et X j Y = 1:

xi 0 1 E(X j Y = yj )
2=6 0
P(X = xi j Y = 0) 2=6
=1 2=6
=0 E(X j Y = 0) = (0 1) + (1 0) = 0
1=6 1 3=6 3 1 3 3
P(X = xi j Y = 1) 4=6
= 4 4=6
= 4
E(X j Y = 1) = 0 4
+ (1 4
) = 4

On obtient donc la loi ou la distribution de la variable aléatoire E(X j Y ) :


3
E(X j Y = yj ) 0 4
h i
2 4
P E(X j Y) = E(X j Y = yj ) = P(Y = yj ) P (Y = 0) = 6
P (Y = 1) = 6

2- Calculer E [E(X j Y )] :

2 3 4 1
E [E(X j Y )] = 0 6
+ 4 6
= 2
= E [X] :

9
Chap1. Proba2. 2021-2022.

Théorème 9.1. (théorème de l’espérance totale)


Soit (X; Y ) un vecteur aléatoire discret, alors on a:

E [E(Y j X)] = E [Y ] ; E [E(X j Y )] = E [X] .


Preuve.
X
E [E(Y j X)] = E(Y j X = xi ) P (X = xi )
i2I
X X
= yj P (Y = yj j X = xi ) P (X = xi )
i2I j2J
X X
= yj P (X = xi ; Y = yj )
i2I j2J
X X
= yj P (X = xi , Y = yj )
j2J i2I
X
= yj P (Y = yj )
j2J

= E(Y ):

Propriétés 9.1.
Soit X, Y et Z des variables aléatoires. L’espérance conditionnelle possède les propriétés suivantes:
1/- E(aY + bZ j X) = a E(Y j X) + b E(Z j X):
2/- E(g(X)Y j X) = g(X)E(Y j X):
3/- Si X et Y sont indépendantes alors on a: E(Y j X) = E(Y ) et E(X j Y ) = E(X):

10. La variance conditionnelle.


Dé…nitions 10.1.
- On appelle variance de Y j X = xi la quantité:

V ar(Y j X = xi ) = E(Y 2 j X = xi ) E 2 (Y j X = xi )
X
= yj2 P (Y = yj j X = xi ) E 2 (Y j X = xi )
j2J

- On dé…nit ensuite la variable aléatoire variance conditionnelle par:

V ar(Y j X) = (X) = E(Y 2 j X) E 2 (Y j X)

10
Chap1. Proba2. 2021-2022.

11. La somme de deux v.a discrètes indépendantes.


Proposition 11.1. (Produit de convolution)
Soit X et Y deux v.a Discrètes indépendantes, alors la loi de probabilité de la somme Z = X + Y est
obtenue en faisant le produit de convolution de la loi de X par la loi deY; i.e:

P (Z = z) = P (X + Y = z)
X
= P (X = x; Y = z x)
x2 X
X
= P (X = x) P (Y = z x) ,8z 2 Z
x2 X

Avec: Z = (Z); X = (X) et Y = (Y )

Preuve: En utilisant le système complet d’évènements: f(X = x)gx2 X


; on a:

P (X + Y =z) = P ( (X + Y = z) \ )

= P (X + Y = z) \ [ X=x
x2 X

= P [ (X + Y = z) \ (X = x)
x2 X

X
= P ( (X + Y = z) \ (X = x))
x2 X
X
= P ((X = x) \ (Y = z x)) ,X et Y indépendantes
x2 X
X
= P (X = x) P (Y = z x):
x2 X

11
Chap1. Proba2. 2021-2022.

Exemple 5.
Soit X et Y deux variables aléatoires indépendantes de loi de poisson de paramètres respectifs 1> 0 et
2 > 0. Calculer la loi de Z = X + Y :

x y
e 1
1 e 2
2
On a: P (X = x) = x2N, P (Y = y) = y 2 N:
x! y!
On utilise le produit de convolution:

X
+1
P (X + Y =z) = P (X = x) P (Y = z x) , (z x) 0
x=0

X
z
e 1 x
e 2 z2 x
1
=
x=0
x! (z x)!
X
z
e 1 x
e 2 z2 x z!
1
=
x=0
x! (z x)! z!

e ( 1+ 2) X
z
z! x z x
= 1 2
z! x=0
x! (z x)!

e ( 1+ 2) X
z
x z x
= Czx 1 2
z! x=0
( 1+ 2)
e z
= ( 1 + 1) , z2N
z!
Donc: Z = X + Y suit la loi de poisson de paramètre 1 + 2 i.e Z ! P ( 1 + 2 ):

Proposition 11.2.
Soit MX (t) la fonction génératrice des moments de la v.a discrète X,
Soit MY (t) la fonction génératrice des moments de la v.a discrète Y;
Si X et Y sont indépendantes alors

MX+Y (t) = MX (t) MY (t)

Preuve.

MX+Y (t) = E(e(X+Y )t )

= E(eXt eY t )
X X
= exi t eyj t pij , X et Y indépendantes
i2I j2J
X X
= exi t pi: eyj t p:j
i2I i2I

= MX (t) MY (t):

12
Chap1. Proba2. 2021-2022.

12. Quelques cas particulier:


a/- La loi Binomiale.
Théorème 12.1.
Soit X s B(n1 ; p) et Y s B(n2 ; p) deux v.a discrètes de lois binomiales indépendantes alors:

X +Y ! B(n1 + n2 ; p)

Preuve.
Les fonctions génératrices de X et Y sont respectivement:

MX (t) = (pet + 1 p)n1 et MY (t) = (pet + 1 p)n2 :

On a: X et Y indépendants )

MX+Y (t) = MX (t) MY (t)

= (pet + 1 p)n1 +n2

Donc: X + Y ! B(n1 + n2 ; p):

b/- La loi de Poisson.


.
Théorème 12.2.
Soit X s P( 1 ) et Y s P( 2 ) deux v.a discrètes de lois de Poissons indépendantes alors:

X +Y s P( 1 + 2)

Preuve. Exercice

13

Vous aimerez peut-être aussi