Académique Documents
Professionnel Documents
Culture Documents
CHAPITRE 1
Vecteurs Aléatoires Discrets
1. Généralités
Un vecteur aléatoire est un vecteur (X 1 ; X 2 ; :::; X n ) composé de n variables aléatoires réelles dé…nies sur
un même espace de probabilité ( ;T ; P ): Dans ce chapitre, nous considérons le cas n = 2 , où les v.a sont
de même nature i.e les deux discrètes.
Dé…nition 1.1
Soit X et Y deux v.a réelles discrètes alors le couple (X; Y ) est appelé vecteur aléatoire discret.
:
Dans la suite, on utilisera les notations suivantes:
X = X( ) = fxi ; i 2 Ig , avec I N : le support de X :
Propriétés 2.1.
La loi de probabilité conjointe véri…e les deux propriétés suivantes:
1- P pijP 0 8i 2 I; 8j 2 J .
2- pij = 1:
i2I j2J
Exemple 1.
On jette deux dés bien équilibrés. Soit (X; Y ) un vecteur aléatoire.
On note par X le chi¤re obtenu par le 1er dé et Y la somme des chi¤res obtenus sur les deux dés.
et donc (X;Y ) = f1; 2; 3; 4; 5; 6g f2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12g avec (X;Y ) = 66:
1
Chap1. Proba2. 2021-2022
X X
P (Y = yj ) = P (X = xi , Y = yj ) = pij = p:j ; 8j 2 J
i2I i2I
P P
Aussi nous avons: P (X = xi ) = 1 et P (Y = yj ) = 1:
i2I j2J
Xn Y y1 yj Loi de X
x1 p11 p1j p1:
.. .. .. ..
. . . .
xi pi1 pij pi:
.. .. .. ..
. . . .
Loi de Y p:1 p:j 1
X X
FX;Y (x; y) = P [(X x) \ (Y y)] = P (X = xi ; Y = yj ): 8(x; y) 2 R2
i: xi x; j: yj y
Propriétés 4.1.
La fonction de répartition FX;Y (x; y) possède les propriétés suivantes:
a/- La loi de X j Y = y j ; 8j 2 J:
P (X = xi ; Y = yj ) pij
P (X = xi j Y = yj ) = = 8i 2 I avec P (Y = yj ) 6= 0
P (Y = yj ) p:j
2
Chap1. Proba2. 2021-2022.
b/- La loi de Y j X = xi ; 8i 2 I
P (X = xi ; Y = yj ) pij
P (Y = yj j X = xi ) = = 8j 2 J avec P (X = xi ) 6= 0
P (X = xi ) pi:
P P
Aussi nous avons: P (X = xi j Y = yj ) = 1 et P (Y = yj j X = xi ) = 1:
i2I j2J
P (X 2 A; Y 2 B)
P (X 2 A j Y 2 B) =
P (Y 2 B)
aussi:
P (X 2 A; Y 2 B)
P (Y 2 B j X 2 A) =
P (X 2 A)
6. L’indépendance.
Les variables aléatoires X et Y sont indépendantes si et seulement si :
P (X = xi ; Y = yj ) = P (X = xi ) P (Y = yj ) ,8(i; j) 2 I J;
Exemple 2
On lance une piece de monnaie équilibrée 3 fois et soit :
X : Le nombre total de piles obtenues sur les trois lancers.
Y : Le nombre de piles obtenues au premier lancer.
On aura: ( )
= (P P P ) ; (P P F ) ; (P F P ) ; (P F F ) ; (F P P ); (F P F ) ; (F F P ); (F F F ) .
X=3;Y =1 X=2;Y =1 X=2;Y =1 X=1;Y =1 X=2;Y =0 X=1;Y =0 X=1;Y =0 X=0;Y =0
1
P (X = 0; Y = 0) = P (f(F F F ))g) = , P (X = 0; Y = 1) = P (f?g) = 0 .
8
2 1
P (X = 1; Y = 0) = P (f(F P F ); (F F P )g) = , P (X = 1; Y = 1) = P (f(P F F )g) = :
8 8
1 2
P (X = 2; Y = 0) = P (f(F P P )g) = , P (X = 2; Y = 1) = P (f(P P F ); (P F P )g) = :
8 8
1
P (X = 3; Y = 0) = P (f?g) = 0 , P (X = 3; Y = 1) = P ((P P P )) = :
8
3
Chap1. Proba2. 2021-2022.
On résume les probabilités conjointes ainsi que les lois marginales dans le tableau suivant:
Xn Y y1 = 0 y2 = 1 Loi de X
1 1
x1 = 0 p11 = 8
p12 = 0 p1: = 8
2 1 3
x2 = 1 p21 = 8
p22 = 8
p2: = 8
1 2 3
x3 = 2 p31 = 8
p32 = 8
p3: = 8
1 1
x4 = 3 p41 = 0 p42 = 8
p4: = 8
1 1
Loi de Y p:1 = 2
p:2 = 2
1
P (X = xi ; Y = 1) pi2 pi2
P (X = xi j Y = 1) = = = 1 8i 2 f1; 2; 3; 4g
P (Y = 1) p:2 2
xi 0 1 2 3
On obtient la loi conditionnelle de X j Y = 1: 1 2 1
P (X = xi j Y = 1) 0 4 4 4
P (X = 2; Y = yj ) p3j p3j
P (Y = yj j X = 2) = = = 3 8j 2 f1; 2g :
P (X = 2) p3: 8
yj 0 1
On obtientl a loi conditionnelle de Y j X = 2: 1 2
P (Y = yj j X = 2) 3 3
1 1
On a: P12 = 0 , P1: = 8
et P:2 = 2
) P12 6= P1: P:2 ) X et Y sont dépendantes.
4
Chap1. Proba2. 2021-2022
7. L’espérance mathématique:
Soit (X; Y ) un vecteur aléatoire discret . L’espérance du vecteur (X; Y ); notée: E [(X; Y )] est aussi un
vecteur donnée par:
E [(X; Y )] = (E [X] ; E [Y ])
Proposition 7.1.
Soit deux v.a discrètes X et Y admettant chacune une espérance mathématique, alors X + Y admet une
espérance donnée par:
E [X + Y ] = E [X] +E [Y ]
Preuve:
XX
E [X + Y ] = [(xi + yj ) P (X = xi ; Y = yj )] On applique le Théorème 7.1
i2I j2J
XX XX
= [xi P (X = xi ; Y = yj )] + [yj P (X = xi ; Y = yj )]
i2I j2J i2I j2J
X X X X
= xi P (X = xi ; Y = yj ) + yj P (X = xi ; Y = yj )
i2I j2J j2J i2I
X X
= xi P (X = xi ) + yj P (Y = yj )
i2I j2J
= E [X] + E [Y ] :
8. Variance et Covariance:
En théorie des probabilités et en satatistique, la covariance entre deux variables aléatoires est un nombre
permettant de mesurer leurs écarts conjoints par rapport à leurs espérances respectives.
Dé…nition 8.1.
Soit X et Y deux variables aléatoires admettant un moment d’ordre 2. On appelle covariance de X et Y
le réel:
Cov(X; Y ) = E [(X E [X]) (Y E [Y ])]
5
Chap1. Proba2. 2021-2022
Proposition 8.1.
Soit X et Y deux variables aléatoires.
Preuve.
1/-
Cov(X; Y ) = E [ (X E [X]) (Y E [Y ]) ]
= E [ XY XE [Y ] Y E [X] + E [X] E [Y ] ]
= E [XY ] E [X] E [Y ] :
2/-
3/- Exercice.
Propriétés 8.1.
Soit X et Y deux variables aléatoires on a:
3/- La matrice de variance-covariance du vecteur (X; Y ) notée X Y est une matrice carrée symétrique
dé…nie par:
V ar(X) Cov(X; Y )
X Y =
Cov(Y; X) V ar(Y )
6
Chap1. Proba2. 2021-2022
Proposition 8.2.
Soit X et Y deux variables aléatoires indépendantes alors on a:
2/- Cov(X; Y ) = 0:
Preuve.
XX
E [XY ] = [xi yj Pi: P:j ]
i2I j2J
X X
= xi Pi: yj P:j
i2I j2J
= E [X] E [Y ] :
2/-
= 0:
3/-
Dé…nition 8.2.
Le coé¢ cient de corrélation linéaire entre X et Y est la quantité:
Cov(X; Y )
XY =p p avec : j XY j 1:
V ar(X) V ar(Y )
7
Chap1. Proba2. 2021-2022
Exemple 3.
On lance un dé équilibré et on considère les variables aléatoires X et Y dé…nies par:
X = 0 si le résultat du dé est pair et X = 1 sinon.
Y = 0 si le résultat du dé est 2 ou 4 et Y = 1 sinon.
On a: = 1 ; 2 ; 3 ; 4 ; 5 ; 6 .
X=1;Y =1 X=0;Y =0 X=1;Y =1 X=0;Y =0 X=1;Y =1 X=0;Y =1
2 1
donc: P (X = 0; Y = 0) = P (f2; 4g) = 6
; P (X = 0; Y = 1) = P (f6g) = 6
.
X n Y 0 1 Pi:
2 1 1
0 6 6 2
1 2
P:j 3 3
1 1
On a P (X = 1; Y = 0) = 0 , P (X = 1) = 2
et P (Y = 0) = 3
P
2 P
2
E [XY ] = [xi yj P (X = xi ; Y = yj )]
i=1 j=1
2 1 3
= 0 0 6
+ 0 1 6
+ (1 0 0) + 1 1 6
= 36 :
P
2
1 1
E [X] = xi P (X = xi ) = 0 2
+ 1 2
= 12 :
i=1
P
2
1 2
E [Y ] = yj P (Y = yj ) = 0 3
+ 1 3
= 23 :
j=1
Ainsi : Cov(X; Y ) = 36 1
2
2
3
= 16 :
8
Chap1. Proba2. 2021-2022
9. Espérance conditionnelle.
Dé…nitions 9.1.
Soit (X; Y ) un vecteur aléatoire discret .
X
E(X j Y = yj ) = [xi P (X = xi j Y = yj )] ,8j 2 J
i2I
X
E(Y j X = xi ) = [yj P (Y = yj j X = xi ) ] ,8i 2 I
j2J
Dé…nition 9.2
- L’espérance conditionnelle de Y j X notée E(Y j X) est une variable aléatoire qui prend les valeurs
E(Y j X = xi ) 8i 2 I avec des probabilités pi: .
- L’espérance conditionnelle de X j Y notée E(X j Y ) est une variable aléatoire qui prend les valeurs
E(X j Y = yj ) 8j 2 J avec des probabilités pj:
Exemple 4.
Soit (X; Y ) un vecteur aléatoire discret dont la loi conjointe est dé…nie par le tableau çi dessous:
X n Y 0 1 pi:
2 1 3
0 6 6 6
3 3
1 0 6 6
2 4
p:j 6 6
On doit trouver E(X j Y = 0) et E(X j Y = 1) pour cela on a besoin des lois conditionnelles: X j Y = 0
et X j Y = 1:
xi 0 1 E(X j Y = yj )
2=6 0
P(X = xi j Y = 0) 2=6
=1 2=6
=0 E(X j Y = 0) = (0 1) + (1 0) = 0
1=6 1 3=6 3 1 3 3
P(X = xi j Y = 1) 4=6
= 4 4=6
= 4
E(X j Y = 1) = 0 4
+ (1 4
) = 4
2- Calculer E [E(X j Y )] :
2 3 4 1
E [E(X j Y )] = 0 6
+ 4 6
= 2
= E [X] :
9
Chap1. Proba2. 2021-2022.
= E(Y ):
Propriétés 9.1.
Soit X, Y et Z des variables aléatoires. L’espérance conditionnelle possède les propriétés suivantes:
1/- E(aY + bZ j X) = a E(Y j X) + b E(Z j X):
2/- E(g(X)Y j X) = g(X)E(Y j X):
3/- Si X et Y sont indépendantes alors on a: E(Y j X) = E(Y ) et E(X j Y ) = E(X):
V ar(Y j X = xi ) = E(Y 2 j X = xi ) E 2 (Y j X = xi )
X
= yj2 P (Y = yj j X = xi ) E 2 (Y j X = xi )
j2J
10
Chap1. Proba2. 2021-2022.
P (Z = z) = P (X + Y = z)
X
= P (X = x; Y = z x)
x2 X
X
= P (X = x) P (Y = z x) ,8z 2 Z
x2 X
P (X + Y =z) = P ( (X + Y = z) \ )
= P (X + Y = z) \ [ X=x
x2 X
= P [ (X + Y = z) \ (X = x)
x2 X
X
= P ( (X + Y = z) \ (X = x))
x2 X
X
= P ((X = x) \ (Y = z x)) ,X et Y indépendantes
x2 X
X
= P (X = x) P (Y = z x):
x2 X
11
Chap1. Proba2. 2021-2022.
Exemple 5.
Soit X et Y deux variables aléatoires indépendantes de loi de poisson de paramètres respectifs 1> 0 et
2 > 0. Calculer la loi de Z = X + Y :
x y
e 1
1 e 2
2
On a: P (X = x) = x2N, P (Y = y) = y 2 N:
x! y!
On utilise le produit de convolution:
X
+1
P (X + Y =z) = P (X = x) P (Y = z x) , (z x) 0
x=0
X
z
e 1 x
e 2 z2 x
1
=
x=0
x! (z x)!
X
z
e 1 x
e 2 z2 x z!
1
=
x=0
x! (z x)! z!
e ( 1+ 2) X
z
z! x z x
= 1 2
z! x=0
x! (z x)!
e ( 1+ 2) X
z
x z x
= Czx 1 2
z! x=0
( 1+ 2)
e z
= ( 1 + 1) , z2N
z!
Donc: Z = X + Y suit la loi de poisson de paramètre 1 + 2 i.e Z ! P ( 1 + 2 ):
Proposition 11.2.
Soit MX (t) la fonction génératrice des moments de la v.a discrète X,
Soit MY (t) la fonction génératrice des moments de la v.a discrète Y;
Si X et Y sont indépendantes alors
Preuve.
= E(eXt eY t )
X X
= exi t eyj t pij , X et Y indépendantes
i2I j2J
X X
= exi t pi: eyj t p:j
i2I i2I
= MX (t) MY (t):
12
Chap1. Proba2. 2021-2022.
X +Y ! B(n1 + n2 ; p)
Preuve.
Les fonctions génératrices de X et Y sont respectivement:
On a: X et Y indépendants )
X +Y s P( 1 + 2)
Preuve. Exercice
13