Vous êtes sur la page 1sur 6

Couples de variables aléatoires Exemple

Soient X et Y deux v.a. définies de (⌦, C , P) dans IR. On s’intéresse X \Y 0 1 5 7


ici au couple (X , Y ) : (⌦, C , P) ! (IR2 , B(IR 2 )). 1 0.11 0.06 0.1 0.08
Couple de v.a. discrètes 2 0.09 0.08 0.13 0
1. Loi conjointe : On appelle loi du couple (X , Y ), la probabilité PXY 6 0.05 0.07 0.12 0.11
donnée par p22 = PXY (2; 1) = 0.08 p14 = PXY ( 1; 7) = 0.08. On peut vérifier
PXY (xi , yj ) = P(X = xi \ Y = yj ) que XX
Si X prend les valeurs : x1 , ..., xn et Y les valeurs : y1 , ..., ym . On note PXY (xi , yj ) = 1
i j
pij = PXY (xi , yj ), i = 1, ..., n et j = 1, ..., m
On peut représenter (cas fini) la loi de (X , Y ) dans un tableau. Lois marginales. Ce sont les lois de X et de Y induites par la loi du
y1 · · · yj · · · ym couple. P
.. Loi marginale de X . P(X = xi ) = P(X = xi \ Y = yj ) (formule des
x1 . j
.. .. PP PP proba. totales).
. . On a pij = PXY (xi , yj ) = 1
xi · · · · · · pij i j i j
D’où
m
X
.. P(X = xi ) = pij = pi·
.
xn j=1

Statistique 3 (5009) 86 / 112 Statistique 3 (5009) 87 / 112

Loi marginale de Y . De même


n
X
P(Y = yj ) = pij = p·j Exemple
i=1
X \Y 0 1 5 7 PX
y1 · · · yj · · · ym PX 1 0.11 0.06 0.1 0.08 0.35
.. 2 0.09 0.08 0.13 0 0.3
x1 . 6 0.05 0.07 0.12 0.11 0.35
.. ..
. . PY 0.25 0.21 0.35 0.19 1
xi · · · · · · pij · · · · · · pi· p3· = 0.35 p·4 = 0.19.
.. .. On peut vérifier que
. .
.. n
X m
X
xn .
pi· = 1 et p·j = 1
pY · · · · · · p·j · · · · · · 1 i=1 j=1
On a
n
X m
X
pi· = 1 et p·j = 1
i=1 j=1

Statistique 3 (5009) 88 / 112 Statistique 3 (5009) 89 / 112


loi conditionnelle Remarque
Loi conditionnelle de X sachant Y = yj X et Y sont indépendantes ssi

P(X = xi \ Y = yj ) pij pij = pi· p·j , 8i, 8j


P(X = xi /Y = yj ) = =
P(Y = yj ) p·j
Dans l’exemple précédent 0.3 ⇥ 0.19 6= 0 =) X et Y ne sont pas ind..
Loi conditionnelle de Y sachant X = xi
Propriété de l’espérance
P(Y = yj \ X = xi ) pij Si ' : IR2 ! IR est mesurable et (X , Y ) est un couple aléatoire
P(Y = yj /X = xi ) = =
P(X = xi ) pi· discret, alors, X
E('(X , Y )) = '(xi , yj )pij
Exemple (P(Y/X=-1) dans l’exemple précédent) i,j

X \Y 0 1 5 7 PX EspérancePdu produit
1 0.11 0.06 0.1 0.08 0.35 E(XY ) = xi yj pij , si de plus X et Y sont indépendantes, on a :
i,j
.. .. .. .. ..
. . . . . X X X
yj 0 1 5 7 E(XY ) = xi yj pi. p.j = xi pi. yj p.j () E(XY ) = E(X )E(Y )
P(Y /X = 1) 0.11/0.35 0.06/0.35 0.1/0.35 0.08/0.35 i,j i j

Statistique 3 (5009) 90 / 112 Statistique 3 (5009) 91 / 112

Espérance et Variance conditionnelles


On appelle espérance de Y sachant X = x, la quantité : Démonstration.
n
X En effet, P
E(Y /X = x) = yj P(Y = yj /X = x) E[E(Y /X )] = P(X = x)E(Y /X = x)
x
P P
j=1
= P(X = x) P(Y = y /X = x) ⇤ y
x y
P P
On appelle v.a. espérance conditionnelle de Y sachant X , la v.a. = P(Y = y /X = x) ⇤ P(X = x) ⇤ y
notée E(Y /X ) = '(X ), définie par y x
P
= P(Y = y ) ⇤ y = E(Y )
x 7! E(Y /X = x) y

on a noté '(X ) car c’est une fonction définie sur les images de X ,
le résultat est donc une composée de deux v.a. Remarque
Propriété Le théorème précédent permet de calculer l’espérance de Y sans
I E(Y /X ) est linéaire : E(aY1 + bY2 /X ) = aE(Y1 /X ) + bE(Y2 /X )
connaître sa loi, mais avec simplement la loi conditionnelle de Y
Théorème (Théorème de l’espérance totale :) sachant X et de celle de X .

E[E(Y /X )] = E(Y )

Statistique 3 (5009) 92 / 112 Statistique 3 (5009) 93 / 112


Variance conditionnelle
Exemple
On appelle variance de Y sachant X = x, notée V (Y /X = x), la
Une urne contient 10 boules rouges et 5 blanches, on tire une boule
quantité définie par
au hasard : si elle est rouge, on lance un dé numéroté de 1 à 6 et on
gagne le chiffre obtenue. Si elle est blanche, on lance un dé à 4 faces V (Y /X = x) = E([Y E(Y /X = x)]2 /X = x)
numéroté de 1 à 4 et on perd 2 fois le chiffre obtenu. Calculer
l’espérance des gains.
On note Y la v.a. donnant les gains et X celle correspondant au tirage La v.a. variance conditionnelle, notée V (Y /X ), est définie par
de boule (R :rouge et B :blanche).
On a x 7! V (Y /X = x) = (X )
1
E(Y /X = R) = 6 + 26
+ 36 + 46 + 56 + 66 = 21
6
2⇤1 2⇤2 2⇤3 2⇤4 20
E(Y /X = B) = 4 4 4 4 = 4 = 5 Théorème (Théorème de la variance totale (ou de
On en conclut E(Y ) = E[E(Y /X )] = 23 ⇤ 21 + 1
⇤ 5) = 2 décomposition de la variance))
6 3 ( 3
V (Y ) = E[V (Y /X )] + V [E(Y /X )]

Statistique 3 (5009) 94 / 112 Statistique 3 (5009) 95 / 112

Calcul de la variance de l’exemple précédent Somme de v.a. discrètes


Posons Z = X + Y , Z prend les valeurs zk = xi + yj , k = 1, ..., K .
X
1) calcul de E[V (Y /X )] : P(Z = zk ) = P(X = xi \ Y = yj )
V (Y /X = R) = 16 (1 21 2 1
6 ) + 6 (2
21 2 1
6 ) + ... + 6 (6
21 2 35
6 ) = 12
i,j:xi +yj =zk
1 2 1 2 1 2
V (Y /X = B) = 4 ( 2 + 5) + 4 ( 4 + 5) + ... + 4 ( 8 + 5) = 5 Si X et Y sont indépendantes, (on peut parler de convolution de v.a.)
D’où P
2 35 1 65 P(Z = zk ) = P(X = xi )P(Y = zk xi )
E[V (Y /X )] = ⇤ + ⇤5=
3 12 3 18 i:9j,zk =xi +yj
P
= P(X = xi )P(Y = zk xi )
172 i
2) D’autre part, V [E(Y /X )] = 23 ( 21
6
2 2
3) + 13 ( 5 2 2
3) = 18 (si 6 9j,tq zk = xi + yj le terme se simplifie
Au final car
P P(Y = zk xi ) = 0)
= P(X = zk yj )P(Y = yj )
65 172 354 59 j:9i,xi +yj =zk
V (Y ) = E[V (Y /X )] + V [E(Y /X )] = + = = P
18 18 18 3 = P(X = zk yj )P(Y = yj )
j
(si 6 9i, xi + yj = zk le terme se simplifie
car P(X = zk yj ) = 0)
Statistique 3 (5009) 96 / 112 Statistique 3 (5009) 97 / 112
Maximum de 2 v.a. discrètes
Exemple
Soient X et Y données dans le tableau :
X \Y 0 1 5 7 Posons, U = max{X , Y }, alors, U prend les valeurs
1 0.11 0.06 0.1 0.08 uk = max{xi , yj }, i = 1, .., n, j = 1, ..., m
2 0.09 0.08 0.13 0
6 0.05 0.07 0.12 0.11 P(U = uk ) = P(X = uk \ Y  uk ) + P(X < uk \ Y = uk )
Alors, Z = X + Y prend les valeurs : -1, 0, 2, 3, 4,6=-1+7 et 6+0,
7=2+5 et 6+1, 9, 11, 13. Sa loi est donc,
zk 1 0 2 3 4 6 7 Posons, W = min{X , Y }, alors, W prend les valeurs
P(Z = zk ) 0.11 0.06 0.09 0.08 0.1 0.13 = 0.2 = wk = min{xi , yj }, j = 1, .., n, i = 1, ..., m
0.08 + 0.05 0.13 + 0.07
zk 9 11 13 P(W = wk ) = P(X = wk \ Y wk ) + P(X > wk \ Y = wk )
Suite,
P(Z = zk ) 0 0.12 0.11

Statistique 3 (5009) 98 / 112 Statistique 3 (5009) 99 / 112

Couple de v.a. continues


On suppose ici que X et Y sont continues à valeurs dans IR2 ,
Exemple La fonction de répartition du couple (X , Y ) est
X \Y 0 1 5 7
H(x, y ) = P(X < x \ Y < y )
1 0.11 0.06 0.1 0.08
2 0.09 0.08 0.13 0
6 0.05 0.07 0.12 0.11
Les fonctions F , G de répartition marginales de X et Y :
max{X , Y }
uk 0 1 2 5 6 7 F (x) = P(X < x) = P(X < x \ Y 2 IR) = H(x, +1)
pk 0.11 0.06 0.17 0.23 0.05 + 0.07 + 0.12 0.19
min{X , Y } G(y ) = P(Y < y ) = P(X 2 IR \ Y < y ) = H(+1, y )
wk 1 0 1 2 5 6
pk 0.35 0.14 0.15 0.13 0.12 0.11
X et Y sont indépendantes ssi
P(X < x \ Y < y ) = P(X < x)P(Y < y ) donc ssi

H(x, y ) = F (x)G(y ), 8x, 8y

Statistique 3 (5009) 100 / 112 Statistique 3 (5009) 101 / 112


Si le couple (X , Y ) admet une densité h alors, On admet que l’on peut définir les lois conditionnelles P(X |Y = y )
Z x Z y et P(Y |X = x) à partir des densités conditionnelles de X sachant
@2H
H(x, y ) = h(u, v ) dvdu donc, h(x, y ) = Y et de Y sachant X comme suit :
1 1 @x@y
Si h est la densité du couple (X , Y ), f la densité de X et g celle de
Les densités marginales f et g de X et Y se calculent par Y , alors, la densité de X |Y = y est :
Z Z (
f (x) = h(x, y )dy et g(y ) = h(x, y )dx h(x,y )
g(y ) , si g(y ) 6= 0
IR IR f (x|y ) =
0, sinon.
Exemple (
h(x,y )
f (x) , si g(y ) 6= 0
Soit (X , Y ) un couple aléatoire de densité et celle de Y |X = x est g(y |x) =
0, sinon.

10xy 2 si 0  x  y  1, Moments : Si ' : IR2 ! IR est une fonction mesurable, alors :
h(x, y ) =
0 sinon. Z
E('(X , Y )) = '(x, y )h(x, y )dxdy
Calculer les densités marginales de X et Y . IR2

Donc, Z
X et Y sont indépendantes ssi
E(XY ) = xyh(x, y )dxdy
h(x, y ) = f (x)g(y ), 8x, 8y IR2

Statistique 3 (5009) 102 / 112 Statistique 3 (5009) 103 / 112

Soient X et Y deux v.a. réelles.


Exemple
Posons Z = X + Y , alors, Z a pour fonction de répartition
X U ([0, 1]), Y U ([0, 1]) et X et Y sont indépendantes. Quelle est
FZ (z) = P(Z < z) = P(X + Y < z) la loi de RZ = X + Y ?
fZ (z) = IR f (x)g(z x)dx
Si le couple (X , Y ) possède une densité h(x, y ). Domaine d’intégration :
Alors,
Z Z
FZ (z) = f (x, y )dxdy , avec D = {(x, y ) 2 IR2 : x + y  z} f (x) 6= 0 ssi x 2 [0; 1]
D g(z x) 6= 0 ssi z x 2 [0; 1]
On a donc, x 2 [0; 1] et
La densité fZ de Z peut être obtenue par z
Z Z ⇢ x 2 [0; 1], autrement,
0  x  1,
fZ (z) = h(x, z x)dx = h(z y , y )dy ou
0z x 1
IR IR ⇢
0  x  1,
Si X et Y sont indépendantes alors, x z x +1
Z Z F IGURE – Une autre façon d’exprimer
fZ (z) = f (x)g(z x)dx = f (z y )g(y )dy ce domaine
IR IR

Statistique 3 (5009) 104 / 112 Statistique 3 (5009) 105 / 112


8 Rz
Covariance et corrélation linéaire
Z 1 < R0 1dx, si z 2 [0; 1], La covariance de X et Y est définie par
1
fZ (z) = 1g(z x)dx = 1dx, si z 2 [1; 2],
0 : z 1
0, sinon. cov (X , Y ) = E[(X E(X ))(Y E(Y ))] = E(XY ) E(X )E(Y )
8
< z, si z 2 [0; 1], cov (X , Y ) est d’autant plus forte que X et Y varient dans même
fZ (z) = 2 z, si z 2 [1; 2], sens.
:
0, sinon. Le coefficient de corrélation entre X et Y est défini par
cov (X , Y )
⇢=
X Y

Si X et Y sont indépendantes alors :

i cov (X , Y ) = 0 et donc ⇢ = 0

F IGURE – Densité de fZ et la réciproque est fausse.


⇢ = ±1 lorsqu’il existe une relation linéaire entre X et
Y :X = aY + b
Statistique 3 (5009) 106 / 112 Statistique 3 (5009) 107 / 112

Vous aimerez peut-être aussi