Vous êtes sur la page 1sur 18

Vecteur de variables aléatoires discrètes

EL AMDAOUI Mustapha
22 janvier 2018

Plan
I. Couples de variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.1. Loi d’un couple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2. Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.3. Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.4. Indépendance de VAR discrètes. . . . . . . . . . . . . . . . . . . . . . . . 5
II. Variable aléatoire fonction d’un couple . . . . . . . . . . . . . . . . . . . . . . . 6
II.1. Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.2. Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
II.3. Covariance et coefficient de corrélation linéaire . . . . . . . . . . . . . . . . . . 11
III. Vecteurs de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . 14
III.1. Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
III.2. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
III.3. Stabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
III.4. Espérance, variance et covariance . . . . . . . . . . . . . . . . . . . . . . . 16

1
Éléments de cours: MP Vecteur de variables aléatoires discrètes

(Ω, T, P ) désigne un espace probabilisé.

I. Couples de variables discrètes


Dans toute ce paragraphe X et Y désigneront deux VAR discrètes définies sur un même espace probabilisé
(Ω, T, P ).
On notera X(Ω) = {xi /i ∈ I} et Y (Ω) = {yj /j ∈ J} où I et J désignent des parties au plus dénombrables.

I.1. Loi d’un couple

Définition:
On appelle couple de VAR discrète et on note (X, Y ) toute application de Ω dans R2 définie par
(X, Y )(ω) = (X(ω), Y (ω)).

Remarque:
Il s’agit d’une variable aléatoire discrète car (X, Y ) (Ω) ⊂ X (Ω) × Y (Ω) est au plus dénombrable.

Définition:
On appelle loi du couple de VAR discrètes (X, Y ), ou encore loi conjointe des variables aléatoires
X et Y , l’ensemble des couples ((xi , yj ), pi,j ) où

xi ∈ X(Ω), yj ∈ Y (Ω), pi,j = P ([X = xi ] ∩ [Y = yj ])

Remarque:
— Lorsque cela sera possible, on présentera la loi de (X, Y ) sous forme d’un tableau à double entrée.
— Lorsqu’on vous demande la loi du couple (X, Y ) il faut toujours commencer par rappeler X(Ω),
Y (Ω) puis il faut donner la valeurs de P ([X = xi ] ∩ [Y = yj ]) où xi ∈ X(Ω) et yj ∈ Y (Ω).

Exemple:
Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules de l’urne.
On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de boules rouges.
Déterminer la loi du couple (X, Y ).

Solution: On a X(Ω) = {0, 1, 2} et Y (Ω) = {0, 1, 2, 3}.


• On ne choisit que 3 boules dans l’urne donc le total des boules blanches et des boules rouges ne peut pas
dépasser 3. Donc :
P ([X = 2] ∩ [Y = 2]) = P ([X = 2] ∩ [Y = 3]) = P ([X = 1] ∩ [Y = 3]) = 0
• Pour toutes les autres valeurs de X et Y le raisonnement est le même. Détaillons un exemple :
Les tirages sont équiprobables. Il y a C93 façons de choisir 3 boules parmi 9.
L’événement [X = 1] ∩ [Y = 1] signifie que l’on a obtenu 1 boule blanche, 1 boule rouge et par conséquent
1 boule bleue. Le nombre de tirages correspondant à cette situation est : C21 × C31 × C41 = 2 × 3 × 4 = 24.
24 2
Donc P ([X = 1] ∩ [Y = 1]) = = .
84 7
De façon générale, si i + j 6 3, l’événement [X = i] ∩ [Y = j] signifie que l’on a tiré i boules blanches, j
boules rouges et 3 − i − j boules bleus. Le nombre de façons d’obtenir une telle combinaison est C2i C3j C43−i−j
parmi C93 façons de tirer 3 boules de l’urne. On a donc
C2i C3j C43−i−j
P ([X = i] ∩ [Y = j]) =
C93
On résume les résultats dans un tableau :

http://www.elamdaoui.com 1 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Exemple:
Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0; 1[ et la probabilité
d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile et Y le rang d’apparition du
deuxième pile.
Déterminer la loi du couple (X, Y ).

Solution: On a X(Ω) = N∗ et Y (Ω) = N \ {0, 1}. Soit i ∈ X(Ω) et j ∈ Y (Ω).


• Il est impossible que le deuxième pile arrive avant le premier donc si i > j on a
P ([X = i] ∩ [Y = j]) = 0
• Si i < j, on a [X = i] ∩ [Y = j] = F1 ∩ · · · ∩ Fi−1 ∩ Pi ∩ Fi+1 ∩ · · · ∩ Fj−1 ∩ Pj et les lancers sont
indépendants donc on a
P ([X = i] ∩ [Y = j]) = q i−1 × p × q j−i−1 × p = q j−2 p2

Propriété:
Avec les notations précédentes, alors la famille (pi,j )(i,j)∈I×J est sommable de somme 1

X XX XX
pi,j = pi,j = pi,j = 1
(i,j)∈I×J j∈I i∈I i∈I j∈J

Preuve: Par sommation par paquets

Théorème:
Soit {(xi , yi , pi,j )/(i, j) ∈ I × J} une partie de R3 , où I et J des ensembles au plus dénombrables. Si pour
tout (i, j) ∈ I ×J, pi,j > 0 et si la famille (pi,j )(i,j)∈I×J est sommable de somme 1, alors il existe un espace
probabilisé (Ω, T, P ) et deux VAR discrètes X et Y définies sur Ω tels que {((xi , yi ), pi,j ) /(i, j) ∈ I × J}
est la loi conjointe de (X, Y ).

Exemple:

I.2. Lois marginales

Définition:
Soit (X, Y ) un couple de VAR discrètes. La loi de X est appelé la première loi marginale du couple
(X, Y ) et la loi de Y est appelée la deuxième loi marginale du couple (X, Y ).

Lorsque l’on connaît la loi du couple (X, Y ) on peut en déduire la loi de X et la loi de Y grâce à la formule
des probabilités totales :

Propriété:
Soit (X, Y ) un couple de VAR discrètes. Alors on a :
X
∀i ∈ I, P ([X = xi ]) = P ([X = xi ] ∩ [Y = yj ])
j∈J

X
∀j ∈ J, P ([Y = yi ]) = P ([X = xi ] ∩ [Y = yj ])
i∈I

http://www.elamdaoui.com 2 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Preuve:

Remarque:
Ce qu’il est important de retenir ici, c’est que lorsqu’on a la loi d’un couple pour obtenir la loi de X (ou
celle de Y ) il suffit de se servir de la formule des probabilités totales avec le système complet d’événements
([Y = yj ])j∈J (ou ([X = xi ])i∈I )

Exemple:
Reprenons l’exemple 2 et déterminons la loi deuxième loi marginale du couple (X; Y ) c’est-à-dire la loi
de Y .

Solution: On rappelle tout d’abord que Y (Ω) = N \ {0; 1}.


Pour tout j ∈ Y (Ω), d’après la formule des probabilités totales utilisée avec le système complet d’événements
([X = i])i∈X(Ω) , on a :
+∞
X
P (Y = j) = P ([X = i] ∩ [Y = j])
i=1
j−1
X +∞
X
= P ([X = i] ∩ [Y = j]) + P ([X = i] ∩ [Y = j])
i=1 i=j
j−1
X +∞
X
= p2 × q j−2 + 0
i=1 i=j
j−1
X
= p2 × q j−2 1
i=1
2 j−2
= (j − 1)p × q

Fonction de répartition
Soit (X, Y ) un couple de variables aléatoires réelles discrètes sur l’espace probabilisé (Ω, T, P ). La fonction
de répartition de (X, Y ) est la fonction de deux variables F(X,Y ) définie par

F(X,Y ) (x, y) = P (X 6 x, Y 6 y)

Espérance du couple
Soit (X, Y ) un couple de variables aléatoires réelles discrètes sur l’espace probabilisé (Ω, T, P ) admettant
une espérance, on définit le vecteur espérance E((X, Y )) du vecteur aléatoire (X, Y ) par l’égalité

E ((X, Y )) = (E (X) , E (Y ))

I.3. Lois conditionnelles

Définition:
Soit (X, Y ) un couple de VAR discrètes et soit y ∈ Y (Ω) tel que P (Y = y) 6= 0.
On appelle loi conditionnelle à [Y = y] de X l’ensemble des couples (xi , P[Y =y] (X = xi )) pour
i ∈ I.
On définit de même pour x ∈ X(Ω) la loi conditionnelle à [X = x] de Y .

http://www.elamdaoui.com 3 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Exemple:
Reprenons l’exemple 1 et déterminons la loi conditionnelle à [Y = 2] de X.

Solution: — On rappelle que X(Ω) = {0; 1; 2}.


— P[Y =2] (X = 2) = 0. Car parmi les trois boules on ne peut pas avoir 2 boules blanches sachant que l’on a
déjà 2 boules rouges.
P ([X = 1] ∩ [Y = 2])
— P[Y =2] (X = 1) =
P (Y = 2)
Pour obtenir P (Y = 2) on utilise la formule des probabilités totales avec le système complet d’événements
([X = 0], [X = 1], [X = 2]). On a donc :
3
P (Y = 2) = P ([X = 0] ∩ [Y = 2]) + P ([X = 1] ∩ [Y = 2]) + P ([X = 2] ∩ [Y = 2]) =
14
1 14 1
Ainsi P[Y =2] (X = 1) = × =
14 3 3
P ([X = 0] ∩ [Y = 2]) 1 14 2
— P[Y =2] (X = 0) = = × =
P (Y = 2) 7 3 3

Remarque:
On aurait ici pu déterminer la loi conditionnelle à [Y = 2] de X directement sans se servir de la loi du
couple.

Il est important de bien savoir jongler entre loi du couple, loi marginale et loi conditionnelle. Il s’agit uniquement
d’appliquer la définition des probabilités conditionnelles ou alors d’appliquer la formule des probabilités totales
mais voici tout de même une propriété générale qui reprend tout cela.

Propriété:
Soit (X, Y ) un couple de VAR discrètes. Pour tout (i, j) ∈ I × J tels que P (X = xi ) 6= 0 et P (Y = yi ) 6= 0
on a :
• Loi conditionnelle à partir de la loi du couple :

P ([X = xi ] ∩ [Y = yj ])
P[X=xi ] (Y = yj ) =
P (X = xi )
P ([X = xi ] ∩ [Y = yj ])
P[Y =yj ] (X = xi ) =
P (Y = yj )
• Loi du couple à partir de la loi conditionnelle :

P ([X = xi ] ∩ [Y = yj ]) = P (X = xi )P[X=xi ] (Y = yj )
P ([X = xi ] ∩ [Y = yj ]) = P (Y = yj )P[Y =yj ] (X = xi )
• Lois marginales à partir des lois conditionnelles :
X
P (X = xi ) = P (Y = yj )P[Y =yj ] (X = xi )
j∈J
X
P (Y = yj ) = P (X = xi )P[X=xi ] (Y = yj )
i∈I

Exemple:
Soient X et Y deux variables aléatoires réelles discrètes telles que Y suive la loi de Poisson de paramètre λ,
où λ est un réel strictement positif, et que la loi conditionnelle de X sachant [Y = m] soit la loi binomiale
de paramètre (m, p) pour tout entier m, où p est un réel de ]0, 1[.
Donnons la loi conjointe de (X, Y ) et la loi de X

http://www.elamdaoui.com 4 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Solution: Pour tout entier m, par définition de la loi conditionnelle et de la loi binomiale de paramètre (m, p).
Par définition
P (X = k, Y = m)
∀k ∈ [[0, m]] , P[Y =m] (X = k) =
P (Y = m)
Donc, pour tout entier m et pour tout entier k de [[0, m]]

n−k λm −λ
P (X = k, Y = m) = P[Y =m] (X = k) × P (Y = m) = Cnk pk (1 − p) e
m!
On obtient donc ainsi la loi conjointe
m

m−k λ
e−λ
 k k
Cm p (1 − p) si k ∈ [[0, m]]
P (X = k, Y = m) = m!
0 sinon

Comme ([Y = m])m∈N est un système complet d’événements, pour tout entier k, on a
+∞
X
P (X = k) = P[Y =m] (X = k) P (Y = m)
m=0
+∞
X n−k λm −λ
= Cnk pk (1 − p) e
m!
m=k
+∞ m−k m−k
pk λk X (1 − p) λ
= e−λ
k! (m − k)!
m=k
k k k
p λ (1−p)λ (pλ) −pλ
= e−λ e = e
k! k!
On en déduit que X suit la loi de poisson de paramètre λp

I.4. Indépendance de VAR discrètes

Définition:
On dit que deux VAR discrètes X et Y sont indépendantes si :

∀(x, y) ∈ X(Ω) × Y (Ω), P ([X = x] ∩ [Y = y]) = P (X = x)P (Y = y)

Exemple:
• Un urne contient n jetons numérotés de 1 à n. On en tire deux avec remise. Soit X et Y les variables
aléatoires égales au premier et au second numéro tiré. On a pour tout 1 6 i, j 6 n,
1
P ([X = i] ∩ [Y = j]) = = P (X = i)P (Y = j)
n2
donc les variables X et Y sont indépendantes.
• On effectue la même expérience mais sans remise. On a alors P ([X = i] ∩ [Y = i]) = 0 mais
1
P (X = i)P (Y = i) = 2 donc les variables ne sont pas indépendantes.
n

Propriété:
Les assertions suivantes sont équivalentes
1. X et Y sont indépendantes
2. Pour tout A ⊂ X(Ω) et B ⊂ Y (Ω), les événements [X ∈ A] et [Y ∈ B] sont indépendants.

http://www.elamdaoui.com 5 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Preuve: 1 ⇒ 2) Soit A ⊂ X(Ω) et B ⊂ Y (Ω), alors A × B est au plus dénombrable. Par la formule des
probabilités totales
X
P ([X ∈ A] ∩ [Y ∈ B]) = P ([X = x] ∩ [Y = y])
(x,y)∈A×B
X
= P (X = x) × P (Y = y)
(x,y)∈A×B

En sommant par paquets


XX
P ([X ∈ A] ∩ [Y ∈ B]) = P (X = x) × P (Y = y)
x∈A y∈B
X X
= P (X = x) × P (Y = y)
x∈A y∈B
= P (X ∈ A) × P (Y ∈ B)

1 ⇐ 2) Soit (x, y) ∈ X (Ω) × Y (Ω), on prend A = {x} et B = {y}. Les événements (X = x) et (Y = y) sont
indépendants donc
P ([X = x] ∩ [Y = y]) = P (X = x)P (Y = y)

Corollaire:
Si X et Y sont indépendantes, alors

P ([X 6 x] ∩ [Y 6 y]) = P (X 6 x) × P (Y 6 y)

Propriété:
Si X et Y sont deux VARD indépendantes et si f et g sont deux fonctions numériques définies respecti-
vement sur X(Ω) et Y (Ω) alors f (X) et g(Y ) sont indépendantes.

Preuve: Soit x ∈ f (X (Ω)) et y ∈ g (Y (Ω)). On a

X ∈ f −1 ({x}) ∩ Y ∈ g −1 ({y})
   
P (f (X) = x, g(Y ) = y) = P

Les variables X et Y étant indépendantes, donc

X ∈ f −1 ({x}) ∩ Y ∈ g −1 ({y})
   
P (f (X) = x, g(Y ) = y) = P
= P X ∈ f −1 ({x}) × P Y ∈ g −1 ({y})
 

= P (f (X) = x) × P (g(Y ) = y)

II. Variable aléatoire fonction d’un couple


Dans cette partie g désigne une fonction de R2 dans R définie au moins sur X(Ω) × Y (Ω).

II.1. Loi de probabilité

Propriété:
Z = g(X, Y ) est une variable aléatoire réelle discrète

http://www.elamdaoui.com 6 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

L’ensemble des valeurs prises par Z sont les g(x, y) avec (x, y) ∈ X (Ω) × Y (Ω). Mais il se peut que certaines
des valeurs des g(x, y) soient égales.

Propriété:
Soit Z = g(X, Y ). Alors, pour tout z ∈ Z (Ω), on a :
X
P (Z = z) = P ([X = x] ∩ [Y = y])
(x,y)∈X(Ω)×Y (Ω)
g(x,y)=z

Exemple:
Reprenons l’exemple 1 et déterminons les lois de S = X + Y et Z = XY .

Solution: • On a tout d’abord S(Ω) = {0; 1; 2; 3; 4; 5}.


Calculons par exemple
1 1 1 10
P (S = 3) = P ([X = 0] ∩ [Y = 3]) + P ([X = 1] ∩ [Y = 2]) + P ([X = 2] ∩ [Y = 1]) = + + =
84 14 28 84
De même on peut obtenir le tableau :
valeur de S 0 1 2 3 4 5
1 5 10 5
probabilité 0 0
21 14 21 42
• Z(Ω) = {0; 1; 2; 3; 4; 6} et
valeur de Z 0 1 2 3 4 6
51 2 3
probabilité 0 0 0
84 7 28

Propriété:
l’application X + Y est une variable aléatoire réelle discrète, et
X
P (X + Y = s) = P (X = x, Y = y)
(x,y)∈X(Ω)×Y (Ω)
x+y=s
X
= P (X = x, Y = s − x)
x∈X(Ω)
s−x∈Y (Ω)

Si X et Y sont des variables aléatoires réelles discrètes indépendantes, alors


X
P (X + Y = s) = P (X = x) P (Y = y)
(x,y)∈X(Ω)×Y (Ω)
x+y=s
X
= P (X = x) P (Y = s − x)
x∈X(Ω)
s−x∈Y (Ω)

Preuve: Prendre g : (x, y) ∈ R2 −→ x + y ∈ R et appliquer la propriété précédente

Exemple:
1 i+j
Lorsque X(Ω) = Y (Ω) = N, pij = P (X = i, Y = j) = . Trouver la loi de S = X + Y .
2e2 i!j!

http://www.elamdaoui.com 7 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Solution: On a S (Ω) = N, pour tout k ∈ N, on a


k k
1 X k k X i 2k−1 k
P (S = k) = = Ck = .
2e2 i=0 i!(k − i)! 2e2 k! i=0 e2 k!

Stabilité des lois binomiales


Si X et Y sont deux VARD indépendantes suivant des lois binomiales de paramètres respectifs (m, p)
et (n, p) alors X + Y suit une loi binomiale de paramètre (m + n, p).

Preuve: Posons S = X +Y , on a S (Ω) = [[0, m + n]]. De plus, pour tout k ∈ [[0, m + n]], on a, par indépendance
de X et de Y :
X
P (S = k) = P (X = i, Y = j)
i+j=k
X
= P (X = i) P (Y = j)
i+j=k
X m−i n−j
i i
= Cm p (1 − p) Cnj pj (1 − p)
i+j=k

m+n−k
X
= pk (1 − p) i
Cm Cnj
i+j=k
k m+n−k k
= p (1 − p) Cm+n Formule de Vandermonde

Donc S suit la loi binomiale de paramètre (m + n, p)

Stabilité des lois de poisson


Si X et Y sont deux VAR indépendantes suivant des lois de Poisson de paramètres respectifs λ et µ
alors X + Y suit une loi de Poisson de paramètre λ + µ.

Preuve: Soit Z = X + Y . On a tout d’abord Z(Ω) = N et pour tout k ∈ N,


X
P (Z = k) = P ([X = i] ∩ [Y = j])
(i,j)∈N2 /i+j=k
k
X
= P ([X = i] ∩ [Y = k − i])
i=0
k
X
= P (X = i)P (Y = k − i) car X et Y sont indépendantes
i=0
k
X e−λ λi e−µ µk−i
=
i=0
i! (k − i)!
k
X λi µk−i
= e−(λ+µ)
i=0
i!(k − i)!
k
e−(λ+µ) X k!
= λi µk−i
k! i=0
i!(k − i)!
k
e−(λ+µ) X i i k−i
= Ck λ µ
k! i=0
e−(λ+µ) (λ + µ)k
=
k!
Donc Z suit la loi de Poisson de paramètres λ + µ.

http://www.elamdaoui.com 8 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

II.2. Espérance
Si on a calculé la loi de Z = g(X, Y ) alors on peut calculer l’espérance de façon classique mais si on n’a pas
déterminé clairement la loi de Z alors le théorème suivant peut aider...

Théorème de Transfert
La variable Z = g(X, Y ) a une espérance si et seulement si la famille (g(xi , yj ), pij )(i,j)∈I×J est sommable
et dans ce cas X
E(g(X, Y )) = g(x, y)P ([X = x] ∩ [Y = y])
(x,y)∈X(Ω)×Y (Ω)

Remarque:
Il faut donc connaître la loi du couple (X, Y ) pour utiliser ce théorème.

Notation:
P ([X = x] ∩ [Y = y]) se note P (X = x, Y = y)

Propriété:
Soit X et Y deux VAR discrètes admettant chacune une espérance et a, b deux réels. Alors la variable
aléatoire réelle discrète aX + bY admet une espérance, et

E(aX + bY ) = aE(X) + bE(Y )

Preuve: Théorème du transfert

Positivité de l’espérance
Soient X une variable aléatoire discrète positive admettant une espérance.
Alors E(X) > 0. Si de plus E(X) = 0 alors X = 0 presque sûrement.

Preuve: Si X est à valeurs positives. On a


X
E (X) = xP (X = x) > 0
x∈X(Ω)

Car somme d’une famille de réels tous positifs. Si de plus E(X) = 0 alors

∀x ∈ X(Ω), xP (X = x) = 0

et donc ∀x ∈ X(Ω) \ {0}, P (X = x) = 0. On en déduit P (X = 0) = 1.

Corollaire:
Soient X et Y deux variables aléatoires discrètes admettant une espérance.
Si X 6 Y alors E(X) 6 E(Y ).

Preuve: Y − X est une variable positive.

Propriété:
Si |X| 6 Y et si Y admet une espérance alors X aussi.

http://www.elamdaoui.com 9 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

A revoir. Par probabilités totales


X
E (|X|) = xP (|X| = x)
x∈|X|(Ω)
X X
= xP (|X| = x, Y = y)
x∈|X|(Ω) y∈Y (Ω)

Or |X| 6 Y donc
xP (|X| = x, Y = y) 6 yP (|X| = x, Y = y)
En effet, si le terme de probabilité est nul, l’inégalité est vraie, sinon il existe ω ∈ Ω tel que |X(ω)| = x et
Y (ω) = y donc x = y et l’inégalité est encore vraie. En réordonnant la somme
X X
E(|X|) = yP (|X| = x, Y = y)
y∈Y (Ω) x∈|X|(Ω)

et par probabilité totales


X
E(|X|) 6 yP (Y = y) = E (Y ) < +∞
y∈Y (Ω)

Produit de VAR discrètes indépendantes


Si les variables X et Y sont indépendantes et admettant chacune une espérance alors XY admet une
espérance et
E(XY ) = E(X)E(Y )

Preuve: Avec sommabilité


X
E(X)E(Y ) = xyP (X = x)P (Y = y)
(x,y)∈X(Ω)×Y (Ω)

Par indépendance
X
E(X)E(Y ) = xyP (X = x, Y = y)
(x,y)∈X(Ω)×Y (Ω)

Par le théorème de transfert


E(X)E(Y ) = E (XY )

Attention:
la réciproque à la deuxième phrase est fausse.
Ce n’est pas parce que E(XY ) = E(X)E(Y ) que les VAR sont indépendantes.

Corollaire:
Si f (X) et g(Y ) admettent des espérances avec X et Y variables indépendantes alors

E(f (X)g(Y )) = E(f (X))E(g(Y ))

Corollaire:
Soit X et Y deux variables aléatoires indépendantes à valeurs dans N de fonctions génératrices respectives
GX et gY . Alors
GX+Y = GX × GY .

http://www.elamdaoui.com 10 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Preuve: Comme X et Y sont indépendantes,

GX+Y (s) = E sX+Y = E sX sY = E sX E sY = GX (s) × GY (s)


   

Exemple:
Soit X et Y deux variables aléatoires indépendantes de lois de Poisson de paramètres respectifs λ > 0 et
µ > 0. Déterminer, en calculant sa fonction génératrice, la loi de X + Y .

Solution: On sait que ∀s ∈ R, on a GX (s) = eλ(t−1) et GY (s) = eµ(t−1) . L’indépendance donne

∀s ∈ R, GX+Y (s) = GX (s) GY (s) = e(λ+µ)(t−1)

On conclut ainsi la loi de la somme :


(n)
GX+Y (0) (λ + µ)n −λ
∀n ∈ N, P (X + Y = n) = = e
n! n!

II.3. Covariance et coefficient de corrélation linéaire

Propriété:
Si les variables X et Y admettent chacune un moment d’ordre 2. Alors XY admet une espérance et
2
E (XY ) 6 E X 2 E Y 2
 
Inégalité de Cauchy-Schwarz

Il y a égalité si et seulement si X est quasi nulle ou Y est une fonction quasi linéaire de X, c’est-à-dire,
il existe un réel a tel que P (Y = aX) = 1.

Preuve: Pour tout x, y ∈ R, on a 2 |xy| = x2 + y 2 donc


1
X2 + Y 2

|XY | =
2
Puisque les variables X 2 et Y 2 admettent une espérance, la variable XY aussi.
Soit λ ∈ R. Introduisons la variable Z = (λX + Y )2 = λ2 X 2 + 2λXY + Y 2 . Par combinaison linéaire, Z admet
une espérance et puisque Z est positive

λ2 E X 2 + 2λE (XY ) + E Y 2 > 0


 

Cette identité vaut pour tout λ ∈ R.


• Cas E(X 2 ) > 0 : le trinôme associé au premier membre ne peut posséder deux racines réelles et donc

∆ = 4E(XY )2 − 4E(X 2 )E(Y 2 ) 6 0

Soit
E(XY )2 6 E(X 2 )E(Y 2 )

• Cas E(X2 ) = 0 : On a nécessairement E(XY ) = 0 car sinon 2λE (XY ) + E Y 2 change de signe en
E Y2
− .
2E (XY )  
2
En cas d’égalité, soit X est nulle presque sûr où il existe λ0 ∈ R tel que E (λ0 X + Y ) = 0, donc λ0 X + Y = 0
presque sûrement

Propriété:
L’ensemble des variables admettant un moment d’ordre 2 est un sous-espace vectoriel de l’espace des
variables admettant un moment d’ordre 1.

http://www.elamdaoui.com 11 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Preuve: L’inclusion a déjà été vue.


Si X et Y admettent des moments d’ordre 2 alors Z = λX + µY aussi car
Z 2 = λ2 X 2 + 2λµXY + µ2 Y 2
admet une espérance par combinaison linéaire.

Définition:
Soient X et Y deux VAR discrètes admettant des moments d’ordre 2.
On appelle covariance de X et de Y le nombre réel

cov(X, Y ) = E((X − E(X))(Y − E(Y )))

On appelle coefficient de corrélation de X et de Y si σ (X) σ (Y ) 6= 0 :

cov(X, Y )
ρ(X, Y ) = .
σ(X)σ(Y )

On dit que X et Y sont non corrélées si cov(X, Y ) = 0.

Propriété:
Soit X et Y admettant un moment d’ordre 2 alors

cov(X, Y ) = E(XY ) − E(X)E(Y )

Remarque:
C’est ce théorème que l’on utilisera le plus souvent pour calculer la covariance.

Remarque:
cov(Y, X) = cov(X, Y ) et on a aussi cov(X, X) = V (X).

Corollaire:
Si X et Y sont indépendantes alors elles sont non corrélées cov(X, Y ) = 0.

Attention:
Deux VAR indépendantes sont non corrélées mais la réciproque est en générale fausse.

Exemple:
Soit X suivant une loi uniforme sur {−1, 0, 1}, on pose Y = X 2 .
Montrer que X et Y sont non corrélées, et l’indépendance ?

Solution: On a Y (Ω) = {0, 1} avec [Y = 1] = [X = −1] ∪ [X = 1], ainsi, par le théorème du transfert
E (XY ) = P (X = 1, Y = 1) − P (X = −1, Y = 1) = P (X = 1) − P (X = −1) = 0
et E (X) = 0, alors cov (X, Y ) = 0. Donc les variables ne sont pas corrélées.
1 2
D’autre part P (X = 1, Y = 1) = P (X = 1) = et P (Y = 1) = , donc P (X = 1, Y = 1) 6= P (X = 1) P (Y = 1)
3 3

Corollaire:
Si cov(X, Y ) 6= 0, alors X et Y ne sont pas indépendantes.

http://www.elamdaoui.com 12 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Propriété:
Soit X, Y, Z des VARD admettant des moments d’ordre 2 et soit a et b deux réels
1. cov(X, X) = V(X),
2. cov(X, Y ) = cov(Y, X),
3. cov(aX + bZ, Y ) = a.cov(X, Y ) + b.cov(Z, Y )
2
4. cov (X, Y ) 6 V (X) V (Y )

Preuve: 1. Formule de Huygens ou de Kœnig


2. Facile
3. Conséquence de la linéarité de l’espérance
4. L’inégalité de Cauchy-Schwarz appliquée aux variables X̃ = X − E(X) et Ỹ = Y − E(Y )

Coefficients de corrélation
Soit X, Y des VARD admettant des moments d’ordre 2 telles que V(X).V(Y ) 6= 0.
Alors
|ρ(X, Y )| 6 1

ρ(X, Y ) = 1 ⇐⇒ ∃α ∈ R∗+ tel que Ỹ = αX̃ est presque sûrement.


⇐⇒ ∃ (α, β) ∈ R∗+ × R tel que Y = αX + β est presque sûrement.

ρ(X, Y ) = −1 ⇐⇒ ∃α ∈ R∗− tel que Ỹ = αX̃ est presque sûrement.


⇐⇒ ∃ (α, β) ∈ R∗− × R tel que Y = αX + β est presque sûrement.

Preuve: — De 4.) de la propriété précédente,


r  r on obtient |ρ(X, Y )| 6 1
   
— ρ(X, Y ) = 1 donne E X̃ Ỹ = E X̃ 2 E Ỹ 2 . Or X̃ et Ỹ ne sont pas nulles presque sûr car
V(X).V(Y ) 6= 0, alors il existe α ∈ R∗ tel que Ỹ = αX̃. r
   r  
D’autre part en remplaçant Ỹ par αX̃ dans E X̃ Ỹ = E X̃ 2 E Ỹ 2 , on obtient α = |α|, donc
α ∈ R∗+ .
Inversement Ỹ = αX̃, avec α ∈ R∗+ , donne
   
E X̃ Ỹ αE X̃ 2
ρ (X, Y ) = r  r   = r  r   = 1
E X̃ 2 E Ỹ 2 |α| E X̃ 2 E X̃ 2

Finalement Ỹ = αX̃ presque sûrement équivaut à Y = αX +β presque sûrement, avec β = E(Y )−αE(X)

Remarque:
le coefficient de corrélation linéaire est un réel compris entre −1 et 1 qui compare les similarités entre les
lois de X et de Y . Il est égal à 1 dans le cas où l’une des variables est fonction affine croissante de l’autre
variable et il est égal à −1 dans le cas où la fonction affine est décroissante. Les valeurs intermédiaires
renseignent sur le degré de dépendance linéaire entre les deux variables. Plus le coefficient est proche
des valeurs extrêmes −1 et 1, plus la corrélation entre les variables est forte ; on emploie simplement
l’expression « fortement corrélées » pour qualifier les deux variables.

http://www.elamdaoui.com 13 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Variance d’une somme


Soit (X, Y ) un couple aléatoire discret tel que X et Y ont une variance,

V(X + Y ) = V(X) + V(Y ) + 2cov(X, Y ).

Preuve: L’existence de V(X + Y ) est justifiée car E(XY ) existe avec Cauchy-Schwarz et donc le moment
d’ordre 2 existe pour X + Y , donc la variance.

E((X + Y )2 ) = E(X 2 ) + E(Y 2 ) + 2E(XY )


et
(E(X + Y ))2 = E(X)2 + E(Y )2 + 2E(X)E(Y ),
d’où le résultat.

Analogie
Terminologie probabiliste Terminologie euclidienne
Covariance cov Produit scalaire < .|. >
Variance V Norme au carré k.k22
Écart type σ Norme k.k
Non corrélation Orthogonalité
VAR nulle presque sûr Vecteur nul

III. Vecteurs de variables aléatoires


III.1. Vecteurs aléatoires
Soit X1 , · · · , Xn des variables aléatoires discrètes sur l’espace probabilisé (Ω, T, P )

Définition:
On appelle vecteur aléatoire discret défini à partir des variables aléatoires X1 , · · · , Xn la variable aléatoire
discrète Z donnée par
∀ω ∈ Ω, Z(ω) = (X1 (ω), · · · , Xn (ω))
La loi de la variable Z est appelée loi conjointe des variables X1 , · · · , Xn tandis que les lois de X1 , · · · , Xn
sont les lois marginales de Z.

Fonction de répartition d’un vecteur


Soit (X1 , · · · , Xn ) un vecteur de variables aléatoires réelles discrètes sur l’espace probabilisé (Ω, T, P ). La
fonction de répartition de (X1 , · · · , Xn ) est la fonction de n variables F(X1 ,··· ,Xn ) définie par

F(X1 ,··· ,Xn ) (x1 , · · · , xn ) = P (X1 6 x1 , · · · , Xn 6 xn )

Espérance d’un vecteur


Soit (X1 , · · · , Xn ) un vecteur de variables aléatoires réelles discrètes sur l’espace probabilisé (Ω, T, P )
admettant une espérance, on définit le vecteur espérance E ((X1 , · · · , Xn )) du vecteur aléatoire (X, Y )
par l’égalité
E ((X1 , · · · , Xn )) = (E (X1 ) , · · · , E (Xn ))

http://www.elamdaoui.com 14 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

III.2. Indépendance

n variables
Soient X1 , ..., Xn n VAR discrètes. On dit que les variables X1 , ..., Xn sont mutuellement indépen-
dantes (ou tout simplement indépendantes) lorsque
pour tout (x1 , ..., xn ) ∈ X1 (Ω) × · · · × Xn (Ω) :

P ([X1 = x1 ] ∩ · · · ∩ [Xn = xn ]) = P (X1 = x1 ) × · · · × P (Xn = xn )

Exemple:

Propriété:
Les assertions suivantes sont équivalentes
1. X1 , · · · , Xn sont indépendantes
2. Pour tout Ai ⊂ Xi (Ω), les événements (Xi ∈ Ai )i∈[[1,n]] sont mutuellement indépendants

A modifier. Il suffit d’adapter la démonstration présentée pour les couples de variables


Yn Yn
1 ⇒ 2) Soit i ∈ [[1, n]], on pose Ai ⊂ Xi (Ω). L’ensemble Ai ⊂ Xi (Ω) est au plus dénombrable. Par la
i=1 i=1
formule des probabilités totales
n
!
n
\ X  
P [Xi ∈ Ai ] = P ∩ [Xi = xi ]
i=1
i=1 n
Q
(x1 ,··· ,xn )∈ Ai
i=1

X n
Y
= P (Xi = xi )
n
Q i=1
(x1 ,··· ,xn )∈ Ai
i=1

En sommant par paquets


n
! n
\ X X X Y
P [Xi ∈ Ai ] = ··· P (Xi = xi )
i=1 x1 ∈A1 x2 ∈A2 xn ∈An i=1
Yn X
= P (Xi = xi )
i=1 xi ∈Ai
Yn
= P (Xi ∈ Ai )
i=1

n
Q
1 ⇐ 2) Soit (x1 , · · · , xn ) ∈ Xi (Ω), pour i ∈ [[1, n]] on prend Ai = {xi }. Les événements (Xi = xi ) sont
i=1
indépendants donc

P ([X1 = x1 ] ∩ · · · ∩ [Xn = xn ]) = P (X1 = x1 ) × · · · × P (Xn = xn )

Propriété:
Soient X1 , · · · , Xn des VAR discrètes mutuellement indépendantes et soit p ∈ {2, ..., n − 1}. Alors toute
variable aléatoire fonction des variables X1 , · · · , Xp est indépendante de toute variable aléatoire fonction
des variables Xp+1 , · · · , Xn .

http://www.elamdaoui.com 15 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Exemple:
Si X1 , X2 , X3 , X4 , X5 sont 5 VAR discrètes mutuellement indépendantes alors les variables X1 + 2X32 et
X2 − eX5 sont indépendantes.

Propriété:
Si la famille (Xi )16i6nk est indépendante et si 1 6 n1 < n2 < · · · < nk .

Alors la famille f1 (X1 , · · · , Xn1 ), f2 (Xn1 +1 , · · · , Xn2 ), · · · , fk (Xnk−1 +1 , · · · , Xnk ) est indépendante

Une suite de variables


On dit que la suite de VAR discrète (Xn )n∈N est une suite de variables aléatoires mutuellement
indépendantes si pour tout n ∈ N les variables aléatoires X0 , · · · , Xn sont mutuellement indépendantes.

III.3. Stabilités

Corollaire:
Si X1 , · · · , Xk sont VAR mutuellement indépendantes suivant des lois binomiales de paramètres
respectifs ! (n1 , p), · · · , (nk , p) alors la variable aléatoire X1 + · · · + Xk suit une loi binomiale de paramètre
Xk
ni , p .
i=1

Corollaire:
Si X1 , · · · , Xk sont VAR mutuellement indépendantes suivant des lois de Poisson de paramètres
k
X
respectifs λ1 , · · · , λk alors la variable aléatoire X1 + · · · + Xk suit une loi de Poisson de paramètre λi .
i=1

III.4. Espérance, variance et covariance

Propriété:
Soient X1 , · · · , Xn des variables aléatoires discrètes admettant toutes des espérances. Alors la variable
Xn
Xi admet une espérance et
i=1 !
Xn Xn
E Xi = E (Xi )
i=1 i=1

Variance d’une somme


Soit (X1 , · · · , Xn ) un vecteur de n variables aléatoires discrètes admettant de moments d’ordre 2, alors
Xn
Xi admet une variance et on a
i=1

n
! n
X X X
V Xi = V (Xi ) + 2 cov (Xi , Xj ).
i=1 i=1 16i<j6n

n
! n
X X
Si de plus les variables sont indépendantes, alors V Xi = V (Xi ).
i=1 i=1

http://www.elamdaoui.com 16 EL AMDAOUI Mustapha


Éléments de cours: MP Vecteur de variables aléatoires discrètes

Exemple:
Soit X une variable aléatoire discrète suivant une loi binomiale B(n, p). On interprète X comme la somme
de n variables aléatoires indépendantes Xi suivant une loi de Bernoulli de paramètre p. Donc
n
X
X= Xi avec ∀i ∈ [[1, n]] Xi ∼ B(1, p)
i=1

d’où E(X) = np et V(X) = npq car indépendance des Xi .

http://www.elamdaoui.com 17 EL AMDAOUI Mustapha

Vous aimerez peut-être aussi