Vous êtes sur la page 1sur 11

Couples et vecteurs de VAR finies

Dans tout ce chapitre, (Ω, P ) désigne un espace probabilisé fini et X et Y désignent deux VAR finies
et définies sur Ω.
On notera X(Ω) = {xi /i ∈ I} et Y (Ω) = {yj /j ∈ J} où I et J désignent une partie finie de N.

I Généralités sur les couples et vecteurs de VAR finies


1 Loi d’un couple

Définition 1
On appelle couple de VAR, et on note (X, Y ), l’application de Ω dans R2 définie par

(X, Y )(ω) = (X(ω), Y (ω)).

Définition 2
On appelle loi du couple de VAR finies (X, Y ), ou encore loi conjointe des variables aléatoires
X et Y , l’ensemble des couples ((xi , yj ), pi,j ) où

(xi , yj ) ∈ X(Ω) × Y (Ω), et pi,j = P ([X = xi ] ∩ [Y = yj ]).

Conseils méthodologiques :
— Déterminer la loi du couple (X, Y ) signifie qu’il faut expliciter X(Ω) et Y (Ω) puis calculer toutes
les valeurs de P ([X = xi ] ∩ [Y = yj ]) où xi ∈ X(Ω) et yj ∈ Y (Ω).
— Lorsque cela sera possible, on présentera la loi de (X, Y ) sous forme d’un tableau à double
entrée :
Y
y1 y2 ... yn
X
x1 P ([X = x1 ] ∩ [Y = y1 ]) P ([X = x1 ] ∩ [Y = y2 ]) ... P ([X = x1 ] ∩ [Y = yn ])

.. ..
x2 . .
.. .. ..
. . .
xp P ([X = xp ] ∩ [Y = y1 ]) ... ... P ([X = xp ] ∩ [Y = yn ])

Exemple 1:
Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait simultanément 3
boules de l’urne. On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de boules
rouges.  
9
Déterminer la loi du couple (X, Y ). (On donne = 84 )
3
On a X(Ω) = {0, 1, 2} et Y (Ω) = {0, 1, 2, 3}.
— On ne choisit que 3 boules dans l’urne donc le total des boules blanches et des boules rouges ne
peut pas dépasser 3. Donc :
P ([X = 2] ∩ [Y = 2]) = P ([X = 2] ∩ [Y = 3]) = P ([X = 1] ∩ [Y = 3]) = 0
— Pour toutes les autres valeurs de X etY le raisonnement est le même. Détaillons un exemple :
9
Les tirages sont équiprobables. Il y a façon de choisir 3 boules parmi 9.
3

Cours TSI2 Page 1 Couples et vecteurs de VAR finies


L’événement [X = 1] ∩ [Y = 1] signifie que l’on a obtenu 1 boule blanche, 1 boule rouge et par
conséquent 1 boule bleue.      
2 3 4
Le nombre de tirages correspondant à cette situation est : × × = 2 × 3 × 4 = 24.
1 1 1
24 2
Donc P ([X = 1] ∩ [Y = 1]) = = .
84 7
De façon générale, si i+j 6 3, l’événement [X = i]∩[Y = j] signifie que l’on a tiré i boules blanches,
j boules
  rouges et 3− i − j boules
  bleus. Le nombre de façons d’obtenir une telle combinaison est
2 3 4 9
parmi façons de tirer 3 boules de l’urne.
i j 3−i−j 3    
2 3 4
i j 3−i−j
On a donc P ([X = i] ∩ [Y = j]) =   .
9
3
On résume les résultats dans un tableau :

Y
0 1 2 3
X
4 1 18 3 12 1 1
0 = = =
84 21 84 14 84 7 84
12 1 24 2 6 1
1 = = = 0
84 7 84 7 84 14
4 1 3 1
2 = = 0 0
84 21 84 28

2 Lois marginales

Définition 3
Soit (X, Y ) un couple de VAR finies.
La loi de X et la loi de Y sont appelées les lois marginales du couple (X, Y ).

Conseils méthodologiques :
Lorsque l’on connait la loi du couple (X, Y ) on peut en déduire la loi de X (resp. de Y ) grâce à la
formule des probabilités totales appliquée avec le système complet d’événements ([Y = yj ])j∈J (resp.
([X = xi ])i∈I ) :
X
∀i ∈ I, P ([X = xi ]) = P ([X = xi ] ∩ [Y = yj ])
j∈J
X
∀j ∈ J, P ([Y = yj ]) = P ([X = xi ] ∩ [Y = yj ]).
i∈I

Exemple 2:
Reprenons l’exemple 1 et déterminons les lois marginales du couple (X, Y ).
On a X(Ω) = {0; 1; 2} et Y (Ω) = {0; 1; 2; 3}.
Les événements ([Y = 0], [Y = 1], [Y = 2], [Y = 3]) forment un système complet d’événements. D’après
la formule des probabilités totales :
P (X = 0) = P ([Y = 0] ∩ [X = 0]) + P ([Y = 1] ∩ [X = 0]) + P ([Y = 2] ∩ [X = 0]) + P ([Y = 3] ∩ [X = 0])
1 3 1 1 35
= + + + =
21 14 7 84 84
Cours TSI2 Page 2 Couples et vecteurs de VAR finies
On remarque que l’on a sommé toute les valeurs du tableau situé sur la ligne X = 0, pour obtenir
P (X = 0). Ainsi une fois que l’on a bien expliqué un calcul on peut juste donner les lois marginales en
rajoutant une ligne et une colonne au tableau de la loi de (X, Y ) :

Y
0 1 2 3 Loi de X
X
4 1 18 3 12 1 1 35 5
0 = = = =
84 21 84 14 84 7 84 84 12
12 1 24 2 6 1 42 1
1 = = = 0 =
84 7 84 7 84 14 84 2
4 1 3 1 7 1
2 = = 0 0 =
84 21 84 28 84 12
5 15 3 1
Loi de Y 1
21 28 14 84

Attention, la réciproque à la remarque précédente n’est en général pas vraie : la connaissance des lois
marginales ne suffit pas à déterminer la loi du couple.
Exemple 3:
On considère deux couples de VAR finies (X, Y ) et (X ′ , Y ′ ) dont les lois sont résumées dans les tableaux
suivants :

Y Y′
0 1 Loi de X 0 1 Loi de X ′
X X ′

1 1 1 1 3 1
0 0
4 4 2 8 8 2
1 1 1 3 1 1
1 1
4 4 2 8 8 2
1 1 1 1
Loi de Y Loi de Y ′
2 2 2 2

On peut compléter le tableau avec les lois marginales de X, Y , X ′ et Y ′ .


On voit ici que ces 4 VAR ont la même loi mais les couples n’ont pas la même loi.

3 Loi conditionnelle

Définition 4
Soit (X, Y ) un couple de VAR finies et soit y ∈ Y (Ω) tel que P (Y = y) 6= 0.
On appelle loi conditionnelle de X sachant [Y = y] l’ensemble des couples (xi , P[Y =y] (X = xi ))
pour i ∈ I.
On définit de même pour x ∈ X(Ω) la loi conditionnelle de Y sachant [X = x].

Conseils méthodologiques :
Déterminer le loi conditionnelle de X sachant [Y = y] signifie qu’il faut expliciter X(Ω), puis, pour
tout x ∈ X(Ω), P[Y =y] (X = x).

Cours TSI2 Page 3 Couples et vecteurs de VAR finies


Exemple 4:
On dispose de n boites numérotées de 1 à n. La boite k contient k jetons numérotés de 1 à k.
On choisit au hasard une boite puis un jeton dans cette boite.
Soit X le numéro de la boite choisie et Y le numéro du jeton extrait.
Soit i ∈ X(Ω) = J1; nK. Déterminons la loi conditionnelle de Y sachant [X = i].
On a Y (Ω) = J1; nK. Soit j ∈ Y (Ω).
— Si j > i alors P[X=i] ([Y = j]) = 0 car il est impossible de tirer un jeton numéroté j dans l’urne i
lorsque j > i.
1
— Si j 6 i alors P[X=i] (Y = j) = , car le choix des jetons est équiprobable.
i

4 Lien entre loi du couple, lois marginales et loi conditionnelle

Conseils méthodologiques :
Il est important de bien savoir jongler entre loi du couple, lois marginales et loi conditionnelle. Il s’agit
uniquement d’appliquer la définition des probabilités conditionnelles ou alors d’appliquer la formule
des probabilités totales mais voici tout de même un résumé de tout cela :
— Loi conditionnelle à partir de la loi du couple :

P ([X = xi ] ∩ [Y = yj ])
si P (X = xi ) 6= 0, P[X=xi] (Y = yj ) = .
P (X = xi )
P ([X = xi ] ∩ [Y = yj ])
si P (Y = yj ) 6= 0, P[Y =yj ] (X = xi ) = .
P (Y = yj )
— Loi du couple à partir de la loi conditionnelle :

P ([X = xi ] ∩ [Y = yj ]) = P (X = xi )P[X=xi ] (Y = yj ).
P ([X = xi ] ∩ [Y = yj ]) = P (Y = yj )P[Y =yj ] (X = xi ).
— Lois marginales à partir de la loi du couple :
X
P (X = xi ) = P ([X = xi ] ∩ [Y = yj ]).
j∈J
X
P (Y = yj ) = P ([X = xi ] ∩ [Y = yj ]).
i∈I

— Lois marginales à partir des lois conditionnelles :


X
P (X = xi ) = P (Y = yj )P[Y =yj ] (X = xi ).
j∈J
X
P (Y = yj ) = P (X = xi )P[X=xi ] (Y = yj ).
i∈I

Pour l’exploitation des deux derniers points en exercice, il faudra toujours bien rédiger au moins une
fois l’utilisation de la formule des probabilités totales en précisant le système complet d’événements
utilisé (si le même type de raisonnement est utilisé plusieurs fois dans le problème il ne faudra pas
hésiter à utiliser une rédaction du type ≪ De même . . . ≫).

Cours TSI2 Page 4 Couples et vecteurs de VAR finies


Exemple 5:
Reprenons l’exemple précédent et déterminons la loi de Y .
On sait que Y (Ω) = J1; nK. Soit j ∈ J1; nK. D’après la formule des probabilités totales avec le système
complet d’événements ([X = i])i∈J1;nK on a :
n
X
P (Y = j) = P ([X = i])P[X=i] (Y = j)
i=1

On remarque alors deux choses : il nous faut la loi de X et vu les calculs fait dans l’exemple précédent
il nous faut ≪ séparer ≫ la somme en plusieurs morceaux.
Étant donné que l’on choisit l’urne au hasard, X suit la loi uniforme sur J1; nK.
1
On a X(Ω) = J1; nK et ∀i ∈ X(Ω), P (X = i) = . Donc
n
j−1 n n n
X X 1 1 X1
X 1
P (Y = j) = P ([X = i])P[X=i] (Y = j) + P ([X = i])P[X=i] (Y = j) = 0 + × = .
i=1 i=j i=j
n i n i=j i
En étant rigoureux il aurait fallu distinguer le cas j = 1 car alors notre ≪ découpage de somme ≫ n’a
pas de sens mais comme la somme de i = 1 à j − 1 est ensuite nulle cela ne pose en fait pas de problème.
Remarque :
On remarque dans cet exemple que P (Y = j) s’exprime à l’aide d’une somme. Ainsi, si l’on doit ensuite
calculer l’espérance de Y on pourra voir apparaitre une ≪ double somme ≫. Comme le programme se limite
aux couples de VAR finies ces sommes seront finies et il n’y aura donc pas de difficultés de calculs (par
exemple on pourra ≪ échanger ≫ les sommes sans problème, ce qui n’est pas si facile avec des sommes
infinies).
Exemple 6:
Calculons l’espérance de la variable Y de l’exemple précédent.
Y est une VAR discrète finie donc elle admet une espérance et on a :
n n X n n X i
X X j X j X j
E(Y ) = jP (Y = j) = = =
j=1 j=1 i=j
in ni i=1 j=1
in
(i,j)∈J1;nK2 ,i6j
n i
! n  
X 1X X 1 i(i + 1)
= j = ×
i=1
in j=1 i=1
in 2
n  
1X 1 n(n + 1) n+3
= (i + 1) = × +n =
2n i=1 2n 2 4

Remarque :
Dans les exercices sur les couples de variables aléatoires on pourra voir apparaitre un calcul de proba-
bilité faisant intervenir les deux variables en même temps. Aucun résultat théorique n’est au programme
de ce sujet, il faudra se ramener aux valeurs de X et Y répondant à l’événement demandé. Pour résumer
≪ grossièrement ≫ :

X
P (g(X, Y ) = 0) = P ([X = x] ∩ [Y = y]).
(x,y)∈X(Ω)×Y (Ω)/g(x,y)=0

Exemple 7:
On continue avec l’exemple 4 et on souhaite calculer P (X = Y ).
n n n n
X X X 1 1 X1
On a : P (X = Y ) = P ([X = i] ∩ [Y = i]) = P (X = i)P[X=i] ([Y = i]) = = .
i=1 i=1 i=1
ni n i=1 i

Cours TSI2 Page 5 Couples et vecteurs de VAR finies


5 n variables aléatoires

Dans cette partie, X1 , X2 , . . . , Xn désignent n variables aléatoires réelles finies définies sur Ω.
Définition 5
On appelle n-uplet de VAR finies ou vecteur de n VAR finies, et on note (X1 , . . . , Xn ), l’appli-
cation de Ω dans Rn définie par :

(X1 , . . . , Xn )(ω) = (X1 (ω), . . . , Xn (ω)).

Définition 6
— On appelle loi conjointe de (X1 , . . . , Xn ) la donnée de X1 (Ω), X2 (Ω), . . . , Xn (Ω) et pour
tout (x1 , . . . , xn ) ∈ X1 (Ω) × . . . × Xn (Ω), la donnée de P ([X1 = x1 ] ∩ . . . ∩ [Xn = xn ]).
— Les lois des Xi s’appellent les lois marginales du vecteur (X1 , . . . , Xn ).

II Indépendance de VAR finies


1 Deux variables

Définition 7
On dit que deux VAR finies X et Y sont indépendantes si :

∀(x, y) ∈ X(Ω) × Y (Ω), P ([X = x] ∩ [Y = y]) = P (X = x)P (Y = y).

Exemple 8:
Reprenons l’expérience de l’exemple 4. Les variables X et Y sont-elles indépendantes ?
n
1 1 X1
On remarque que P ([X = 1] ∩ [Y = 2]) = 0, mais P (X = 1) × P (Y = 2) = × 6= 0.
n n i=2 i
Donc X et Y ne sont pas indépendantes.
Conseils méthodologiques :
Le plus souvent pour montrer que deux variables ne sont pas indépendantes on explicite un exemple
de valeurs de i et j pour lesquelles P ([X = i] ∩ [Y = j]) 6= P (X = i)P (Y = j).
Remarque :
Lorsque X et Y sont indépendantes on peut obtenir la loi du couple (X, Y ) à l’aide des lois de X et
de Y , ce qui n’est pas possible en général (cf. exemple 3).

Propriété 1
— Si X et Y sont indépendantes, pour toute partie A ⊂ X(Ω) et toute partie B ⊂ Y (Ω), on a :

P ((X, Y ) ∈ A × B) = P ([X ∈ A] ∩ [Y ∈ B]) = P (X ∈ A) × P (Y ∈ B).

— En particulier pour tout (x, y) ∈ R2 , P ([X 6 x] ∩ [Y 6 y]) = P (X 6 x) × P (Y 6 y).

Remarque :
On peut énoncer le deuxième point de cette propriété avec des inégalités strictes ou dans ≪ l’autre
sens ≫.

Cours TSI2 Page 6 Couples et vecteurs de VAR finies


Exemple 9:
On considère une urne contenant n jetons numérotés de 1 à n. On effectue deux tirages avec remise et
on note X1 le numéro du premier jeton obtenu et X2 le numéro du second jeton.
On cherche la loi de la variable aléatoire T = max(X1 , X2 ).
On remarque tout d’abord que T (Ω) = J1; nK.
Il nous faut maintenant calculer P (T = k) pour k ∈ J1; nK.
Une méthode classique consiste à commencer par calculer P (T 6 k) pour ensuite en déduire la loi.
Les tirages étant effectués avec remise, les variables X1 et X2 sont indépendantes.
De plus, pour k ∈ J1; nK, P (T 6 k) = P ([X1 6 k] ∩ [X2 6 k]) = P (X1 6 k)P (X2 6 k), par
indépendance.
k k
Donc P (T 6 k) = × .
n n
On obtient alors la loi de T en écrivant :
— P (T = k) = P (T 6 k) − P (T 6 k − 1), pour k ∈ J2; nK.
 2  2
k k−1 2k − 1
Donc P (T = k) = − = .
n n n2
1
— Et P (T = 1) = P (T 6 1) = 2 (la formule précédente est donc encore valable pour k = 1).
n
2k − 1
En conclusion T (Ω) = J1; nK et, pour k ∈ J1; nK, P (T = k) = .
n2
Propriété 2
Si X et Y sont deux VAR indépendantes et si f et g sont deux fonctions numériques définies respecti-
vement sur X(Ω) et Y (Ω) alors f (X) et g(Y ) sont indépendantes.

2 n variables

Définition 8
Soient X1 , ..., Xn n VAR finies. On dit que les variables X1 , ..., Xn sont mutuellement indépendantes
lorsque, pour tout (x1 , ..., xn ) ∈ X1 (Ω) × · · · × Xn (Ω) :

P ([X1 = x1 ] ∩ · · · ∩ [Xn = xn ]) = P (X1 = x1 ) × · · · × P (Xn = xn ).

Propriété 3
Soient X1 , · · · , Xn des VAR finies mutuellement indépendantes et soit p ∈ {2, ..., n − 1}. Alors toute
variable aléatoire fonction des variables X1 , · · · , Xp est indépendante de toute variable aléatoire fonction
des variables Xp+1 , · · · , Xn .

Exemple 10:
Si X1 , X2 , X3 , X4 , X5 sont 5 VAR finies mutuellement indépendantes alors les variables X1 + 2X32 et
X2 − eX5 sont indépendantes.

Cours TSI2 Page 7 Couples et vecteurs de VAR finies


III Somme et produit de deux VAR finies
On s’intéresse dans cette partie aux variables aléatoires finies S = X + Y et Z = XY .
Exemple 11:
Reprenons l’exemple 1 et déterminons les lois de S = X + Y et Z = XY .
— On a tout d’abord S(Ω) = {0; 1; 2; 3; 4; 5}.
Calculons par exemple
1 1 1 10
P (S = 3) = P ([X = 0]∩[Y = 3])+P ([X = 1]∩[Y = 2])+P ([X = 2]∩[Y = 1]) = + + =
84 14 28 84
De même on peut obtenir le tableau :
valeur de S 0 1 2 3 4 5
1 5 10 5
probabilité 0 0
21 14 21 42
— Z(Ω) = {0; 1; 2; 3; 4; 6} et
valeur de Z 0 1 2 3 4 6
51 2 3
probabilité 0 0 0
84 7 28
Remarque :
...
[
Il sera souvent utile de remarquer que, si S = X + Y , on peut écrire : [S = k] = [X = i] ∩ [Y = k − i]
i=...
(les pointillés sont à adapter en fonction de l’exercice).

1 Espérance

Théorème 1
X + Y et XY admettent une espérance (car VAR finies) et

E(X + Y ) = E(X) + E(Y ) linéarité de l’espérance.


X
E(XY ) = xyP ([X = x] ∩ [Y = y]).
(x,y)∈X(Ω)×Y (Ω)

Remarques :
— Il faut donc connaitre la loi du couple (X, Y ) pour calculer E(XY ).
— La démonstration de ces formules est hors programme.
Propriété 4
Si X et Y sont indépendantes alors E(XY ) = E(X)E(Y ).

Démonstration
D’après le théorème précédent :
X
E(XY ) = xi yj P ([X = xi ] ∩ [Y = yj ])
(i,j)∈I×J
X
= xi yj P (X = xi )P (Y = yj ) car X et Y sont indépendantes
(i,j)∈I×J

Cours TSI2 Page 8 Couples et vecteurs de VAR finies


! !!
X X X X
E(XY ) = xi yj P (X = xi )P (Y = yj ) = xi P (X = xi ) yj P (Y = yj )
i∈I j∈J i∈I j∈J
X
= E(Y )xi P (X = xi ) = E(Y )E(X).
i∈I


Attention la réciproque de cette propriété est en général fausse.
Ce n’est pas parce que E(XY ) = E(X)E(Y ) que les VAR sont indépendantes.
Exemple 12:
On considère X une VAR qui suit une loi uniforme sur {−1; 0; 1} et Y la variable définie par :
(
1 si X = 0
Y = .
0 sinon
1 1 1
On a alors E(X) = (−1) × + 0 × + 1 × = 0, donc E(X)E(Y ) = 0.
3 3 3
Et de plus XY = 0 donc E(XY ) = 0.
1
Mais il est pourtant clair que X et Y ne sont pas indépendantes : P ([X = 0] ∩ [Y = 1]) = et
3
1 1 1
P (X = 0) × P (Y = 1) = × = .
3 3 9

2 Somme de lois de Bernoulli

Théorème 2
Soient X1 , . . . , Xn des VAR mutuellement indépendantes suivant toutes la loi de Bernoulli de paramètre
p (p ∈ [0; 1]).
Alors la variable aléatoire X1 + . . . + Xn suit la loi binomiale de paramètres n et p.

Remarques :
— Ce théorème permet de comprendre une nouvelle fois l’interprétation d’une loi binomiale.
On effectue n expérience indépendantes et on s’intéresse au nombre X de réalisation d’un événement
A de probabilités p.
On peut alors noter Xi la variable aléatoire qui vaut 1 si l’événement A est réalisé lors de la ième
expérience et 0 sinon. Xi suit donc la loi de Bernoulli de paramètre p, et comme les expériences
sont indépendantes, les variables Xi sont mutuellement indépendantes.
On remarque alors que X = X1 + . . . + Xn .
— La démonstration de ce théorème se fait par récurrence.

3 Covariance

a Définition
Définition 9
Soient X et Y deux VAR finies.
On appelle covariance de X et de Y le nombre réel cov(X, Y ) = E [(X − E(X))(Y − E(Y ))].

Théorème 3

cov(X, Y ) = E(XY ) − E(X)E(Y ).

Cours TSI2 Page 9 Couples et vecteurs de VAR finies


Conseils méthodologiques :
Le plus souvent pour calculer la covariance d’un couple de variables aléatoire on utilise la formule
donnée dans le théorème et non celle donnée dans la définition.
Remarque :
cov(Y, X) =cov(X, Y ) et on a aussi cov(X, X) = V (X).
Exemple 13:
Reprenons l’exemple 1 et calculons la covariance de X et Y .
Grâce à l’exemple 2 on a
1 2 2
E(X) = + =
2 12 3
15 6 3
E(Y ) = + + =1
28 14 84
51 2 3 1
Grâce à l’exemple 11 on a E(XY ) = 0 × +1× +2× =
84 7 28 2
1 2 1
Donc cov(X, Y ) = − = − .
2 3 6
Propriété 5
Si X et Y sont deux VAR indépendantes, on a cov(X, Y ) = 0.

Remarque :
La réciproque est en générale fausse. Dans l’exemple 12, cov(X, Y ) = 0 mais X et Y ne sont pas
indépendantes.

b Lien entre covariance et variance


Théorème 4
Soient X et Y deux VAR finies. Alors, pour tout réels a et b :

V (aX + bY ) = a2 V (X) + b2 V (Y ) + 2ab cov(X, Y ).

Remarque :
V (X + Y ) − V (X) − V (Y )
On en déduit facilement que cov(X, Y ) = .
2
Corollaire 1
Si X et Y sont deux VAR finies indépendantes on a V (X + Y ) = V (X) + V (Y ).

Remarque :
Encore une fois la réciproque à ce résultat est en général fausse.

4 Coefficient de corrélation linéaire

Définition 10
Soient X et Y deux VAR finies d’écart type non nul. On appelle coefficient de corrélation linéaire
de X et Y le réel :
cov(X, Y )
ρ(X, Y ) = .
σ(X)σ(Y )

Cours TSI2 Page 10 Couples et vecteurs de VAR finies


Remarque :
On pourra noter la ressemblance avec la formule donnant le cosinus d’un angle entre 2 vecteurs à l’aide


u .−→v
du produit scalaire et des normes : cos(−

u ,→

v)= −
|| u || ||−
→ →v ||

Propriété 6
Soient X et Y deux VAR finies d’écart type non nul. Alors : |ρ(X, Y )| 6 1.

Remarque :
La démonstration de cette propriété repose sur une inégalité de Cauchy-Schwarz :
p p
|E(XY )| 6 E(X 2 ) E(Y 2 )

E ((X − E(X))(Y − E(Y )))


ainsi que sur l’expression de ρ sous la forme ρ(X, Y ) = p p .
E ((X − E(X))2 ) E ((Y − E(Y ))2 )
Interprétation :
Ce nombre est un réel compris entre −1 et 1 qui compare les similarités entre les lois de X et de Y .
Il est égal à 1 dans le cas où l’une des variables est fonction affine croissante de l’autre variable
(X = aY + b ou Y = aX + b avec a > 0) et il est égal à −1 dans le cas où la fonction affine est décroissante
(X = aY + b ou Y = aX + b avec a 6 0).
Les valeurs intermédiaires renseignent sur le degré de dépendance linéaire entre les deux variables. Plus
le coefficient est proche des valeurs extrêmes -1 et 1, plus la corrélation entre les variables est forte ; on
emploie simplement l’expression ≪ fortement corrélées ≫ pour qualifier les deux variables.
Un coefficient de corrélation égal à 0 signifie que cov(X, Y ) = 0. On dit que les variables X et Y sont
non corrélées.

Cours TSI2 Page 11 Couples et vecteurs de VAR finies

Vous aimerez peut-être aussi