Vous êtes sur la page 1sur 20

Psychologie statistique - Licence 2 - 7/8

Espérance, variance, covariance 1

Yvonnick Noël et Mathieu Emily


Université de Rennes 2

2012

1. Ces diapos sont disponibles sur http ://cursus.uhb.fr

Sommaire

Espérance
Moyenne empirique
Moyenne en probabilité
Variance
Variance empirique
Variance en probabilité
Covariance
Covariance empirique
Covariance en probabilité
Synthèse
Moyenne empirique

I Sur un ensemble de scores {xi }, on calcule la moyenne


empirique X̄ par : P N x
x̄ = i =1 i
N

Formules pondérées

I Lorsque les données sont regroupées en K couples


valeur-eectif (uk , nk ), k = 1, ..., K :
P
x̄ = k uk nk
N

I ou encore, en notant fk = nNk :


X
x̄ = u f kk
k
Moyenne en probabilité

I Dans un certain nombre de situations, nous connaissons par un


raisonnement théorique les probabilités d'apparition de
chaque valeur possible d'une variable.
I Exemple : je joue à un jeu de dé : je sais que si le dé est
régulier et le lancer honnête, chaque face k a la même
probabilité d'apparaitre πk = 16 .
I Question : si à ce jeu je gagne en euros le nombre de points
qui sort, combien puis-je espérer gagner à chaque lancer ?

Espérance

I La question peut aussi être reformulée comme : combien


puis-je gagner en moyenne à chaque lancer ? La moyenne est
ici une moyenne en probabilité.
Dénition
On appelle espérance mathématique d'une variable numérique
discrète X la moyenne en probabilité dénie comme :
X
( )=
E X k πk
u

k
Exemple

I Si X désigne la variable  nombre de points  qui sort au


lancer d'un dé, on a :
X
( ) =
E X u k πk
k
1 1 1
= (1 × ) + ( 2 × ) + ( 3 × )
6 6 6
1 1 1
+ (4 × ) + ( 5 × ) + ( 6 × )
6 6 6
= 3.5

I Je peux donc espérer gagner 3,50 euros en moyenne à chaque


lancer.

Espérance d'une variable de Bernoulli

I Une variable de Bernoulli X est une variable à valeurs {0, 1}


avec P (X = 1) = π.
I Son espérance est :
( ) =
E X 1 × π + 0 × (1 − π)
= π
P
Règles d'usage de l'opérateur
1. Sommation de N termes constants tous égaux à une valeur
quelconque u :
N
X N
X
i=
x u =N ×u
i =1 i =1
2. Sommation de deux familles xi et yi de même eectif :
N
X N
X N
X
(xi + yi ) = xi + yi

i =1 i =1 i =1
3. Sommation du produit d'une famille de termes xi par une
constante k :
N
X N
X
(k × xi ) = k × i
x

i =1 i =1

Propriété 1
I L'espérance d'une transformation linéaire de la variable
vérie :
(
E aX + b) = aE X( )+b

I En eet :
K
X
(
E aX + b) = (auk + b)πk
k =1
XK K
X
= au k πk + b πk
k =1 k =1
XK XK
= a u k πk + b πk
k =1 k =1
= aE X ( )+b
P
car k πk = 1.
Exemple

I On note Y le nombre d'euros gagnés sur un lancer. Si je gagne


en euros 2 fois le nombre X de points qui sort, combien
puis-je espérer gagner à chaque lancer ?

( ) =
E Y E (2X )
= 2E (X )
= 2 × 3.5 = 7

I Je peux espérer gagner 7 euros à chaque lancer.

Propriété 2

I La somme de deux espérances de variables aléatoires X et Y


vérie :

(
E X +Y) = E X ( ) + E (Y )
Variable somme

Variable X de modalités UX = {u1 , u2 , ..., uk , ..., uK } et variable Y


de modalités VY = {v1 , v2 , ..., vl , ..., vL } :
X /Y v1 v2 ... vL
u1 u1 + v1 u1 + v2
u2 u2 + v1 u2 + v2
..
. k + vl
u

u K u K + vL

Probabilités conjointes

X /Y v1 v2 ... vL
u1 π11 π12 π1.
..
u2 π21 π22 .
..
. πkl πk .
u K πKL πK .
π .1 ··· π.l π.L 1

K
X
πkl = π .l
k =1
X L
πkl = πk .
l =1
Démonstration

K X
X L
(
E X +Y) = (uk + vl )πkl
k =1 l =1
XK X L K X
X L
= uk πkl + l πkl
v

k =1 l =1 k =1 l =1
XK XL X L X K
= uk πkl + vl πkl
k =1 l =1 l =1 k =1
XK X L
= uk πk . + vl π.l

k =1 l =1
= ( ) + E (Y )
E X

Exemple

I Je joue avec deux dés, et je gagne en euros la somme des


points qui sortent sur les deux dés.
I On appelle X et Y les variables  nombres de points 
apparaissant sur chaque dé.
I Combien puis-je espérer gagner à chaque lancer ?

(
E X +Y) = E X ( ) + E (Y )
= 3.5 + 3.5
= 7

I Je peux espérer gagner 7 euros à chaque lancer.


Exemple combiné

I Je gagne en euros le double du nombre de points X du


premier dé, moins le nombre de points Y du deuxième.
Combien puis-je espérer gagner à chaque lancer ?

E (2X − Y ) = E (2X ) + E (−Y )


= 2E (X ) − E (Y )
= 7 − 3.5
= 3.5

I Je peux espérer gagner autant à ce jeu que s'il n'y avait qu'un
seul dé.

Application : espérance d'une variable binomiale

I Si des variables Xi (i = 1, ..., N ) sont des Bernoulli


P
indépendantes de probabilité π, alors Y = i Xi est une
variable binomiale telle que
k k
P (Y = k ) = C π (1 − π)
N −k , k = 1, ..., N .
N
I Pour calculer l'espérance de la variable binomiale Y , on
applique : ! N
X N
X
E X i = ( i)
E X

i =1 i =1
I On obtient :
N ! N N
X X X
E X i = E X ( i) = π = Nπ
i =1 i =1 i =1
Illustration

B(4,0.2) B(4,0.4)

0.35
0.4
0.3

0.25
P(Y=k)

P(Y=k)
0.2

0.15
0.1

0.05
0.0

0 1 2 3 4 0 1 2 3 4

Y Y

B(4,0.6) B(4,0.8)
0.35

0.4
0.3
0.25
P(Y=k)

P(Y=k)

0.2
0.15

0.1
0.05

0.0

0 1 2 3 4 0 1 2 3 4

Y Y

Dénition

Variance empirique :
PN 2
2 i =1 (xi − x̄ )
sN = N
PN 2
= i =1 xi − x̄ 2
N
Formules pondérées
Lorsque les données sont regroupées en couples valeur-eectif
(uk , nk ) :
PK 2
2 k =1 nk (uk − x̄ )
sN = N
PK 2
= k =1 nk uk − x̄ 2
N

Ou encore, à partir des fréquences fk = nNk :


K
X
2 2
s N = k (uk − x̄ )
f

k =1
K !
X
2
= k k
f u − x̄ 2
k =1

Notion de dispersion

Dans mon jeu de dé, je peux chercher à évaluer :


I le gain espéré,

I mais aussi de combien le gain réel risque d'être diérent en


moyenne de ce gain espéré,
autrement dit la dispersion des gains possibles autour de la valeur
espérée.
Dénition

Dénition
On appelle variance (en probabilité) l'espérance :

K
X
( ) =
V X πk (uk − E (X ))2
k =1
 
= E (uk − E (X ))2

I On peut aussi réécrire la variance comme espérance des


carrés moins le carré de l'espérance :
K
X
V X ( )= πk uk2 − [E (X )]2
k =1

Exemple : variance d'une variable de Bernoulli

I Une variable de Bernoulli X est une variable à valeurs {0, 1}


avec P (X = 1) = π.
I Sa variance est :
2
( ) =
V X (
E X ) − [E (X )]2
= 1 × π + 0 × (1 − π) − π2
= π − π2
= π(1 − π)
Propriété 1

I La variance après transformation linéaire devient :


(
V aX + b) = a2 V (X )

Propriété 1

En eet :
 
(
V aX + b) = (aX + b − E (aX + b))2
E
 
= E (aX + b − aE (X ) − b)2
 2

E (a(X − aE (X ))
 
= E a2 (X − E (X ))2
2
= (
a E X − E (X )2 )
2
= ( )
a V X
Propriété 2

Sans démonstration (voir plus loin) :


I Si deux variables aléatoires X et Y sont indépendantes
(condition sine qua non), alors :
V X ( + Y ) = V (X ) + V (Y )

I Si deux variables aléatoires X et Y sont indépendantes


(condition sine qua non), alors :
V X ( − Y ) = V (X ) + V (Y )

Application : variance d'une variable binomiale

I Si des variables Xi (i = 1, ..., N ) sont des Bernoulli


P
indépendantes de probabilité π, alors Y = i Xi est une
variable binomiale telle que
k k
P (Y = k ) = C π (1 − π)
N −k , k = 1, ..., N .
N
I Pour calculer la variance de la variable binomiale Y , on
applique : ! N
X N
X
V X i = ( i)
V X

i =1 i =1
I On obtient :
N ! N N
X X X
V X i = ( i) =
V X π(1 − π) = N π(1 − π)
i =1 i =1 i =1
Covariance empirique

Sur une série de couples d'observations (xi , yi ) sur deux variables X


et Y , on mesure l'association linéaire entre X et Y par :
PN
i =1 (xi − x̄ )(yi − ȳ )
s XY =
N
PN
= i =1 xi yi − x̄ ȳ
N

Formules pondérées

Lorsque les données sont regroupées sous la forme d'une


distribution conjointe d'eectifs nkl , pour chaque couple de
valeurs (uk , vl ) possible :
PK PL
k =1 l =1 nkl (uk − x̄ )(vl − ȳ )
sXY =
N
K X
X L
= kl (uk − x̄ )(vl − ȳ )
f

k =1 l =1
Représentations graphiques

Dépendance linéaire Indépendance Dépendance non linéaire


80

80

80
70

70

70
60

60

60
50

50

50
Y

Y
40

40

40
SXY = 98.1 SXY = − 17.2 SXY = − 15.3
30

30

30
20

20

20
20 30 40 50 60 70 80 30 40 50 60 70 30 40 50 60 70

X X X

Dénition

I Lorsqu'on connait une distribution conjointe de probabilité


sur deux variables X et Y , on peut dénir une covariance en
probabilité :
XX
CoV X ( ,Y) = πkl (uk − E (X ))(vl − E (Y ))
k l
= E [(X − E (X ))(Y − E (Y ))]
= E XY( ) − E (X )E (Y )

I Remarque :
V X ( ) = CoV (X , X )
Propriété 1

I La covariance mesure la dépendance linéaire entre deux


variables.
I Lorsque deux variables sont indépendantes, leur covariance
est nulle.
I Mais l'inverse n'est pas vrai : si la covariance est nulle, les
variables ne sont pas nécessairement indépendantes.
I Elles peuvent en eet être dépendantes de façon non linéaire.

Propriété 2

Covariance sur une combinaison linéaire de X et de Y avec une


variable Z :
(
CoV aX + bY , Z ) = aCoV (X , Z ) + bCoV (Y , Z )

En eet :
CoV aX( + bY , Z ) = (
E aXZ + bYZ ) − E (aX + bY )E (Z )
= (
E aXZ ) + E (bYZ ) − [E (aX ) + E (bY )] E (Z )
= aE XZ ( ) + bE (YZ ) − aE (X )E (Z ) − bE (Y )E (Z )
= [ (
a E XZ ) − E (X )E (Z )] + b [E (YZ ) − E (Y )E (Z )]
= aCoV X ( , Z ) + bCoV (Y , Z )
Généralisation

En posant Z = cU + dV , on trouve la covariance de deux


combinaisons linéaires :
CoV aX( + bY , cU + dV ) = acCoV X( , U ) + adCoV (X , V )
+ bcCoV Y( , U ) + bdCoV (Y , V )

En eet :

(
CoV aX + bY , Z ) = aCoV X( , Z ) + bCoV (Y , Z )
= aCoV X( , cU + dV ) + bCoV (Y , cU + dV )
= acCoV X( , U ) + adCoV (X , V )
+ bcCoV Y( , U ) + bdCoV (Y , V )

Cas particuliers

Covariance d'une variable avec une constante :


CoV X ( , a) = E (aX ) − E (X )E (a) = aE (X ) − aE (X ) = 0

Covariance de deux transformations linéaires :

(
CoV aX + b, cY + d ) = acCoV X ( ,Y)

Variance d'une transformation linéaire :

2
(
CoV aX + b, aX + b) = a CoV X ( ,X)
2
= a V X( )
Cas particuliers

Variance d'une combinaison linéaire :

(
V aX + bY ) = CoV aX( + bY , aX + bY )
2
= a CoV X ( , X ) + b2 CoV (Y , Y )
+ abCoV X ( , Y ) + abCoV (X , Y )
= 2
a V X ( ) + b2 V (Y ) + 2abCoV (X , Y )

Cas particuliers

A partir de la formule :
V aX( + bY ) = a2 V (X ) + b2 V (Y ) + 2abCoV (X , Y )

On trouve avec (a, b) = (1, 1) :


(
V X + Y ) = V (X ) + V (Y ) + 2CoV (X , Y )

Avec (a, b) = (1, −1) :


(
V X − Y ) = V (X ) + V (Y ) − 2CoV (X , Y )

Si X et Y sont indépendantes, on a CoV (X , Y ) = 0 et :


(
V X + Y ) = V (X − Y ) = V (X ) + V (Y )
Dénitions

Empirique
P
Moyenne = k fk uk

Variance 2 = PK f (u − x̄ )2
s
PN Pk =1 k k
Covariance sXY =
K L
k =1 l =1 fkl (uk − x̄ )(vl − ȳ )
Probabiliste
P
Moyenne ( ) = k πk uk
E X
PK
Variance π (u − E (X ))2
P Pk =1 k k
V (X ) =

Covariance CoV (X , Y ) =
k l πkl (uk − E (X ))(vl − E (Y ))

Propriétés

Les 3 formules suivantes permettent de couvrir tous les cas de


gure :
Statistique Propriétés

Espérance E (aX + bY ) = aE (X ) + bE (Y )
Variance V (aX + bY ) = a2 V (X ) + b2 V (Y ) + 2abCoV (X , Y )
Covariance CoV (aX + bY , cU + dV ) = acCoV (X , U ) + adCoV (X , V )
+bcCoV (Y , U ) + bdCoV (Y , V )

Vous aimerez peut-être aussi