Vous êtes sur la page 1sur 7

Econométrie

Cours 2

• Matière du cours :
— Ecriture matricielle du modèle et de l’estimateur MCO
— Propriétés de l’estimateur MCO (I)

1. Ecriture matricielle du modèle et de l’estimateur MCO


1.1. Vecteurs aléatoires : notations et propriétés
• Soit X , un vecteur aléatoire n × 1. Par définition :
   
x1 E(x1)
E(X) = E  ..  =  .. 
xn E(xn)

V (X) = E [(X − E(X))(X − E(X))′]


  
(x1 − E(x1))
= E  ..  (x1 − E(x1)) · · · (xn − E(xn)) 
(xn − E(xn))
 
V ar(x1) · · · Cov(x1, xn)
=  .. ... .. 
Cov(xn, x1) · · · V ar(xn)
3

• Pour une combinaison linéaire Z = A + BX , on a :

E(Z) = E(A + BX) = A + BE(X)


V (Z) = V (A + BX) = BV (X)B ′

où A = un vecteur k × 1 de constantes et B = une matrice k × n de constantes

Pour par exemple :


x1
Z = A + BX = a + b1 b2 = a + b1x1 + b2x2
x2
on a :
E(x1)
E(Z) = A + BE(X) = a + b1 b2 = a + b1E(x1) + b2E(x2)
E(x2)

V ar(x1) Cov(x1, x2) b1


V (Z) = BV (X)B ′ = b1 b2
Cov(x2, x1) V ar(x2) b2
= b21V ar(x1) + b22V ar(x2) + 2b1b2Cov(x1, x2)

• La loi normale multivariée :


Un vecteur aléatoire X suit une loi normale d’espérance m et de matrice de variance -
covariance Σ, notée X ∼ N(m, Σ), si sa densité jointe est donnée par :
1 − 12 [(X−m)′ Σ−1 (X−m)]
f (x1, x2, ..., xn) = n 1e
(2π) det(Σ) 2
2

Graphiquement :

Cov(x1, x2) = 0 Cov(x1, x2) > 0


5

• Propriétés de la loi normale multivariée :


— Si X ∼ N(m, Σ), on a :
Z = A + BX ∼ N (A + Bm, BΣB ′)
et en particulier :
xi ∼ N (mi, Σii) , i = 1, ...n

— Si X ∼ N(m, Σ) avec Σ = σ 2I , alors (x1, x2, ..., xn) sont statistiquement


indépendants

— Si X ∼ N(0, Σ), on a :
X ′Σ−1X ∼ χ2(n)

— Si X ∼ N(0, σ 2I) et A désigne une matrice n × n symétrique idempotente de


rang r, on a :
1 ′
2
X AX ∼ χ2(r)
σ

1.2. Le modèle et ses hypothèses sous forme matricielle


• On note :
     
y1 1 x1 e1
. β1
Y =  .  , X = ..
 ..  , β = et e =  .. 
β2
yn 1 xn en

• Le modèle sous forme matricielle :

A1 Y = Xβ + e
A2 E(e) = 0 ⇔ E(Y ) = Xβ
A3 - A4 V (e) = σ 2I = V (Y )
A5 X est non-stochastique et rg(X) = 2
A6 (Opt.) e ∼ N 0, σ 2I ⇔ Y ∼ N(Xβ, σ 2I)
7

1.3. L’estimateur MCO sous forme matricielle


• L’estimateur MCO est défini par :
β̂ = Argminβ (Y − Xβ)′(Y − Xβ)

• Le calcul du minimum de la fonction SCR(β) = (Y − Xβ)′(Y − Xβ) donne


l’estimateur MCO :
−1
β̂ = (X ′X) X ′Y
 n
−1  n

β̂ 1  n xi   yi 
⇔ =
 n
i=1
n




i=1
n


β̂ 2 xi x2i xiyi
i=1 i=1 i=1

• Remarques :

— L’hypothèse rg(X) = 2 assure que X ′X est inversible


ê′ ê
— Sous forme matricielle, l’estimateur MV de σ 2 s’écrit : σ̂ 2 = n, où ê = Y − X β̂

2. Propriétés de l’estimateur MCO (I)


• La valeur de l’estimateur MCO β̂ = (X ′X)−1 X ′Y varie d’un échantillon à l’autre :
c’est une variable aléatoire
• Les propriétés de β̂ sont déterminées par sa distribution d’échantillonnage

2.1. La distribution d’échantillonnage de l’estimateur MCO

• La distribution d’échantillonnage f (β̂ 1, β̂ 2) exacte de β̂ dépend :


— des xi
— des paramètres du modèle : β = (β 1, β 2)′ et σ 2
— de la taille d’échantillon n
— de la loi des yi (au-delà de leurs deux premiers moments)

• Saufcas particulier, le calcul de la distribution d’échantillonnage exacte de β̂ est


très malaisé. Par contre, on peut aisément obtenir ses deux premiers moments
9

• Sous les hypothèses A1, A2 et A5, on a :

E(β̂ 1) β1
E(β̂) = = =β
E(β̂ 2) β2

→ On dit que β̂ est un estimateur non biaisé de β

• Sous les hypothèses A1 - A5, on a :

V ar(β̂ 1) Cov(β̂ 1, β̂ 2)
V (β̂) = = σ 2(X ′X)−1
Cov(β̂ 2, β̂ 1) V ar(β̂ 2)

→ Les variances V ar(β̂ 1) et V ar(β̂ 2) mesurent la dispersion des estimateurs


β̂ 1 et β̂ 2
→ La covariance Cov(β̂ 1,β̂ 2) = Cov(β̂ 2,β̂ 1) indique la mesure dans laquelle
les estimateurs β̂ 1 et β̂ 2 varient conjointement

10

• Les facteurs déterminant V (β̂) sont :

— la variance σ 2 du terme d’erreur :


si σ 2 ր , alors V ar(β̂ 1), V ar(β̂ 2) et |Cov(β̂ 1, β̂ 2)| ր

— la dispersion de la variable explicative xi :


si V are(xi) ր , alors V ar(β̂ 1), V ar(β̂ 2) et |Cov(β̂ 1, β̂ 2)| ց

— la taille n de l’échantillon :
si n ր , alors V ar(β̂ 1), V ar(β̂ 2) et |Cov(β̂ 1, β̂ 2)| ց

— La moyenne x̄ des xi (son éloignement par rapport à 0) :


si |x̄| ր , alors V ar(β̂ 1) et |Cov(β̂ 1, β̂ 2)| ր
mais V ar(β̂ 2) reste inchangée
11

2.2. Le théorème Gauss-Markov

• Le théorème :
Sous les hypothèses A1 - A5, l’estimateur MCO de β est l’estimateur qui possède
la plus petite (au sens matriciel) matrice de variance - covariance parmi tous les
estimateurs linéaires et sans biais de β . C’est le meilleur estimateur linéaire sans
biais de β

• Eléments-clés :

— Un estimateur linéaire et sans biais de β est un estimateur de la forme :


 
y
∗ a11 · · · a1n  ..1 
β̂ = = AY , où A est tel que AX = I
a21 · · · a2n
yn

— L’estimateur MCO β̂ = (X ′X)−1 X ′Y fait partie de la classe des estimateurs


linéaires et sans biais de β : il est obtenu pour A = (X ′X)−1 X ′

12

— Parmi les estimateurs linéaires et sans biais β̂ , l’estimateur MCO β̂ est celui
qui a la plus petite matrice de variance - covariance :
∗ ∗
V (β̂ ) ≥ V (β̂) ⇔ V (β̂ ) = V (β̂) + D

où D est une matrice semi-définie positive (i.e., tel que ∀x, x′Dx ≥ 0)

∗ a1
— L’inégalité matricielle V (β̂ ) ≥ V (β̂) implique que, pour tout a = , on a :
a2
∗ ∗
V ar(a′β̂ ) = a′V (β̂ )a = a′V (β̂)a + a′Da
≥0
′ ′
≥ a V (β̂)a = V ar(a β̂)
∗ ∗
et en particulier : V ar(β̂ 1 ) ≥ V ar(β̂ 1) et V ar(β̂ 2 ) ≥ V ar(β̂ 2)

• Remarque : sous l’hypothèse A6 de normalité, on peut montrer que β̂ est le meilleur


estimateur parmi tous les estimateurs (linéaires ou non) sans biais de β
13

2.3. La distribution d’échantillonnage de β̂ sous l’hypothèse de normalité

• Sous les hypothèses A1 - A5 et l’hypothèse additionnelle de normalité A6, la distribu-


′ −1 ′
tion d’échantillonnage exacte de l’estimateur MCO β̂ = (X X) X Y est aisément
obtenue. On a :
β̂ ∼ N(β, σ 2(X ′X)−1)
et en particulier :
β̂ j ∼ N(β j , σ 2qjj ), j = 1, 2

où qjj = (X ′X)−1 jj
désigne l’élément (j, j) de la matrice (X ′X)−1