Vous êtes sur la page 1sur 6

Méthodes économétriques : Séance du 18/03/2020

3. Distribution des estimateurs MCO et leurs propriétés

∑𝒕=𝒏(𝒙𝒕 −𝒙
̅)𝒚𝒕
̂𝟎 = 𝒚
Les estimateurs 𝒂 ̅− 𝒂
̂𝟏 𝒙 ̂ 𝟏 = ∑𝒕=𝟏
̅ 𝑒𝑡 𝒂 𝒕=𝒏(𝒙 −𝒙 sont exprimés
𝒕=𝟏 𝒕 ̅)𝒙𝒕

sous forme de fonctions linéaires des 𝑦𝑡 , qui sont des variables aléatoires

normalement distribuées.

Donc, ces estimateurs sont eux aussi des variables aléatoires qui suivent des

lois normales, dont les espérances et les variances sont données comme suit :

3.1. Espérance des estimateurs

∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )𝑦𝑡
𝐸(𝑎̂1 ) = 𝐸 ( 𝑡=𝑛 )
∑𝑡=1 (𝑥𝑡 − 𝑥̅ )2

∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )𝐸(𝑦𝑡 )
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2

∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )(𝑎0 + 𝑎1 𝑥𝑡 )
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2

𝑎0 ∑𝑡=𝑛 𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ ) + 𝑎1 ∑𝑡=1 (𝑥𝑡 − 𝑥̅ ) 𝑥𝑡
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2

0 + 𝑎1 ∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2

= 𝑎1

̂𝟏 ) = 𝒂𝟏 , 𝑑𝑜𝑛𝑐 𝑎̂1 𝑒𝑠𝑡 𝑢𝑛 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝑠𝑎𝑛𝑠 𝑏𝑖𝑎𝑖𝑠 𝑑𝑒 𝑎1 .


𝐴𝑖𝑛𝑠𝑖, 𝑜𝑛 𝑎 ∶ 𝑬(𝒂

1
̂𝟎 ) = 𝑬(𝒚
𝑬(𝒂 ̅− 𝒂 ̅) = 𝑬(𝒚
̂𝟏 𝒙 ̅) − 𝒙 ̂𝟏 ) = 𝑬(𝒚
̅ 𝑬( 𝒂 ̅ ) − 𝒂𝟏 𝒙
̅

𝒕=𝒏
∑𝒕=𝒏
𝒕=𝟏 𝒚𝒕 𝟏
= 𝑬( ̅ = ∑(𝒂𝟎 + 𝒂𝟏 𝒙𝒕 ) − 𝒂𝟏 𝒙
) − 𝒂𝟏 𝒙 ̅
𝒏 𝒏
𝒕=𝟏

𝟏
= ( 𝒏𝒂𝟎 + 𝒏 𝒂𝟏 𝒙
̅ ) − 𝒂𝟏 𝒙
̅ = 𝒂𝟎
𝒏

̂𝟎 ) = 𝒂𝟎 , 𝑑𝑜𝑛𝑐 𝑎̂0 𝑒𝑠𝑡 𝑢𝑛 𝑒𝑠𝑡𝑖𝑚𝑎𝑡𝑒𝑢𝑟 𝑠𝑎𝑛𝑠 𝑏𝑖𝑎𝑖𝑠 𝑑𝑒 𝑎0 .


𝐴𝑖𝑛𝑠𝑖, 𝑜𝑛 𝑎 ∶ 𝑬(𝒂

3.2. Variance des estimateurs

∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙
̅)𝒚𝒕 ∑𝒕=𝒏 ̅)𝟐 𝝈𝜺 𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 𝟐
∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
̂ 𝟏 ) = 𝑽 ( 𝒕=𝒏
𝑽(𝒂 ) = = 𝝈 𝜺
̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙 (∑𝒕=𝒏 ̅ )𝟐 )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 (∑𝒕=𝒏 ̅)𝟐 )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙

𝟐
𝟏 𝝈𝜺 𝟐
̂ 𝟏 ) = 𝝈𝜺
𝑽(𝒂 = 𝒕=𝒏
∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 ̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙

̂ 𝟎 ) = 𝑽(𝒚
𝑽(𝒂 ̅− 𝒂 ̅) = 𝑽(𝒚
̂𝟏 𝒙 𝒙𝟐 𝑽(𝒂
̅) + ̅ ̂𝟏 ) − 𝟐 𝒙
̅ 𝑪𝒐𝒗 (𝒚
̅, 𝒂
̂𝟏 )

On a aussi :

∑𝒕=𝒏 𝒕=𝒏
𝒕=𝟏 𝒚𝒕 ∑𝒕=𝟏 (𝒙𝒕 − 𝒙
̅)𝒚𝒕
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) = 𝑪𝒐𝒗 (
̅, 𝒂 , 𝒕=𝒏 )
𝒏 ∑𝒕=𝟏(𝒙𝒕 − 𝒙̅) 𝟐

∑𝒏𝒕=𝟏 ∑𝒏𝒕′ =𝟏(𝒙𝒕 − 𝒙


̅)𝑪𝒐𝒗(𝒚𝒕 , 𝒚𝒕′ )
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) =
̅, 𝒂 𝒕=𝒏
𝒏 ∑𝒕=𝟏(𝒙𝒕 − 𝒙̅) 𝟐

̅)𝑽(𝒚𝒕 ) + ∑𝒏𝒕=𝟏 ∑𝒏𝒕′ =𝟏,𝒕≠𝒕′(𝒙𝒕 − 𝒙


∑𝒏𝒕=𝟏(𝒙𝒕 − 𝒙 ̅)𝑪𝒐𝒗(𝒚𝒕 , 𝒚𝒕′ )
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) =
̅, 𝒂
𝒏 ∑𝒕=𝒏 ̅) 𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙

∑𝒏𝒕=𝟏(𝒙𝒕 − 𝒙̅)𝑽(𝒚𝒕 ) + 𝟎
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) =
̅, 𝒂 𝒕=𝒏
𝒏 ∑𝒕=𝟏(𝒙𝒕 − 𝒙̅) 𝟐

2
𝝈𝜺 𝟐 ∑𝒏𝒕=𝟏(𝒙𝒕 − 𝒙
̅) 𝝈𝜺 𝟐 × 𝟎
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) =
̅, 𝒂 =
𝒏 ∑𝒕=𝒏 ̅)𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 𝒏 ∑𝒕=𝒏 ̅) 𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙

𝑪𝒐𝒗 (𝒚 ̂𝟏 ) = 𝟎
̅, 𝒂

De même, on a :

∑𝒕=𝒏
𝒕=𝟏 𝒚𝒕 ∑𝒕=𝒏
𝒕=𝟏 𝑽(𝒚𝒕 ) 𝒏 𝝈𝜺 𝟐 𝝈𝜺 𝟐
̅) = 𝑽 (
𝑽(𝒚 )= = =
𝒏 𝒏𝟐 𝒏𝟐 𝒏

Ainsi, on obtient :

𝝈𝜺 𝟐 𝝈𝜺 𝟐
̂𝟎 ) =
𝑽(𝒂 𝒙𝟐 𝑽(𝒂
+ ̅ ̂𝟏 ) , ̂𝟏 ) =
𝒂𝒗𝒆𝒄 ∶ 𝑽(𝒂
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙

𝝈𝜺 𝟐 𝟐
𝝈𝜺 𝟐
̂𝟎 ) =
𝑽(𝒂 + ̅
𝒙 𝒕=𝒏
𝒏 ̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙

𝟐
𝟏 ̅𝟐
𝒙
̂ 𝟎 ) = 𝝈𝜺
𝑽(𝒂 ( + 𝒕=𝒏 )
̅ )𝟐
𝒏 ∑𝒕=𝟏 (𝒙𝒕 − 𝒙

𝝈𝜺 𝟐 (∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙̅ )𝟐 + 𝒏 𝒙
̅𝟐 )
̂𝟎 ) =
𝑽(𝒂
𝒏 ∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙̅ )𝟐

𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 − 𝒏 ̅𝒙𝟐 + 𝒏 ̅
𝒙𝟐 )
̂𝟎) =
𝑽(𝒂
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙

𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 )
̂𝟎 ) =
𝐷𝑜𝑛𝑐 ∶ 𝑽(𝒂
𝒏 ∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙̅ )𝟐

3
Ainsi, on a :

𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 ) ̂ 𝟎 − 𝒂𝟎
𝒂
̂ 𝟎 ↝ 𝑵 (𝒂𝟎 ,
𝒂 ) ⟹ ↝ 𝑵(𝟎, 𝟏)
𝒏 ∑𝒕=𝒏 (𝒙 𝒕 − ̅
𝒙 ) 𝟐
𝒕=𝟏
(∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 )
𝝈𝜺 √
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙

𝝈𝜺 𝟐 ̂ 𝟏 − 𝒂𝟏
𝒂
̂ 𝟏 ↝ 𝑵 (𝒂𝟏 , 𝒕=𝒏
𝒂 ) ⟹ 𝝈𝜺 ↝ 𝑵(𝟎, 𝟏)
̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙
⁄√∑𝒕=𝒏(𝒙 − 𝒙
̅ )𝟐
𝒕=𝟏 𝒕

Les estimateurs seront d'autant plus précis que les variances seront d'autant plus
petites :

✓ La variance de l'erreur est faible c.-à-d. la régression est de bonne qualité.

✓ La dispersion des X est forte, c'est-à-dire que les points recouvrent bien l'espace de

représentation.

✓ Le nombre d'observations n est élevé.

Les estimateurs sont aussi convergents : lorsque n tend vers l’infini, leurs variances

tendent vers 0.

3.3. Covariance des estimateurs

𝑪𝒐𝒗 (𝒂 ̂ 𝟎 ) = 𝑪𝒐𝒗 (𝒂
̂𝟏, 𝒂 ̂ 𝟏 , ̅𝒚 − 𝒂 ̅)
̂𝟏 𝒙

𝑪𝒐𝒗 (𝒂 ̂ 𝟎 ) = 𝑪𝒐𝒗 (𝒂
̂𝟏 , 𝒂 ̅) – 𝒙
̂𝟏 , 𝒚 ̅ 𝑽 (𝒂
̂𝟏 )

𝝈𝜺 𝟐
𝑪𝒐𝒗 (𝒂 ̂𝟎 ) = 𝟎 − 𝒙
̂𝟏 , 𝒂 ̅ 𝒕=𝒏
𝒙)𝟐
∑𝒕=𝟏 (𝒙𝒕 − ̅

𝒙𝝈𝜺 𝟐
̅
𝑪𝒐𝒗 (𝒂 ̂ 𝟎 ) = − 𝒕=𝒏
̂𝟏 , 𝒂
̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙

4
3.4. Théorème de Gauss – Markov

Les estimateurs des MCO de la régression sont sans biais et convergents. On peut

démontrer aussi que, parmi les estimateurs linéaires sans biais de la régression, les estimateurs

MCO sont à variance minimale c.-à-d. il n'existe pas d'autres estimateurs linéaires sans biais

présentant une plus petite variance. Les estimateurs des MCO sont appelés alors des

estimateurs BLUE (Best Linear Unbiased Estimator). On dit que ces estimateurs sont

efficaces, car il est impossible d'obtenir des variances plus faibles(les meilleurs estimateurs

linéaires.

4. Estimation de la variance des erreurs


𝜎𝜀 2
Les expressions des variances des estimateurs 𝑉(𝑎̂1 ) = 𝑡=𝑛
∑𝑡=1 (𝑥𝑡 −𝑥̅ )2
; 𝑉(𝑎̂0 ) =

𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 )
sont données en fonction de la variance des erreurs 𝝈𝜺 𝟐 qui est inconnue. Donc
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 −𝒙

pour pouvoir calculer les variances des estimateurs, on est obligé de définir un estimateur sans

̂ 𝜺 𝟐 𝑑𝑒 𝝈𝜺 𝟐 .
biais 𝝈

̂𝟎 + 𝒂
𝑂𝑛 𝑎 ∶ 𝐲𝐭 = 𝐚𝟎 + 𝐚𝟏 𝐱 𝐭 + 𝛆𝐭 et 𝐲𝐭 = 𝒂 ̂ 𝟏 𝒙 𝒕 + 𝒆𝒕 = 𝒚
̂ 𝒕 + 𝒆𝒕

̂𝒕 , avec :
Les erreurs εt peuvent être estimées par les résidus du modèle : 𝒆𝒕 = 𝐲𝐭 − 𝒚

̂𝒚𝒕 = 𝒂 ̂𝟏 𝒙𝒕 = (𝒚
̂𝟎 + 𝒂 ̅− 𝒂 ̅) + 𝒂
̂𝟏 𝒙 ̂ 𝟏 𝒙𝒕 = 𝒚
̅+𝒂
̂ 𝟏 ( 𝒙𝒕 − 𝒙
̅)

𝐎𝐧 𝐚 ∶ ∑(𝐞𝐭 − 𝐞̅)𝟐 = ∑ 𝐞𝐭 𝟐 = ∑(𝐲𝐭 − 𝐲̂𝐭 )𝟐 = ∑ 𝐲𝐭𝟐 − 𝟐 ∑ 𝐲𝐭 𝐲̂𝐭 + ∑ 𝐲̂𝐭 𝟐

= ∑ 𝑦𝑡2 − 2 ∑ 𝑦̂𝑡 2 + ∑ 𝑦̂𝑡 2 = ∑ 𝑦𝑡2 − ∑ 𝑦̂𝑡 2

𝐴𝑖𝑛𝑠𝑖, 𝑜𝑛 𝑜𝑏𝑡𝑖𝑒𝑛𝑡 ∶ 𝐸 (∑(yt − 𝑦̂𝑡 )2 ) = ∑ 𝐸(𝑦𝑡2 ) – ∑ 𝐸(𝑦̂𝑡 2 )

5
= ∑(𝑉(𝑦𝑡 ) + 𝐸 2 (𝑦𝑡 )) − ∑(𝑉(𝑦̂𝑡 ) + 𝐸 2 (𝑦̂𝑡 ))

𝑂𝑟 𝑜𝑛 ∶ 𝐸(𝑦̂𝑡 ) = 𝐸(𝑎̂0 + 𝑎̂1 𝑥𝑡 ) = 𝐸(𝑎̂0 ) + 𝑥𝑡 𝐸(𝑎̂1 ) = a0 + a1 xt = 𝐸(𝑦𝑡 )

𝐷𝑜𝑛𝑐 ∶ 𝐸 (∑(yt − 𝑦̂𝑡 )2 ) = ∑ 𝑉(𝑦𝑡 ) − ∑ 𝑉(𝑦̂𝑡 ) = 𝑛 𝜎𝜀2 − ∑ 𝑉(𝑦̂𝑡 )

D’autre part :

𝑉(𝑦̂𝑡 ) = 𝑉(𝑎̂0 + 𝑎̂1 𝑥𝑡 ) = 𝑉(𝑎̂0 ) + 𝑥𝑡 2 𝑉(𝑎̂1 ) + 2 𝑥𝑡 𝐶𝑜𝑣 (𝑎̂0 , 𝑎̂1 )

𝜎𝜀 2 (∑𝑛𝑡=1 𝑥𝑡2 ) 2
𝜎𝜀 2 𝑥̅ 𝜎𝜀 2
= + 𝑥𝑡 − 2 𝑥𝑡 𝑡=𝑛
𝑛 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2 ∑𝑡=1 (𝑥𝑡 − 𝑥̅ )2

𝜎𝜀 2 (∑𝑛𝑡=1 𝑥𝑡2 )
= ( + 𝑥𝑡 2 − 2 𝑥𝑡 𝑥̅ )
∑𝑡=𝑛(𝑥
𝑡=1 𝑡 − 𝑥̅ ) 2 𝑛

𝜎𝜀 2 (∑𝑛𝑡=1 𝑥𝑡2 ) 𝑛𝑥̅ 2


= 𝑛 ( − + 𝑥𝑡 2 – 2 𝑥𝑡 𝑥̅ + 𝑥̅ 2 )
∑𝑡=1(𝑥𝑡 − 𝑥̅ )2 𝑛 𝑛

𝜎𝜀 2 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2 2 2
1 (𝑥𝑡 − 𝑥̅ )2
= 𝑛 ( + (𝑥𝑡 − 𝑥̅ ) ) = 𝜎𝜀 ( + 𝑛 )
∑𝑡=1(𝑥𝑡 − 𝑥̅ )2 𝑛 𝑛 ∑𝑡=1(𝑥𝑡 − 𝑥̅ )2

𝑛
1 (𝑥𝑡 − 𝑥̅ )2
𝑃𝑎𝑟 𝑐𝑜𝑛𝑠é𝑞𝑢𝑒𝑛𝑡, )2
𝐸 (∑(yt − 𝑦̂𝑡 ) = 𝑛 𝜎𝜀2 2
– 𝜎𝜀 ∑ ( + 𝑛 )
𝑛 ∑𝑡=1(𝑥𝑡 − 𝑥̅ )2
𝑡=1

𝑛 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2
)2
𝐸 (∑(yt − 𝑦̂𝑡 ) = 𝑛 𝜎𝜀2 2
– 𝜎𝜀 ( + 𝑛 ) = (𝑛 − 2)𝜎𝜀2
𝑛 ∑𝑡=1(𝑥𝑡 − 𝑥̅ )2

∑(yt − 𝑦̂𝑡 )2 ∑ 𝑒𝑡 2
𝐷′ 𝑜ù: 𝐸 ( ) = 𝐸( ) = 𝜎𝜀2
(𝑛 − 2) (𝑛 − 2)

∑(𝐲𝐭 − 𝐲̂𝐭 )𝟐 ∑ 𝐞𝐭 𝟐
̂𝟐𝛆 =
𝑂𝑛 𝑝𝑜𝑠𝑒 𝑎𝑖𝑛𝑠𝑖 ∶ 𝛔 = ̂ 𝟐𝜺 ) = 𝝈𝟐𝜺
, 𝑒𝑡 𝑜𝑛 𝑎 ∶ 𝑬(𝝈
(𝐧 − 𝟐) (𝐧 − 𝟐)

̂ 𝟐𝜺 est un estimateur sans biais de 𝜎𝜀2 .


𝝈