Académique Documents
Professionnel Documents
Culture Documents
Fiche No: 2
Licence 3
yi = α0 + α1 x i + εi , i = 1, . . . , n
2. Rappelez le principe : (i) des moindres carrées ordinaires (MCO), (ii) de la méthode des moments
(MM), (iii) du maximum de vraisemblance (MV) ?
i. Le principe des MCO consiste à minimiser (moindre) la somme des carrées des erreurs du
modèle de regréssion.
ii. Le principe de la méthode des momments consiste à égaliser les moments théoriques du
modèle, aux moments empiriques.
iii. Le principe du MV consiste à maximiser la probabilité d’obtenir l’échantillon ( y1 , y2 , . . . , yn ).
n
X n
X
min ε2i = min ( yi − α0 − α1 x i )2 (1)
i i
Dans notre modèle, nous avons deux paramètres soit deux inconnues α0 et α1 . Nos deux (02
1
pour le nombre de paramètres) dérivées partielles s’obtiennent comme suit :
∂ ε2i
=0
∂ α0
Pn
∂ i=1 ( yi − α0 − α1 x i )2
=0
∂ α0
n
X
2(−1) ( yi − α̂0 − α̂1 x i ) = 0
i=1
n
(2)
X
−2 ( yi − α̂0 − α̂1 x i ) = 0
i=1
n
X
( yi − α̂0 − α̂1 x i ) = 0
i=1
n
X n
X
yi − nα̂0 − α̂1 xi = 0
i=1 i=1
et
∂ ε2i
=0
∂ α1
Pn
∂ i=1 ( yi − α0 − α1 x i )2
=0
∂ α1
n
X
2(−x i ) ( yi − α̂0 − α̂1 x i ) = 0 (3)
i=1
n
X
−2 x i ( yi − α̂0 − α̂1 x i ) = 0
i=1
Xn
x i ( yi − α̂0 − α̂1 x i ) = 0 (2)
i=1
L’équation (1) et l’équation (2) sont appelées équations normales car ce sont ces équation que
nous utiliserons pour obtenir des estimateur α̂0 et α̂1 . De (1), on peut tirer l’estimateur de α0 que
nous noterons α̂0 en fonction de celui de α1 (α̂1 ) 1 :
2
(3) dans (2) nous donne :
n
X
x i ( yi − α̂0 − α̂1 x i ) = 0
i=1
n
X
x i ( yi − ( ȳ − α̂1 x̄) − α̂1 x i ) = 0
i=1
Xn
x i [( yi − ȳ) − α̂1 (x i − x̄)] = 0 (4)
i=1
n
X n
X
x i ( yi − ȳ) − α̂1 x i (x i − x̄) = 0
i=1 i=1
Pn
i=1 x i ( yi − ȳ) Sx y
α̂1 = Pn = (4)
i=1 x i (x i − x̄) Sx x
n
X
Sab = (a − ā)(b − b̄) (5)
i=1
Sx y
α̂1 =
S
Px nx
i=1 (x i − x̄) yi
= (6)
Sx x
n
X (x i − x̄)
= yi
i=1
Sx x
soit
n
X
α̂1 = ωi yi (7)
i=1
avec
(x i − x̄)
ωi = (8)
Sx x
3
De même,
α̂0 = ȳ − α̂1 x̄
X n
= ȳ − ωi yi x̄
i=1
n n
1X X (9)
= yi − ωi yi x̄
n i=1 i=1
n
1
X
= − x̄ωi yi
i=1
n
soit
n
X
α̂0 = mi yi (10)
i=1
avec
1
mi = − x̄ωi (11)
n
Des relations précédentes on conclu que α̂0 et α̂1 sont des estimateurs linéaires en yi affectées
respectivement des coefficients mi et ωi .
5. Montrez que l’estimateur MCO des paramètres est sans biais
Un estimateur α̂ est dit sans biais de α lorsque E(α̂) = α.
Avant de montrer que α̂0 et α̂1 sont des estimateurs sans biais de α0 et α1 respectivement. Nous
allons (i) prendre quelques résultats sur les coefficients ωi et mi et (2i) réécrire chaque estimateur
des MCO en fonction de son paramètre.
n n
X 1 X
ωi = (x i − x̄) = 0
i=1
S x x i=1
n
Pn
i=1 x i (x i − x̄)
X
x i ωi = =1 (12)
i=1
Sx x
n
Pn
i=1 (x i − x̄)
2
X
2 1
ωi = 2
=
i=1
Sx x Sx x
4
De ce qui précède, on déduit que,
n n
1
X X
mi = − x̄ωi = 1
i=1 i=1
n
n n
1
X X
x i mi = xi − x̄ωi = 0
i=1 i=1
n
n n 2 X n n Pn 2
(13)
2 x
1 1 1
X
X X x̄ i=1 i
m2i = − x̄ωi = 2
+ x̄ 2 ω2i − 2x̄ωi = + =
i=1 i=1
n i=1
n i=1
n Sx x nS x x
n n
X 1 n
X 1
X x̄
mi ωi = − x̄ωi ωi = ωi − x̄ω2i = −
i=1 i=1
n i=1
n Sx x
n
X
α̂1 = ωi yi
i=1
Xn
= ωi (α0 + α1 x i + εi )
i=1
n n n (14)
X X X
= α0 ωi + α1 ωi x i + ωi εi
i=1 i=1 i=1
n
X
= α1 + ωi εi
i=1
n
X
α̂0 = mi yi
i=1
n
X
= mi (α0 + α1 x i + εi )
i=1
n n n (15)
X X X
= α0 mi + α1 mi x i + mi εi
i=1 i=1 i=1
n
X
= α0 + mi εi
i=1
5
De ce qui précède, on a alors,
n
X
E(α̂1 ) = E(α1 + ωi εi )
i=1
n
X (16)
= α1 + ωi E(εi )
i=1
= α1
et
n
X
E(α̂0 ) = E(α0 + mi εi )
i=1
n
X (17)
= α0 + mi E(εi )
i=1
= α0
prob lim α̂ = α
n→∞
Pn
Puisque α̂1 = α1 + i=1 ωi εi alors
n
X
lim α̂1 = lim (α1 + ωi εi )
n→∞ n→∞
i=1
Xn
= α1 + lim ( ωi εi )
n→∞
i=1
Pn
i=1 (x i
− x̄)εi
= α1 + lim
n→∞ Sx x (18)
1 Pn
i=1 (x i −
n x̄)εi
= α1 + lim 1
n→∞
n Sx x
cov(x, ε)
= α1 + lim
n→∞ var(x)
=α