Vous êtes sur la page 1sur 6

Econométrie

Cours 7

• Matière du cours :
— Le coefficient de détermination multiple : R2
— Unités de mesure
— Forme fonctionnelle
— Le test de Fischer (I)

1. Le coefficient de détermination multiple : R2


• Comme dans le cas de la régression simple, chaque observation yi peut être dé-
composée en une partie expliquée par le modèle ŷi, et une partie non expliquée ou
résiduelle êi :
yi = ŷi + êi, où ŷi = Xiβ̂ et êi = yi − ŷi

• De cette décomposition, on peut tirer :


n n n
2 2
(yi − ȳ) = (ŷi − ŷ) + ê2i
i=1 i=1 i=1

SCT SCE SCR

⇔ V are(yi) = V are(ŷi) + V are(êi)


Variance totale Variance expliquée Variance résiduelle

• Le coefficient de détermination multiple est pareillement défini par :


SCE SCR V are(ŷi)
R2 = =1− =
SCT SCT V are(yi)
3

• Remarques :

— Par construction, le R2 est toujours compris entre 0 et 1 :

0 ≤ R2 ≤ 1, avec : - R2 = 0 ssi SCE = 0


- R2 = 1 ssi SCR = 0

— On a toujours que le R2 est égal au carré du coefficient de corrélation empirique


ρe(yi, ŷi) entre yi et ŷi :
R2 = (ρe(yi, ŷi))2

— LeR2 augmente mécaniquement avec le nombre de variables explicatives. Pour


contourner ce problème, on définit parfois un R2 ajusté, noté R̄2, comme :

SCR/(n − k)
R̄2 = 1 −
SCT/(n − 1)

2. Unités de mesure
• Comme dans le cas de la régression simple, les paramètres et les statistiques calculés
dans le cadre du modèle de régression multiple ne sont pas sans unités de mesure :
ils dépendent des unités de mesure des xij et de yi
→ Si on modifie les unités de mesure des xij et/ou de yi, les valeurs des paramètres
et statistiques calculés seront similairement modifiées

• Exemple : P rixi = β 1 + β 2 Supi + β 3 NbChambi +ei , V ar(ei) = σ 2


↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓
$ $ $/m m 2 2
$/unité unité $ $2

- Si on mesure le prix en milliers de dollars plutôt qu’en dollars, on aura :


P rixi → ÷1000, β 1 → ÷1000, β 2 → ÷1000, β 3 → ÷1000, ei → ÷1000 et σ 2 → ÷106

- Si on mesure la superficie en ares plutôt qu’en mètres carrés, on aura :


Supi → ÷100, β 1 → idem, β 2 → ×100, β 3 → idem, ei → idem et σ 2 → idem
5

3. Forme fonctionnelle
• Comme le modèle de régression simple, le modèle de régression linéaire multiple
suppose uniquement une linéarité dans les paramètres
• Des relations non-linéaires entre variables peuvent être modélisées :
— en transformant les variables du modèle

— en utilisant des polynômes

3.1. Transformation des variables


• Les modèles les plus couramment utilisés sont :
— le modèle log-log : ln yi = β 1 + β 2 ln xi2 + ... + β k ln xik + ei , (xij > 0, yi > 0)
— le modèle log-lin : ln yi = β 1 + β 2xi2 + ... + β k xik + ei , (yi > 0)
— le modèle lin-log : yi = β 1 + β 2 ln xi2 + ... + β k ln xik + ei , (xij > 0)

• Remarque :les modèles log-log et log-lin correspondent, pour yi, à des modèles non
seulement non-linéaires, mais aussi hétéroscédastiques

3.2. Régression polynomiale


• Le
modèle de régression simple peut être assoupli en considérant la régression poly-
nomiale (ici quadratique) :
yi = β 1 + β 2xi + β 3x2i + ei
dE(yi |xi)
Pour ce modèle, on a : dxi
= β 2 + 2β 3xi

• De même, le modèle de régression multiple peut être assoupli en considérant la


régression multiple polynomiale (ici quadratique) :
yi = β 1 + β 2xi2 + β 3xi3 + β 4x2i2 + β 5x2i3 + β 6(xi2xi3) + ei
Pour ce modèle, on a :
∂E(yi |xi2 ,xi3 ) ∂E(yi|xi2,xi3 )
∂xi2
= β 2 + 2β 4xi2 + β 6xi3 et ∂xi3
= β 3 + 2β 5xi3 + β 6xi2

• Remarques :
— On peut combiner régression polynomiale et transformations de variables
— Pour faciliter l’interprétation des paramètres, il est utile de centrer les variables
7

4. Le test de Fischer (F -test)


• Le F -test fournit une procédure générale pour tester des hypothèses de la forme :

H0 : R0β = r0 contre H1 : R0β = r0 , i.e., au moins 1 des q


restrictions est fausse

où R0 = matrice q × k (q ≤ k) et r0 = vecteur q × 1

• Par exemple, dans le modèle de fonction de production Cobb-Douglas :


ln yi = β 1 + β 2 ln ki + β 3 ln li + ei
Pour tester :
- H0 : β 2= 0 contre H1 : β 2= 0 → R0 = 0 1 0 et r0 = 0
0 1 0 0
- H0 : β 2= β 3= 0 contre H1 : β 2= 0 et/ou β 3= 0 → R0 = et r0 =
0 0 1 0
- H0 : β 2+β 3= 1 contre H1 : β 2+β 3= 1 → R0 = 0 1 1 et r0 = 1

4.1. La procédure de test


• Sous les hypothèses A1-A6, on a : β̂ ∼ N(β, V (β̂))
⇔ (R0β̂ − r0) ∼ N(R0β − r0, R0V (β̂)R0′ )
de sorte que :
 −1

 χ̂20 = (R0β̂ − r0)′ R0V (β̂)R0′ (R0β̂ − r0) ∼ χ2(q) , si R0β = r0
 −1
 χ̂2 = (R0β̂ − r0)′ R0V (β̂)R′ (R0β̂ − r0) ∼ χ2(δ ∗, q) , si R0β = r0
0 0

−1
où V (β̂) = σ 2(X ′X)−1 et δ ∗ = (R0β − r0)′ R0V (β̂)R0′ (R0β − r0)
Graphiquement : 2 2
f 0 Distribution de 0
2
Distribution de 0
lorsque R 0 r0

2
Distribution de 0
lorsque R0 r0

0 q q 2
0
9

• Le remplacement de σ 2 par ŝ2 fait passer de lois du khi-carré à des lois de Fischer.
On obtient :

 1 ′ ′
−1
 F̂ =
 0 q 0 (R β̂ − r0 ) R 0 V̂ (β̂)R0 (R0β̂ − r0) ∼ F (q, n − k) , si R0β = r0


 1 −1
 F̂0 = (R0β̂ − r0)′ R0V̂ (β̂)R0′ (R0β̂ − r0) ∼ F (δ ∗, q, n − k) , si R0β = r0
q
−1
2 ′ −1 ∗ ′
où V̂ (β̂) = ŝ (X X) et δ = (R0β − r0) R0V (β̂)R0′ (R0β − r0)

Graphiquement :
f F0 Distribution de F 0
Distribution de F 0
lorsque R 0 r0

Distribution de F 0
lorsque R 0 r0

0 1 F0
1
q

10

• Un test au seuil α de H0 : R0β = r0 contre H1 : R0β = r0 est donné par :

- Rejet de H0 si F̂0 > Fq,n−k;1−α


- Non-rejet de H0 sinon

où Fq,n−k;1−α est le quantile d’ordre 1 − α de la loi de Fisher F (q, n − k)

Risque de 1ère espèce : IP(RH0 | H0 est vraie) Puissance : IP(RH0 | H0 est fausse)
f F0 Distribution de F 0 f F0 Distribution de F 0
Distribution de F 0
Distribution de F 0 lorsque R 0 r0 Puissance
lorsque R 0 r0 du test

Distribution de F 0
Risque de lorsque R 0 r0
1ère espèce

0 1 Fq,n 0 1
k ;1 F0 1 Fq ,n k ;1 F0
q
Non-rejet de H 0 Rejet de H0 Non-rejet de H 0 Rejet de H0
11

• La P -valeur pF̂0∗ du F -test est donnée par :


f F F F q,n k
= Distribution de F 0
lorsque R 0 r 0 P valeur
du test
pF̂0∗ = IP(F > F̂0∗),
Une réalisation particulière
de F 0 : F 0
où F ∼ F (q, n − k)
pF 0

0 F0 Fq,n k ;1
F
Valeur critique d'un
test au seuil

• La statistique de test F̂0 peut être réécrite sous la forme:


(SCRc − SCR)/q
F̂0 = , où : - SCR = somme carrés résidus non contraints
SCR/(n − k)
- SCRc = somme carrés résidus contraints
4.2. F -test et non normalité
• LeF -test est exact en échantillon fini sous les hypothèses A1-A6, et reste valable
asymptotiquement, à titre approximatif, pour n grand, sous les seules hypothèses
A1-A5. Ce résultat découle de 3 éléments :

12

— Pour n grand, β̂ est toujours distribué de façon normale : β̂ ≈ N(β, σ 2(X ′X)−1)
— Pour n grand, le remplacement de σ 2 par son estimateur ŝ2 ne modifie pas les
distributions d’échantillonnage en jeu
1
— Pour n grand, F (q, n − k) ≈ q χ2(q)

4.3. Cas particuliers du F -test (I)


• Le F -test de H0 : β j = β oj contre H1 : β j = β oj dans la régression :
yi = β 1 + β 2xi2 + ... + β k xik + ei

est obtenu en prenant R0 = 0 · · · 1 · · · 0 , r0 = β oj et q = 1. Pour ces valeurs,


la statistique F̂0 s’écrit :
2
2
β̂ j − β oj β̂ j − β oj
F̂0 = = = t̂2o
V âr(β̂ j ) s.ê.(β̂ j )
2
→ Comme F1,n−k;1−α = tn−k;1− α2 , le F -test et le t-test bilatéral sont équivalents

Vous aimerez peut-être aussi