Académique Documents
Professionnel Documents
Culture Documents
Licence 3
2023-2024
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Bibliographie
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Note introductive
Pour étudier un phénomène on le représente par des variables que l’on relie
à d’autres variables par une relation mathématique : on parle de modèle
théorique.
Note introductive
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 8/102
Modèle linéaire simple Spécification
Ecriture du modèle
yi = a + bxi + ϵi
Où :
yi est la valeur de la variable expliquée (dépendante) y pour l’individu i
xi est la valeur de la variable explicative (indépendante) x pour
l’individu i
yi et xi sont observés
a et b sont les paramètres du modèle (inconnus et à estimer)
ϵi est le terme d’erreur (inobservé et aléatoire)
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 10/102
Modèle linéaire simple Hypothèses
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 13/102
Modèle linéaire simple Méthodes d’estimation
N
X N
X
ϵ2i = (yi − a − bxi )2
i=1 i=1
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 15/102
Modèle linéaire simple Estimateurs et propriétés
Estimateurs
Cov (x, y )
b̂ =
V (x)
â = ȳ − b̂x̄
Où x̄ et ȳ sont les moyennes arithmétiques des variables x et y
respectivement.
σx2
V (b̂) =
NV (x)
σx2
V (â) = x̄ 2 V (b̂) +
N
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 18/102
Modèle linéaire simple Qualité de l’ajustement
ŷi = â + b̂xi
Le résidu d’estimation est donné par :
ϵ̂i = yi − ŷi
On montre que :
N
X N
X
ϵ̂i = 0 et xi ϵ̂i = 0
i=1 i=1
Ainsi, on a :
ȳ = ŷ¯
Ce qui permet d’ écricre l’ équation ( d’analyse de la variance) suivante :
N
X N
X N
X
(yi − ȳ )2 = (ŷi − ŷ¯ )2 + ϵ̂2i
i=1 i=1 i=1
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 21/102
Modèle linéaire simple Interprétation des coefficients
La constante (intercept)
La pente (slope)
Si x et y sont continues et qu’aucune transformation n’est faite sur
ces variables, alors b est un effet marginal ; c’est-à-dire l’effet d’une
variation unitaire de x sur y .
La pente (slope)
Si y est une transformation log et x est binaire (indicatrice),
c’est-à-dire log (yi ) = a + bxi + ϵi , alors le coefficient b est une
semi-élasticité mais n’est pas directement interprétable.
On calcule 100 ∗ (e b − 1) et on dira : les individus ayant x = 1 ont
en moyenne 100 ∗ (e b − 1) pourcent de y de plus/moins que ceux
ayant x = 0.
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 25/102
Modèle linéaire multiple Spécification
Plan
1 Introduction générale
Ecriture du modèle
yt = Xt β + ϵt
Ecriture du modèle
Y = Xβ + ϵ
1 X11 .. X1K
.
.
1 K
1 Xt
X = .. Xt
.
.
1 XT1 .. XTK
Plan
1 Introduction générale
X ′X
H5 : lim = VX qui est une matrice semi définie positive.
T →∞ T
H6 : ϵ ∼ N(0, σ 2 IT ) ou encore ϵt ∼ iid(0, σ 2 )
Plan
1 Introduction générale
Soit
T
X
min (yt − Xt β)2
β
t=1
min(Y − X β)′ (Y − X β)
β
Plan
1 Introduction générale
Estimateurs
X ′X β = X ′Y
β̂MCO = (X ′ X )−1 X ′ Y
= β + (X ′ X )−1 X ′ ϵ
On montre que :
β̂MCO est un estimateur sans biais :
E β̂MCO = β
Propriétés : convergence
L’estimateur β̂MCO est convergent (en probabilité) : Lorsque T tend vers
l’infini, β̂MCO tend vers β.
plim β̂MCO = β
T →∞
Ainsi, on a :
′
= lim σ 2 (X ′ X )−1
lim E β̂MCO − β β̂MCO − β
T →∞ T →∞
Propriétés : convergence
Donc :
−1
σ2 X ′X
′
lim E β̂MCO − β β̂MCO − β = lim
T →∞ T →∞ T T
= 0
X ′X
Car lim = VX est finie.
T →∞ T
Plan
1 Introduction générale
Valeur prédite
Ŷ = X β̂MCO
Elle est obtenue par projection de Y dans l’espace vectoriel engendré par
les X (noté L(X )). On a :
Ŷ = X β̂MCO
= X (X ′ X )−1 X ′ Y
= PX Y
Résidu
ϵ̂ = Y − Ŷ
ϵ̂ = Y − Ŷ
= Y − PX Y
= IT − PX Y
= MX Y
On a donc :
V (Ŷ ) V (ϵ̂)
R2 = =1−
V (Y ) V (Y )
Coefficient de détermination
Remarques :
Le R2 ne peut être calculé que si la constante (ou une combinaison de
variable donnant la constante) est incluse dans le modèle.
Le R2 augmente avec le nombre de variables explicatives. On calcule
un R2 ajusté qui corrige ceci en faisant (le R2a décroit avec l’ajout de
variables, il peut donc être négatif) :
T −1
R2a = 1 − (1 − R2)
T −K
Plan
1 Introduction générale
Prédiction et biais
Prédiction et variance
On sait que E ϵ̂s = 0, donc V ϵ̂s = E ϵ̂2s . Ainsi,
2
V ϵ̂s = E Xs β − β̂MCO + ϵs
2
= E Xs β̂MCO − β − ϵs
′ ′
= E Xs β̂MCO − β − ϵs β̂MCO − β Xs − ϵs
Plan
1 Introduction générale
Enoncé du théorème
β̂a = β̂b
Preuve du théorème
Partant de l’équation (b), on a :
−1
′ ′
β̂b = MZ X MZ X MZ X MZ Y
−1
= X ′ MZ X X ′ MZ Y
Considérant l’équation (a), on a :
β
Y = (X , Z ) +ϵ
γ
Les équations normales sont données par :
′ ′
X β X
(X , Z ) = Y
Z′ γ Z′
C’est-à-dire :
′
X ′Z
′
XX β XY
=
Z ′X Z ′Z γ Z ′Y
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 50/102
Modèle linéaire multiple Théorème de Frisch Waugh et applications
Preuve du théorème
On a donc :
X ′X β + X ′Z γ = X ′Y
Z ′X β + Z ′Z γ = Z ′Y
En procédant par substitution, on a :
γ̂ = (Z ′ Z )−1 (Z ′ Y − Z ′ X β)
Ainsi, on a :
X ′ X β̂ + X ′ Z (Z ′ Z )−1 (Z ′ Y − Z ′ X β̂) = X ′ Y
X ′ X β̂ + X ′ PZ Y − X ′ PZ X β̂ = X ′ Y
X ′ (IT − PZ )X β̂) = X ′ (IT − PZ )Y
X ′ MZ X β̂ = X ′ MZ Y
D’où :
β̂a = (X ′ MZ X )−1 X ′ MZ Y
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 51/102
Modèle linéaire multiple Théorème de Frisch Waugh et applications
Implications
On a :
On sait que MZ Y est le résidu de la régression de Y sur Z , MZ X est
défini de manière analogue.
MZ Y et MZ X sont décorrelés de Z .
Ainsi, β̂a peut être obtenu de manière équivalente soit par estimation
directe du modèle (a) ou par estimation du modèle (b) qui est une
régression entre résidus d’estimation.
Régresser Y sur X en contrôlant de Z peut être fait en enlevant toute
corrélation à Z dans Y et X puis en faisant la régression sur ces
nouvelles variables décorrelées.
Implications
Par conséquent, on a :
Biais de variables omises : Si le bon modèle est Y = X β + Z γ + ϵ,
alors estimer le modèle Y = X β + ϵ engendre un estimateur biaisé de
β ; sauf si X et Z sont orthogonaux (i.e., X ⊥ Z ).
Centrer toutes les variables X et Y avant de faire la régression (en
excluant la constante) est équivalent à la régression non centrée avec
la constante.
Inclure une variable indicatrice (dummy) dans le modèle revient à
remplacer par 0 les valeurs prises par X et Y à la date où l’indicatrice
prend 1.
Plan
1 Introduction générale
Estimateur de la variance
On sait que V β̂MCO = σ 2 (X ′ X )−1 .
Ainsi, on a :
V̂ β̂MCO = σ̂ 2 (X ′ X )−1
= σ 2 tr (MX )
= σ 2 (T − K − 1)
Par conséquent, on a : E (σ̂ 2 ) = σ 2 .
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 56/102
Modèle linéaire multiple Variance de l’estimateur
β ∗ = β̂MCO + LY
= β + (X ′ X )−1 X ′ ϵ + Lϵ
Donc β − E (β ) = β − β = (X X ) X + L ϵ. Ainsi, la variance de β ∗
∗ ∗ ∗ ′ −1 ′
= σ 2 (X ′ X )−1 + LL′
Ainsi, on a :
V β ∗ − V β̂MCO = σ 2 LL′
minimale.
Plan
1 Introduction générale
L’estimateur de σ 2
La dérivée de la log-vraisemblance par rapport à σ 2 , on a :
∂log L(β, σ 2 )
T 1
2
= − 2 + 4 (Y − X β)′ (Y − X β) = 0
∂σ 2σ σ
On a donc :
1 SCR
2
σ̂MV = (Y − X β̂MV )′ (Y − X β̂MV ) =
T T
2
L’estimateur σ̂MV est donc biaisé.
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 63/102
Modèle linéaire multiple Interprétation des coefficients : les interactions
Plan
1 Introduction générale
yt = β0 + β1 xt + β2 xt zt + ϵt
1 Introduction générale
4 Tests d’hypothèses
Loi des estimateurs
Test sur un paramètre
Test sur un plusieurs paramètres
Stabilité des paramètres
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Plan
1 Introduction générale
4 Tests d’hypothèses
Loi des estimateurs
Test sur un paramètre
Test sur un plusieurs paramètres
Stabilité des paramètres
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 69/102
Tests d’hypothèses Loi des estimateurs
Loi de β̂MCO et de σ̂ 2
2
∀ k = 0, .., K , on a : β̂k ∼ N βk , σ xkk , oú xkk est le k + 1eme
élément de la matrice (X ′ X )−1 .
Concernant l’estimateur de la variance, on a :
ϵ̂′ ϵ̂ ϵ′ MX ϵ
σ̂ 2 = = .
T −K −1 T −K −1
Loi de σ̂ 2
On sait que si η ∼ N 0, I et que A est une matrice de rang p, alors
η ′ Aη ∼ χ2p .
Ainsi, on a :
′
ϵ′ MX ϵ
ϵ ϵ
MX = ∼ χ2T −K −1
σ σ σ2
σ̂ 2
= (T − K − 1) 2 ∼ χ2T −K −1
σ
ϵ̂ ϵ̂ ′
Vu que σ̂ 2 = T −K −1 , il suffit donc de montrer que β̂MCO et ϵ̂ sont
indépendants. Or β̂MCO = β + (X ′ X )−1 X ′ ϵ et ϵ̂ = MX ϵ sont tous deux
Gaussiens (car combinaison linéaire de Gaussiens).
Ainsi,Cov (β̂MCO , ϵ̂) = 0 est équivalent à l’indépendance entre β̂MCO et ϵ̂.
Or
E (ϵ̂) = 0, ϵ̂ = MX ϵ et β̂MCO − E (β̂MCO ) = β + (X ′ X )−1 X ′ ϵ
Ainsi,
Car MX X = 0.
Plan
1 Introduction générale
4 Tests d’hypothèses
Loi des estimateurs
Test sur un paramètre
Test sur un plusieurs paramètres
Stabilité des paramètres
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 74/102
Tests d’hypothèses Test sur un paramètre
β̂MCO − βk
√ ∼ N(0, 1)
σ xkk
A
q ∼ St(p)
A
B
Ainsi,
β̂k√−βk
σ χkk β̂k − βk
r = √ ∼ St(T − K − 1)
2
(T −K −1) σ̂2 σ̂ xkk
σ
T −K −1
Plan
1 Introduction générale
4 Tests d’hypothèses
Loi des estimateurs
Test sur un paramètre
Test sur un plusieurs paramètres
Stabilité des paramètres
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 77/102
Tests d’hypothèses Test sur un plusieurs paramètres
H0 : Rβ = c
Par exemple :
Pour tester H0 : β1 = β2 et β3 = β4 , on a :
0 1 −1 0 .. 0
R=
0 0 1 −1 0 0
et
0
c=
0
s/c Rβ = c
Le Lagrangien de ce modèle est :
L = (Y − X β)′ (Y − X β) + (Rβ − c)′ λ
Les CPO donnent :
∂L
= −2X ′ Y + 2X ′ X β + R ′ λ = 0
∂β
∂L
= Rβ − c = 0
∂λ
λ̂
= (R(X ′ X )−1 R ′ )−1 (R β̂MCO − c)
2
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 81/102
Tests d’hypothèses Test sur un plusieurs paramètres
Ainsi, sous H0 , on a :
On en déduit que :
SCRC = ϵ̂′C ϵ̂C = (ϵ̂NC + X (β̂MCO − β̂C ))′ (ϵ̂NC + X (β̂MCO − β̂C ))
Remplacant β̂MCO − β̂C par (X ′ X )−1 R ′ (R(X ′ X )−1 R ′ )−1 (R β̂MCO − c), on
a donc :
′
SCRC − SCRNC = (X X ) R (R(X X ) R ) (R β̂MCO − c) X ′ X
′ −1 ′ ′ −1 ′ −1
′ −1 ′ ′ −1 ′ −1
(X X ) R (R(X X ) R ) (R β̂MCO − c)
Plan
1 Introduction générale
4 Tests d’hypothèses
Loi des estimateurs
Test sur un paramètre
Test sur un plusieurs paramètres
Stabilité des paramètres
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 88/102
Tests d’hypothèses Stabilité des paramètres
yt = Xt β 1 + ϵt si t ≤ T1
yt = Xt β 2 + ϵt si t > T1
Test de Chow
Ainsi, réaliser le test de Chow revient à tester H0 : β 1 = β 2 sur le modèle :
yt = Xt β 1 + ϵt si t ≤ T1
yt = Xt β 2 + ϵt si t > T1
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Position du problème et conséquences
Procédure de test
6 Remarques conclusives
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Position du problème et conséquences
Procédure de test
6 Remarques conclusives
Problème et conséquences
E (β̂MCO ) = E (β + (X ′ X )−1 X ′ ϵ)
E (β̂MCO ) = β
Problème et conséquences
On a :
Plan
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
Position du problème et conséquences
Procédure de test
6 Remarques conclusives
Test de White
Plusieurs prodédures de test existent. Elles se basent sur les résidus
d’estimation ϵ̂.
Test de Goldfeld-Quandt
Le test de Goldfeld-Quandt se réalise suivant les étapes ci-après :
Régresser le carré des résidus sur chacune des explicatives pour
identifier celle pour laquelle la variance de σt2 varie de manière
monotone : c’est la source de l’ hétéroscédasticité(notée Z ).
Ranger l’échantillon par ordre croissant sur la base de Z et former
deux sous échantillons en retirant les h,h/a observations du milieu.
Estimer le modèle MCO initial sur chacun des sous échantillons et
calculer :
Tp
2 1 X
σˆp = ϵ̂2s , p = 1, 2.
Tp − K − 1
s=1
La statistique de test est (on rejette l’hypothèse d’homoscédasticité si
la statistique est plus grande que FS ) :
σ12
GQ = ∼ FT1 −K −1,T2 −K −1
σ22
Econométrie du Modèle Linéaire. sites.google.com/view/moussakrichard 97/102
Problème d’hétéroscédasticité Procédure de test
Test de Breusch-Pagan-Godfrey
Ỹ = X̃ β + ϵ̃
On peut remarquer que :
1 Introduction générale
4 Tests d’hypothèses
5 Problème d’hétéroscédasticité
6 Remarques conclusives
Quelques extensions