David Guerreiro
david.guerreiro@univ-paris8.fr
Année 2013-2014
Université Paris 8
Introduction Généralités Les MCO ANOVA Les tests Conclusion
Le modèle
Econométrie et modèle
Partie importante de l’économétrie consiste à construire et estimer
un modèle.
Modèle met en relation diverses variables (souvent grandeurs éo-
nomiques).
Modèle est représentation formalisée d’un phénomène ou théorie
éco => Modélisation !
Définition modèle
Représentation simplifiée de la réalité (sous forme d’équations).
Permet spécifier relations entre variables.
Expliquer façon dont certaines variables sont déterminées par
d’autres.
Introduction Généralités Les MCO ANOVA Les tests Conclusion
Le modèle
C = f(Y)
0
où f est affine et telle que f > 0, donc :
C = cY + C0
Variable explicative
Variable exogène ou indépendante.
Variable qui permet d’expliquer l’endogène.
Ds modèle de fonction de conso keynésien : le revenu.
Le terme d’erreur
Appelé aussi perturbation.
Variable aléatoire (généralement ) prenant en compte les variables
explicatives oubliées ou les erreurs de mesures des variables
considérées.
=> erreur de spécification du modèle.
Introduction Généralités Les MCO ANOVA Les tests Conclusion
L’hypothèse de linéarité
Exemple
Y = 3X est linéaire par rapport à X et Y.
logY = α + βlogX est linéaire par rapport à logX et logY .
Introduction Généralités Les MCO ANOVA Les tests Conclusion
L’hypothèse de linéarité
Exemples
Y = α + βX est linéaire dans les paramètres α et β. Y = α + βX2 est
linéaire dans les paramètres α et β. Y = α + β 2 X n’est pas linéaire dans
le paramètre β
Modèle linéaire
Linéarité dans les paramètres.
Linéarité dans les variables ou dans n’importe quelle transofma-
tion des variables.
Introduction Généralités Les MCO ANOVA Les tests Conclusion
Modèle général
Le modèle que nous allons étudier tout au long du chapitre est le suivant :
Y = α + βX + (1)
Yt = α + βXt + t (2)
Objectif
Paramètres α et β du modèle (2) sont inconnus.
But de la régression simple va être de les estimer.
A partir des valeur observées de Xt et Yt , on cherche relation quantifiée
entre ces 2 variables :
Droite de régression
Droite n’est pas tracée n’importe comment.
MCO cherchent à tracer droite de façon à ce qu’elle représente
au mieux le nuage de points.
Equation droite MCO : Ŷt = α̂ + β̂Xt
Introduction Généralités Les MCO ANOVA Les tests Conclusion
Les résidus
Certains points du couple (Xt , Yt ) sont au dessus de la droite, d’autres
en dessous.
On note ces écarts à la droite et :
A retenir
MCO cherchent à
Tracer droite de façon à ce que distance entre chaque point et
droite soit le plus petit possible !
Trouver α̂ et β̂ de sorte que somme des carrés des écarts entre
Yt et Ŷt soit minimale !
Minimiser la distance au carré entre chaque observation et droite de
régression.
Minimiser le carré des résidus !
T
X
MCO ⇐⇒ Min e2t (5)
t=1
Introduction Généralités Les MCO ANOVA Les tests Conclusion
Résolution
Grâce à minimisation, on obtient les équations normales suivantes :
(P P
Yt = Tα̂ + β̂ Xt
Xt Yt = α̂ Xt + β̂ X2t
P P P
α̂ = Ȳ − β̂ X̄ (7)
cov(Xt , Yt )
β̂ = (8)
V(Xt )
Introduction Généralités Les MCO ANOVA Les tests Conclusion
Droite de régression
La droite MCO passe par le point moyen (X̄, Ȳ).
Découle de la relation Y
ct = α̂ + β̂Xt .
¯
On en déduit Yct = α̂ + β̂ X̄ = Ȳ.
Les résidus
En moyenne, résidus sont nuls : ē = 0
PT
La somme des résidus est nulle : t=1 (et ) = 0.
Introduction Généralités Les MCO ANOVA Les tests Conclusion
E(α̂) = α (9)
E(β̂) = β (10)
Introduction Généralités Les MCO ANOVA Les tests Conclusion
σ2
V(β̂) = (11)
TV(Xt )
PT 2
2 t=0 Xt
V(α̂) = σ (12)
T2 V(Xt )
Estimateurs convergents :
lim V(β̂) = 0
T→∞
lim V(α̂) = 0
T→∞
Estimateurs BLUE
Combinaison de toutes ces propriétés indique qu’estimateur MCO
est BLUE.
BLUE : Best Linear Unbiased Estimator.
C’est le meilleur estimateur possible (le plus performant) parmi la
classe des estimateurs linéaires sans biais.
[ ˆ = σˆ2
V(β) (14)
TV(Xt )
PT 2
\ ˆ = σˆ2 t=1 Xt
V(α) (15)
2
T V(Xt )
Introduction Généralités Les MCO ANOVA Les tests Conclusion
V(Yt ) = V(Y
ct + et ) = V(Y
ct ) + V(et ) + 2cov(Y
ct , et ) (16)
V(Yt ) = V(Y
ct ) + V(et ) (17)
Autre formulation
Somme des carrés des écarts de la variable expliquée à sa moyenne :
somme des carrés totale, SCT.
Somme des carrés des écarts de la variable estimée à sa moyenne :
somme des carrés expliquée, SCE.
Somme des carrés des résidus, SCR.
Coefficient de détermination
Soit encore :
SCE SCR
R2 = =1− (22)
SCT SCT
Coefficient de détermination
Coefficient de détermination
Remarques
Puisque V(Y
b t ) = V(α
b + βV(X
b t )) on peut réécrire :
βb2 V(Xt )
R2 =
V(Yt )
cov(Xt ,Yt )
De plus βb = V(Xt )
, donc :
[cov(Xt , YT )]2
R2 = = [ρ(Y, X)]2
V(Xt )V(Yt )
Introduction Généralités Les MCO ANOVA Les tests Conclusion
La significativité individuelle
La validation du modèle
La significativité individuelle
Statistique de test :
βb
tβb = ,→ TT−k−1
σ
cβ̂
Où σ
cβ̂ est l’écart type estimé associé à β,
b à savoir la racine carré
Régle de décision :
(
Si : |tβb| ≤ tp/2 alors on ne rejette pas H0 , β = 0.
Si : |tβb| > tp/2 alors on rejette H0 , β 6= 0.
La significativité globale
Régle de décision :
Si : F ≤ F(1,T−2) alors on ne rejette pas H0 , β = 0, ce qui signifie
que le modèle est globalement non-significatif.
Si : F > F(1,T−2) alors on rejette H0 , β 6= 0, ce qui signifie
que le modèle est globalement significatif : ici Xt contribue à
l’explication de Y .
t
Remarques
.
Il permet de voir si les variables Xi,t prises dans leur ensemble per-
mettent d’expliquer Yt . Dans ce cas là les hypothèses testées sont :
(
H0 : β1 = β2 = ... = βn = 0 ⇔ R2 = 0
Ha : Au moins un des βi 6= 0 ⇔ R2 6= 0