Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
--
Les modèles économiques et la réalité
1. Les modèles économiques en général
Modèle économique
=
discours sur la réalité du fonctionnement de
l’économie
--
Quelques limites d’un modèle économique
--
Deux questions:
- Est-il possible d’adapter un modèle
économique de façon à lui donner une
structure de modèle statistique ?
--
Qu’est ce que « faire de l’économétrie »?
1. Faire de l’économétrie consiste à répondre à ces
deux questions.
2. Par construction, l’économétrie constitue donc
une articulation entre économie et statistique.
3. L’économétrie emprunte à ces deux disciplines.
De façon schématique :
Modèle économique
+ =
économétrie
Modèle et méthodes statistiques
--
Les buts de l’économétrie en bref
L’économétrie est l’ensemble de méthodes
statistiques spécialement conçues pour :
analyser des données économiques,
tester des théories économiques,
aider à la prise de décision économique,
prévoir l’évolution de variables économiques,
aider à l’élaboration de nouvelles théories
économiques.
--
L’économétrie s’appuie sur :
des données,
une approche formalisée de la science
économique, c’est-à-dire une approche qui
exploite des représentations mathématiques
(appelés modèles) des mécanismes
économiques,
des outils statistiques. L’outil statistique de
base est le modèle linéaire
--
2. Les moyens de l’économétrie
2.1 Les données
1. Les données individuelles ou données en
coupes : elles mesurent, pour une
période donnée, une variable pour des
unités statistiques différentes (individus,
entreprises, pays, ménages,…)
Xi , i 1,2,..., n
--
2. Les données chronologiques ou
temporelles : elles mesure une variable pour
des
dates successives (stocks)
périodes successives (flux)
--
3.Les données de panel ou en coupes
répétées : combinaison des deux types
précédents
X it , i 1,2,..., n t 1,2,..., T
Q f ( P, Y ).
Introduisons les notations :
f f
f
'
p et f
y
'
P Y
L’hypothèse à tester s’écrit
f p' 0 et f y' 0.
--
L’économètre choisit la fonction , le plus
souvent en utilisant des formulations très
simples ou classiques dans la théorie
économique.
Par exemple : Q P Y
--
PGD = Processus Générateur des Données
L’idéal
C’est-à-dire le « vrai modèle »
celui qui est vérifié exactement par les données
Il est impossible de le connaître !!
La pratique
possible la réalité : bonne spécification
Lorsque le modèle utilisé est faux,
on dit qu’il y a mauvaise spécification
--
Exemple :
On dispose de 28 données américaines
relatives aux variables suivantes :
Prix : prix de ventes d’une maison en milliers de $
Taxes : montant de la taxe d’habitation en
centaines de $
Terrain : surface du terrain en milliers de pieds
carrés
Maison : surface de la maison en centaines de
pieds carrés
Age : âge de la maison en années
Tableau des valeurs
--
On souhaite mesurer
l’impact des différentes variables sur le prix
des maisons
et être capable de prédire
le prix (évaluer) d’une maison dont on
connaît les caractéristiques.
--
Pour simplifier, on peut s’intéresser
seulement à deux variables : PRIX et
TERRAIN.
PRIX = (TERRAIN)
On choisit une fonction très simple :
PRˆ IX a b TERRAIN
--
Chapitre 0b : Rappels mathématiques
--
1. Rappel sur l’algèbre linéaire
1.1 Espace euclidien
b1
n
a b a1 ,..., an ai bi
i 1
b
n
--
Le produit scalaire de deux vecteurs colonnes
de même dimension est noté <u,b> et est
définie par :
b1
n
u , b u b u1 ,..., u n ui bi
i 1
b
n
Définition
Un espace euclidien est un espace vectorielle
muni d’un produit scalaire.
--
1.1.2 Norme
La norme (ou longueur) d’un vecteur
colonne u est
u u, u
--
Définition
La projection d’un vecteur u sur un
vecteur v est définie par
u, v v
pv (u ) 2
v
u V
Définition
Les sous-espaces V et W sont dits
orthogonaux si tout vecteur de V est
orthogonal à tout vecteur de W.
--
Définition
L’ensemble de tous les vecteur
orthogonaux à V est appelé l’orthogonal
de V et est noté V.
Propriétés
(V) = V,
VV={0}.
--
1.2 Application linéaires et
Matrices.
1 2
1 4 2
A 4 3 alors A
2 3 5
2
5
--
Définitions.
Une matrice est dite symétrique si elle
est égale à sa transposée.
Propriétés
1. trace(A+B)=trace(A)+trace(B)
2. trace(AB)=trace(BA)
mais trace(AB)≠trace(A)trace(B)
--
1.2.3 Propriétés de déterminant de
matrices.
Notons le déterminant d’une matrice
carrée A (JxJ) par |A|.
Propriétés
1. |A|= |A’|,
2. |AB|= |A|.|B|, en particulier |Ak|= |A|k.
3. |cA|=cJ|A|,(où A est de dimension JxJ).
--
1.2.4 Matrices orthogonales
’ = -1
--
1.2.5 Valeurs et vecteurs propres
d’une matrice
Propriétés
• Une matrice carrée symétrique de
dim=JxJ possède toujours des valeurs
propres.
• La trace d’une matrice carrée est
toujours égale à la somme des valeurs
propres.
• Le déterminant d’une matrice carrée
symétrique est toujours égale au
produit de ses valeurs propres.
--
Propriété
Si A est une matrice JxJ réelle
symétrique, il existe J vecteurs propres
normés et orthogonaux.
--
Théorème (de diagonalisation)
Soit A une matrice symétrique (JxJ).
Soient la matrice orthogonale dont les
colonnes sont les J vecteurs propres de
A, et la matrice diagonale ayant sur sa
diagonale principale les J valeurs
propres.
Alors
’A = et A = ’
--
2. Rappel sur les variables
aléatoires et l’inférence
statistique.
--
2.1 Variable aléatoire
La notion de variable aléatoire formalise l’association
d’une valeur au résultat d’une expérience aléatoire.
--
2.2 Inférence statistique
> Modélisation
La modélisation est une approche qui
consiste à approximer la réalité par un modèle
plus simple.
--
Remarques:
Tests de Chi-deux
D’indépendance
De lois
--
--
Chapitre 1 : Modèle à une équation
linéaire avec une
seule variable
explicative.
(modèle de régression linéaire simple)
- Définition du modèle de régression simple
- Estimation des paramètres.
- Estimation de la variance des termes
d’erreurs.
1.1 Définition du modèle et
interprétation
Le modèle de régression simple et le modèle de
régression multiple forment la base de
l’économétrie linéaire qui est elle-même la base
de toute l’économétrie.
Données
Et nous cherchons à
X Y expliquer la variable
X1 y1 Y par la variable X :
x2 y2
⋮ ⋮ =? tq Y=(X)
xn yn
1.1.1 Définition du modèle
Condition 2 (C2):
La covariance conditionnelle entre Yi et Yj
sachant (͢X est nulle pour toute paire de variables
distinctes (Yi,Yj) et égale à une constante
strictement positive si Yi=Yj :
0 si i j
i, j 1,... , n CovYi , Y j X
2
si i j
avec >0.
Remarques :
1. La condition C1 contraint non seulement
l’espérance conditionnelle E(Yi| X
(͢ ) à
dépendre linéairement des variables X 1,
…,Xn, mais de plus de ne dépendre
(linéairement) que de la variable
exogène d’indice i. On peut montrer que
E (Yi X ) E (Yi X i ) 1 2 X i
reformuler le modèle,
faciliter
le rapprochement entre le modèle
économétrique et un modèle économique,
spécifier
une relation entre une variable
endogène et une variable exogène.
1.1.3 Une reformulation
On définit la variable aléatoire i par
i Yi E Yi X , i 1,... , n.
Yi E Yi X i , i 1,... , n.
Ou encore
Yi 1 2 X i i , i 1,... , n.
a) L’espérance
De la définition de i et la condition C1 on peut
obtenir :
C1'. E i X 0 , i 1,... , n.
b) La covariance
D’une façon similaire, avec la condition C2 on a:
0 si i j
C 2'.
Cov i , j X
2
si i j
Démonstration
Réciproquement, il est facile de montrer que
si on a la relation
Yi 1 2 X i i , i 1,... , n.
S : IR IR IR
n
1
β1,β2 Sβ1 ,β2
n i1
(Yi β1 β2 Xi )2
MLRS : modèle linéaire de régression simple
Définition
Dans le MLRS, on appelle estimateur des
moindres carrés de (β1 , β2 ) toute solution
notée (βˆ 1 , βˆ 2 ) du problème
min S β1 ,β2 ,
β1 ,β2 IR 2
n
1
où Sβ1 ,β2
n i1
(Yi β1 β2 Xi )2
Remarque
La fonction S est deux fois continûment
dérivable. De plus c’est une fonction
convexe.
Par conséquence tout extremum est un
minimum, atteint en tout point (βˆ 1 , βˆ 2 ) de ℝ2
satisfaisant
S ˆ ˆ
(β1 ,β2 ) 0, k 1,2.
βk
Dans la minimisation de S, il faut distinguer
deux cas :
1er cas : S’il existe deux individus i et j pour
les quels Xi≠Xj, alors S est strictement
convexe.
un minimum unique pour S.
ˆ
X .Y
i 1
i i nX .Y
β 2 n
,
i 1
X i2 nX 2
ˆ Y β
β ˆ X.
1 2
Variance des estimateurs βˆ 1 et βˆ 2
Propriété
Dans le MRLS, les variances conditionnelle des
paramètres 1 et 2 sont données par
2
ˆ 2 1 X
V(1 X )
2
n
n (Xi X )
i 1
et
2
V(ˆ 2 X )
n
( X i X )2
i 1
1.3 Valeurs ajustées et résidus
Définition
Dans le MRLS, les valeurs ajustées issues de
l’estimation Moindres Carrées de 1 et de 2
sont les n variables notées Ŷ1 Ŷ2, …, Ŷn,
définies par Yˆ i βˆ 1 βˆ 2 Xi , i 1,...,n .
Remarque
Yˆ i βˆ 1 βˆ 2 Xi
s’interprète comme un
estimateur de E(Yi X) β1 β2 Xi .
Définition
Dans le MRLS, on appelle résidus de
l’estimation Moindres Carrées, les variables
aléatoires notés εˆ 1 , εˆ 2 , ..., εˆ 3 et définies par
εˆ i Yi - Yˆ i , i 1,...,n.
εˆ i Yi - Yˆ i
Remarque
s’interprète Yi X . un
ε i Yi Ecomme
estimateur de
Propriété
Dans le MRLS, on a
n n
εˆ
i1
i 0 et εˆ X
i1
i i 0.
Preuve : (exercice)
Théorème (Décomposition de la régression)
Dans le MRLS, on a
Y Y
n n n
2 2 2
i Yˆi Y ˆ
Yi Yi . (V)
i 1 i 1 i 1
Preuve : (Exercice).
Remarque
L’égalité (V) est une décomposition des
variations des Yi en la somme des variations
de Ŷi et des variations des ˆi.
Définitions et notation n
On appelle le terme Yi Y variation
2
i 1
totale, ou somme des carrés totaux (SCT).
variation
n
2
On Yˆi Y
appelle le terme i 1
expliquée, ou somme des carrés expliqués
(SCE).
n
appelle le terme
ε̂ i2
On variations
i1
résiduelles, ou somme des carrés des résidus
(SCR).
On peut donc ré-énoncer le théorème de
décomposition de régression de la façon
suivante :
2
Y i
2 SCE i 1
R n
SCT
Y 2
i Y
i 1
Remarques
R2 en anglais est dit R-squared
Propriété
Dans le MRLS, si les paramètres 1 et 2 sont
identifiés, on a
n 2
E
i1
i X (n 2) 2 .
ˆ (ˆ X ) ˆ 2
et V 2
n
( X i X )2
i 1
ˆ ) et V(β
ˆ )
sont des estimateurs sans biais de V(β1 2
--
Chapitre 2 : Modèle à une équation
linéaire avec plusieurs
variable explicatives.
OU
(modèle de régression linéaire à plusieurs variables)
OU
(modèle de régression linéaire multiple : MRLM)
--
Introduction : définition, interprétation et
notations.
Estimation des paramètres.
0 si i j
Cp 2.
Cov ε i , ε j X i, j 1, ,n
σ 2 si i j
• ε i Yi E Yi X , i 1,... ,n.
--
Formulation matricielle du MRLM
Y=X+
où
Y1 1 X11 X12 X1p ε1 β0
Y 1 X X2p ε β
2 21 X 22
2 1
Y , X , ε
et β
1
Yn 1 Xn1 Xn2 Xnp εn βp
(n, p 1)
--
On peut redéfinir le MRLM par
• Y=X+
Cp 2. V ε X n
2
--
2.2 Estimation du modèle
Estimateur de maximum de
vraisemblance.
--
2.2.1 Estimation par les Moindres Carrés
La méthode des moindres carrés consiste à
minimiser en , l’expression
’ = (Y-X)’(Y-X).
Théorème
La matrice de variance-covariance de
l’estimateur β̂ est
ˆ 2
V ( ) ( X ' X ) 1
--
Estimation de la variance 2
Théorème
Soit e Y - X̂ , alors E(e' e) (n p - 1)σ 2ε.
Démonstration (voir le poly. Page 44).
e' e
σˆ 2ε
n p -1
La quantité n-p-1 est appelée nombre de degré de
liberté. --
Estimation de la variance de β̂
Nous avons d’après les résultats précédents
e' e
V(βˆ ) σ 2ε (X' X)1 et σˆ 2ε
n p -1
e' e
(X' X)1
n p -1
--
Remarques
V(βˆ ) et V
ˆ (βˆ ) sont deux matrices carrées
d’ordre (p+1).
--
2.2.2 Estimation par le maximum du
vraisemblance
Pour construire cette méthode, nous
faisons sur les variables i les hypothèses
suivantes :
H1: Les variables aléatoires i sont
supposées indépendantes.
H2: Les variables aléatoires i sont
supposées de loi normale de moyennes
nulles et de variances σ2
ε
~
N 0 , Iσ 2
--
ε
Comme Y=X+,
Y~N(X, In.σ2)
La méthode du maximum de
vraisemblance consiste à estimer le
paramètre par l’estimateur qui maximise
la densité de Y.
1 ˆ ˆ e' e
σˆ 2ε MV (Y Xβ)'(Y Xβ)
n n
L’estimateur est biaisé.
σ̂ 2ε MV
--
2.2.3 Propriétés des estimateurs dans cas
de normalités des résidus
Si Y=X+ est modèle linéaire (MRLM)
avec des résidus normaux :
1.
βˆ N β , (X' X)-1 σ 2ε
ˆ2
(n - p - 1)σ e' e
2. ε
n2p-1
σ2
ε σ2
ε
ˆ X' X ˆ 2
3. (β β)' 2
(β β) p 1
σε --
Application des Modèles
de régression linéaires
f
Certains modèles non linéaires peuvent
êtres estimés par la méthode MCO
après une transformation bien choisie.
Modèle non linéaire
Esti
mat
i on
Linéarisation
du M
NL
Estimation du
modèle linéaire
C O
M
Modèle de régression
linéaire
--
Exemple:
la fonction de production Cobb-Douglas
Q=.L.K
où
Q : la quantité produite
L : la quantité de travail
K : le stock du capital
et , et sont des paramètres à estimer
On peut écrire
log(Q)=log()+ .log(L)+ .log(K)
--
Ainsi, si on définit :
Y=log(Q)
X1=log(L)
X2=log(K),
--
2.3.1 Intervalle de confiance pour un
coefficient
Considérons le MRLM
βˆ j β j Loi
t n-p-1
σˆ (βˆ )
j
βˆ j β j
1 - IP(- n-p-1; n p 1; )
σˆ (βˆ )
j
On a
t1-/2;n = n;
--
Illustration
Dans l’exemple des maisons, nous
choisissons le modèle :
--
Et on a obtenu : (Logiciel SPSS)
Coefficients (a)
Unstandardized
Model Coefficients t-statistic Sig. (p-value)
B Std. Error
(Constant) 7,96620503 4,35298327 1,830056431 0,079190822
MAISON 23,3092672 1,87797091 12,41194265 3,47206E-12
AGE -0,13405371 0,07391879 -1,813526717 0,081773654
Exercice:
trouver un intervalle de confiance au
niveau 0,95 pour 0.
--
2.3.2.1 Test d’un seul coefficient de
régression
On considère le modèle linéaire :
H 0 : j a (hyp. nulle)
(*) (hyp. alternative)
H 1 : j a
Généralisation : nous pouvons proposer
pour chaque j le test suivant:
H 0 : j j0
H 1 : j j0 .
Pour simplifier, on utilise pour la suite (*)
--
Rappel: Erreurs liées au test
d’hypothèses
Une fois que la règle de décision est bien
définie, deux types d’erreurs peuvent
apparaître :
Conclusion du test
rejet de H0 non-rejet de H0
erreur de 1ère
j = a : H0 vraie pas d’erreur
espèce
réalité
erreur de 2ème
j a : H1 vraie pas d’erreur
--
espèce
On définit la probabilité de commettre les
différentes erreurs :
--
Supposons que est fixé. On a
βˆ j a Loi
tn-p-1
σˆ (βˆ )
j
--
On a donc
IP [ RH0 H0 est vraie]
ˆ a
β Loi
ˆ a s*
IP β
j
t n-p-1
j
ˆ (β
σ ˆ )
j
βˆ j a βˆ j a Loi
s* s*
1 IP tn-p-1
σˆ (βˆ j ) σˆ (βˆ j ) σˆ (βˆ j ) σˆ (βˆ j )
s* s*
IP t n-p-1
σˆ (βˆ j ) ˆ (βˆ j )
σ
--
On a donc :
s*
τ n p 1;α s* τ n p 1;α σˆ(βˆ j )
σˆ(βˆ j )
βˆ j a τ n p 1;α σˆ(βˆ j )
C’est-à-dire lorsque
βˆ j a
τ n p 1;α
σˆ(βˆ )
j
--
H 0 : j a
Règle de décision :
H 1 : j a
βˆ j a
Si τ n p 1;α alors on rejette H0 au
ˆ
σˆ(β )
j profit de H1:
Le coefficient j est
significativement
différent de a.
βˆ j a
Si τ n p 1;α alors on ne rejette pas H0
σˆ(βˆ )
j
au profit de H1:
Le coefficient j n’est pas
significativement
différent de a.
--
Cas particulier (important) où a=0 :
H 0 : j 0
H 1 : j 0
La quantité βˆ j 0 βˆ j
T
σˆ(βˆ j ) σˆ(βˆ j )
Pour 1 :
3,75E-09 < 0,05 et 1 est significatif;
Pour 2 :
0,108 > 0,05 et 2 n’est pas significatif;
Pour 3 :
0,96 > 0,05 et-- 3 n’est pas significatif;
Le test
H 0 : 2 0
H1 : 2 0
PRIX = 0 + 1 MAISON +
H0: 2=3=0
--
Interprétation
En général :
Plus la p-value est grande, plus ont croit
que H0 est vraie.
--
Tests d’hypothèses unilatéraux
des sur un seul coefficient.
--
I. Considérons le test
H 0 : j a
H 1 : j a
Règle de décision :
Si βˆ j a alors on rejette H 0 au
τ n p 1;2α
ˆ
σˆ(β )
j profit de H1.
βˆ j a
Si ˆ
τ n p 1;2α alors on ne rejette pas
σˆ(β )
j
H0 au profit de H1
--
II. Considérons le test
H 0 : j a
H 1 : j a
Règle de décision :
βˆ j a
Si ˆ
τ n p 1;2α alors on rejette H 0 au
σˆ(β )
j
profit de H1.
βˆ j a
Si τ n p 1;2α alors on ne rejette pas
σˆ(βˆ )
j
H0 au profit de H1
--
2.3.2.2 Test de signification globale du
modèle de régression
On considère le modèle linéaire :
H 0 : 1 2 ... p 0
H1 : au moins un des coefficient j est non nul.
--
Propriété
Si l’hypothèse H0 est vraie, alors la
statistique :
SCE n p 1
F .
SCR p
--
H 0 : 1 2 ... p 0
H 1 : au moins un des coefficient j est non nul.
Règle de décision:
SCE n p 1
Si F F p ; n p 1;1 ,
SCR p
SCE n p 1
Si F F p ; n p 1;1 ,
SCR p
Moy. des
source SC dl carrés (MC) F
SCE SCE n p 1
Régression SCE p MCE F
p SCR p
H 0 : 1 2 0
H1 : 1 0 ou 2 0.
--
Sommes Moy. des
des carrés dl som. carrés F
Total 5412,56 27
le modèle :
--
2.3.2.3 Test de comparaison de deux
modèles emboîtés
Définition (modèles emboîtés)
On dit que deux modèles sont emboîtés
si
ils sont relatifs à la même variables
dépendantes,
et si
Les variables explicatives de l’un
figurent toutes parmi les variables
explicatives de l’autre.
--
Exemple
le modèle :
PRIX=0 + 1 MAISON +
est emboîté dans le modèle
PRIX=0 + 1 MAISON + 2 AGE+ 3TERRAIN +
H 0 : i1 i 2 ... iq 0
H1 : au moins un des coefficient i1 , i 2 ,..., iq est non nul.
Notons
SCRG la somme des carrés des résidus
du ‘grand’ modèle,
SCRP la somme des carrés des résidus
du ‘petit’ modèle.
--
Propriété
Si l’hypothèse H0 est vraie, alors la
statistique :
SCR P SCR G n p 1
F
SCR G q
Suit une loi de Fisher-Snedecor Fq;n-p-1.
SCR P SCRG n p 1
Si F Fq;n p 1;1 ,
SCRG q
SCRP SCRG n p 1
Si F Fq;n p 1;1 ,
SCRG q
Illustration
Reprenons l’exemple des maisons
précédent et testons
H 0 : 2 3 0
H1 : 2 0 ou 3 0.
--
En utilisant les tableaux ANOVA des deux
modèles, nous avons obtenu :
SCRG=693,226, SCRP=784,468
On a
784,468 693,226 28 3 1
F 1,579 3,40
693,226 2
--
On considère le modèle:
--
ˆ β
ˆ β
Y ˆ X βˆ X β
ˆ X
i 0 1 i1 2 i2 p ip
βˆ
0
ˆ
β1
1, Xi1 , , Xip
ˆ
β
P
Xiβ
ˆ
--
Rappelons que L’erreur de prévision
ei Yi Yi Yi Xi βˆ
ˆ
vérifie :
E(ei)=0 et V(ei)=2(1+Xi’.(X’.X)-1.Xi)
où 2=V(i).
2
ei ~ Ν 0, σ (1 Xi ’.(X’.X) .Xi )
--
-1
Avec un niveau de confiance 1-, on écrit:
X ˆ - σ 1 X ’.(X’.X)-1.X ; X ˆ σ 1 X ’.(X’.X)-1.X
i i i i i i
--
Les variables qualitatives peuvent être
utilisées dans le cadre de la modélisation
économétrique :
--
2.4 Codage et mise en œuvre
Il faut coder ces variables pour les
intégrer dans les formules des moindres
carrés ordinaires.
Ouvrier
Employé
Indépendant
Chômeur
Retraité
autre
--
Nous pouvons construire 6 variable
binaires:
1 si l'individu est chômeur
1 si l' individu est indépendan t B4
B3
sinon
0 sinon
0
1 si l'individu est retraité 1 si l'individu est autre
B5 B6
0 sinon
0 sinon
--
Par exemple, si l’individu observé est
retraité, nous avons:
B1=0, B2=0, B3=0, B4=0, B5=1, B6=0
--
Lorsqu’on utilise une variable qualitative
comme variable explicative dans un
modèle de régression, il faut utiliser un
codage binaire et intégrer dans le modèle
un nombre de variable binaires égal au
nombre de valeurs (modalités) de la
variable qualitative moins une.
--