Vous êtes sur la page 1sur 60

Econométrie : Eviews

Master II (GFCE, BPI, IF et FIMB)


API-UE, Dakar
Janvier 2023

Dr. Abdoulaye. Ndiaye


OBJECTIFS :
Ce cours est une introduction à l’économétrie.
Il couvre notamment les régressions linéaires simples et
multiples pour des données quantitatives..
RÔLE DE L’ÉCONOMÉTRIE :
- Econométrie, comme outil de validation des théories
économiques
- Econométrie, comme outil d’investigation et d’aide à la
prise de décisions.
PRÉ-REQUIS
Cours de statistiques et de mathématiques de première
et deuxième année de licence.
Introduction

 Qu’est ce que l’Econométrie?


L'économétrie peut être définie comme un ensemble
de techniques utilisant la statistique mathématique
pour vérifier la validité empirique des relations
supposées entre les phénomènes économiques et
mesurer les paramètres de ces relations.

 Pour atteindre un tel objectif, l’économètre utilise


un modèle, c’est-à-dire, une présentation formalisée
d’un phénomène sous forme d’équations dont les
variables sont des grandeurs économiques.
Introduction
 La construction des modèles en économétrie
Elle comporte 4 étapes qui sont toutes
importante.
o Référence à une théorie économique
Une théorie s’exprime au travers d’hypothèses
auxquelles le modèle fait référence;
Exemple: Dans la théorie Keynésienne, la
consommation et le revenu sont liés,
Introduction
o Formalisation des relations et choix de la
forme des fonctions
Exemple : C = f(Y) avec f ’ > 0
Nous appelons «forme fonctionnelle» ce choix
(arbitraire ou fondé) de spécification précise
du modèle. Dans notre exemple, le modèle
explicité s’écrit :
C = aY + c avec c > 0 et 0 < a <1
Cette équation reflète une relation de
comportement
Introduction
o Sélection et mesure des variables
Nous distinguons en économétrie 3 types de
données :
• Séries temporelles : c’est le cas le plus
fréquent en économétrie, il s’agit de variables
observées à intervalles de temps réguliers;
• Coupe instantanée : les données sont
observées au même instant et concernent les
valeurs prises par la variable pour un groupe
d’individus spécifiques
Introduction
• Panel : la variable représente les valeurs
prises par un échantillon d’individus à
intervalles réguliers,
o La validité du modèle
Les relations spécifiées sont-elles valides?
Peut-on estimer avec suffisamment de précision
les coefficients? Le modèle est-il vérifié sur la
totalité de la période? Les coefficients sont-ils
stables? Etc. À toutes ces questions, les
techniques économétriques s’efforcent
d’apporter des réponses.
Plan
1. Le modèle de régression simple
2. Estimation des paramètres : MCO
3. Critère de jugement de la qualité de
l’ajustement d’un modèle.
4. Test de significativité des paramètres
5. Généralisation au modèle de régression
multiple
6. Econométrie appliquée sur Eviews
1. Modèle de régression simple
Le modèle de régression simple permet de spécifier le
lien qui existe entre une variable quantitative et une
autre. Par exemple la relation entre le revenu et la
consommation, niveau du salaire et ancienneté
dans l’entreprise, etc.
1.1. Exemple introductif
Soit la fonction de consommation Keynésienne:
C  a0  a1Y
Où C = consommation, Y= revenu, a1 = propension
marginale à consommer et a0 = consommation
incompressible ou autonome,
1. Modèle de régression simple
(suite)
1.2. Spécification
On peut en distinguer deux types :
 Le modèle en série temporelle
Ct  a0  a1Yt
t = 1,…..,20 où Ct= consommation au temps t et
Yt = revenu au temps t.
 Le modèle en coupe instantanée
Ci  a0  a1Yi
i = 1,….,20
1. Modèle de régression simple (suite)
1.3. Rôle du terme aléatoire
Le modèle tel qu’il vient d’être spécifié n’est qu’une caricature de
la réalité. En effet ne retenir que le revenu pour expliquer la
consommation est à l’évidence même insuffisant; il existe une
multitude d’autres facteurs susceptibles d’expliquer la
consommation.
C’est pourquoi nous ajoutons un terme (εt) qui synthétise
l’ensemble de ces informations non explicitées dans le
modèle : Ct  a0  a1Yt   t
où εt représente l’erreur de spécification du modèle et regroupe
trois erreurs :
 une erreur de spécification, c-à-d, le fait que la seule variable
explicative n’est pas suffisante pour rendre compte de la
totalité du phénomène expliqué ;
1. Modèle de régression simple (suite)
 une erreur de mesure, les données ne représentent
pas exactement le phénomène ;
 une erreur de fluctuation d’échantillonnage, d’un
échantillon à l’autre les observations, et donc les
estimations, sont légèrement différentes.
2. Estimation des paramètres: MCO
2.1. Modèle et hypothèses
Soit le modèle suivant : pour t = 1, …..,n
ct  a0  a1 yt   t

avec : ct = variable à expliquer au temps t ;


yt = variable explicative au temps t ;
a0 , a1 = paramètres du modèle ;
εt = erreur de spécification (différence entre le modèle
vrai et le modèle spécifié),cette erreur est inconnue et
restera inconnue ;
n = nombre d’observations.
2. Estimation des paramètres: MCO
(suite)
Hypothèses:
• H1:le modèle est linéaire en xt (ou en n’importe quelle
transformation de xt ).
• H2:les valeurs xt sont observées sans erreur ( xt non
aléatoire).
• H3: E (εt ) = 0 ,l’espérance mathématique de l’erreur
est nulle:en moyenne le modèle est bien spécifié et
donc l’erreur moyenne est nulle.
• H4: E (ε²t ) = σ²ε ,la variance de l’erreur est constante:
le risque de l’amplitude de l’erreur est le même quelle
que soit la période.
2. Estimation des paramètres: MCO
(suite)
• H5: E (εt εt’ ) = 0 si t est différent de t’ ,les erreurs sont
non corrélées (ou encore indépendantes): une erreur
à l’instant t n’a pas d’influence sur les erreurs
suivantes.
• H6: Cov ( xt ,εt ) = 0 ,l’erreur est indépendante de la
variable explicative.
2.2. Formulation des estimateurs
En traçant un graphique des couples de données liant
le revenu et la consommation observée, nous
obtenons un nuage de points que nous pouvons
ajuster à l’aide d’une droite.
2. Estimation des paramètres: MCO
(suite)
L’estimateur des coefficients a0 et a1 est obtenu en
minimisant la distance au carré entre chaque
observation et la droite, d’où le nom d’estimateur
des moindres carrés ordinaires (MCO).
La résolution analytique est la suivante:
Mint 1 t2  Mint 1  yt  a0  a1 xt   MinS
n n 2

En dérivant par rapport à a0 et a1 afin de trouver le


minimum de cette fonction, on obtient:
S S
 2  yt  aˆ 0  aˆ1 xt   0 et  2 xt  yt  aˆ 0  aˆ1 xt   0
a0 t
a1 t

En sommant par rapport à t, on obtient:


 xt yt  a0  xt  a1  xt  0
t
ˆ
t
ˆ 2

y
t
t  naˆ 0  aˆ1  xt  0
t

Ces deux équations appelées équations normales


impliquent que :
n n

 x t  x  yt  y  x y t t  nx. y
aˆ1  t 1
 t 1

 x  x 
n n

2 2 2
t 1 t t 1
x tnx

ˆ0  y  a
a ˆ1 x
Nous avons : yt  aˆ1xt L’impact d’une variation
de xt se mesure directement sur yt au travers du
coefficient â1.
Exercice d’application:
Ainsi le modèle estimé à partir d’un échantillon
d’observations :
y  aˆ0  aˆ1 xt  et  yˆ t  eˆt et  résid
Le résidu observé et est donc la différence entre les
valeurs observées de la variable à expliquer et les
valeurs ajustées à l’aide des estimations des coeffi-
cients du modèle : y ˆt  a ˆ0  a ˆ1 xt
2.3. Propriétés des estimateurs
 Les estimateurs sont sans biais : E[aˆ ]  a
E[aˆ0 ]  a0 et E[aˆ1 ]  a1
 Les estimateurs sont convergents :
Lorsque n tend vers l’infini (∞) alors :

lim V ( aˆ 0 )  0 et lim V ( aˆ1 )  0


On calcule :
 2 1 x2 
V aˆ1   et V aˆ 0      
2

 x  x  n   xt  x  
n 2 n 2
t 1 t  t 1 
 L’estimateur de la variance de l’erreur est égal
à : ˆ 2  1
 e2
n2
 t
t
3. Critère de jugement de la qualité de
l’ajustement d’un modèle.
3.1.Décomposition de la variance
 L'objectif des moindres carrés est d'obtenir
des estimateurs qui minimisent la somme des
carrés des résidus (SCR).
SCR   eˆ  t 1  yt  yˆ t 
n n 2
2
t 1 t

 Si la régression prédisait de manière parfaite


yt à partir des xt, alors on aurait : SCR = 0.
 Il est utile d'avoir une mesure du degré
d'approximation des y par les ŷ. Cet indicateur de la
qualité de la régression par les moindres carrés
ordinaires permet de dire dans quelle mesure
l'équation estimée par les MCO explique mieux les
valeurs de y qu'un estimateur naïf, la moyenne de
l'échantillon, notée y .
 On note donc Somme des carrés totaux (SCT) la
somme des variations de y autour de sa moyenne.
C'est une mesure de la quantité totale de variation à
expliquer par la régression.

SCT  t 1  yt  y 
n 2
 Dans la régression avec une constante, on peut
montrer que la somme des carrés totaux peut se
décomposer en deux : la variation qui peut être
expliquée par la régression, et la variation qui ne
peut être expliquée par la régression.

 y  y   t 1  yt  yˆ t   t 1  yˆ t  y 
n 2 n 2 n 2

t 1 t

SCT  SCR  SCE


On appelle cette équation la décomposition de la
variance ou l'équation d'analyse de variance. Elle va
nous permettre de juger de la qualité de l’ajustement
d’un modèle. En effet, plus la variance expliquée est
proche de la variance totale, meilleur est l’ajustement
du nuage de points par la droite des moindres carrés.
SCT, la somme des carrés totaux, indique la variabilité
totale de y.
SCE, la somme des carrés expliqués, indique la
variabilité expliquée par le modèle, c'est à dire la
variation de y expliquée par x.
SCR, la somme des carrés des résidus. Elle indique la
variabilité non-expliquée par le modèle, c'est à dire
l'écart entre les valeurs observées de y et les
valeurs prédites par le modèle.
3.2. Tableau d’analyse de la variance
Les degrés de liberté correspondent au nombre de
valeurs que nous pouvons choisir arbitrairement (par
exemple, pour la variabilité totale, connaissant n − 1
3.3. Le coefficient de détermination R²
C’est le ratio de la somme des carrés expliqués
sur la somme des carrés totaux :
SCE SCR
R²   1
SCT SCT

R² indique la proportion de la variance de y


expliquée par le modèle. Plus R² est élevé,
plus le modèle permet d'expliquer une part
importante de la variabilité des données à
expliquer.
4. Test de significativité des paramètres
4.1. Test de significativité individuelle
Etant donné que les valeurs de â0 et â1 ne sont que
des estimations des paramètres a0 et a1 inconnus de
la population, il faut donc s’assurer de leur fiabilité
statistique. Le test de significativité individuelle porte
sur chaque paramètre. Les hypothèses du test sont :
 H 0 : ai  0 [le paramètre est statistiquement nul, non significatif]

 H1 : ai  0 [le paramètre est statistiquement non nul, significatif]
Le test est basé sur la statistique t de Student calculé
comme suit :
aˆi  a
t aˆi 
ˆ aˆi
Sous H0, la formule devient :
ˆi
a
t aˆ i 
ˆ aˆi
On démontre, sous H0, que cette statistique suit une
distribution de Student au seuil α [5% sauf indication
contraire] et à (n – 2) degrés de liberté.
t aˆi  t / 2;( n  2 )[valeur lue dans la table de Student],

alors on rejette H0, le paramètre âi est statistiquement


non nul, la variable lui associée est par conséquent
pertinente dans la prédiction de Y].
4.2. Intervalle de confiance des paramètres
Le rejet de H0 revient simplement à refuser que le
paramètre ai de la population est nul, cela ne
signifie nullement que âi serait la vraie valeur du
paramètre ai . Ainsi, on peut, en se basant sur les
paramètres estimés âi et en assumant un risque
donné, construire des intervalles de confiance pour
les paramètres ai .
Ces intervalles de confiance sont trouvés en appliquant
la formule :
I  aˆ i  ˆ aˆi t / 2;( n 2 )
4.3. Test de significativité globale
Un autre test consiste à tester la significativité conjointe
de tous les paramètres estimés du modèle. C’est le
test basé sur la statistique de Fisher, appelé aussi
test d’analyse de la variance ANOVA. La statistique
du test est donnée par le rapport suivant :
SCE
F  1
SCR
n2
Une manipulation simple permet d’exprimer F en
fonction du R² comme ci-après :

F  1
(1  R ²)
n2
 Le test F teste statistiquement la raison d’être du
modèle. Par ailleurs, partant de la relation,
d’aucuns considèrent qu’il teste la significativité du
coefficient de détermination.
 Dans le cas d’une régression linéaire simple, le test
F est confondu au test de significativité individuelle
de la pente. Les deux tests sont basés sur les
mêmes hypothèses, et on démontre dans ce cas
que : F  t aˆi
2

Les hypothèses du test sont donc :


 H 0 : ai  0 [le modèle n’est pas bon]

 H1 : ai  0 [le modèle est bon]
Comme on le voit, valider la significativité de la pente
revient, en même temps, à admettre la bonté du
modèle.
Sous H0, on démontre que la statistique F suit une loi
de Fisher à respectivement 1 et (n-2) degrés de
liberté.
Critère de décision : Si F > F[1 ; (n – 2)] [valeur lue dans la
table de Fisher, au seuil de 5%, sauf indication
contraire], on rejette H0, le modèle est bon.
5. Généralisation au modèle de régression
multiple
5.1. Ecriture matricielle
L’écriture précédente du modèle est un maniement peu pratique.
Afin d’en alléger l’écriture et de faciliter l’expression de
certains résultats, on a habituellement recours aux notations
matricielles. En écrivant le modèle, observation par
observation, nous obtenons :

y1  a0  a1 x11  a2 x21  .....  ak xk 1   1


y 2  a0  a1 x12  a2 x22  .....  ak xk 2   2
........
yt  a0  a1 x1t  a2 x2 t  .....  ak xkt   t
........
y n  a0  a1 x1n  a2 x2 n  .....  ak xkn   n
Soit sous forme matricielle : Y  X a  
( n ,1) ( n ,k 1) ( k 1,1) ( n ,1)
avec :
 y1 
   1 x11 x21 ... xk 1   a0 
     1 
 2
y  1 x12 x22 ... xk 2   1
 
 ... 
a 2 
 ... ... ... ... ...  a   
Y   ; X   a   2    3
 yt   1 x1t x2t ... xkt  ;  ...  ;  ... 
 ...   ... ... ... ...   ...   ... 
 ...     
  1 x     
y   x2 n ... xkn   ak   n
 n 1n
On montre d’après la méthode des MCO
que:

Après calcul matriciel, on peut estimer sans


biais   par :
2
ee
ˆ  
2

n  k 1

Matrice variance-covariance de l’estimateur:

 ( aˆ )  ˆ   X X 
ˆ 2 1
5.2. Equation d’analyse de la variance

SCT  SCR  SCE

SCT  Y Y  ny 2 SCE  aˆX Y  ny 2 SCR  Y Y  aˆX Y


6. Econométrie appliquée sur Eviews

• Nos objectifs principaux sont :


– De vous permettre d’avoir une expérience sur
l’utilisation d’un logiciel d’économétrie
– D’effectuer des calculs statistiques, des
Représenttions graphiques, des Régressions, des
tests, etc.

2
• Plan
– Prise en main du logiciel Eviews
• Présentation de l’interface
• Les menus contextuels
• Génération de séries de données
– Analyse statistique
• Représentations graphiques
•Statistiques descriptives
–Applications aux modèles de régressions
• Estimations
• Tests 4
6.1. Le logiciel Eviews
• Eviews est un logiciel d’analyse
économétrique
• Pour effectuer les régressions, il faut :
– Importer ou saisir les données dans EVIEWS
– Vérifier que les données sont réellement chargées
– Effectuer des analyses exploratoires
– Ensuite d’effectuer la « vraie » analyse

5
• Interface
– Le logiciel Eviews dispose de deux fenêtres
• Une barre des menus
• Un espace de commande
– Barre des menus dispose de 9 onglets :
• Le menu « file » qui permet entre autres d’enregistrer
le travail
• Le menu « Help » pour la documentation, la recherche
de procédure de calculs

6
• De façon générale, Eviews fonctionne
les autres programmes windows comme

• Les menus « File, Edit, Windows, Help » sont


des fenêtres standards que l’on retrouve dans
quasiment tous les logiciels
• Les menus « Objects, View, Procs,
Quick, Options » sont des spécificités de
Eviews

7
Prof. Fall 8
• Création d’un espace de travail ou « workfile
Le « workfile » est le point de départ dans
Eviews »
• Pour chaque nouveau projet, il faut créer un nouveau
workfile
• Dans le workfile, nous avons des objets
comme des séries de données, des équations,
des groupes de variables, etc.

10
• Création du workfile nécessite un certain
nombre de procédures
• Il faut spécifier le type de données
– Séries temporelles avec une fréquence régulière
(mois, trimestre, année…)
– Une coupe instantanée

• Application
– Créer un nouveau workfile pour le TP_0,
11
• Pour enregistrer le workfile, il suffit d’aller
dans le menu file, puis « save » ou « save as »
• L’extension des fichiers de type Eviews est wf1

14
6.2. Importation des données
• Application

15
6.3. Création d’une
variable (série)
• Eviews permet de générer des séries à partir de
séries existantes

– Procédure
• Quick Generate series
• Les opérateurs usuels fonctionnent sous Eviews

La procédure « generate series » sert à


manipuler vos données dans une base déjà
existante
Application
26
6.4. Les graphiques
• Les graphiques avec Eviews
– Les graphiques sous Eviews sont assez simples
– Graphique simple ou à plusieurs variables
– « options » permet de choisir la couleur,
l’épaisseur des traits si « line » a par exemple été
choisie
– Application

28
• Procédure
– Choix des variables pour créer un groupe de séries
– Cliquer sur « view » puis sur :
• « graph » un seul graphe pour toutes les séries
• « multiple graphs » autant de graphes que de séries
– En fonction du graphique choisi, plusieurs options
offertes
– Pour exporter un graphique Edit/copy

29
6.6. Régression sous Eviews

• Représenter le nuage de points des couples de


variables
• Construire la matrice de corrélation entres les
variables,
Procédure: il faut d’abord créer un groupe,
ensuite view corrélation common sample
• Régression par la méthode des MCO une
Procédure

– Quick estimate equation
– Object new objet puis sur equation
– Mettre d’abord le nom de la variable à expliquer
– Ensuite la variable explicative
– C désigne la constante dans Eviews

34
6.7. Tests d’hypothèses

Test de White: Il vérifie l’homoscédasticité


des résidus
 Ho: homoscédasticité
 H1: hétéroscédasticité
Pocédure sur Eviews (sans cross term):
View/residual diagnostics/ heteroskedaskicity
Tests/White
Si la LM=obs*R-squared et la probabilité
associé est supérieure à 5% on accepte H0
36
Test d’autocorrélation des résidus: Il
vérifie l’indépendance des résidus
Si les conditions sont respectées, on utilise Test de
Durbin Watson
Sinon Utilisez le Test ARCH:
 Ho: absence d’autocorrélation des erreurs
 H1: autocorrélation des erreurs
Pocédure sur Eviews:
View/residual diagnostics/ Serial correlation
LM test/
Si la LM=obs*R-squared et la probabilité
associé est supérieure à 5% on accepte H0 36
En cas d’autocorrélation des résidus:
on utilise la méthode de Cochrane-Orcutt
pour corriger l’autocorrélation
La procédure sur Eviews:
 Quick/Estimate Equation
 Ensuite rentrer dans l’ordre: Y C X AR(1)

36
Test de Ramsey : il vérifie si le modèle
est bien spécifié ou non.
 Ho: modèle bien spécifié
 H1: modèle mal spécifié
Procédure sur Eviews:
View/stability diagnostics/ Ramsey reset Test/
 On regarde ensuite le F statistic ou sa
probabilité pour conclure

36
FIN DU COURS

Vous aimerez peut-être aussi