Vous êtes sur la page 1sur 36

UNIVERSITE D’ABOMEY-CALAVI (UAC)

FACULTE DES SCIENCES ECONOMIQUES ET DE GESTION (FASEG)

FILIERE : LICENCE ECONOMETRIE ET STATISTIQUE APPLIQUEE (LESA)

ANNEE D’ETUDE : L3

COURS : INITIATION A EVIEWS AVANCE

Chargé : Dr. ALAKONON B. Calixe

Mail : calixealakonon@yahoo.com

Cel : (+229) 67127207

ANNEE ACADEMIQUE : 2022-2023

1
Avertissement

Ce Support de cours est en version provisoire et ne doit être diffusé sans l’autorisation de
l’auteur. Les remarques, commentaires et suggestions sont les bienvenus.

2
Sommaire

Chapitre1 : Prise en main du logiciel


▪ Utilisation
▪ Création
▪ Gestion
Chapitre2 : Analyse statistique
▪ Représentations graphiques
▪ Statistiques descriptives
Chapitre3 : Econométrie
▪ Estimations
▪ Tests
▪ Méthode

3
1. Objectifs du cours
L’économétrie désigne un ensemble de méthodes statistiques dont l’objectif est de quantifier
les phénomènes économiques. Elle est pour ses utilisateurs un outil précieux d’analyse et d’aide
à la prise à la décision. Ce support de cours propose une formation à la pratique de l’économétrie
sur Eviews.
❖ Objectif général
Ce cours vise à permettre à l’apprenant de maitriser la pratique de l’économétrie.
❖ Objectifs spécifiques
A la fin du cours l’apprenant doit être capable :
De faire des analyses descriptives sur Eviews
De faire les régressions linéaires multiples sur Eviews
De faires les différentes tests liés aux estimations de modèles linéaire général
Etc…
2. Contenu du cours
Le cours est composé d’une introduction et des parties successives pour la réalisation d’une
estimation sur Eviews.
3. Méthode d’évaluation
Deux modes d’évaluation sont retenus dans le cadre de ce cours. Il s’agit de l’évaluation
formative (contrôle continu) et de l’évaluation sommative (examen de fin de semestre).
L’évaluation formative peut aussi prendre la forme d’exposé ou de travaux de maison à rendre
sur copie.
4. Méthode d’enseignement
Le cours sera projeté. Certaines parties cours feront objet d’activité à traité individuellement
puis en groupe à effectif réduit.
5. Outils pédagogique
Il est composé du présent support de cours, tableau, craies ou marqueurs, projeteur, internet,
etc.
6. Références bibliographiques
Doucoure, F., (2005), « Méthodes économétriques : cours et travaux pratiques », Université
Cheikh Anta Diop, Dakar.
Greene, W. (2000), « Econometric analysis », Prentice Hall, 4è édition.
Hamilton, J., (1994), « Times series analysis », Princenton University Press.
Lardic, S., et Mignon, V., (2002), « Econométrie des séries temporelles macroéconomiques et
financières », Economica.

4
Régis Bourbonnais(2011), « Économétrie : manuel et exercices corrigés », Dunod, 8 ème éd.

Introduction

Ce cours d’initiation à la pratique de l’économétrie a pour objet de fournir aux étudiants de


licence 3/Economie de la FASEG-UAC, les connaissances minimales requises pour effectuer
des travaux appliqués en économie dans lesquels ils pourront être amenés à utiliser les méthodes
économétriques (études de prévision, travaux appliquées de micro économétrie, modélisation
macroéconomique;…).

Dans ce cours, le logiciel Eviews 9 est utilisé pour les différentes applications proposés ici.
L’objectif étant de montrer comment Eviews répond aux besoins de l’analyse économique,
aussi importe-t-il d’avoir des prérequis en analyse économétrique et en analyse des séries
temporelles. Dans le cas contraire, la lecture de la littérature appropriée sera forte à propos.

Les développements portent tout d'abord sur la présentation du logiciel Eviews. Il s’agira de
donner aux étudiants les éléments de base pour utiliser ce logiciel. Ensuite, interviendra
l’analyse des séries économiques notamment l’analyse statistique à travers les représentations
graphiques et les statistiques descriptives. Egalement l’étude du modèle linéaire général. Cela
nous permettra de présenter l’estimation par les MCO et les différents tests associés au modèle
linéaire général.

5
Chapitre1 : Présentation de Eviews

Eviews est un puissant logiciel qui est particulièrement utile pour :


▪ L’économétrie : séries temporelles, données de panel ; etc.
▪ La manipulation des données : correction des variations saisonnières ; etc
▪ La prévision y compris l’usage de la méthode de Box-Jenkins
La présente section vise à introduire le “Minimum” sur Eviews.
Il s’agira entre autre de présenter l’environnement Général d’Eviews, savoir comment créer un
espace de travail et importer/exporter les données. Nous allons exposer la démarche
d’importation du fichier Excel. Bien attendu, Eviews peut lire d’autres types de fichiers en
d’autres formats
1. Environnement Général d’Eviews
▪ Menu Général : cette barre est toujours présente et accessible
▪ Ligne de commande : on peut rentrer directement une instruction

6
2. Créer ou ouvrir un fichier de travail (WORKFILE)
Ayant lancé Eviews, vous devez créer votre espace de travail.

La première étape consiste à créer un espace de travail (WORKFILE) par <file> <new–
workfile>, c’est–à–dire un espace d'accueil pour les séries statistiques (mensuelles,
semestrielles, annuelles, sans dates ...) et les résultats de calcul. Dans la fenêtre proposée, il
convient, soit de choisir la périodicité des données (la date de début et de fin pour les séries
temporelles), soit d’indiquer le nombre d’observations (séries UNDATED – pour les séries en
coupe instantanée).
NB : Dans un WORKFILE ne peut figurer que des séries de même périodicité.

Après cette instruction obtient ce qui suit :

7
La création de votre espace de travail dépend du type d’analyse économétrique que vous voulez
effectuer : Econométrie des données transversales, économétrie des séries temporelles et
l’économétrie des donnés de panel.
Vous devez donc choisir l’une de ces options dans « Workfile structure type »
▪ Pour l’économétrie des séries temporelles, vous choisissez « Dated-regular-frquency
». Dans ce cas, vous spécifier la nature des données (annuelles, trimestrielles etc…),
vous préciser ensuite les dates de début et de fin.
▪ Pour l’économétrie des séries en coupe transversales, vous choisissez «
Unstructured/Undated». Dans ce cas vous spécifiez juste le nombre d’observations.
▪ Pour l’économétrie des données de panel, vous choisissez « Balanced Panel» ; vous
remplissez les champs correspondants ensuite.
Considérons les trois séries résumées dans le tableau 1 ci-dessous de 1972 à 2004 sauf PIB qui
s’arrête en 2001. Dans ce tableau « Invest, PIB et Tinteret » désignent respectivement
l’Investissement privé, le Produit Intérieur Brut et le taux d’intérêt du marché interbancaire du
pays BENI.

Tableau 1: Séries sur un pays BENI


Date Invest PIB Tinteret
1972 158 1090 3,5
1973 202 1255 5,5
1974 275 1414 5,5
1975 289 1906 8
1976 264 1933 8
1977 287 1979 8
1978 316 2209 8
1979 314 2751 8
1980 350 2987 10,5
1981 317 2479 10,5
1982 300 2583 12,5
1983 270 2480 10,5
1984 429 2337 10,5
1985 574 2579 10,5
1986 633 3763 8,5
1987 458 4600 8,5
1988 787 4980 9,5
1989 708 4626 11
1990 894 5698 11
1991 765 5500 11
1992 676 6027 12,5
1993 748 5431 10,5
1994 859 3642 10
1995 789 4476 7,5
1996 866 4651 6,5
1997 905 4387 6,5

8
1998 867 4646 6,25
1999 925 4752 5,75
2000 4371 6,5
2001 4620 6,5
2002 4625 6,75
2003 4635 6,85
2004 4650 7,5

Comme il s’agit des séries temporelles, nous pouvons choisir pour la création de notre workfile
« Dated-regular-frquency ». Nous remplissions les champs comme l’indique le schéma ci-
dessous.

Préciser ici la fréquence des observations des données : annuelles, semestrielles, mensuelles,
journalières etc. Ici les données sont annuelles, elles commencent en 1972 et finissent en 2004.
En cliquant sur OK on obtient le résultat suivant :

9
Ce Workfile ne contient pas encore les variables. Il va falloir amener les données dans le
logiciel. Plusieurs possibilités existence pour le faire. Nous choisissions ici de faire
préalablement la saisie des données dans un fichier Excel puis ensuite importer ledit fichier
dans Eviews.

3. Importations des données

Les données à importer se trouvent dans Excel sur votre ordinateur (les données du tableau 1).
Les étapes de l’importation sont les suivantes. Dans le menu principal, faire :
File/Import/Import from file

Vous sélectionner ensuite le fichier Excel sur votre ordinateur. Une fois trouver, vous cliquer
sur « ouvrir » et cela vous affiche ce qui suit :

10
Vous cliquez ensuite sur « Suivant », « suivant » et enfin « Finish ». Les données apparaissent
à présent dans votre Workfile comme suit :

Vous venez de créer le fichier de travail. Les trois séries apparaissent dans le fichier. Enregistrer
ce fichier au nom « Pratique économétrie FASEG» via l’instruction suivante : File/Save As.
Pour visualiser les observations d’une série, double cliquer sur la série. Pour visualiser les
quatre séries, sélectionner les et faire « Open » puis « as group » et enfin valider. Ou bien cliquer
sur « View » puis « Show » ; saisissez les noms des variables que vous voulez ouvrir ensemble
puis valider.

11
Pour modifier/éditer les donnés d’une ou plusieurs séries
Sélectionner la ou les séries puis double cliquer puis <edit +/–>.
Si la série est en représentation graphique ou sur d’autres fonctions (corrélation, statistiques,
etc.) sélectionner <View> puis <Spreadsheat> puis <edit +/–>

12
Chapitre2 : Analyse Descriptive
2.1. Représentation graphique des séries
Dans la barre d’outil de la base de données cliquer sur <View> puis <Graph>.
Pour modifier les options du graphique, double cliquer sur la zone du graphique et faire
Graph option.
Ouvrez les séries Invst et PIB ensemble puis suivez l’instruction suivante après ouverture pour
la représentation graphique : View/Graph/

❖ Pour ajouter du texte sur le graphique


• Cliquer AddText
• Texte for label : Saisir
• Graphiques en bandes des variables INV et PIB
• Justification : Choisir Center
• Position : Choisir Top ( de choix)
• Text box : Choisir Text in Box
• Cliquer sur Font
• Font : Choisir Arial
• Font style : Choisir Bold (Gras)
• Size : Choisir 18
• → OK → OK

Vous cliquez sur « OK ». Les deux séries sont représentées dans un même graphique comme
indiqué ci-après :

13
Les deux séries exhibent chacune une tendance croissante dans le temps.
❖ Créer un graphique de plusieurs séries
Pour Créer un groupe de séries
Ouvrir le groupe puis allez dans View/Graph… puis OK
Si vous voulez obtenir plusieurs graphiques sur une seule fenêtre, cliquer sur Options, puis dans
Multiple Series, cliquer sur Multiple Graphs
Pour changer de Template, cliquer aussi sur Options (ou double-clic sur le graphique), puis
Template & Objects puis laissez-vous guide
❖ Présentation du graphique
▪ Possibilités: ajouter du texte, modifier l’échelle des axes, modifier l’apparence
(template), sauvegarder son propre template, afin de le réutiliser, etc…
▪ Ces agréments esthétiques sont très pratiques lorsque les graphiques doivent répondre à
une même charte graphique par exemple.
▪ Mettons en pratique par plusieurs exemple ces possibilités.

2.2. Pour générer une série

Pour générer les séries des logarithmes associées aux trois séries. Dans le menu principal faire
Quick/Generate Series, puis taper sur la formule de calcul ou bien rentrer dans la ligne de
commande (en haut à droite)

❖ Nuages des points

Visualisons les deux séries Invest et PIB puis faisons View/Graph/Scatter/

14
Le nuage de points suggère un ajustement linéaire, avec une pente plus ou moins forte. Il y a
donc une corrélation entre l’Investissement et le PIB du pays BENI. On s’attend alors à ce que
le coefficient associé à ces variables soit significativement différents de zéro.

❖ Nuage de points des variables inv et pib et tracé de la droite de régression linéaire

Quick → Graph → Saisir inv pib → OK


Specific : Choisir Scatter
Fit lines : Choisir Regression line → OK
1,000

900

800

700

600
inv

500

400

300

200

100
1,000 2,000 3,000 4,000 5,000 6,000 7,000

pib

15
2.3. Statistiques de base
❖ Cliquer sur une série, puis:
▪ View/Descriptive Stats & Tests/Histogram and Stats
▪ View/Descriptive Stats & Tests/StatsTable

❖ Pour un Groupe de Séries:


▪ Quick/Group Statistics/Descriptive Statistics
▪ Les observations manquantes sont automatiquement exclues des statistiques

16
❖ Histogramme

Cliquer sur Quick → Graph → List of series : Saisir salaires → OK Specific : Choisir
Distribution → OK

pib
12

10

8
Frequency

0
1,000 2,000 3,000 4,000 5,000 6,000 7,000

17
❖ Polygone des fréquences

INV
7

5
Frequency

0
100 200 300 400 500 600 700 800 900 1,000

Histogram Hist. Edge Polygon

❖ Courbe des fréquences relatives cumulées croissantes


• Cliquer sur Quick → Graph
• List of series : Saisir inv → OK
• Specific : Choisir Distribution → Choisir Empirical CDF → OK

18
inv

1.0

0.8

0.6
Probability

0.4

0.2

0.0
200 300 400 500 600 700 800 900

Courbe des fréquences relatives cumulées décroissantes

Cliquer sur Quick → Graph


→ List of series : Saisir INV → OK
Specific : Choisir Distribution → Choisir Empirical Survivor
→ OK
inv

1.0

0.8

0.6
Probability

0.4

0.2

0.0
200 300 400 500 600 700 800 900

19
❖ Graphiques associés à un caractère quantitatif discret : Tableau statistique ;
courbe en escaliers

Exemple : Les ventes d’un vaccin sur les 100 derniers jours sont reportées dans le
tableau ci-dessous :
0 1 2 3 4 5 6 0 1 3
0 1 2 3 4 5 6 1 1 3
0 1 2 3 4 5 0 2 2 1
0 1 2 3 4 5 0 3 3 2
0 1 2 3 4 1 2 3 2 3
0 1 2 3 4 1 2 1 1 2
0 1 2 3 4 1 2 2 1 1
0 1 2 3 4 1 2 0 1 2
0 1 2 3 4 1 2 1 1 2
0 1 2 3 3 1 2 2 2 3

➢ Tableau statistique
Pour le faire, il faut transformer la distribution en une colonne avant de l’importer dans
EVIEWS.
Puis :
Cliquer sur Quick → Show →
Objects to display in a single window : Saisir ventes
→ OK
Cliquer sur View → One-Way Tabulation
→ OK

Tabulation of VENTES
Sample: 1 100
Included observations: 100
Number of categories: 7

Value Count
0 14
1 27
2 26
3 18
4 9
5 4
6 2
Total 100

20
❖ courbe en escaliers

Cliquer sur Quick → Graph → List of series : Saisir ventes → OK


Specific : Choisir Distribution → Choisir Empirical CDF → OK
Ventes

1.0

0.8

0.6
Probability

0.4

0.2

0.0
0 1 2 3 4 5 6 7

21
Chapitre3 : Estimation économétrique

3.1. Estimation par MCO des Données temporelles

On cherche à présent à estimer le modèle linaire suivant :

𝐿𝑜𝑔(𝐼𝑛𝑣𝑒𝑠𝑡)𝑡 = 𝑎0 + 𝑎1 𝐿𝑜𝑔(𝑃𝐼𝐵)𝑡 + 𝑎2 𝑇𝑖𝑛𝑡𝑒𝑟𝑒𝑡𝑡 + 𝜇𝑡

Ce modèle indique, conformément à la théorie keynésienne, que l’investissement est fonction


décroissante du taux d’intérêt. Nous voudrions comme cela tester cette théorie pour le cas du
pays BENI. En conséquence on s’attend à ce que le coefficient soit négatif. Avant de faire
l’estimation nous testons successivement la corrélation linéaire entre les variables et la
normalité pour chacune des variables.

NB : Comme il s’agit des séries temporelles, on devrait Normalement faire le test de


stationnarité pour chaque variable.

1. Détermination du degré d’intégration des variables du modèle : Stationnarité

Les hypothèses du test de Phillips-Perron sont :


H0: le processus X est non stationnaire
H1: le processus X est stationnaire
La règle de décision du test est :
✓ Si la valeur de la probabilité est supérieure au seuil alpha, l’hypothèse nulle de non
stationnarité n’est pas rejetée. La variable X est non stationnaire.
✓ Si la valeur de la probabilité est inférieure ou égale au seuil alpha, l’hypothèse nulle de
non stationnarité est rejetée. La variable X est stationnaire.
❖ Le test est fondé sur trois types de modèle
▪ un modèle avec constante
▪ Un modèle avec constante et tendance
▪ Un modèle sans constante ni tendance
❖ Il est fondamental de noter que l’on effectue le test de stationnarité de Philips-Perron
sur un seul des trois modèles.
❖ En pratique, on adopte une stratégie séquentielle en trois grandes étapes. On commence
par estimer le modèle avec constante et tendance. Si la tendance n’est pas significative,
on estime le modèle avec constante. Enfin, si la constante n’est pas significative, on
procède à l’estimation du modèle sans constante, ni tendance.

22
❖ Pour le faire, Cliquer Quick → Series statistics → Unit Root Test → Saisir X→ OK
❖ Test type : Choisir Phillips-Perron
❖ Test for unit root in : Choisir level
❖ Include in test equation : Choisir Trend and intercept
❖ Bandwidth : Choisir Newey-West Bandwidth
❖ → OK
Nous testons d’abord la significativité du coefficient de la variable temporelle
@TREND("1972"), par la méthode de Student.
Si la probabilité critique associée au test est inférieure à 5%, nous rejetons l’hypothèse nulle.
Donc le coefficient associé à la variable temporelle est significativement différent de 0.
Nous conservons le modèle avec constante et tendance. ( à faire au cours)

2. Test de corrélation linéaire entre les variables

L’hypothèse nulle du test est « Les variables ne sont pas corrélés ». Elle sera donc rejeter si la
probabilité critique associée est inférieure à 5% (Seuil conventionnel). On pourra choisir
d’autres seuils conventionnels (1% ou 10% généralement) compte tenu de la précision
recherchée.
Instruction sur Eviews :
▪ Cliquer sur « Quick » ensuite sur « Show » puis saisissez les variables « Invest PIB
Tinteret » pui sur « Ok ».
▪ Cliquer ensuite sur « Views » puis sur « Covariance Analysis »

➢ Cliquer sur « Ok » pour terminer.

23
➢ On obtient le résultat suivant :

Seule la probabilité associée à la corrélation entre Invest et PIB est nulle. On peut donc rejeter
l’hypothèse nulle selon laquelle l’investissement et le PIB ne sont pas corrélées. Par conséquent,

▪ Les variables Invest et PIB sont corrélées


▪ Les variables Invest et Tinteret ne sont pas corrélées
▪ Les variables PIB et taux d’intérêt ne sont pas corrélés.

3. Test de normalité de Jarque-Bera

L’hypothèse nulle du test est que la variable suit une loi normale.
Instruction sur Eviews :
▪ Cliquer « Quick » ensuite « Group Statistics » ensuite « Descriptive Statistics » ensuite
« Common Sample ».
▪ Saisissez les noms des trois séries dans la fenetre « Series List » Invest PIB Tinteret
▪ Cliquer enfin sur « OK »

Le résultat obtenu est le suivant après les instructions :

24
Toutes les probabilités critiques associées à la statistique de Jarque-Bera sont supérieures aux
seuils conventionnels (1%, 5% et10%). On ne peut donc pas rejeter l’hypothèse de normalité
pour chacune de ces variables.

4. Estimation proprement dite


Avant l’estimation il parait logique de générer respectivement log(Invest) et log(PIB).Pour cela
saisissez directement les instructions suivantes dans la barre « commande » :
genr lpib =log (pib)
genr linvest = log(Invest)
Validez chaque fois. De nouvelles variables sont donc crées à savoir « lpib » et « linvest ». On
peut donc estimer notre modèle en suivant l’instruction ci-après :
➢ Cliquer sur « Quick » puis sur « Estimate Equation »
➢ Dans la fenêtre qui s’ouvre « Equation specification » on écrit le modèle comme suit en
commençant par la variable expliquée « linvest ». « C » désigne la constante.
Linvest c lpib tinteret
➢ Vous choisissez au niveau de « Method » « Least Squares (NLS/ARMA) »
➢ Puis vous cliquer sur « ok ». Le résultat d’estimation est le suivant :

25
Tableau 2 : Première estimation

5. Tests sur les résidus

Avant toute interprétation des résultats, nous allons vérifier les hypothèses des MCO sur les
résidus à savoir : la normalité, l’Homocédasticité et la non autocorrélation.

5.1. Normalité des erreurs

A partir du menu de l’estimtion, faire view/residual tests/histogram-normality test. On a le


résultat suivant :

26
La probabilité de Jarque-Bera est supérieure à 5%. Alors on ne peut pas rejeter l’hypothèse
selon laquelle les résidus suivent une loi normale.

5.2.Test d’hétéroscédacticité des résidus (test de White)

Faire view/residual tests/white heteroscedasticity (non cross term)

Les deux probabilités critiques marquées au jaunes sont supérieures à 5%: Il y’a
homoscédasticité.

On peut aussi faire le test ARCH pour vérifier l’ homoscédasticité.

5.3.Test d’autocorrélation des résidus

Plusieurs tests existent pour vérifier l’autocorrélation.

5.3.1.Test de Durbin-Watson

Conditions d’application : séries chronologiques, plus de 15 observations et estimation avec


constante.

On lit sur les résultats de l’estimation par MCO de la fonction de production que DW=1,149.
Mais Eviews ne donne pas la probabilité associée à cette statistique.

Ce que confirme le corrélogramme (faire view/residual tests/correlogram Q statistics).

27
5.3.2. Test de Breusch-Godfrey

Ce test est fondé sur un test de Fisher de nullité des coefficients et permet de tester une
autocorrélation d’ordre supérieur ou égale à 1.

Testons une autocorrélation d’ordre 1. L’instruction est la suivante :


➢ Faire view/residual tests/serial correlation LM test
➢ Saisir 1 dans « lag to include »
Le résultat obtenu est le suivant :

Les valeurs des probabilités sont inférieures à 5%, on rejette donc l’hypothèse de non
corrélation des erreurs. Les erreurs sont autocorrelées à l’ordre 1.
Lorsqu’on reprend le test avec lag 2, les résidus deviennent non corrélés. Cela voudrait dire
que les résidus sont corrélés à l’ordre 1 et non à l’ordre 2.
On pourra faire le corrélogramme des résidus pour observer :

28
On regarde uniquement « Partiel correlation ». A la lecture, du correlogramme (Partiel
correlation ) seule la première barre sort du cadre de l’intervalle de confiance. La deuxième ne
sort pas. Il y a donc autocorrélation d’ordre 1.
6. Estimation du modèle par la méthode de Cochrane-Orcutt
Si tous les tests sur les résidus étaient concluants alors, on pourra interpréter le modèle estimé
au point 3. Mais étant donné que l’autocorrélation n’est pas vérifiée, on ne peut donc utiliser le
modèle estimé au point 3. Il va falloir donc corriger cette autocorrélation d’ordre 1 constaté.
Instruction sur Eviews
➢ Ciquer sur « Quick » puis sur « Estimate Equation »
➢ Saisissez le modèle suivant :
Linvest c lpib tinteret ar(1)
➢ Choisissez toujours « Least Squares » puis « Ok ».
On obtient dans ce cas :

29
Tableau 3 : Estimation 2

On peut visualiser les résidus du nouveau modèle estimé. L’autocréation d’ordre 1 est donc
corrigé.

7. Test de spécification de l’estimation 2


Il existe plusieurs tests de spécification (Ramsey, etc). Ici, nous retenons le test de Ramsey. Le
Reset teste les erreurs de spécification suivantes :
➢ Omission des variables explicatives
➢ Forme fonctionnelle incorrecte
➢ Corrélation entre variables explicatives et termes d’erreurs dues entre autres à des
erreurs de mesure, des termes retardés de l’endogène corrélés aux erreurs.
L’estimation par les MCO devient donc biaisée et inconsistante si le test n’est pas concluant.
Instruction :
Faire view/stability diagnostics/Ramsey Reset test/number of fitted term (taper 3)

30
Le modèle estimé en deuxième position par la méthode de Cochrane-Orcutt est bien spécifié
car les probabilités marquées au jaune sont inférieures 5%.
8. Test de Chow sur la deuxième estimation

Il s’agit d’un test de Stabilité. Une question naturelle est celle de l’homogénéité des paramètres
sur deux sous population. L’hypothèse nulle est « le modèle est stable ».

On peut s’interroger sur l’existence de rupture temporelle dans les comportements. On peut,
également, se demander par exemple si le comportement d’investissement estimé sur série
Temporelles est homogène dans le temps ou encore si les technologies de production, estimées
sur un panel d’entreprises sont homogènes entre secteurs.

L’obtention de statistique de test.


➢ Mise en œuvre : view/stability tests/Chow Breakpoint test…
➢ Saisissez dans « Breakpoint dates » 1994 puis Ok

31
Le résultat obtenu est suivant :

Les deux probabilités sont supérieures à 5%. Le modèle estimé en deuxième position par la
méthode de Cochrane-Orcutt est donc stable

Autrement dit, le Fisher empirique admet une probabilité supérieure au seuil : on rejette
l’hypothèse nulle de stabilité des coefficients pour les deux périodes concernées.

9. Interprétation des coefficients du modèle estimé en deuxième position par la méthode


de Cochrane-Orcutt

A l’analyse, on remarque que :

➢ R²=0,94 : 94% de la variance de « linvest » est expliquée par le modèle. Il est donc
d’une bonne qualité d’ajustement.
➢ La p-value du Fisher empirique (F-statistic) est nulle (F-statistic) est nulle (<0,05) : le
modèle est satisfaisant.
➢ Le t de Student (t-statistic) de « lPIB » est supérieur aux seuils théoriques (cf.table) et
sa p-value est inférieure au seuil de 1% : le coefficient de « lPIB » est significatif.
➢ Par contre la P-value de « Tinteret » est supérieur à 10%. Le taux d’intérêt n’explique
pas l’investissement dans le pays BENI sur la période d’étude.
3.2. Estimation des Données de panel

On cherche à présent à estimer le modèle suivant :

𝑡𝑐𝑝𝑖𝑏𝑖𝑡 = 𝑎0 + 𝑎1 deped𝑖𝑡 + 𝑎2 depinv𝑖𝑡 + 𝑎2 depsante𝑖𝑡 + 𝜇𝑖𝑡

Ce modèle indique, conformément à la théorie keynésienne, que le taux de croissance


économique est fonction des dépenses d’éducation(deped) ; des investissements (depinv) et
des dépenses de santé(depsante).

32
Pour les données de panel, après l’importation, il faut spécifier le modèle.
Test de spécification de Hausman
H0 = Présence d’effets aléatoires
H1= Présence d’effets fixes
On fait d’abord l’estimation du modèle aléatoire
➢ Cliquer sur « Quick » puis sur « Estimate Equation »
➢ Saisissez le modèle suivant : tcpib c deped depinv depsante
➢ Panel options → Cross-Section/ Random →OK
Dependent Variable: TCRPIB
Method: Panel EGLS (Cross-section random effects)
Sample: 2003 2017
Periods included: 15
Cross-sections included: 5
Total panel (balanced) observations: 75
Swamy and Arora estimator of component variances

Variable Coefficient Std. Error t-Statistic Prob.

C 2.490287 1.367752 1.820716 0.0729


DEPED -0.077169 0.061614 -1.252455 0.2145
DEPINV 0.073917 0.039795 1.857435 0.0674
DEPSANTE 0.438397 0.413242 1.060871 0.2923

Effects Specification
S.D. Rho

Cross-section random 0.000000 0.0000


Idiosyncratic random 2.066954 1.0000

Weighted Statistics

R-squared 0.096093 Mean dependent var 4.915382


Adjusted R-squared 0.057900 S.D. dependent var 2.142107
S.E. of regression 2.079169 Sum squared resid 306.9289
F-statistic 2.515979 Durbin-Watson stat 2.343525
Prob(F-statistic) 0.065123

Unweighted Statistics

R-squared 0.096093 Mean dependent var 4.915382


Sum squared resid 306.9289 Durbin-Watson stat 2.343525

33
❖ View → Fixed/ Random effects testing → Correlated Random effects-Hausman test

Correlated Random Effects - Hausman Test


Equation: EQ01
Test cross-section random effects

Chi-Sq.
Test Summary Statistic Chi-Sq. d.f. Prob.

Cross-section random 4.667298 3 0.1978

** WARNING: estimated cross-section random effects variance is zero.

Cross-section random effects test comparisons:

Variable Fixed Random Var(Diff.) Prob.

DEPED -0.074766 -0.077169 0.000779 0.9314


DEPINV 0.097055 0.073917 0.001183 0.5012
DEPSANTE -0.195497 0.438397 0.236144 0.1921

Cross-section random effects test equation:


Dependent Variable: TCRPIB
Method: Panel Least Squares
Date: 02/07/23 Time: 21:51
Sample: 2003 2017
Periods included: 15
Cross-sections included: 5
Total panel (balanced) observations: 75

Variable Coefficient Std. Error t-Statistic Prob.

C 3.543794 2.096977 1.689954 0.0957


DEPED -0.074766 0.067638 -1.105378 0.2729
DEPINV 0.097055 0.052601 1.845112 0.0694
DEPSANTE -0.195497 0.637898 -0.306471 0.7602

Effects Specification

Cross-section fixed (dummy variables)

R-squared 0.157010 Mean dependent var 4.915382


Adjusted R-squared 0.068937 S.D. dependent var 2.142107
S.E. of regression 2.066954 Akaike info criterion 4.390567
Sum squared resid 286.2441 Schwarz criterion 4.637766
Log likelihood -156.6463 Hannan-Quinn criter. 4.489271
F-statistic 1.782715 Durbin-Watson stat 2.489784
Prob(F-statistic) 0.105260

La probabilité associé au statistique de Hausman est 0,1978 supérieur au seuil 5%. Donc H0
ne peut être rejetée. Alors il y a Présence d’effets aléatoires.

34
❖ Estimation du modèle retenu
Selon le test de Hausman, le modèle à estimer est à effets aléatoires

Dependent Variable: TCRPIB


Method: Panel EGLS (Cross-section random effects)
Sample: 2003 2017
Periods included: 15
Cross-sections included: 5
Total panel (balanced) observations: 75
Swamy and Arora estimator of component variances

Variable Coefficient Std. Error t-Statistic Prob.

C 2.490287 1.367752 1.820716 0.0729


DEPED -0.077169 0.061614 -1.252455 0.2145
DEPINV 0.073917 0.039795 1.857435 0.0674
DEPSANTE 0.438397 0.413242 1.060871 0.2923

Effects Specification
S.D. Rho

Cross-section random 0.000000 0.0000


Idiosyncratic random 2.066954 1.0000

Weighted Statistics

R-squared 0.096093 Mean dependent var 4.915382


Adjusted R-squared 0.057900 S.D. dependent var 2.142107
S.E. of regression 2.079169 Sum squared resid 306.9289
F-statistic 2.515979 Durbin-Watson stat 2.343525
Prob(F-statistic) 0.065123

Unweighted Statistics

R-squared 0.096093 Mean dependent var 4.915382


Sum squared resid 306.9289 Durbin-Watson stat 2.343525

❖ Validité du modèle : Test de normalité des résidus et le test d’autocorrelation(Test


d’indépendance )

➢ Test de normalité des résidus

H0 = Les erreurs suivent une loi Normale


H1= Les erreurs ne suivent pas une loi Normale

Après l’estimation du modèle retenu, on fait :


View →Residual diagnostic/ Histogramm- Normality test

35
12
Series: Standardized Residuals
Sample 2003 2017
10
Observations 75

8 Mean 8.19e-16
Median 0.226679
6 Maximum 6.101348
Minimum -6.588122
Std. Dev. 2.036587
4
Skewness -0.214878
Kurtosis 3.877159
2
Jarque-Bera 2.981556
0 Probability 0.225197
-6 -4 -2 0 2 4 6

La probabilité associée à la statistique de Jarque-Bera est 0,225197 qui est supérieure au seuil de 5%.
Alors on ne peut pas rejeter l’hypothèse selon laquelle les résidus suivent une loi normale.

❖ Test d’autocorrélation des erreurs (Test d’indépendance)


H0 = indépendantes
H1 = dépendantes

Après l’estimation du modèle retenu, on fait :


View →Residual diagnostic/ Cross-Section Dependence Test

Residual Cross-Section Dependence Test


Null hypothesis: No cross-section dependence (correlation) in residuals
Equation: EQ01
Periods included: 15
Cross-sections included: 5
Total panel observations: 75
Note: non-zero cross-section means detected in data
Cross-section means were removed during computation of correlations

Test Statistic d.f. Prob.

Breusch-Pagan LM 8.407690 10 0.5891


Pesaran scaled LM -0.356051 0.7218
Pesaran CD 0.904741 0.3656

La probabilité associée à la statistique de Breusch-Pagan est de 0,5891 qui est supérieure au


seuil de 5%. Alors on ne peut pas rejeter l’hypothèse selon laquelle les résidus sont
indépendants.
Conclusion : Le modèle est valide et on peut interpréter les coefficients estimés.

36

Vous aimerez peut-être aussi