Vous êtes sur la page 1sur 13

Chapitre 3 : Méthodes économétriques de prévisions

Etude de cas sur le modèle linéaire général


Logiciel : Eviews
Fonction de production de type Cobb-Douglass
Enoncé : On dispose sur la période 1929 à 1967, des séries de production (Q),
facteur capital (K) et facteur travail (L).
On fait l’hypothèse que les variables Q, K et L vérifient le modèle linéaire
général
Log (𝑄𝑡 )= 𝛽1 + 𝛽2 log (𝐾𝑡 ) + 𝛽3 log (𝐿𝑡 ) + 𝜀𝑡
Nous disposons les données annuelles du tableau ci-dessous :
Tableau de données Production, Capital et Travail
Date Q K L
1929 189.8 87.8 173.3
1930 172.1 87.8 165.4
1931 159.1 84 158.2
1932 135.6 78.3 141.7
1933 132 76.6 141.6
1934 141.8 76 148
1935 153.9 77.7 154.4
1936 171.5 79.1 163.5
1937 183 80 172
1938 173.2 77.6 161.5
1939 188.5 81.4 168.6
1940 205.5 87 176.5
1941 236 96.2 192.4
1942 257.8 104.4 205.1
1943 277.5 110 210.1
1944 291.1 107.8 208.8
1945 284.5 102.1 202.1
1946 274 97.2 213.4
1947 279.9 105.9 223.6
1948 297.6 113 228.2
1949 297.7 114.9 221.9
1950 328.9 124.1 228.8
1951 351.4 134.5 239
1952 360.4 139.7 241.7
1953 378.9 147.4 245.2
1954 375.8 148.9 237.4
1955 406.7 158.6 245.9
1956 416.3 167.1 251.6
1957 422.8 171.9 251.5
1958 418.4 173.1 245.1
1959 445.7 182.5 254.9
1960 457.3 189 259.6
1961 466.3 194.1 258.1
1962 495.3 202.3 264.6
1963 515.5 205.4 268.5
1964 544.1 215.9 275.4
1965 579.2 225 285.3
1966 615.6 236.2 297.4
1967 631.1 247.9 305
1968 300 319
1969 350 380
1970 375 410

0- Saisir les données en utilisant le logiciel Eviews.


Corrigé
0- Saisie des données
File  New  Workfile  ok
Choisir Annual
Start date : saisir 1929
End date : saisir 1970
OK
Saisir data q k l valider par la touche entrée du clavier
Saisir les données
1) Tester l’hypothèse de corrélation linéaire entre les variables
a- Corrélation entre Q et K
b- Corrélation entre Q et L
c- Corrélation entre K et L
Corrigé
Le test d’hypothèse est le suivant :
𝐻0 : Les variables X et Y ne sont pas corrélées
𝐻1 : Les variables X et Y sont corrélées
On calcule d’abord le coefficient de corrélation linéaire.
𝑐𝑜𝑣(𝑥,𝑦)
𝑟(𝑥, 𝑦) =
𝜎(𝑥)∗ 𝜎(𝑦)

Pour tester 𝐻0 , on peut comparer la valeur observée de 𝑟(𝑥, 𝑦) à la valeur seuil


A donnée par la table du coefficient de corrélation pour 𝑣 = 𝑛 − 2 degrés de
liberté.
La règle de décision est alors la suivante :
- Si | 𝑟(𝑥, 𝑦) | < A, l’hypothèse 𝐻0 n’est pas rejetée et les variables X et Y
ne sont pas corrélées.
- Si | 𝑟(𝑥, 𝑦) | ≥ A, l’hypothèse 𝐻0 est rejetée et les variables X et Y sont
corrélées.
Instruction Eviews
Quick  Group Statistics  Corrélations  Saisir q k l  OK
Corrélation matrix
Q K L
Q 1.000000 0.988069 0.978311
K 0.988069 1.000000 0.944150
L 0.978311 0.944150 1.000000

Table du coefficient de corrélation linéaire


𝐴 = 0.4182 Pour le seuil de 1%
𝐴 = 0.3246 Pour le seuil de 5%
a- Corrélation entre Q et K
𝑟(𝑄, 𝐾) = 0.988 > 0.4182. On rejette l’hypothèse nulle.
Les variables Q et K sont corrélées positivement.
b- Corrélation entre Q et L
𝑟(𝑄, 𝐿) = 0.9783 > 0.4182. On rejette l’hypothèse nulle.
Les variables Q et L sont corrélées positivement.
c- Corrélation entre K et L
r(K,L) = 0.9441 > 0.4182. On rejette l’hypothèse nulle.
Les variables K et L sont corrélées positivement.
2) Tester la normalité et la 𝒍𝒐𝒈𝒏𝒐𝒓𝒎𝒂𝒍𝒊𝒕é des variables Q, K et L.
(Utiliser le test de Jarque Bera).
Test de normalité et de 𝑙𝑜𝑔𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é
Test de normalité
Le test de l’hypothèse est le suivant
𝐻0 : La variable X suit une loi normale 𝑁(𝑚, 𝜎)
𝐻1 : La variable X ne suit pas une loi normale 𝑁(𝑚, 𝜎)
Test de 𝑙𝑜𝑔𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é
Le test de l’hypothèse est le suivant
𝐻0 : La variable 𝑙𝑜𝑔(𝑋) suit une loi normale 𝑁(𝑚, 𝜎)
𝐻1 : La variable 𝑙𝑜𝑔(𝑋) ne suit pas une loi normale 𝑁(𝑚, 𝜎)
Remarque : Une variable X suit une loi 𝑙𝑜𝑔𝑛𝑜𝑟𝑚𝑎𝑙𝑒 si son logarithme suit
une loi normale.

La règle de décision est :


- On ne rejette pas l’hypothèse Ho de normalité si la valeur de probabilité
est supérieure au seuil de alpha.
- On rejette l’hypothèse Ho de normalité si la valeur de probabilité est
inférieure ou égale au seuil de alpha.
Cette règle de décision sera valable pour tous les tests.
Pour tous les tests qui vont suivre, on choisit le seuil de signification de 5%.
Instruction Eviews
Quick  Group statistics  Descriptive statistics  Common sample 
saisir ensuite dans la fenêtre « Series List » q log(q) k log(k) l log(l)  OK
Les résultats du test de Jarque Bera

Q LOG(Q) K LOG(K) L LOG(L)


Mean 325.9436 5.687449 133.0359 4.818715 217.5718 5.359717
Median 297.6000 5.695750 113.0000 4.727388 223.6000 5.409859
Maximum 631.1000 6.447464 247.9000 5.513025 305.0000 5.720312
Minimum 132.0000 4.882802 76.00000 4.330733 141.6000 4.953006
Std. Dev. 143.0171 0.460959 52.22474 0.380578 45.85183 0.219584
Skewness 0.443403 -0.155844 0.646923 0.282238 -0.069960 -0.347593
Kurtosis 2.196303 1.865527 2.142618 1.700047 1.937949 1.937408

Jarque-Bera 2.327576 2.249291 3.914853 3.263831 1.864735 2.620129


Probability 0.312301 0.324768 0.141221 0.195555 0.393621 0.269803

Sum 12711.80 221.8105 5188.400 187.9299 8485.300 209.0290


Sum Sq. Dev. 777247.9 8.074365 103642.1 5.503892 79890.82 1.832248

Observations 39 39 39 39 39 39

Toutes les probabilités critiques sont supérieures au seuil de 5%.


Les variables Q, K et L suivent des lois normales et 𝑙𝑜𝑔𝑛𝑜𝑟𝑚𝑎𝑙𝑒𝑠 sur la période
considérée.
3) Estimer les paramètres du modelé linéaire général par la méthode
des MCO
Interpréter économiquement le paramètre estimes.
3.1) estimation des paramètres
Instruction Eviews
Quick → Estimate équation
Equation spécification
Rentre dans l’ordre : log(q) c log(k) log(l)
Dependent Variable: Log(Q)
Method: Least Squares
Date: 01/06/17 Time: 11:14
Sample(adjusted): 1929 1967
Included observations: 39 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C -3.932101 0.237223 -16.57557 0.0000
Log(k) 0.385068 0.048056 8.012834 0.0000
Log(l) 1.448587 0.083290 17.39201 0.0000
R-squared 0.994605 Mean dependent var 5.687449
Adjusted R-squared 0.994306 S.D. dependent var 0.460959
S.E. of regression 0.034784 Akaike info criterion -3.805501
Sum squared resid 0.043558 Schwarz criterion -3.677535
Log likelihood 77.20727 F-statistic 3318.670
Durbin-Watson stat 0.850790 Prob(F-statistic) 0.000000
Least squares → Moindre Carre ordinaire
Sample → Echantillon
Sample Size Taille de l’échantillon ou nombre d’observation (n)
Les coefficients estimés sont données par la colonne « coefficient »
𝛽1 = -3.932 ; 𝛽2 = 0.385 ; 𝛽3 = 1.448
3.2) Interprétation économique des coefficients 𝛽2 et 𝛽3
Comme le modelé est spécifie sous forme log-log, les coefficients 𝛽2 𝑒𝑡 𝛽3 sont
des élasticités.
- 𝛽2 est l’élasticité de la production par rapport au capital
𝝏𝐥𝐨𝐠(𝑸) 𝝏𝐐/𝐐
= = 𝒆𝑸⁄
𝝏𝐥𝐨𝐠(𝑲) 𝝏𝑲/𝑲 𝑲

𝛽2 = 0.385
Une augmentation de 10% du capital implique une augmentation de 3.85%
de la production, toutes choses égales par ailleurs.
(Ceste à dire si le facteur capital reste constant). CETERIS PARIBUS
- 𝛽3 est l’élasticité de la production par rapport au travail
𝝏𝐥𝐨𝐠(𝑸) 𝝏𝐐/𝐐
= = 𝒆𝑸⁄
𝝏𝐥𝐨𝐠(𝑳) 𝝏𝑳/𝑳 𝑳

𝛽3 = 1.448
Une augmentation de 10% du travail implique une augmentation de 14.48%
de la production, toutes choses égales par ailleurs.
(Ceste à dire si le facteur capital reste constant). CETERIS PARIBUS
4) Interpréter la valeur de coefficient de détermination R²
R² = variance expliquée / variance totale.
La valeur de coefficient de détermination : R² = 0.9946
R² : R-Squared
Interprétation
99.46% des fluctuations du log de la production sont expliquées par les facteurs
log(K) et log(L).
5) Effectuer les tests économétriques suivants :
a) Test de significativité des variables explicatives (Test de Student)
a1) On veut tester
𝐻0 : 𝛽2 = 0
𝐻1 : 𝛽2 ≠ 0
Note Important :
Sur les logiciels, les statistiques des tests sont assorties de leurs probabilités
critiques. Ce qui évite d’utiliser la table statistique.
On compare la probabilité des tests au seuil de signification alpha.
Les seuils conventionnels sont : 1%, 5% et 10%
On adopte la règle de décision suivante :
- Si la probabilité du teste est supérieur ou égale au seuil alpha, alors on ne
rejette pas l’hypothèse nulle𝐻0 .
- Si la probabilité du teste est inférieur ou égale au seuil alpha, alors on
rejette l’hypothèse nulle𝐻0 .
Cette règle est valable pour n’importe qu’elle teste et sur n’importe sûr qu’elle
logiciel.
La probabilité critique associe au teste de Student est donnée par la cinquième
colonne « Probe ».
La probabilité critique associe au teste 𝐻0 : 𝛽2 = 0 est nulle
Pour tous les tests, on choisit le seuil de 5% = 0.05
Prob =0 < 5%
On rejette l’hypothèse 𝐻0 au seuil de 5%.
Le capital a un impact positif significatif sur la production.
b) Test de significativité globale du modelé (Test de Fisher)
Nous voulons tester
𝐻0 : 𝛽2 = 𝛽3 = 0 (Le modèle n’est pas globalement significatif)
Contre
𝐻1 : Il existe au moins un coefficient différent de 0 (le modèle est globalement
significatif)
La statistique de Fisher (F-statistics) est :
𝒏−𝒌 𝑹²
F* = x = 3318.67
𝒌−𝟏 𝟏−𝑹²
Prob (F-statistics) = 0 < 5%
Nous rejetons l’hypothèse nulle au seuil de 5%.
Conclusion : le modelé est globalement significatif.
c) Teste de normalité des erreurs du modèle (Test de Jarque-Bera)
𝐻0 : Les erreurs suivent une loi normale
Contre
𝐻1 : Les erreurs du modèle ne suivent pas une loi normale.
Instruction Eviews
Apres l’estimation du paramètre par la méthode des MCO
View (à gauche) → Residuals Test → Histogram-Normality Test
La statistique de Jarque-Bera est 9.344704.
Sa probabilité (0.009) soit 0.9% est inferieur a 5%.
L’hypothèse de normalité des erreurs est rejette.
Conclusion : Les erreurs du modèle ne suivent pas une loi normale.
e) Test d’Homocédasticité des erreurs
Test de White
Définition 1 : Les erreurs d’un modèle sont dites homocédastiques si elles ont la
même variance.
Définition 2 : Les erreurs d’un modèle sont dites heterocedastiques si elles ont
des variances différentes.
𝐻0 : Les erreurs sont homocédastiques
Contre
𝐻1 : Les erreurs sont hétérocédastique
Apres l’estimation du paramètre par la méthode des MCO
View → Residuals Test → White heteroskedasticity (No cross terms)
No cross terms : sans termes croisés

White Heteroskedasticity Test:


F-statistic 1.277197 Probability 0.298146
Obs*R-squared 5.094577 Probability 0.277730

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 01/06/17 Time: 12:40
Sample: 1929 1967
Included observations: 39
Variable Coefficient Std. Error t-Statistic Prob.
C -0.139775 0.467120 -0.299227 0.7666
LK -0.024361 0.062603 -0.389129 0.6996
LK^2 0.001917 0.006466 0.296460 0.7687
LL 0.071841 0.215584 0.333240 0.7410
LL^2 -0.005962 0.020658 -0.288617 0.7746
R-squared 0.130630 Mean dependent var 0.001117
Adjusted R-squared 0.028351 S.D. dependent var 0.002174
S.E. of regression 0.002143 Akaike info criterion -9.334195
Sum squared resid 0.000156 Schwarz criterion -9.120918
Log likelihood 187.0168 F-statistic 1.277197
Durbin-Watson stat 1.892814 Prob(F-statistic) 0.298146

Les deux probabilités critiques (29.81% et 27.77%) sont supérieurs au seuil de


5%.
On ne rejette pas l’hypothèse nulle.
Les erreurs des modelés sont homocédastiques
f) Corrélation d’ordre un des erreurs du modèle
Test de Breuscch-Godfrey
𝐻0 : Les erreurs ne sont pas corrélées
Contre
𝐻1 : Les erreurs sont corrélées au premier ordre
Apres avoir estime le paramètre par la méthode MCO
View (à gauche) → Residuals Test → Serial Corrélation LM Test → « Laga to
include » : Saisir → ok
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 18.25255 Probability 0.000141
Obs*R-squared 13.36742 Probability 0.000256

Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 01/06/17 Time: 12:49
Variable Coefficient Std. Error t-Statistic Prob.
C 0.202812 0.200740 1.010321 0.3193
LK 0.036072 0.040404 0.892775 0.3781
LL -0.070358 0.070434 -0.998912 0.3247
RESID(-1) 0.609177 0.142588 4.272300 0.0001
R-squared 0.342754 Mean dependent var 1.73E-16
Adjusted R-squared 0.286419 S.D. dependent var 0.033856
S.E. of regression 0.028600 Akaike info criterion -4.173917
Sum squared resid 0.028628 Schwarz criterion -4.003295
Log likelihood 85.39137 F-statistic 6.084182
Durbin-Watson stat 1.331205 Prob(F-statistic) 0.001914

Les 2 probabilités critiques sont nulles.


On rejette l’hypothèse nulle du seuil de 5%.
Conclusion : les erreurs sont corrélées du premier ordre
e) Test de Ramsey

H0 : le modèle est bien spécifié


contre
H1 : le modèle est mal spécifié

Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres


carrés ordinaires
<View> < Stability Tests> < Ramsey Reset Test> <Number of fitted
term > <Taper 3 >

F-statistic 2.002535 Probability 0.132742


Log likelihood ratio 6.522714 Probability 0.088771

Les deux probabilités sont supérieures à 5%, on ne rejette pas


l’hypothèse H0 . Le modèle est bien spécifié.
f) Tests CUSUM de Brown, Durbin et Ewans

Test CUSUM

Ce test permet de détecter les instabilités structurelles


Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres


carrés ordinaires
<View> < Stability Tests> <Recursive Estimates > < Cusum Test>
Si la courbe ne coupe pas le corridor alors le modèle est stable
Si la courbe coupe le corridor alors le modèle est instable

Conclusion : Le modèle est structurellement stable.


Test Cusum Carré

Ce test permet de détecter les instabilités ponctuelles.

Après avoir estimé les paramètres par la méthode des moindres


carrés ordinaires
<View> < Stability Tests> <Recursive Estimates > < Cusum of
Squares Test>
Conclusion : Le modèle est ponctuellement instable.
Test de Chow
Choisir une ou plusieurs dates
Après avoir estimé les paramètres par la méthode des moindres
Carrés ordinaires
<View> < Stability Tests><chow breakpoint test><saisir la date><ok>