Vous êtes sur la page 1sur 14

TRAVAUX DIRIGÉS D'ECONOMETRIE

M1 Economie

Chargé de TD : M. SAQIB


TD 4
Autocorrélation, Hétéroscédasticité et Normalité

Vous écoutez un débat entre deux candidats aux élections présidentielles de 2022 dont partie
est consacrée aux questions des politiques économiques.
Lors du débat, les deux candidats proposent de relancer le PIB en faisant baisser le chômage.
Ils divergent cependant sur la manière de faire baisser celui-ci et avancent tout deux leurs
solutions qui sont d’après leurs dires parfaitement validées par les économistes.

 Candidat Z considère que les prestations sociales et notamment les allocations


chômage ne font qu’inciter les chômeurs à ne pas travailler et donc ne servent qu’à
générer d’avantages de chômage … il rajoute aussi que le cout du travail étant trop
élevé cela constitue un frein à l’embauche.

 Candidat M voit le problème différemment. Ce sont les salaires qui sont trop bas donc
les individus n’offrent pas leur force de travail … il propose une revalorisation des
salaires et des prestation sociales pour augmenter le pouvoir d’achat et donc au final la
consommation. Ceci permettra de maintenir une activité économique forte et au final
de faire baisser le chômage. Il propose aussi d’investir massivement dans le Marché du
Travail sur le plan de la formation, des aides à l’emploi pour les entreprises etc …

Vous décidez de vérifier économétriquement la validité empirique de leurs raisonnement


respectifs. Pour cela vous obtenez de l’INSEE les données suivantes observées entre 1983 et
2019 pour la France.

UNR Taux de chômage


GDP PIB en Millions de USD PPA et déflaté
IPC Taux de croissance de
Indice des Prix à la Consommation
IRH Indice de Rémunération Horaire
Indice base 100 en 2015
PST Prestations Sociales totales
en faveur des Ménages en % du PIB*
UGS Dépenses Publiques en % du PIB*
consacrées à l'indemnisation
chômage
LMGS Dépenses Publiques en % du PIB*
consacrées au Marché du Travail
Modèle 1 :

Dependent Variable: UNR T1-p(34)= 1.96


Sample: 1983 2019
Included observations: 37 |Tc|
Variable Coefficient Std. Error t-Statistic
C -2.408137 5.716075 0.421292
PST 1.265737 0.513686 2.464028
IRH -0.078966 0.024482 3.225471
Mean of dependent
R-squared 0.268830 9.910360
Variable
Adjusted R-squared 0.225820 S.D. of dependent Variable 1.278129
S.E. of regression 1.124593 Sum squared resid 43.00014
F-statistic 6.250413 Durbin-Watson stat 0.250024

***tous les tests doivent être effectuées avec un risque de premières espèces de 5%

1) Ecrivez l’équation du modèle en précisant les variables explicatives et les


hypothèses)

UNR = β0 + β1 *PST + β2 *IRH + εt

UNRchap = - 2.4081 + 1.2657(PST) – 0.0789(IRH)

UNR est expliquée, PST et IRH sont explicatives

2) Les paramètres du modèle sont-ils significatifs ?

Pour la significativité des paramètres on utilise test de student.

1) Hypothèses :
H0 : β = 0 : on accepte H0 : le paramètre/coefficient/variable est non significatif
H1 : β ≠ 0 : on accepte H1 : le paramètre/coefficient/variable est significatif

2) Formule ou statistique du test :


β̂
|Tc| = σ β̂ ~ Tlue (1.96)
3) RDD :
|Tc| ˂ Tlue : H0 accepte : non significatif
|Tc| ˃ Tlue : H0 rejette : significatif
4) Conclusion : Nous concluons donc que « C » est in significative alors que « PST » et
« IRH » sont significatives.

3) Le modèle est-il globalement significatif ? Commentez la valeur du R²

Pour la significativité des paramètres on utilise test de student.

1) Hypothèses :
H0 : R2 = 0 : on accepte H0 : le modèle est globalement non significatif
H1 : R2 ≠ 0 : on rejette H0 : le modèle est globalement significatif
2) Formule ou statistique du test :
Fstat = 6.250413 ~ F0.95 (2, 34) = 3.28
3) RDD :
Fstat ˂ Flue : H0 accepte : modèle est globalement non significatif
Fstat ˃ Flue : H0 rejette : modèle est globalement significatif
4) Conclusion :
Comme Fstat ˃ Flue (6.250413 ˃ 3.28), donc le modèle est globalement significatif. R 2
(0.2688) nous explique que 26% de variation en variable UNR est expliqué par les
variables explicatives.

4) Analyser les propriétés statistiques des résidus. Pour chaque test employé,
précisez ses hypothèses, sa régression auxiliaire, ainsi que sa statistique associée.

A analyser les propriétés statistiques des résidus, nous devons appliquer différents tests
correspondant à chaque propriété. Test d’autocorrélation, test hétéroscédasticité et test de
normalité. Rappelez-vous que les quatre étapes de chaque test sont les mêmes.

Test de Durbin-Watson : le test d’ordre 1


On pose : εt = ρ εt-1 + ηt avec ηt ~ Bruit Blanc

1) Hypothèses :
H0 : ρ = 0, c’est-à-dire l’absence d’autocorrélation
H1 : ρ ≠ 0, c’est-à-dire la présence d’autocorrélation

2) Formule ou statistique du test :

Σ ( ε t −ε t −1) 2
DW = = 0.25004
ε 2t

0 d1=1.36 d2 =1.59 4-d2 4-d1 4

+ Zone de doute? Pas d’autocorrélation Zone de doute? -

3) RDD : si DW appartient à l’intervalle [0, d 1] ou [4-d1, 4], il indique qu'il existe une
autocorrélation positive et négative respectivement. Si DW appartient [d2, 4-d2] il
indique l’absence d’autocorrélation. Mais les deux zones [d 1, d2] et [4-d2, 4-d1] sont les
zones de doute. On ne sait pas s'il y a autocorrélation ou pas.
4) Conclusion :
Comme la valeur de DW appartient à l’intervalle de [0, d1], c’est-à-dire qu’il y a
autocorrélation positif.

Test de Ljung-Box : Le test des résidus d’ordre supérieur à 1. Le test de durbin-watson n'est
pas capable de tester l'autocorrélation pour l’ordre ˃ 1. Si on a besoin de tester pour l’ordre ˃
1 ou si nous trouvons que DW appartient à la zone de doute, alors nous utilisons le test de
Ljung box.

On pose : εt = ϕ1 εt-1 + ϕ2 εt-2 + ϕ3 εt-3 +………+ ϕn εt-k + ηt avec ηt ~ N (0, σn)


1) Hypothèses :
H0 : ϕ1 = ϕ2 = ϕ3 = ϕk = 0 : c’est-à-dire l’absence d’autocorrélation
H1 : au moins ϕ1 ≠ 0, c’est-à-dire la présence d’autocorrélation

2) Formule ou statistique du test :


2
k rk
Q stat = n(n +2) Σ1 n−k ~ ꭓ2 (K) avec k= les nombres des retards
3) RDD :
Si Qstat ˂ ꭓ2.95(K) : accepte H0, pas d’autocorrélation
Si Qstat ˃ ꭓ2.95(K) : rejette H0, présence d’autocorrélation
4) Conclusion :
Dans le tableau ci-dessous toutes les valeurs du Qstat sont supérieures à l'ordre de retard
correspondant. Ainsi, on rejette H0 et nous concluons donc qu'il existe
l’autocorrélation dans le résidu (donc dans serie).
Lags Correlogram Q-Stat ꭓ2.95(k)
1 0.805 25.983 ˃ 3.841
2 0.593 40.485 ˃ 5.99
3 0.369 46.251 ˃ 7.815
4 0.175 47.588 ˃ 9.488
5 0.037 47.649 ˃ 11.07

Test de Glejser : il est utilisé pour détecter l'hétéroscédasticité. En cas de régression multiple,
nous devons exécuter la régression auxiliaire pour chaque variable explicative séparément.
Dans notre cas, nous avons deux variables explicatives (PST et IRH), donc nous l'avons
exécuté pour les deux séparément et ensuite testé la significativité du bêta.

On pose : |et| = α + β*PST + εt

|et| = α + β*IRH + εt

1) Hypothèses :
H0 : β = 0, c’est-à-dire la présence de homoscédasticité
H1 : β ≠ 0, c’est-à-dire la présence de hétéroscédasticité
2) Formule ou statistique du test :
Pour tester l'hypothèse du test nous adaptons le test de student. Si le bêta est non
significatif, cela signifie la présence d'homoscédasticité sinon hétéroscédasticité en cas
de significativité.
β̂
|Tc| = σ β̂ ~ Tlue (1.96)
3) RDD :
|Tc| ˂ Tlue : H0 accepte : homoscédasticité
|Tc| ˃ Tlue : H0 rejette : hétéroscédasticité
4) Conclusion :
Tous les deux paramètres (tableaux ci-dessous) sont non significatifs alors on accepte
H0 and et l’erreur terme est homoscédastique.
Dependent Variable: ARESID Dependent Variable: ARESID
Sample: 1983 2019 Sample: 1983 2019
Included observations: 37 Included observations: 37
Variable Coefficient Std. Error Variable Coefficient Std. Error
C 0.063494 1.526209 C 1.133956 0.383373
PST 0.057417 0.106697 IRH -0.003451 0.005073
R-squared 0.008206 R-squared 0.013053

Teste de White : il est utilisé pour détecter l'hétéroscédasticité. Nous régressons le carré du
résidu sur toutes les variables puis les carrés des variables. Cela peut être appliqué sous deux
formes, avec terme croisé et sans terme croisé. Normalement, la forme avec terme croisé est
plus fiable.

On pose :

et2 = α0 + α1*PST + α2*IRH + α3*(PST)2 + α4*(IRH)2 + εt (1)

et2 = α0 + α1*PST + α2*IRH + α3*(PST)2 + α4*(IRH)2 + α5*(PST*IRH) + εt (2)

1) Hypothèses :
H0 : α1 = α2 = α3 = α4 = α5 = 0, c’est-à-dire la présence de homoscédasticité
H1 : au moins α1 ≠ 0, c’est-à-dire la présence de hétéroscédasticité
2) Formule ou statistique du test :
W= nR2 ~ ꭓ2(k) avec k= nombre des variables
3) RDD :
Si W ˂ ꭓ2.95(k) : H0 accepte : homoscédasticité
Si W ˃ ꭓ2.95(k) : H0 rejette : hétéroscédasticité
4) Conclusion :
Tous les deux paramètres (tableaux ci-dessous) sont non significatifs alors on accepte
H0 and et l’erreur terme est homoscédastique. Mais il est hétéroscédastique en cas avec
le terme croisé. Il est préférable d’utiliser la forme avec le terme croisé.
Sans terme croisé W= 37(0.22222) = 8.22214 ˂ 9.488, H0 accepté
Avec terme croisé W= 37(0.374681) = 13.863197 ˃ 11.07, H0 rejeté

Test Equation: Test Equation:


Dependent Variable:
Dependent Variable: RESID^2
RESID^2
Included observations: 37 Method: Least Squares
Variable Coefficient Std. Error t-Statistic Included observations: 37
C -6.219308 3.030436 -2.052281 Variable Coefficient Std. Error t-Statistic
PST 1.473229 33.81359 0.043569 C -45.47233 184.6129 -0.246312
IRH 0.815380 1.562964 0.521688 IRH 0.815380 1.562964 0.521688
PST^2 0.051329 0.019210 2.671933 IRH^2 0.002472 0.003260 0.758220
IRH^2 -0.000546 0.000177 -3.084899 IRH*PST -0.087717 0.142456 -0.615745
R-squared 0.222222 PST 1.473229 33.81359 0.043569
PST^2 0.219291 1.547951 0.141665
R-squared 0.374681
Jarque-Bera test/ teste de normalité :

1) Hypothèses :
H0 : la distribution de résidus est normale
H1 : la distribution de résidus est non normale
2) Formule ou statistique du test :
Ske w2 ( Kurt−3 )2
JB= N*[ 6 + 24
] ~ ꭓ2(2) k=2 (skewness et kurtosis)
3) RDD :
Si JB ˂ ꭓ2.95(2) : H0 accepte : normalité
Si JB ˃ ꭓ2.95(2) : H0 rejette : non normalité
4) Conclusion :

(−0.107 )2 ( 2.377−3 )2
JB= 37*[ 6
+ 24
] = 0.5990715658 ˂ 5.99 (H0 accepté : normalité)

Residuals
Mean 0
Std.Dev 1.09
Skewness -0.107
Kurtosis 2.377

5) Commentez cette régression d’un point de vue économique puis économétrique

Vue économique : 0.0161720417


Vue économétrique : 0.0000190817
Vous décidez d’affiner votre analyse en distinguant les dépenses publiques consacrées au
Chômage et celles reliées au Marché du Travail.
Voici les résultats obtenus.

Modèle 2 :

Régression A Régression B
Dependent Variable: UNR Dependent Variable: UNR
Method: Least Squares Method: Least Squares
Sample: 1983 2019 Sample: 1983 2019
Included observations: 37 Included observations: 37
Variable Coefficient Std. Error t-Statistic Variable Coefficient Std. Error t-Statistic
C 7.204754 2.979871 2.417804 C 8.283214 1.363949 6.072964
IRH -0.041870 0.014260 2.936185 IRH -0.044977 0.011914 3.775138
UGS 0.425561 1.041966 0.408421 LMGS 1.845899 0.666354 2.771407
LMGS 1.896248 0.685842 2.764846 Mean
Mean R-squared 0.296942 dependent 9.910360
R-squared 0.300478 dependent 9.910360 Variable
Variable S.D.
Adjusted R-
Adjusted R- S.D. dependent 0.255586 dependent 1.278129
0.236885 1.278129 squared
squared Variable Variable
S.E. of Sum squared S.E. of Sum squared
1.116528 41.13892 1.102762 41.34687
regression resid regression resid
Durbin-Watson Durbin-
F-statistic 4.725029 0.246921 F-statistic 7.180093 0.254835
stat Watson stat

1) Spécifiez les équations des modèles estimés 

Régression A :
UNR= C + β1*IRH + β2*UGS + β3*LMGS + εt
UNR= 7.204754 – 0.041870*IRH + 0.425561*UGS + 1.896248*LMGS

Régression B :
UNR= C + β1*IRH + β2*LMGS + εt
UNR= 8.283214 – 0.044977*IRH + 1.845899*LMGS

2) Testez la significativité des paramètres de chacun des modèles.

Pour la significativité des paramètres on utilise test de student.

1) Hypothèses :
H0 : β = 0 : on accepte H0 : le paramètre/coefficient/variable est non significatif
H1 : β ≠ 0 : on accepte H1 : le paramètre/coefficient/variable est significatif

2) Formule ou statistique du test :


β̂
|Tc| = σ β̂ ~ Tlue (1.96)
3) RDD :
|Tc| ˂ Tlue : H0 accepte : non significatif
|Tc| ˃ Tlue : H0 rejette : significatif
4) Conclusion :

Régression A : Nous concluons donc que « C », « IRH » et « LMGS » sont significatives
alors que « UGS » est non significative.
Régression B : Nous concluons donc que tous les paramètres « C », « IRH » et « LMGS »
sont significatives.

3) Comparez et commentez les R² et les R² ajustés

The R2 du modèle A est 0.300478 ce qui indique que 30% de la variation dans la variable
« UNR » est expliquée par les variables explicatives. Alors que R 2 du modèle B est 0.296942
ce qui indique que 29% de la variation est expliquée par les variables explicatives. En
comparant le R2 des deux, nous pouvons dire que le modèle « A » est le meilleur, mais dans la
régression multiple, nous examinons le R2 ajusté. Comme le R2 ajusté du modèle « B » est
supérieur au modèle « A » donc nous pouvons conclure que le modèle « B » est meilleur.

4) Quel modèle retenez-vous ? Justifiez

Nous prenons le modèle « B ». Comme tous les paramètres du modèle « B » sont
significatives puis le R2 ajusté du modèle « B » est aussi supérieur du modèle « A » donc nous
pouvons conclure que le modèle « B » est le meilleur.

5) Comment interprétez-vous ses paramètres.

Le signe d'un coefficient de régression nous indique s'il existe une corrélation positive ou
négative entre chaque variable indépendante (explicatives) et la variable dépendante (à
expliquer). Un coefficient positif indique que lorsque la valeur de la variable indépendante
augmente, la moyenne de la variable dépendante tend également à augmenter. Un coefficient
négatif indique qu'à mesure que la variable indépendante augmente, la variable dépendante
tend à diminuer.

La taille du coefficient signifie de combien la moyenne de la variable dépendante change pour


une variation d'une unité de la variable indépendante tout en maintenant les autres variables
du modèle constantes. (Dans le cas de « ln » on interprète en %)

Dans notre cas, le « IRH = -0.0449 » est négatif alors que la constante puis « LMGS =
1.8458» ont les coefficients positives. Si toutes les variables indépendantes sont égales à zéro,
la valeur de UNR sera de « 8.2832 ». S'il y a une augmentation d'une unité de la valeur de la
LMGS, l'UNR augmentera de la valeur de 1.8458 (et l'UNR va baisser de 0.0449 si la valeur
de IRH augmente d'une unité).

6) Les erreurs empiriques respectent-elles les hypothèses stochastiques ?

Pour confirmer que l'erreur respecte ou non les hypothèses stochastiques, nous devons
appliquer certains tests. Les tests pour lesquels les résultats sont donnés ci-dessous dans des
tableaux sont teste de Ljung-Box, Normalité et test de ARCH.

L’erreur empirique respect l’hypothèse de normalité alors qu’il ne respecte pas les hypothèses
d’autocorrélation et homoscédasticité. (Détaille au-dessous pour chacun)

Test de Ljung-Box : le test des résidus d’ordre supérieur à 1.

On pose : εt = ϕ1 εt-1 + ϕ2 εt-2 + ϕ3 εt-3 +……… ϕn εt-k + ηt avec ηt ~ N (0, σn)


1) Hypothèses :
H0 : ϕ1 = ϕ2 = ϕ3 = ϕk = 0 : c’est-à-dire l’absence d’autocorrélation
H1 : au moins ϕ1 ≠ 0, c’est-à-dire la présence d’autocorrélation`

2) Formule ou statistique du test :


2
K =k r k
Q stat = n (n +2) ΣK =1 n−k ~ ꭓ2 (K) avec k= les nombres des retards
3) RDD :
Si Qstat ˂ ꭓ2.95(K) : accepte H0, pas d’autocorrélation
Si Qstat ˃ ꭓ2.95(K) : rejette H0, présence d’autocorrélation
4) Conclusion :

Dans le tableau ci-dessous toutes les valeurs du Qstat sont supérieures à l'ordre de retard
correspondant. Nous concluons donc qu'il existe une autocorrélation dans le terme d'erreur.
Lags Correlogram Q-Stat
1 0.844 28.539
2 0.634 45.089
3 0.375 51.043
4 0.106 51.531
5 -0.102 52.003

Jarque-Bera test/ teste de normalité :

1) Hypothèses :
H0 : la distribution de résidus est normale
H1 : la distribution de résidus est non normale
2) Formule ou statistique du test :
2
( Kurt−3 )2
JB= N*[ Ske6 w + 24
] ~ ꭓ2(2) k=2 (skewness et kurtosis)
3) RDD :
Si JB ˂ ꭓ2.95(2) : H0 accepte : normalité
Si JB ˃ ꭓ2.95(2) : H0 rejette : non normalité
4) Conclusion :

JB= 0.98 ˂ 5.99 (H0 accepté : normalité)


Residuals
Mean 0
Std.Dev 1.07
Skewness -0.2
Kurtosis 2.30
Jarque-Bera 0.98

Test de ARCH : Ce test est également utilisé pour détecter l'hétéroscédasticité (E (ε2) ≠ σε2).
Les modèles ARCH sont utilisés pour modéliser des chroniques (principalement financières)
qui ont une volatilité (ou variance ou variabilité) instantanée qui dépend du passé. La
régression auxiliaire peut écrite comme suite ;

On pose : εt2 = ϕ1ε2t-1 + ϕ ε2t-2 + ϕ3ε2t-3 +……… ϕkε2t-k + ηt avec k=nombres des retards
1) Hypothèses :
H0 : ϕ1 = ϕ2 = ϕ3 = ϕk = 0 : c’est-à-dire homoscédasticité
H1 : au moins ϕ1 ≠ 0, c’est-à-dire hétéroscédasticité

2) Formule ou statistique du test :


LM= nR2 ~ ꭓ2(k) avec k= nombre des retards
3) RDD :
Si Qstat ˂ ꭓ2.95(K) : accepte H0, c’est-à-dire homoscédasticité
Si Qstat ˃ ꭓ2.95(K) : rejette H0, c’est-à-dire hétéroscédasticité
4) Conclusion :
Dans le tableau ci-dessous, LM=nR2= 17.456832 ˃ ꭓ2(1) = 3.841, dans ce cas, on
rejette le H0 qui nous indique la présence de l’hétéroscédasticité.

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Included observations: 36 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.285222 0.211096 1.351145
RESID^2(-1) 0.694268 0.122715 5.657577
R-squared 0.484912

**********************************************************************************

Finalement, l’hypothèse des candidats Z et M réside sur l’effet positif d’une réduction du
Taux de Chômage sur le PIB.

Modèle 3 :
Dependent Variable: GDP
Method: Least Squares
Sample: 1983 2019
Included observations: 37
Variable Coefficient Std. Error t-Statistic
C 4145546. 930170.9 4.456758
UNR -241966.2 93108.05 -2.598767
R-squared 0.161749 Mean dependent var 1747574.
Adjusted R-squared 0.137799 S.D. dependent var 768968.8
S.E. of regression 714024.4 Sum squared resid 1.78E+13
F-statistic 6.753592 Durbin-Watson stat 0.048795
Lags Correlogram Q-Stat Residuals
1 0.882 31.176 Mean 0
2 0.772 55.740 Std.Dev 704037
3 0.663 74.408 Skewness 0.206
4 0.548 87.541 Kurtosis 2.17
5 0.439 96.240 Jarque-Bera 1.33

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample (adjusted): 1986 2019
Included observations: 34 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C 2.13E+10 2.68E+10 0.794865 0.4329
RESID^2(-1) 1.535944 0.178885 8.586219 0.0000
RESID^2(-2) -0.523636 0.275123 -1.903281 0.0666
RESID^2(-3) -0.025279 0.124933 -0.202337 0.8410

Un collègue économètre vous indique que les variables Taux de Chômage (UNR) et PIB ne
sont pas stationnaires. A cet effet, vous décidez de créer des nouvelles variables, notées
DUNR et GROWTH, représentant respectivement la croissance du Taux de Chômage
annuelle et la Croissance du PIB annuelle.

Dependent Variable: GROWTH


Method: Least Squares
Sample (adjusted): 1984 2019
Included observations: 36 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.044231 0.002853 15.50165
DUNR -0.017169 0.004352 -3.944752
R-squared 0.313978 Mean dependent var 0.044386
Adjusted R-squared 0.293801 S.D. dependent var 0.020370
S.E. of regression 0.017118 Sum squared resid 0.009963
F-statistic 15.56107 Durbin-Watson stat 1.512269

1) Expliquez comment obtenir les variables DUNR et GROWTH.

Croissance = ¿ ]

DUNR = ¿ ] = ¿ ]

Growth = ¿ ] = ¿ ]
2) Spécifiez les équations des modèles.
Modèle 1 : GDP = C + β1*UNR + εt
GDP = 4145546 – 241966*UNR

Modèle 2 : Growth = C + β1*DUNR + εt


Growth = 0.044231 – 0.017169*DUNR

3) Commentez l’ensemble des résultats précédents.

Interprétation des coefficients (C et UNR puis DUNR). Comparer également les coefficients
des deux modèles.

4) Quelles sont vos conclusions.

Notre conclusion est basée sur les différents tests résiduels appliqués après chaque régression.
Dans le premier modèle, nous ne pouvons pas nous fier à ses résultats, car le modèle souffre
de différents problèmes économétriques comme l'autocorrélation et l'hétéroscédasticité (dans
les deux cas, l'erreur est normalement distribuée). Ensuite, lorsque les variables sont
converties en forme de croissance, les résultats sont fiables et les termes d'erreur respectent les
différentes hypothèses. (Les résultats des tests sont présentés comme suit)

Test d’autocorrélation : En premier modèle, tous les Qstat des 5 retards sont supérieurs des
tous les ꭓ2(k) (3.841, 5.99, 7.815, 9.488, 11.07). (Aussi DW est trop faible 0.048795) ce qui
indique la présence d’autocorrélation. Mais pour le deuxième modèle, tous les Q stat des 5
retards sont inférieurs de ꭓ2(k). (Aussi DW est amélioré a 1.512269). Ce qui indique l’absence
d’autocorrélation.

Lags Correlogram Q-Stat Residuals


1 0.198 1.5353 Mean 0
2 0.037 1.5899 Std.Dev 0.02
3 0.029 1.6248 Skewness -0.66
4 0.134 2.3950 Kurtosis 4.2
5 0.201 4.1825 Jarque-Bera 4.75

Test de hétéroscédasticité : à partir des résultats du test ARCH, pour le premier modèle nous
pouvons voir que nR2= 34(0.949475) = 32.28215 ˃ ꭓ2(k)= 7.815. C’est-à-dire qu’il y a
hétéroscédasticité. Mais pour le deuxième modèle nR2= 33(0.018289) = 0.603537 ˂ ꭓ2(k)=
3.841 et maintenant l’erreur respect l’hypothèse de homoscédasticité.
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample (adjusted): 1987 2019
Included observations: 33 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.000328 0.000135 2.430281
RESID^2(-1) -0.076502 0.185595 -0.412201
RESID^2(-2) -0.116666 0.185005 -0.630608
RESID^2(-3) -0.000482 0.183187 -0.002630
R-squared 0.018289
Vous décidez de vous référer à la théorie économique qui expliquer le Taux de Chômage
selon la Croissance du PIB (Growth) et l’Inflation (IPC).

Voici les résultats obtenus.

Modèle 4 :
Dependent Variable: DUNR
Method: Least Squares
Sample (adjusted): 1984 2019
Included observations: 36 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.579808 0.218709 2.651044
GROWTH -21.06330 4.309933 -4.887153
IPC 0.171378 0.059183 2.895724
R-squared 0.452975 Mean dependent var -0.009028
Adjusted R-
0.419822 S.D. dependent var 0.664823
squared
S.E. of regression 0.506392 Sum squared resid 8.462278
F-statistic 13.66317 Durbin-Watson stat 1.844021

1) Pourquoi inclure la Croissance et l’Inflation dans un modèle sur le Chômage ?

Théorie de Keynes

2) Spécifiez les équations du modèle

DUNR= C + β1*Growth + β2*IPC + εt


DUNR= 0.5798 – 21.0633*Growth + 0.1713*IPC

3) Testez la significativité des paramètres

Pour tester la significativité des paramètres on utilise le test de student. La significativité des
paramètres peut être confirmée en comparant le Tc et Tlue (=1.96). Nous pouvons voir que les
t-statistiques des tous les paramètres sont supérieures à celles de 1.96 du coup ils sont
significatives.

4) Les erreurs empiriques respectent-elles les hypothèses stochastiques ?


 L’erreur du modèle est normalement distribuée.
 Il n’y a pas d’autocorrélation car toutes les valeurs de Q stat sont inférieures des tous les
ꭓ2(k) (3.841, 5.99, 7.815, 9.488, 11.07)
 L’erreur du modèle est homoscédastique (détaille au-dessous, test de Breusch-Pagan)

Lags Correlogram Q-Stat Residuals


1 0.066 0.1677 Mean 0
2 -0.087 0.4692 Std.Dev 0.5
3 0.067 Skewness -0.24
4 0.200 2.3697 Kurtosis 3.2
5 -0.027 2.4010 Jarque-Bera 0.41
Test de Breusch-Pagan : C’est le test de l'hétéroscédasticité. Ce test aussi est plus proche de
test de white. Nous régressons le carré du résidu sur toutes les variables. La régression
auxiliaire peut écrite comme suite ;

On pose : εt2 = γ0 + γ1*Growth + γ2*IPC + υt

1) Hypothèses :
H0 : γ0 = γ1 = γ2 = 0 : c’est-à-dire homoscédasticité
H1 : au moins γ1 ≠ 0, c’est-à-dire hétéroscédasticité

2) Formule ou statistique du test :


BP= nR2 ~ ꭓ2(k) avec k= nombre des variables
3) RDD :
Si Qstat ˂ ꭓ2.95(K) : accepte H0, c’est-à-dire homoscédasticité
Si Qstat ˃ ꭓ2.95(K) : rejette H0, c’est-à-dire hétéroscédasticité
4) Conclusion :

Dans le tableau ci-dessous, BP=nR2= 4.557636 ˂ ꭓ2(2) = 5.991, dans ce cas, on accepte le H0
qui nous explique la présence de l’homoscédasticité.

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 1984 2019
Included observations: 36
Variable Coefficient Std. Error t-Statistic
C 0.516300 0.146949 3.513469
GROWTH -6.062730 2.895805 -2.093625
IPC -0.006009 0.039765 -0.151118
R-squared 0.126601 Adjusted R-squared 0.073668
S.E. of regression 0.340240 Sum squared resid 3.820191

5) Comment interprétez-vous les paramètres.

Le signe d'un coefficient de régression nous indique s'il existe une corrélation positive ou
négative entre chaque variable indépendante (explicatives) et la variable dépendante (à
expliquer). Un coefficient positif indique que lorsque la valeur de la variable indépendante
augmente, la moyenne de la variable dépendante tend également à augmenter. Un coefficient
négatif indique qu'à mesure que la variable indépendante augmente, la variable dépendante
tend à diminuer.

DUNR= 0.5798 – 21.0633*Growth + 0.1713*IPC

Dans notre cas, le « Growth = -21.063 » est négatif alors que la constante puis « IPC=
0.1713» ont les coefficients positives. Si toutes les variables indépendantes sont égales à zéro,
la valeur de DUNR sera de « 0.5798 ». S'il y a une augmentation d'une unité de la valeur de la
IPC (hausse de l’inflation), le DUNR augmentera de la valeur de 0.1713 (et DUNR va baisser
de 21.063 si la valeur de Growth augmente d'une unité, c'est-à-dire que le taux de chômage
diminue lorsqu'il y a une croissance économique).

Vous aimerez peut-être aussi