Académique Documents
Professionnel Documents
Culture Documents
M1 Economie
Vous écoutez un débat entre deux candidats aux élections présidentielles de 2022 dont partie
est consacrée aux questions des politiques économiques.
Lors du débat, les deux candidats proposent de relancer le PIB en faisant baisser le chômage.
Ils divergent cependant sur la manière de faire baisser celui-ci et avancent tout deux leurs
solutions qui sont d’après leurs dires parfaitement validées par les économistes.
Candidat M voit le problème différemment. Ce sont les salaires qui sont trop bas donc
les individus n’offrent pas leur force de travail … il propose une revalorisation des
salaires et des prestation sociales pour augmenter le pouvoir d’achat et donc au final la
consommation. Ceci permettra de maintenir une activité économique forte et au final
de faire baisser le chômage. Il propose aussi d’investir massivement dans le Marché du
Travail sur le plan de la formation, des aides à l’emploi pour les entreprises etc …
***tous les tests doivent être effectuées avec un risque de premières espèces de 5%
1) Hypothèses :
H0 : β = 0 : on accepte H0 : le paramètre/coefficient/variable est non significatif
H1 : β ≠ 0 : on accepte H1 : le paramètre/coefficient/variable est significatif
1) Hypothèses :
H0 : R2 = 0 : on accepte H0 : le modèle est globalement non significatif
H1 : R2 ≠ 0 : on rejette H0 : le modèle est globalement significatif
2) Formule ou statistique du test :
Fstat = 6.250413 ~ F0.95 (2, 34) = 3.28
3) RDD :
Fstat ˂ Flue : H0 accepte : modèle est globalement non significatif
Fstat ˃ Flue : H0 rejette : modèle est globalement significatif
4) Conclusion :
Comme Fstat ˃ Flue (6.250413 ˃ 3.28), donc le modèle est globalement significatif. R 2
(0.2688) nous explique que 26% de variation en variable UNR est expliqué par les
variables explicatives.
4) Analyser les propriétés statistiques des résidus. Pour chaque test employé,
précisez ses hypothèses, sa régression auxiliaire, ainsi que sa statistique associée.
A analyser les propriétés statistiques des résidus, nous devons appliquer différents tests
correspondant à chaque propriété. Test d’autocorrélation, test hétéroscédasticité et test de
normalité. Rappelez-vous que les quatre étapes de chaque test sont les mêmes.
1) Hypothèses :
H0 : ρ = 0, c’est-à-dire l’absence d’autocorrélation
H1 : ρ ≠ 0, c’est-à-dire la présence d’autocorrélation
Σ ( ε t −ε t −1) 2
DW = = 0.25004
ε 2t
3) RDD : si DW appartient à l’intervalle [0, d 1] ou [4-d1, 4], il indique qu'il existe une
autocorrélation positive et négative respectivement. Si DW appartient [d2, 4-d2] il
indique l’absence d’autocorrélation. Mais les deux zones [d 1, d2] et [4-d2, 4-d1] sont les
zones de doute. On ne sait pas s'il y a autocorrélation ou pas.
4) Conclusion :
Comme la valeur de DW appartient à l’intervalle de [0, d1], c’est-à-dire qu’il y a
autocorrélation positif.
Test de Ljung-Box : Le test des résidus d’ordre supérieur à 1. Le test de durbin-watson n'est
pas capable de tester l'autocorrélation pour l’ordre ˃ 1. Si on a besoin de tester pour l’ordre ˃
1 ou si nous trouvons que DW appartient à la zone de doute, alors nous utilisons le test de
Ljung box.
Test de Glejser : il est utilisé pour détecter l'hétéroscédasticité. En cas de régression multiple,
nous devons exécuter la régression auxiliaire pour chaque variable explicative séparément.
Dans notre cas, nous avons deux variables explicatives (PST et IRH), donc nous l'avons
exécuté pour les deux séparément et ensuite testé la significativité du bêta.
|et| = α + β*IRH + εt
1) Hypothèses :
H0 : β = 0, c’est-à-dire la présence de homoscédasticité
H1 : β ≠ 0, c’est-à-dire la présence de hétéroscédasticité
2) Formule ou statistique du test :
Pour tester l'hypothèse du test nous adaptons le test de student. Si le bêta est non
significatif, cela signifie la présence d'homoscédasticité sinon hétéroscédasticité en cas
de significativité.
β̂
|Tc| = σ β̂ ~ Tlue (1.96)
3) RDD :
|Tc| ˂ Tlue : H0 accepte : homoscédasticité
|Tc| ˃ Tlue : H0 rejette : hétéroscédasticité
4) Conclusion :
Tous les deux paramètres (tableaux ci-dessous) sont non significatifs alors on accepte
H0 and et l’erreur terme est homoscédastique.
Dependent Variable: ARESID Dependent Variable: ARESID
Sample: 1983 2019 Sample: 1983 2019
Included observations: 37 Included observations: 37
Variable Coefficient Std. Error Variable Coefficient Std. Error
C 0.063494 1.526209 C 1.133956 0.383373
PST 0.057417 0.106697 IRH -0.003451 0.005073
R-squared 0.008206 R-squared 0.013053
Teste de White : il est utilisé pour détecter l'hétéroscédasticité. Nous régressons le carré du
résidu sur toutes les variables puis les carrés des variables. Cela peut être appliqué sous deux
formes, avec terme croisé et sans terme croisé. Normalement, la forme avec terme croisé est
plus fiable.
On pose :
1) Hypothèses :
H0 : α1 = α2 = α3 = α4 = α5 = 0, c’est-à-dire la présence de homoscédasticité
H1 : au moins α1 ≠ 0, c’est-à-dire la présence de hétéroscédasticité
2) Formule ou statistique du test :
W= nR2 ~ ꭓ2(k) avec k= nombre des variables
3) RDD :
Si W ˂ ꭓ2.95(k) : H0 accepte : homoscédasticité
Si W ˃ ꭓ2.95(k) : H0 rejette : hétéroscédasticité
4) Conclusion :
Tous les deux paramètres (tableaux ci-dessous) sont non significatifs alors on accepte
H0 and et l’erreur terme est homoscédastique. Mais il est hétéroscédastique en cas avec
le terme croisé. Il est préférable d’utiliser la forme avec le terme croisé.
Sans terme croisé W= 37(0.22222) = 8.22214 ˂ 9.488, H0 accepté
Avec terme croisé W= 37(0.374681) = 13.863197 ˃ 11.07, H0 rejeté
1) Hypothèses :
H0 : la distribution de résidus est normale
H1 : la distribution de résidus est non normale
2) Formule ou statistique du test :
Ske w2 ( Kurt−3 )2
JB= N*[ 6 + 24
] ~ ꭓ2(2) k=2 (skewness et kurtosis)
3) RDD :
Si JB ˂ ꭓ2.95(2) : H0 accepte : normalité
Si JB ˃ ꭓ2.95(2) : H0 rejette : non normalité
4) Conclusion :
(−0.107 )2 ( 2.377−3 )2
JB= 37*[ 6
+ 24
] = 0.5990715658 ˂ 5.99 (H0 accepté : normalité)
Residuals
Mean 0
Std.Dev 1.09
Skewness -0.107
Kurtosis 2.377
Modèle 2 :
Régression A Régression B
Dependent Variable: UNR Dependent Variable: UNR
Method: Least Squares Method: Least Squares
Sample: 1983 2019 Sample: 1983 2019
Included observations: 37 Included observations: 37
Variable Coefficient Std. Error t-Statistic Variable Coefficient Std. Error t-Statistic
C 7.204754 2.979871 2.417804 C 8.283214 1.363949 6.072964
IRH -0.041870 0.014260 2.936185 IRH -0.044977 0.011914 3.775138
UGS 0.425561 1.041966 0.408421 LMGS 1.845899 0.666354 2.771407
LMGS 1.896248 0.685842 2.764846 Mean
Mean R-squared 0.296942 dependent 9.910360
R-squared 0.300478 dependent 9.910360 Variable
Variable S.D.
Adjusted R-
Adjusted R- S.D. dependent 0.255586 dependent 1.278129
0.236885 1.278129 squared
squared Variable Variable
S.E. of Sum squared S.E. of Sum squared
1.116528 41.13892 1.102762 41.34687
regression resid regression resid
Durbin-Watson Durbin-
F-statistic 4.725029 0.246921 F-statistic 7.180093 0.254835
stat Watson stat
Régression A :
UNR= C + β1*IRH + β2*UGS + β3*LMGS + εt
UNR= 7.204754 – 0.041870*IRH + 0.425561*UGS + 1.896248*LMGS
Régression B :
UNR= C + β1*IRH + β2*LMGS + εt
UNR= 8.283214 – 0.044977*IRH + 1.845899*LMGS
1) Hypothèses :
H0 : β = 0 : on accepte H0 : le paramètre/coefficient/variable est non significatif
H1 : β ≠ 0 : on accepte H1 : le paramètre/coefficient/variable est significatif
Régression A : Nous concluons donc que « C », « IRH » et « LMGS » sont significatives
alors que « UGS » est non significative.
Régression B : Nous concluons donc que tous les paramètres « C », « IRH » et « LMGS »
sont significatives.
The R2 du modèle A est 0.300478 ce qui indique que 30% de la variation dans la variable
« UNR » est expliquée par les variables explicatives. Alors que R 2 du modèle B est 0.296942
ce qui indique que 29% de la variation est expliquée par les variables explicatives. En
comparant le R2 des deux, nous pouvons dire que le modèle « A » est le meilleur, mais dans la
régression multiple, nous examinons le R2 ajusté. Comme le R2 ajusté du modèle « B » est
supérieur au modèle « A » donc nous pouvons conclure que le modèle « B » est meilleur.
Nous prenons le modèle « B ». Comme tous les paramètres du modèle « B » sont
significatives puis le R2 ajusté du modèle « B » est aussi supérieur du modèle « A » donc nous
pouvons conclure que le modèle « B » est le meilleur.
Le signe d'un coefficient de régression nous indique s'il existe une corrélation positive ou
négative entre chaque variable indépendante (explicatives) et la variable dépendante (à
expliquer). Un coefficient positif indique que lorsque la valeur de la variable indépendante
augmente, la moyenne de la variable dépendante tend également à augmenter. Un coefficient
négatif indique qu'à mesure que la variable indépendante augmente, la variable dépendante
tend à diminuer.
Dans notre cas, le « IRH = -0.0449 » est négatif alors que la constante puis « LMGS =
1.8458» ont les coefficients positives. Si toutes les variables indépendantes sont égales à zéro,
la valeur de UNR sera de « 8.2832 ». S'il y a une augmentation d'une unité de la valeur de la
LMGS, l'UNR augmentera de la valeur de 1.8458 (et l'UNR va baisser de 0.0449 si la valeur
de IRH augmente d'une unité).
Pour confirmer que l'erreur respecte ou non les hypothèses stochastiques, nous devons
appliquer certains tests. Les tests pour lesquels les résultats sont donnés ci-dessous dans des
tableaux sont teste de Ljung-Box, Normalité et test de ARCH.
L’erreur empirique respect l’hypothèse de normalité alors qu’il ne respecte pas les hypothèses
d’autocorrélation et homoscédasticité. (Détaille au-dessous pour chacun)
Dans le tableau ci-dessous toutes les valeurs du Qstat sont supérieures à l'ordre de retard
correspondant. Nous concluons donc qu'il existe une autocorrélation dans le terme d'erreur.
Lags Correlogram Q-Stat
1 0.844 28.539
2 0.634 45.089
3 0.375 51.043
4 0.106 51.531
5 -0.102 52.003
1) Hypothèses :
H0 : la distribution de résidus est normale
H1 : la distribution de résidus est non normale
2) Formule ou statistique du test :
2
( Kurt−3 )2
JB= N*[ Ske6 w + 24
] ~ ꭓ2(2) k=2 (skewness et kurtosis)
3) RDD :
Si JB ˂ ꭓ2.95(2) : H0 accepte : normalité
Si JB ˃ ꭓ2.95(2) : H0 rejette : non normalité
4) Conclusion :
Test de ARCH : Ce test est également utilisé pour détecter l'hétéroscédasticité (E (ε2) ≠ σε2).
Les modèles ARCH sont utilisés pour modéliser des chroniques (principalement financières)
qui ont une volatilité (ou variance ou variabilité) instantanée qui dépend du passé. La
régression auxiliaire peut écrite comme suite ;
On pose : εt2 = ϕ1ε2t-1 + ϕ ε2t-2 + ϕ3ε2t-3 +……… ϕkε2t-k + ηt avec k=nombres des retards
1) Hypothèses :
H0 : ϕ1 = ϕ2 = ϕ3 = ϕk = 0 : c’est-à-dire homoscédasticité
H1 : au moins ϕ1 ≠ 0, c’est-à-dire hétéroscédasticité
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Included observations: 36 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.285222 0.211096 1.351145
RESID^2(-1) 0.694268 0.122715 5.657577
R-squared 0.484912
**********************************************************************************
Finalement, l’hypothèse des candidats Z et M réside sur l’effet positif d’une réduction du
Taux de Chômage sur le PIB.
Modèle 3 :
Dependent Variable: GDP
Method: Least Squares
Sample: 1983 2019
Included observations: 37
Variable Coefficient Std. Error t-Statistic
C 4145546. 930170.9 4.456758
UNR -241966.2 93108.05 -2.598767
R-squared 0.161749 Mean dependent var 1747574.
Adjusted R-squared 0.137799 S.D. dependent var 768968.8
S.E. of regression 714024.4 Sum squared resid 1.78E+13
F-statistic 6.753592 Durbin-Watson stat 0.048795
Lags Correlogram Q-Stat Residuals
1 0.882 31.176 Mean 0
2 0.772 55.740 Std.Dev 704037
3 0.663 74.408 Skewness 0.206
4 0.548 87.541 Kurtosis 2.17
5 0.439 96.240 Jarque-Bera 1.33
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample (adjusted): 1986 2019
Included observations: 34 after adjustments
Variable Coefficient Std. Error t-Statistic Prob.
C 2.13E+10 2.68E+10 0.794865 0.4329
RESID^2(-1) 1.535944 0.178885 8.586219 0.0000
RESID^2(-2) -0.523636 0.275123 -1.903281 0.0666
RESID^2(-3) -0.025279 0.124933 -0.202337 0.8410
Un collègue économètre vous indique que les variables Taux de Chômage (UNR) et PIB ne
sont pas stationnaires. A cet effet, vous décidez de créer des nouvelles variables, notées
DUNR et GROWTH, représentant respectivement la croissance du Taux de Chômage
annuelle et la Croissance du PIB annuelle.
Croissance = ¿ ]
DUNR = ¿ ] = ¿ ]
Growth = ¿ ] = ¿ ]
2) Spécifiez les équations des modèles.
Modèle 1 : GDP = C + β1*UNR + εt
GDP = 4145546 – 241966*UNR
Interprétation des coefficients (C et UNR puis DUNR). Comparer également les coefficients
des deux modèles.
Notre conclusion est basée sur les différents tests résiduels appliqués après chaque régression.
Dans le premier modèle, nous ne pouvons pas nous fier à ses résultats, car le modèle souffre
de différents problèmes économétriques comme l'autocorrélation et l'hétéroscédasticité (dans
les deux cas, l'erreur est normalement distribuée). Ensuite, lorsque les variables sont
converties en forme de croissance, les résultats sont fiables et les termes d'erreur respectent les
différentes hypothèses. (Les résultats des tests sont présentés comme suit)
Test d’autocorrélation : En premier modèle, tous les Qstat des 5 retards sont supérieurs des
tous les ꭓ2(k) (3.841, 5.99, 7.815, 9.488, 11.07). (Aussi DW est trop faible 0.048795) ce qui
indique la présence d’autocorrélation. Mais pour le deuxième modèle, tous les Q stat des 5
retards sont inférieurs de ꭓ2(k). (Aussi DW est amélioré a 1.512269). Ce qui indique l’absence
d’autocorrélation.
Test de hétéroscédasticité : à partir des résultats du test ARCH, pour le premier modèle nous
pouvons voir que nR2= 34(0.949475) = 32.28215 ˃ ꭓ2(k)= 7.815. C’est-à-dire qu’il y a
hétéroscédasticité. Mais pour le deuxième modèle nR2= 33(0.018289) = 0.603537 ˂ ꭓ2(k)=
3.841 et maintenant l’erreur respect l’hypothèse de homoscédasticité.
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample (adjusted): 1987 2019
Included observations: 33 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.000328 0.000135 2.430281
RESID^2(-1) -0.076502 0.185595 -0.412201
RESID^2(-2) -0.116666 0.185005 -0.630608
RESID^2(-3) -0.000482 0.183187 -0.002630
R-squared 0.018289
Vous décidez de vous référer à la théorie économique qui expliquer le Taux de Chômage
selon la Croissance du PIB (Growth) et l’Inflation (IPC).
Modèle 4 :
Dependent Variable: DUNR
Method: Least Squares
Sample (adjusted): 1984 2019
Included observations: 36 after adjustments
Variable Coefficient Std. Error t-Statistic
C 0.579808 0.218709 2.651044
GROWTH -21.06330 4.309933 -4.887153
IPC 0.171378 0.059183 2.895724
R-squared 0.452975 Mean dependent var -0.009028
Adjusted R-
0.419822 S.D. dependent var 0.664823
squared
S.E. of regression 0.506392 Sum squared resid 8.462278
F-statistic 13.66317 Durbin-Watson stat 1.844021
Théorie de Keynes
Pour tester la significativité des paramètres on utilise le test de student. La significativité des
paramètres peut être confirmée en comparant le Tc et Tlue (=1.96). Nous pouvons voir que les
t-statistiques des tous les paramètres sont supérieures à celles de 1.96 du coup ils sont
significatives.
1) Hypothèses :
H0 : γ0 = γ1 = γ2 = 0 : c’est-à-dire homoscédasticité
H1 : au moins γ1 ≠ 0, c’est-à-dire hétéroscédasticité
Dans le tableau ci-dessous, BP=nR2= 4.557636 ˂ ꭓ2(2) = 5.991, dans ce cas, on accepte le H0
qui nous explique la présence de l’homoscédasticité.
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample: 1984 2019
Included observations: 36
Variable Coefficient Std. Error t-Statistic
C 0.516300 0.146949 3.513469
GROWTH -6.062730 2.895805 -2.093625
IPC -0.006009 0.039765 -0.151118
R-squared 0.126601 Adjusted R-squared 0.073668
S.E. of regression 0.340240 Sum squared resid 3.820191
Le signe d'un coefficient de régression nous indique s'il existe une corrélation positive ou
négative entre chaque variable indépendante (explicatives) et la variable dépendante (à
expliquer). Un coefficient positif indique que lorsque la valeur de la variable indépendante
augmente, la moyenne de la variable dépendante tend également à augmenter. Un coefficient
négatif indique qu'à mesure que la variable indépendante augmente, la variable dépendante
tend à diminuer.
Dans notre cas, le « Growth = -21.063 » est négatif alors que la constante puis « IPC=
0.1713» ont les coefficients positives. Si toutes les variables indépendantes sont égales à zéro,
la valeur de DUNR sera de « 0.5798 ». S'il y a une augmentation d'une unité de la valeur de la
IPC (hausse de l’inflation), le DUNR augmentera de la valeur de 0.1713 (et DUNR va baisser
de 21.063 si la valeur de Growth augmente d'une unité, c'est-à-dire que le taux de chômage
diminue lorsqu'il y a une croissance économique).