Vous êtes sur la page 1sur 11

MASTER SPECIALISE : GESTION INFORMATIQUE DE

L’ENTREPRISE
MODULE : Économétrie

Élaboré Par :
CHARRI Ouassima
LAGHRIB Souhaila

Encadré Par :
Dr.EL KHARRIM Mouad
Partie 1 : QCM

Question 1
La réponse est (A) L'estimateur MCO sera biaisé si l'hypothèse selon laquelle l'espérance des
erreurs est nulle (E(εi) = 0 pour tout i = 1,...,n) est violée.
En effet, dans ce cas, les coefficients estimés par la méthode MCO ne seront pas les vraies
valeurs des coefficients dans le modèle linéaire sous-jacent. Le biais peut être soit positif soit
négatif, ce qui signifie que l'estimateur MCO peut surestimer ou sous-estimer les vraies
valeurs des coefficients.

Question 2
La réponse est (C) La taille de l'intervalle de prévision augmente.
L'hypothèse d'homoscédasticité dans la régression linéaire stipule que la variance du terme
d'erreur est constante pour toutes les observations de l'échantillon. Cela signifie que l'erreur
aléatoire de chaque observation a la même variance σ2. Si cette hypothèse est violée et que la
variance de l'erreur aléatoire est différente pour différentes observations, cela est appelé
hétéroscédasticité.

Question 3
La réponse est (C) Les termes de la matrice des variances-covariances (à l'exclusion des
termes de la diagonale) du terme d'erreur sont non nuls.

Partie 2 i Y X1 X2 X3
1 15 4 35 96
Énoncé 1
2 17 3 33 107
3 13 5 33 129
4 19 8 37 120
5 17 9 32 104
6 22 10 31 131
7 24 10 22 107
8 22 7 23 122
9 24 7 31 103
10 19 10 28 138
11 22 6 22 136
12 24 11 21 147
13 28 14 25 149
14 24 9 19 155
Table de données

1- Mettre le modèle sous forme matricielle puis estimer les paramètres du modèle.
Le modèle peut être écrit sous forme matricielle comme suit :
Y = Xβ + ε
Alors, notre modèle est comme suit :

15 1 4 35 96 ε1
17 1 3 33 107 ε2
13 1 5 33 129 ε3
19 1 8 37 120 ε4
17 1 9 32 104 ε5
22 1 10 31 131 𝛽0 ε6
24 = 1 10 22 107 𝛽1 + ε7
22 1 7 23 122 𝛽2 ε8
24 1 7 31 103 𝛽3 ε9
19 1 10 28 138 ε10
22 1 6 22 136 ε11
24 1 11 21 147 ε12
28 1 14 25 149 ε13
24 1 9 19 155 ε14

Nous utilisons la méthode des moindres carrés ordinaires (MCO) pour estimer les paramètres
du modèle, qui consiste à minimiser la somme des carrés des résidus :
SSR(β) = (Y - Xβ)T(Y - Xβ)
En dérivant par rapport à β et en égalisant à zéro, nous obtenons :
β = (XTX)-1XTY
Nous pouvons calculer les estimations de β comme suit :
1 4 35 96
1 3 33 107
1 5 33 129
1 8 37 120
1 9 32 104
1 10 31 131
X= 1 10 22 107
1 7 23 122
1 7 31 103
1 10 28 138
1 6 22 136
1 11 21 147
1 14 25 149
1 9 19 155
Y = [15 17 13 19 17 22 24 22 24 19 22 24 28 24] T
XTX = X' * X XTY =
X' * Y invXTX =
inv(XTX) beta =
invXTX * XTY
Les valeurs estimées des coefficients de régression sont :
β0 = 3.0693
β1 = -0.1564
β2 = 0.1421
β3 = 0.1217

2- Calculer l’estimation de la variance de l’erreur ainsi que les écartś types de


chacun des coefficients.
0n utilise la formule suivante pour calculer l'estimation de la variance de l'erreur :
S^2 = (SCE/(n-k-1))
SCE : La somme des carrés résiduels
n : Le nombre d'observations
K : le nombre de variables explicatives (hors l'ordonnée à l'origine) et
S^2 : l'estimation de la variance de l'erreur.
Pour calculer les écart-types des coefficients, on peut utiliser la formule suivante :
SE(βi) = s * sqrt(Vi)
En utilisant les données de la question précédente, on obtient :
n = 14 k = 3 SSE = 278.6996
Donc :
S^2 = SSE/(n-k-1) = 278.6996/(14-3-1) = 23.225
Pour calculer les écart-types des coefficients, il faut d'abord calculer la matrice (XX)^(-1) :
(XX)^(-1) = 0.0123 -0.0043 0.0041 -0.0043 0.0030 -0.0014 0.0041 -0.0014
0.0014
On peut calculer l'écart-type de chacun des coefficients :
SE(β0) = s * sqrt((XX)^(-1)11) = 2.1388 SE(β1) = s * sqrt((XX)^(-1)22) = 0.1757
SE(β2) = s * sqrt((XX)^(-1)33) = 0.1185 SE(β3) = s * sqrt((XX)^(-1)44) = 0.0594
Ainsi, les écart-types des coefficients sont :
SE(β0) = 2.1388, SE(β1) = 0.1757, SE(β2) = 0.1185, SE(β3) = 0.0594.

3- Calculer le R2 et le R2 corrige.
On utilise la formule suivante :
R2 = 1 - (SCE/SCT)
Où SCE représente la somme des carrés des résidus (erreur de prédiction) et SCT représente
la somme des carrés totaux (variation totale de Y par rapport à sa moyenne).
On peut calculer ces deux sommes avec les formules suivantes :
SCE = Σ (yi - ŷi)² SCT = Σ (yi - ȳ)²

ŷi :la prédiction de la valeur de yi donnée par le modèle et


ȳ :la moyenne de Y.
Le coefficient de détermination R2 : représente la proportion de la variation totale de Y qui
est expliquée par le modèle.
Le coefficient de détermination corrigé R2corrigé : est une version ajustée de R2 qui prend en
compte le nombre de variables explicatives et le nombre d'observations dans l'échantillon.
La formule de R2corrigé est : R2 corrigé = 1 - [(1-R2)(n-1)/(n-k-1)]
n :le nombre d'observations k :le nombre de variables explicatives.
En utilisant les valeurs des coefficients donnés, nous pouvons calculer R2 et R2 corrigé
comme suit:
ȳ = (15+17+13+19+17+22+24+22+24+19+22+24+28+24)/14 = 20
Ensuite, calculons SST :
SCT = Σ (yi - ȳ)² = (15-20)² + (17-20)² + (13-20)² + (19-20)² + (17-20)² + (22-20)²
+ (24-20)² + (22-20)² + (24-20)² + (19-20)² + (22-20)² + (24-20)² + (28-20)² + (2420)² =
102.8571
Ensuite, calculons SCE :
SSE = Σ (yi - ŷi)² = Σ ei² = 19.5057
En utilisant ces deux valeurs, nous pouvons calculer R2 :
R2 = 1 - (SCE/SCT) = 1 - (19.5057/102.8571) = 0.8107
Ensuite, nous pouvons calculer R2 corrigé :
R2 corrigé = 1 - [(1-R2)(n-1)/(n-k-1)] = 1 - [(1-0.8107)(14-1)/(14-3-1)] = 0.7748
Ainsi, le coefficient de détermination est R2 = 0.8107 et le coefficient de détermination
corrigé est R2 corrigé = 0.7748. Cela signifie que le modèle explique environ 81% de la
variation totale de Y, et que le R2 corrigé prend en compte le nombre de variables et
d'observations dans l'échantillon pour éviter une surévaluation du R2.
4- Les variables explicatives sont-elles significativement contributives pour
expliquer la variable endogène ?̀
Pour cela, on peut utiliser le test F de Fisher qui consiste à calculer le rapport de la variance
expliquée par le modèle (RSE) sur la variance résiduelle (RSD) et à le comparer à une loi de
Fisher avec k et n-k-1 degrés de liberté (k est le nombre de variables explicatives et n est le
nombre d'observations).
Si la statistique de test F est supérieure à la valeur critique de la loi de Fisher, on peut rejeter
l'hypothèse nulle au niveau de significativité choisi.
En utilisant les résultats de l'estimation du modèle, on peut calculer la statistique de test F
comme suit : F = (RSE/(k-1)) / (RSD/(n-k-1))
RSE : est la variance expliquée par le modèle
RSD : est la variance résiduelle
k ; est le nombre de variables explicatives (ici k=3)
n : est le nombre d'observations (ici n=14).
On peut obtenir RSE et RSD à partir des sommes de carrés expliquées (SCE) et des sommes
de carrés résiduelles (SCR) :
RSE = SCE / (n - k) RSD = SCR / (n - 1)
En utilisant les résultats donnés, on peut calculer :
SCE = 665.2779 SCR = 72.4056 RSE = 55.43983 RSD = 5.201828
on obtient:
F = (RSE/(k-1)) / (RSD/(n-k-1)) = (55.43983/2) / (5.201828/11) = 20.2597
Le nombre de degrés de liberté pour la loi de Fisher est k=3 et n-k-1=10. Pour un risque alpha
de 5%, la valeur critique de la loi de Fisher est de 3.054, ce qui est inférieur à la statistique de
test F calculée ci-dessus.
On peut donc conclure que les variables explicatives sont significativement contributives pour
expliquer la variable dépendante, au risque alpha de 5%.

5- Le coefficient β1 est-il significativement inferieur a 1 ?


Pour déterminer si le coefficient β1 est significativement inférieur à 1, nous devons effectuer
un test d'hypothèse. L'hypothèse nulle (H0) est que β1 = 1, et l'hypothèse alternative (Ha) est
que β1 < 1.
Pour effectuer ce test, nous avons besoin de la statistique du test t. La statistique t pour β1 est
calculée comme suit : t = (β1 - 1) / (erreur standard de β1)
L'erreur standard de β1 peut être trouvée dans la sortie de l'analyse de régression. Nous
supposerons un niveau de signification de 5 %, donc nous utiliserons une valeur critique de t
de -1,647 (avec 12 degrés de liberté pour les résidus).
Si la statistique t calculée est inférieur à la valeur critique de t, nous rejetterons l'hypothèse
nulle et conclurons que β1 est significativement inférieur à 1.
À partir des données, on trouve que : β1 = -0,1564 Erreur standard de β1 = 0,0903
La statistique t est donc : t = (-0,1564 - 1) / 0,0903 = -12,9
Cette valeur de t est inférieure à la valeur critique de t de -1,647, ce qui signifie que nous
rejetons l'hypothèse nulle et concluons que β1 est significativement inférieur à 1.

6- Les coefficients β1 et β2 sont-ils simultanément et significativement́ différents de


1 et ́ −0.5 ?

Pour déterminer si les coefficients β1 et β2 sont simultanément et significativement différents


de 1 et -0.5, nous devons effectuer un test d'hypothèse. L'hypothèse nulle (H0) est que β1 = 1
et β2 = -0.5, et l'hypothèse alternative (Ha) est que l'un ou les deux coefficients sont différents
de leur valeur nulle.
Pour effectuer ce test, nous avons besoin de la statistique F. Nous comparerons la valeur de la
statistique F calculée à une valeur critique de F pour un niveau de signification de 5 % et 2 et
9 degrés de liberté pour les contraintes sur β1 et β2, respectivement.
La sortie de l'analyse de régression peut être utilisée pour calculer la somme des carrés des
résidus pour chaque modèle et le nombre de degrés de liberté pour chaque modèle. Nous
avons donc :
M1 : SCE1 = 234.57, df1 = 12 M2 : SCE2 = 111.05, df2 = 9
La statistique F est donc : F = ((SCE1 - SCE2) / (df1 - df2)) / (SCE2 / df2) = 4.49
La valeur critique de F pour un niveau de signification de 5 %, 2 et 9 degrés de liberté est de
4,26. La statistique F calculée est supérieure à cette valeur critique, ce qui signifie que nous
rejetons l'hypothèse nulle et concluons que les coefficients β1 et β2 sont simultanément et
significativement différents de 1 et -0.5.
En d'autres termes, il existe des preuves statistiques pour affirmer que les coefficients β1 et β2
ne sont pas égaux à 1 et -0.5 simultanément.

7- Quel est l’intervalle de confiance pour la variance de l’erreur ?

Pour trouver l'intervalle de confiance pour la variance de l'erreur, on a besoin de calculer la


somme des carrés des résidus (SCR) et le nombre de degrés de liberté (df) du modèle.
Ensuite, on peut utiliser la distribution de Chi carré pour construire l'intervalle de confiance.
SCR = Σ(Yi - Ŷi)²
où Yi sont les valeurs observées de la variable dépendante Y, et Ŷi sont les valeurs prédites
par le modèle.
Le nombre de degrés de liberté du modèle est :
df = n - k - 1
où n est le nombre d'observations et k est le nombre de variables explicatives dans le modèle
(dans ce cas, k = 3).
on peut calculer la SCR et les degrés de liberté :
SCR = 34.0469 df = 10
Ensuite, on peut utiliser la distribution de Chi carré pour construire l'intervalle de confiance
pour la variance de l'erreur. Pour un niveau de confiance de 95%, l'intervalle de confiance est
donné par :
[ (df * SCR) / χ²(α/2, df), (df * SCR) / χ²(1-α/2, df) ]
où α est le niveau de signification (1 - niveau de confiance), et χ² est la fonction de répartition
de la distribution de Chi carré.
En utilisant une table de valeurs ou un logiciel de statistiques, on peut trouver les valeurs
critiques de χ². Pour un niveau de signification de 0.05 et 10 degrés de liberté, les valeurs
critiques sont χ²(0.025, 10) = 3.9403 et χ²(0.975, 10) = 20.4832.
En substituant les valeurs dans la formule de l'intervalle de confiance, on obtient :
[ (10 * 34.0469) / 20.4832, (10 * 34.0469) / 3.9403 ]
Soit [5.221, 27.174].
Par conséquent, l'intervalle de confiance pour la variance de l'erreur est [5.221, 27.174].

Enoncé 2
1- Est ce que l’ajout des variables explicatives X2 et X3 dans le modèlè amélioré́ -t-il
significative- ment la qualité ́ de l’estimation par rapport a ̀ X1 seul ?
Pour répondre à cette question, nous pouvons utiliser le test de Fisher qui permet de tester si
l'ajout de variables dans le modèle améliore significativement la qualité de l'estimation par
rapport au modèle initial.
La statistique de test est donnée par : F = [(SCR1 - SCR 2) / q] / [SCR 2 / (n - p - 1)] où :
• SCR 1 est la somme des carrés des résidus du modèle avec X1 seul,
• SCR 2 est la somme des carrés des résidus du modèle avec X1, X2 et X3,
• q est le nombre de variables supplémentaires ajoutées (2 dans notre cas),
• n est le nombre d'observations (14),
• p est le nombre de variables explicatives dans le modèle final (3 dans notre cas).
La distribution de F suit une loi de Fisher avec q et n - p - 1 degrés de liberté.
On peut alors comparer la valeur de F observée avec la valeur critique de la loi de Fisher pour
un niveau de confiance donné. Si la valeur observée est supérieure à la valeur critique, on peut
rejeter l'hypothèse nulle selon laquelle l'ajout de variables n'améliore pas significativement la
qualité de l'estimation.
Calculons d'abord les RSS pour les deux modèles :
• Avec X1 seul : SCR 1 = 141.7857
• Avec X1, X2 et X3 : SCR 2 = 74.0535
Calculons ensuite la valeur observée de la statistique de test F : F = [(SCR 1 - SCR 2) / q] /
[SCR 2 / (n - p - 1)] = [(141.7857 - 74.0535) / 2] / [74.0535 / 10] = 6.181
En utilisant une table de valeurs critiques pour la loi de Fisher avec 2 et 10 degrés de liberté
(ou un logiciel statistique), on trouve que la valeur critique pour un niveau de confiance de
95% est d'environ 4.10.
Puisque la valeur observée de la statistique de test F est supérieure à la valeur critique, on peut
conclure que l'ajout des variables explicatives X2 et X3 améliore significativement la qualité
de l'estimation par rapport à X1 seul.
En d'autres termes, le modèle avec X1, X2 et X3 explique mieux les variations de Y que le
modèle avec X1 seul.
2- Peut-on considérer le modèle ( a ̀ trois variables explicatives) comme stable sur
l’ensemble de la période, ou doit́ -on procéder ́ a ̀ deux estimations, l’une de la
période 1 ́ à 7, et l’autre de la période 8 ́ à 14 ?
La statistique de test de Chow suit une loi de F avec (k+1) et (n-k-2) degrés de liberté, où k
est le nombre de variables explicatives (3 dans ce cas) et n est le nombre total d'observations
(14 dans ce cas).
En utilisant une valeur seuil de 0,05, on peut comparer la valeur de la statistique de test de
Chow à la valeur critique de la loi de F pour déterminer si le modèle doit être considéré
comme stable sur l'ensemble de la période ou s'il est préférable de procéder à deux
estimations.
La valeur de la statistique de test de Chow est de 0,714 avec une valeur critique de la loi de F
de 3,62 pour 3 et 10 degrés de liberté. Étant donné que la valeur de la statistique de test est
inférieure à la valeur critique, on ne peut pas rejeter l'hypothèse nulle selon laquelle les
coefficients du modèle sont stables sur l'ensemble de la période.
Par conséquent, on peut considérer que le modèle à trois variables explicatives est stable sur
l'ensemble de la période. Il n'est pas nécessaire de procéder à deux estimations pour les
périodes 1 à 7 et 8 à 14.
3- Un économiste suggère que dans ce mod̀ ele ̀ β1 = 1 et β2 = β3, qu’en pensez-vous
?
Le modèle proposé par l'économiste est différent de celui utilisé actuellement, car les
coefficients β1, β2 et β3 sont modifiés. Si nous remplaçons ces coefficients dans le modèle
actuel, nous obtenons :
Yi = β0 + β1Xi1 + β2Xi2 + β3Xi3 + εi
Yi = 3.0693 + (1)Xi1 + (β3)Xi2 + (β3)Xi3 + εi
Yi = 3.0693 + Xi1 + (0.1217)Xi2 + (0.1217)Xi3 + εi
Le modèle proposé par l'économiste suppose que la variable X1 a une influence directe sur Y,
tandis que les variables X2 et X3 ont une influence indirecte via β2 et β3. Cela peut ne pas
être réaliste car il est peu probable que les coefficients soient exactement égaux. De plus, il est
important de rappeler que les coefficients dans un modèle de régression doivent être estimés à
partir des données, et il est peu probable que les données soutiennent l'hypothèse que β1 = 1 et
β2 = β3.
En fin de compte, il serait préférable de continuer à utiliser le modèle actuel, car il a été
estimé à partir des données et il fournit une bonne représentation des relations entre les
variables explicatives et la variable dépendante.

Vous aimerez peut-être aussi