Vous êtes sur la page 1sur 9

~1~

ISP BOMA

ECONOMETRIE

EXERCICES D’APPLICATION

Il vous est demandé de suivre le PIB d’un pays de votre choix en utilisant
le modèle de production ci-après : Q=A avec : Q= la quantité de la
production, K= la quantité de facteur capital, L= la quantité du facteur travail ;
et les paramètres du modèle.

Il est opportun de choisir les données relatives à ce pays sur une période
de 30 ans sur une base annuelle.

Travail demandé :

a. Justifier votre choix,


b. Estimer les paramètres du modèle par la méthode de MCO,
c. Trouver le coefficient de détermination,
d. Tester la signification des paramètres individuellement et pris dans
l’ensemble au seuil de 5%.
e. Déterminer le rendement de l’échelle croissant,
f. Faire la vérification des hypothèses ci-après :
1. Tester la normalité des résidus d’estimation en recourant au test
de Jacques Buvat (J.B) ;
2. Tester l’absence d’autocorrélation des erreurs par la statistique de
Durbin-Waston ;
3. Tester l’absence d’hétéroscédasticités en recourant au test de
Spearman et au test de White ;
4. Tester la colinéarité par le test de Klein ;
5. Vérifier un éventuel défaut de spécification par le test RESET de
Ramsey.
~2~
RESOLUTION

a. Justification de choix du pays

b. Estimer les paramètres du modèle par la méthode de MCO.


Le modèle à estimer est : Q=A

- Le vecteur des paramètres estimés est : [ ] ( )

- Variable expliquée :
∑ ∑ ∑
X’X=*∑ ∑ ∑ + et X’Y=*∑ +
∑ ∑ ∑ ∑

X'X=[ ] et X'Y= [ ]

Pour le calcul de( ) , on a besoin de déterminat de X’X et la


matrice de X’X. On vérifie aisément que X’X est définie positive :
T=30
* + =10440-7056=3384

[ ]
~3~

L’inverse de X’X est ( )

( ) =


[ − ] [ ]
(X’X)-1. X’.Y= − −

(X’X)-1. X’.Y= [ ]

D’où :

Le modèle à estimer est :

c. Le coefficient de détermination en pourcentage est donné par :


( ) ̅
= avec Y’Y=∑

[ ][ ] ( )
( ) ̅
= ̅
=
( )

( )
( )

=
~4~
Donc les variables indépendantes (facteurs capital et travail) expliquent à
98,81% la variable dépendante PIB.


̅ − ( − )

= 1- ( − )

d. Tester la signification des paramètres individuellement est pris dans


l’ensemble au seuil de 5%. T « t » de student.
Nous avons besoin de la matrice de covariance : ( )
( ) −
On sait que : ; =
=
=


( ) =0,5107770370.( − )
− −


=( − )
− −

 0,13336269 =√ =√ = 0,355188568

 0,05585980 =√ =√ =0,236346780

 0,01937572 =√ =√ =0,139196696

Ensuite,

 = =3,49937

 = =2,86852

 = =10,69494
~5~
Ces valeurs de t sont à comparer à la valeur tabulaire à T-3=27
degré de liberté. Au seuil de 5%,
Le degré de liberté : , n-p-1
, 30-2-1
=2,048
: est significatif
: n’est pas significatif
=3,49937 et 2,048

est significatif

: est significatif
: n’est pas significatif
=2,236346780 et 2,048

est significatif

: est significatif
: n’est pas significatif
= 10,69494 et 2,048

est significatif

1. Test sur la normalité d’estimation de résidus avec Jacques Buvat (J.B)


Moment centrer du 2e , 3e et 4e ordre.
∑̂
( ̂ )= moment d’ordre 2
∑̂
( ̂ )= moment d’ordre 3
∑̂
( ̂ )= moment d’ordre 4

=( ̂ )=√ ̂ ( ̂ )
~6~
Nous avons :
∑̂
( ̂ )= = =0,4597
∑̂
( ̂ )= = −0,05879
∑̂
( ̂ )= = 0,38847

=( ̂ )=√ ̂ ( ̂ )=√

Calculons le coefficient d’asymétrie et le coefficient d’aplatissement ( )


Recherche de :

Calcul de
(̂ )
√ =
[ ( ̂ )]
=− ( )
− −

√ − (√ ) (− )

Calcul de
(̂ )
=
[ ( ̂ )] ( )

√ ( )

La statistique de J.B consiste à calculer :


J.B =S= ( − )
= ( − )
=5.0, 355784+ ( )

=1,77892+

=1,77892+0,179795
=
Ce test consiste à comparer à (Test de Chi-deux).
Degré de liberté :

{

Paramètres p-1 :

Normalité des résidus


~7~

Donc est accepté. Il y a normalité des résidus

2. Test d’absence d’auto corrélation des erreurs par Durbin et Waston


Le test est basé sur le calcule statistique d qui a comme expression :
∑̂̂
( − )
∑̂

( − )
=2(1+0,9851)
=2(1,9851)
=

Le test consiste à placer 3,9702 dans l’une des zones suivantes :

I 0,05 II 1,475 III 2,525 IV 3,05 V

0 dL dU 2 4-dU 4-dL 4

dU=

dL=0,95

dU=

− −
{
− −

3,970 ,

D’où il y a auto corrélation positive car 3,970 dans la zone V.

3. Le test d’absence de d’hétéroscédasticité en recourant au test de


Spearman et au test de White.

Nous allons d’abord calculer le coefficient de corrélation de rang :



rs= − ( ( )
)
~8~

=1-6( (
)
)

=1-6( )

=1-6(0,151)

=1-0,90634

rs=0,09366

La valeur de rs nous permet de calculer :


t=


=
√ ( )

=

=

Cette valeur de t-calculé est comparé au t-tabulaire à 2 degrés de liberté. Au


seuil de 5%, tt=t0,05; 28=….

| − | On accepte l’hypothèse d’homoscédasticité ou d’absence


d’hétéroscédasticité.

4. Tester la colinéarité par le test de Klein

Ce test est fondé sur la comparaison du coefficient de détermination R2 aux


carrés des coefficients de corrélation simple entre les variables explicatives ( )

Si R² pour 2 variables explicatives xj et xk, il y a présomption de


multicolinéarité.

Nous avons :
∑( ̅ )( ̅ )
√∑( ̅ ) ∑( ̅ )
~9~

=
√ ( )

=

=0,05007

Il n’y a pas risque de colinéarité entre les variables explicatives.

5. Test de Ramsey

Le test de Ramsey sur Eview présente le tableau suivant :

Vous aimerez peut-être aussi