Vous êtes sur la page 1sur 3

Site internet de Mazamba Tédie http://mazambatedie.free.fr/spip.php?

article17

Les tests de significativité


mercredi, 9 mai 2007 / Mazamba Tédie

Plan de la rubrique :

1. L’économétrie
1. La méthode du maximum de vraisemblance
2. La méthode des MCO
3. Les tests de significativité
4. L’autocorrélation

This plug-in isn't supported

Introduction

Ce section présente les différentes configurations de tests possibles. Il s’agit essentiellement du


test de student pour la significativité individuelle des paramètres et le test de Fischer pour la
significativité globale.

1. Test de student

1.1 Test de Student : H0 : â = a contre â ≠ a

A partir de la statistique ti (voir la page consacrée à la méthode des MCO), il est possible de
construire un test qui permet de valider ou de rejeter la significativité des paramètres du modèle
suivant :

Posons le test,

Le test (1) est le test le plus fréquent. C’est un test bilatéral. Nous pouvons envisager des tests
unilatéraux (gauche ou droite). Une bonne façon d’aborder le problème est de considérer la
distance â - a ou cette différence divisée par une quantité appropriée pour contourner les
problèmes dus aux unités. Nous pouvons donc considérer la statistique (â - a) / σâ où σâ est
l’écart type ou erreur-type de l’estimateur. Ce ratio suit une loi normale centrée réduite. Mais
comme cette statistique dépend de σ2 (rappelons que la matrice de variances-covariances de

l’estimateur des MCO du vecteur A s’écrit qui est un paramètre


inconnu, il faut le remplacer par son estimateur. Nous proposons donc cette nouvelle statistique,

Elle suit une loi de Student à M-K degrés de liberté, t(M-K), puisque le dénominateur suit
maintenant une loi du Chi-deux.

La règle de décision associée au test (1) est donc la suivante :

1. Si |t| ≥ tα, on rejette l’hypothèse nulle.


2. Si |t| < tα, on accepte l’hypothèse nulle.
Le cas particulier le plus intéressant est bien évidemment a=0. Sous l’hypothèse nulle, nous dirons
que â n’est pas significatif et donc que la variable qui lui est associée ne permet pas d’expliquer
les variations de la variable endogène, y.

1.2 Autres tests de student

Nous allons aborder un certain nombre de tests à partir de l’exemple d’une fonction de production
Cobb-Douglas : Yt=C Kta Htbev soit encore ln Yt = ln C + a ln Kt + b ln Ht + v ou encore,

1.2.1 Test de student : H0 : a + b = 1 contre a + b ≠ 1

Ce test est intéressant dans le sens où il permet de déterminer si la fonction de production de


l’économie considérée est à rendement d’échelle constant (hypothèse nulle), décroissant ou
croissant (hypothèse alternative).

Considérons la quantité,

Nous savons d’après les développements précédents que cette quantité suit une loi normale
centrée réduite. Mais comme elle dépend de σ2 inconnue, on choisira comme statistique pour
réaliser le test la variable aléatoire suivante :

Elle suit une loi de student à M-K degrés de libertés : ti~t(M-K).

Il est clair que,

La règle de décision est toujours la même : si |t|≥ tα, on rejettera l’hypothèse nulle. Dans le cas
contraire, on accepte.

1.2.2 Tes de student : H0 : a = b contre a ≠ b

Posons le test,

On teste ici l’hypothèse que les variables K et H ont les mêmes coefficients.

Nous choisirons comme statistique du test :

Rappelons que les variances et les covariances sont à trouver dans la matrice des variances-
covariances des estimateurs.

La règle de décision est : si |t|≥ tα, on rejettera l’hypothèse nulle. En d’autres termes, la
différence constatée est trop élevée pour que cela soit dû au hasard. Dans le cas contraire, on
acceptera l’hypothèse nulle.

2. Test de Fischer (F-Test)


Le test de Fisher permet de déterminer si l’ensemble des variables explicatives prises
simultanément (à l’exception de la constante) permet d’expliquer les variations de la variable
dépendante, ici la production : y. Dans ce ce but, on pose le test suivant :

L’idée de ce test est de comparer la qualité du modèle sans variables explicatives c’est à dire avec
uniquement la constante et le modèle avec les variables explicatives et la constante. Si cette
différence est significative, cela veut dire qu’au moins une variable explicative permet d’améliorer
la qualité du modèle. Pour mettre en oeuvre le test, on prend la somme des carrés de résidus de
chaque modèle et on prend la statistique suivante :

Où SSR0 et SSR1 représentent respectivement la somme des carrés des résidus du modèle ayant
pour variable explicative la constante uniquement et la somme des carrés des résidus du modèle
complet. "f" suit une distribution de Fischer car le numérateur le dénominateur suivent des lois du
Chi-deux respectivement à K-1 et M-K degrés de liberté.

On montre que "f" peut encore s’écrire :

Où R2 est le coefficient de détermination du modèle complet.

La règle de décision sera donc la suivante : si f≥ Fα(K-1,M-K), on rejette l’hypothèse nulle sinon
on accepte.

Notons que cette procédure peut-être utilisée pour tester une spécification à K variables
explicatives contre une autre à K-J variables explicatives. Ce qui permet de choisir le meilleur
modèle ou encore de juger de la pertinence de l’ajout ou du retrait de variables explicatives.

Vous pouvez continuer la lecture avec : L’autocorrélation.

Vous aimerez peut-être aussi