Académique Documents
Professionnel Documents
Culture Documents
Notes de cours
Méthodes économétriques
Mohamed Bouzahzah
1
Chapitre 2. Le modèle linéaire multiple
2
Chapitre 2. Le modèle linéaire multiple
- Le modèle linéaire multiple (régression multiple) est une généralisation du modèle linéaire simple.
-L’essentiel des techniques qui sous-tendent le modèle linéaire simple restent valables
- Dans le modèle multiple on s’intéresse à savoir dans quelle mesure les variations de la variable expliquée
sont expliquées par les variations des variables explicatives : x1, x2,…, xk
y i 0 1 x1 ... k x k i i 1, 2 ,..., n
On peut montrer que si les hypothèses suivantes (Gauss-Markov) sont remplies
1. E ( i ) 0 2. V ( i ) 2
3. cov( i , j ) 0 i j
4. cov( i , x i ) 0 5. i N ( 0 , 2 )
Les estimateurs par les moindres carrés ˆ 0 , ˆ1 ,..., ˆ k sont non biaisés et présentent la variance la plus
petite de tous les autres estimateurs (moments et maximum de vraisemblance)
3
Chapitre 2. Le modèle linéaire multiple
Bien entendu, comme dans le cas simple, les estimateurs par les moindres carrés sont ceux qui minimisent la
somme des carrés des résidus. Soit
y 0 1 x1 ... k x k
n n
SCR ˆ 2
i 1 i i 1 i
2
En plus des hypothèses précédentes (Gauss-Markov), il ne faut pas qu’il ait de colliniarité entre les variables
explicatives. C’est-à-dire qu’il n’existe pas de relation linéaire déterministe entre les variables
explicatives.
4
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit
y i 0 1 x1 i ... k x ki i i 1, 2 ,..., n
Le système complet s’écrit
y 1 0 1 x11 ... k x k 1 1
M
y x ... x
n 0 1 n1 k kn n
La colonne de la constante
Y X
Les dimensions des matrices (n,1) = (n,k+1)*(k+1,1)+(n,1)
5
Chapitre 2. Le modèle linéaire multiple
1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par
SCR
2 ( X ' Y ) 2 ( X ' X ) ˆ 0
ˆ
Enfin les estimateurs sont donnés par le vecteur suivant
ˆ ( X ' X ) 1 X ' Y
6
Chapitre 2. Le modèle linéaire multiple
2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
ˆ ( X ' X ) 1 X ' Y
Ou encore
ˆ ( X ' X ) 1 X ' [ X ]
En distribuant,
ˆ ( X ' X ) 1 X ' X ( X ' X ) 1 X '
Ou ˆ ( X ' X ) 1 X '
En introduisant l’espérance, il vient que
E ( ˆ ) ( X ' X ) 1 X ' E ( )
E ( ˆ )
7
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Considérons les données suivantes
Y X1 X2 X3
8,5 16,9 0,7 2,1
7,2 19,2 0,9 2,4
11,3 9,6 0,6 2,0
4,6 4,9 0,3 2,0
13,0 18,0 0,9 1,9
11,0 10,5 0,6 2,2
10,1 14,8 0,8 2,0
7,8 19,9 1,0 2,0
9,1 17,8 0,9 1,9
11,0 16,4 0,9 2,1
12,0 18,1 0,8 2,0
11,1 9,3 0,5 2,1
9,2 13,6 0,7 2,4
4,6 10,0 0,6 1,8
3,1 1,2 0,1 1,7
18,5 20,4 1,1 2,0
12,6 15,3 0,9 2,2
12,0 18,9 0,8 2,1
4,9 5,4 0,3 2,0
15,9 17,4 0,9 2,2
9,2 8,7 0,5 2,1
10,6 10,3 0,6 2,1
12,2 18,2 0,9 2,0
13,9 14,4 0,7 2,4
24 , 00 329 , 20 17 , 00 49 , 70
329 , 20 5165 , 78 261 , 78 688 , 03
X'X
17 , 00 261 , 73 13 , 40 35 , 47
49 , 70 688 , 03 35 , 47 103 , 61
6 , 49 0 , 068 1, 34 3 ,10
1 0 , 068 0 , 020 0 , 42 0 , 023
X
1, 34 0 , 42 9 , 53 0 ,17
1, 59
3 ,120 0 , 023 0 ,17
243 , 40 ˆ 0 4 ,985
3616 , 28 0 ,323
ˆ
X 'Y ˆ 1
186 , 26 ˆ
16 , 237
2
ˆ 3 ,894
509 , 00
3
9
Chapitre 2. Le modèle linéaire multiple
3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24
10
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
Supposons que deux variables x1 et x2 permettent d’expliquer une variable dépendante y
Les coefficients ˆ1 et ˆ 2 donnent une estimation de l’influence de chacune des deux variables
explicatives sur y en contrôlant l’effet de l’autre variable explicative.
Supposons que
ˆ1 0 ˆ 2 0 cov( x1 , x 2 ) 0
y i 0 1 x1
11
Chapitre 2. Le modèle linéaire multiple
4. Interprétation des coefficients dans la régression multiple
y i 0 1 x1
Si x1 augmente alors
Ainsi avec un modèle simple, la valeur de ˆ1 va capter tous ces effets et sa valeur sera sur-estimée par
rapport à la réalité. Donc ˆ1 sera biaisé. Ainsi, lorsque certaines variables ne sont pas prises en compte
les estimateurs sont biaisés.
Ainsi, plus le nombre de variables explicatives est important, plus les estimateurs auront moins tendance à
être biaisés.
12
Chapitre 2. Le modèle linéaire multiple
Malheureusement, on ne peut pas inclure toutes les variables. Et ce pour deux raisons
- Certaines ne sont pas connues ou ne sont pas mesurables
- La précision des estimations devient faible
Le choix des variables explicative à inclure dans le modèle est le problème majeur qui se pose en pratique.
Ces problèmes sont surmontés grâce à l’expérience et à la connaissance fine du domaine et de la théorie
économique.
Un autre problème se pose lorsqu’on considère un nombre important de variables explicatives. Il y a le
risque que certaines d’entre elles soient corrélées. Dans ce cas il est difficile de déterminer l’effet de
chacune d’entre elles. C’est le problème de la multicollinéarité.
Enfin se pose le problème de la stratégie d’estimation
- Du général vers le particulier
- Du particulier vers le général
13
Chapitre 2. Le modèle linéaire multiple
Lorsqu’une variable explicative n’est pas significative (c.a.d. pour laquelle H0 est acceptée) on régresse le
modèle à nouveau sans la prendre en considération. Par contre, on garde la constante même si elle n’est
pas significative (Stratégie d’estimation)
14
Chapitre 2. Le modèle linéaire multiple
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24
15
Chapitre 2. Le modèle linéaire multiple
Dependent Variable: Y
Method: Least Squares Dependent Variable: Y
Date: 04/15/21 Time: 13:54 Method: Least Squares
Sample: 1 24 Date: 04/15/21 Time: 13:55
Included observations: 24 Sample: 1 24
Included observations: 24
Variable Coefficien... Std. Error t-Statistic Prob.
Variable Coefficien... Std. Error t-Statistic Prob.
C -3.895437 6.810711 -0.571957 0.5734
X2 9.507400 2.427714 3.916195 0.0008 C 2.918405 1.747078 1.670449 0.1090
X3 3.526453 3.407275 1.034977 0.3125 X2 10.19755 2.338113 4.361444 0.0002
R-squared 0.489733 Mean dependent var 10.14167 R-squared 0.463705 Mean dependent var 10.14167
Adjusted R-squared 0.441136 S.D. dependent var 3.639269 Adjusted R-squared 0.439328 S.D. dependent var 3.639269
S.E. of regression 2.720616 Akaike info criterion 4.956062 S.E. of regression 2.725013 Akaike info criterion 4.922479
Sum squared resid 155.4367 Schwarz criterion 5.103319 Sum squared resid 163.3653 Schwarz criterion 5.020650
Log likelihood -56.47274 Hannan-Quinn criter. 4.995129 Log likelihood -57.06975 Hannan-Quinn criter. 4.948524
F-statistic 10.07746 Durbin-Watson stat 1.753960 F-statistic 19.02219 Durbin-Watson stat 1.601258
Prob(F-statistic) 0.000855 Prob(F-statistic) 0.000250
16
Chapitre 2. Le modèle linéaire multiple
(y ( yˆ (y
2
i y) i y )2 i yˆ i ) 2
Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE K–1 SCE / (k -1)
Résidus SCR n–2 SCR / (n – 2)
Total SCT n-1
SCE SCR
R2 1
SCT SCT
17
Chapitre 2. Le modèle linéaire multiple
SCR /( n k 1)
R 2
1
SCT /( n 1)
18
Chapitre 2. Le modèle linéaire multiple
24 1
R 2
1 (1 0 , 506753 ) 0 , 432766
24 3 1
19
Chapitre 2. Le modèle linéaire multiple
SCE / k R2 /k
F
SCR /( n k 1) (1 R 2 ) /( n k 1)
H 0 : 1 2 ... k 0
H1 : i 0
Ce test donne le pouvoir explicatif des toutes les variables prises ensemble.
On peut montrer que F suit une loi de Fisher avec (k) et (n - k - 1) d.d.l
20
Chapitre 2. Le modèle linéaire multiple
R2 /k 0 ,5067 / 3
F 6 ,849
(1 R 2 ) /( n k 1) (1 0 , 5067 ) /( 24 3 1)
Prob ( F ) 0 , 00234
21
Application : validation empirique du modèle de Solow ?
Economiste américain
Travaux sur la théorie de la croissance, résidu de Solow
Paradoxe éponyme
Prix Nobel 1987 pour ces travaux.
22
Présentation du modèle
- Apportent une première explication aux écarts de développement et de taux de croissance entre pays
- Constituent les bases de la théorie de la croissance
- Courant néoclassique
Le modèle de Solow utilise deux équations ; la fonction de production et celle d’accumulation du capital.
L’ économie produit un bien composite en quantité Y à partir de deux facteurs primaires K et L selon une
technologie à rendements constants
Hypothèses :
- Economie fermée et absence de l’Etat I = S
- L’épargne est une fraction fixe s du revenu S = s Y
- Fonction de production néoclassique Y = F (K, L)
* substitution entre capital et travail
* PmF décroissantes (Hypothèse très importante)
* Rendements constants
23
Présentation du modèle
Exemple : Fonction de production Cobb-Douglas
Yt F ( Kt , Lt ) Kt L1t 0 1
At (1 g ) At 1 Nt (1 n) Nt 1
Lt (1 n g ) Lt 1
24
Pour simplifier, nous présentons toutes les variables par rapport au volume de la force de travail efficient
Yt Kt
Ainsi, on pose yt et kt
Lt Lt
~ Y
Le revenu par habitant est donné par yt t
Nt
Yt
yt F (kt ,1) f (kt )
Lt
1
Yt Kt Lt
yt kt
25
L ’accumulation du capital physique
y c i
Les individus épargnent une fraction constante s du revenu et consomment la fraction restante (1-s)
c (1 s)y
y (1 s ) y i
i sy i sf ( k )
k sf ( k ) ( n g ) k
26
3. Confrontations aux données
y k
k sf (k ) (n g )k 0
sk (n g ) k 0
sk (n g )k sk 1 (n g )
1
s 1
kes
n g
27
3. Confrontations aux données
Si on remplace dans la fonction de production et on introduit le logarithme des deux côtés nous obtenons
ln( y ) ln( A0 ) ln( s ) ln(n g )
1 1
Le A0 reflète non seulement l’état de la technologie mais aussi les ressources, le climat, les institutions, etc. Donc
il diffère d’un pays à un autre.
On peut écrire
A0 0
28
3. Confrontations aux données
Nous utilisons les données de MANKIW N.G., D. ROMER et D. WEIL (1992), “A contribution to the
empirics of economic growth”, The Quarterly Journal of economics, vol. 107, no.2, pp. 407-437.
29
3. Confrontations aux données
MRW(1992) introduisent un troisième facteur : le capital humain
Yt K t H t ( At Lt )1
Le revenu d’équilibre est donné par
ln( y ) 0 1 ln(sk ) 2 ln(n g ) 2 ln(sh )
-MRW(1992) prédisent des paramètres , ,
1 2 3
Dependent Variable: GDP
Method: Least Squares
Date: 04/20/21 Time: 15:36
Sample: 1 106
Included observations: 106
30
Chapitre 3. Variations autour du modèle
linéaire multiple
31
- Les propriétés des estimateurs dépendent des propriétés de l’erreur
- Jusqu’à présent nous avons supposé que l’erreur satisfait toutes les conditions de Gauss-Markov
- Dans ce chapitre nous allons examiner ce que devient le modèle linéaire si une ou plusieurs conditions ne sont
pas satisfaites.
Pour chacune des conditions nous allons examiner, à chaque fois que c’est possible, les éléments suivants :
32
3.1. La nullité de la moyenne des erreurs E ( ) 0
ˆ i 0
En réalité à chaque fois que le modèle contient une constante on est sûr que cette condition est vérifiée
33
3.2. La variance est finie et constante
Nous avons supposé que la variance est constante E ( 2 ) 2 . Dans ce cas on parle d’un modèle
homoscédastique. Dans le cas contraire on parle de modèle hétéroscédastique
. . .. . .
0
. . .. . .
.
Homoscédasticité
34
3.2. La variance est finie et constante
Nous avons supposé que la variance est constante E ( 2 ) 2 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique
. .
.. . .
0
. . .
. . .
.
Hétéroscédasticité
35
3.2. La variance est finie et constante
Nous avons supposé que la variance est constante E ( 2 ) 2 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique
. .
. . ..
0
. .. .
. .
.
hétéroscédasticité
36
3.2. La variance est finie et constante
Si nous reprenons l’exemple du modèle de Solow, la distribution des résidus est donnée par
4
-1
-2
-3
10 20 30 40 50 60 70 80 90 100
GDP Residuals
37
3.2. La variance est finie et constante
Comment détecter l’ hétéroscédasticité ?
2. Les tests formels. Il en existe plusieurs. Le plus utilisé et qui est implémenté dans Eviews est le test de White
Il consiste à utiliser une régression auxiliaire.
On rérgesse le carré des résidus sur les variables explicatives, les carrés des variables explicatives et sur les produits
croisés des variables explicatives
Si par exemple notre modèle s’écrit
y 0 1 x1 2 x2
La régression auxiliaire est donnée par
ˆ 2 0 1 x1 2 x2 3 x12 4 x22 5 x1 x2
Si on note R2 le coefficient de détermination de cette régression on peut montrer que sous l’hypothèse nulle
d’homoscédasticité nR2 suit approximativement un Chi-deux avec q degrés de libertés (q est le nombre de
variables explicatives dans le nouveau modèle (ici 5).
Bien entendu si nR 2 2 on accepte l’hypothèse nulle que le modèle est homoscédastique
q ,
38
3.2. La variance est finie et constante
Reprenons l’exemple du modèle de Solow
Dans Eviews il faut aller
view residual diagnistics heteroscedasticity tests white
Eviews rend le résultat suivant
Heteroskedasticity Test: White
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 04/20/21 Time: 15:40
Sample: 1 106
Included observations: 106
Solutions
- Si on connait la source de l’hétéroscédasticité (population non homogène, grand pays et petits pays, données non
stationnaires, etc.) on peut résoudre le problème (prendre des variables par tête, travailler avec des données
stationnaires, etc). Utilisation des données en log
- On estime les erreurs standards à la white
- Dans ce cas il faut être prudent pour rejeter l’hypothèse nulle de non significativité des coefficients
Dans Eviews
Estimate equation options white
40
3.2. La variance est finie et constante
Reprenons le modèle de Solow
41
3.2. Condition 3. Absence d’autocorrélation
Les erreurs ne doivent pas être corrélées entre elles cov( i , j ) 0 i j
0 0
0 Absence d’autocorrélation
42
3.2. Condition 3. Absence d’autocorrélation
Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test de Durbin, test LM
Et que t t 1 t (2)
t 1 t 1 2 t 2 ... p t p t
43
3.2. Condition 3. Absence d’autocorrélation
Détection de l’autocorrélation
-Il existe un autre type d’autocorrélation appelée moyenne mobile MA. Elle peut être d’ordre q et notée MA(q).
-Si nous avons par exemple MA(3), elle s’écrit
t 0 t 1t 1 2 t 2 3t 3
-Bien entendu, il est possible d’avoir les deux types d’autocorrélations en même temps ARMA(p , q)
-Supposons que notre autocorrélation est de type AR(1)
t t 1 t
44
3.2. Condition 3. Absence d’autocorrélation
Le test de Durbin Watson consiste à tester
H 0 : 0
H1 : 0
La statistique de DW est donnée par
DW
(ˆ ˆ
t t 1 )2
ˆ t
2
Ainsi 0 2 4
45
3.2. Condition 3. Absence d’autocorrélation
Pour décider de manière formelle, on compare la statistique de Durbin Watson à in intervalle [ d , d ] qui dépend
des paramètres , k, n dont les valeurs sont lues sur une table de Durbin-Watson
Autocorrélation
Absence négative
Autocorrélation d’autocorrélation
positive
46
3.2. Condition 3. Absence d’autocorrélation
Reprenons notre exemple relatif au modèle de Solow
Elimination de l’autocorrélation
Supposons que le vrai modèle est
yt 0 1 xt t (1)
Et
t t 1 t t N (0, 2 )
48
3.2. Condition 3. Absence d’autocorrélation
Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
yt 0 1 xt t (1)
Et
t t 1 t t N (0, 2 )
Si le modèle est vrai pour t, il l’est aussi pour t -1
yt 1 0 1 xt 1 t 1
49
3.2. Condition 3. Absence d’autocorrélation
Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
yt 0 1 xt t (1)
Et
t t 1 t t N (0, 2 )
Si le modèle est vrai pour t, il l’est aussi pour t -1
yt 1 0 1 xt 1 t 1
50
3.2. Condition 3. Absence d’autocorrélation
Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.
Elimination de l’autocorrélation
Supposons que le vrai modèle est
yt 0 1 xt t (1)
Et
t t 1 t t N (0, 2 )
yt 1 0 1 xt 1 t 1
51
3.2. Condition 3. Absence d’autocorrélation
52
3.2. Normalité des erreurs
Afin de réaliser l’inférence statistiques nous avons supposé que les erreurs sont normales. Nous devons tester cette
hypothèse en testant la normalité des erreurs.
Il existe plusieurs tests pour vérifier si les erreurs sont un bruit blanc gaussien. Le plus connu et le plus utilisé
(implémenté dans Eviews) est le test de Jarque-Berra. Il est basé sur les moments d’ordre 3 (asymétrie ou Skewness)
et 4 (aplatissement ou Kurtosis).
3
1 ˆ ˆ
Le Skewness est donné par S i
T
4
1 ˆ ˆ
Le Kurtosis est donné par K i
T
Dans le cas de la loi normale nous avons S 0 et K 3
Le test de Jarque-Bera regroupe ces deux tests en un seul. La statistique de Jarque-Bera est donné par
T k 2 1
K
6
S 4 ( K 3) 2
53
3.2. Normalité des erreurs
T k 2 1
JB
6
S 4 ( K 3) 2
On peut montrer que, sous l’hypothèse nulle (les erreurs suivant une loi normale), cette quantité suit une loi de Khi-
deux avec 2 d.d.l.
Ainsi si JB 2 on ne peut rejeter l’hypothèse nulle et les erreurs suivent une loi normale.
Sur Eviews :
View Residual diagnostics Histogram-Normality test
54
3.3. Normalité des erreurs
Dans notre exemple relatif au modèle de Solow, Eviews rend le résultat suivant
20
Series: Residuals
Sample 1 106
16 Observations 106
Mean -2.79e-16
12 Median -0.035471
Maximum 3.156154
Minimum -2.002630
8 Std. Dev. 0.813848
Skewness 0.376422
Kurtosis 4.606005
4
Jarque-Bera 13.89495
Probability 0.000961
0
-2 -1 0 1 2 3
Comme la probabilité est inférieur à 0,05, on rejette H0 : les erreurs ne sont pas normales
55
3.4. Les autres quesitons
Test de spécification fonctionnelle
Jusqu’à présent nous avons supposé que le modèle est linéaire. Ce qui n’est pas forcément le cas.
On peut tester formellement l’hypothèse que la forme est linéaire en utilisant le test RESET (Regression
Specification Error Test).
On teste H0 : Forme fonctionnelle correcte
H1: Erreur de spécification
Le test fonctionne de la manière suivante :
On construit une régression auxiliaire
t 0 1 x1 ... 2 xk 1 yˆ t2 ... p 1 yˆ tp t
56
3.4. Les autres quesitons
Test de spécification fonctionnelle
Sur Eviews
-Estimer le modèle sous forme de liste de variables explicatives
View Stability test Ramsey RESET test Choix de P
En reprenant le modèle relatif au modèle de Solow et pour p =1, on obtient On accepte H0. Le
Ramsey RESET Test Unrestricted Test Equation:
modèle est bien
Equation: EQ01 Dependent Variable: GDP linéaire
Specification: GDP C INV POP Method: Least Squares
Omitted Variables: Squares of fitted values Date: 04/21/21 Time: 12:07
Sample: 1 106
Value df Probability Included observations: 106
t-statistic 1.431484 102 0.1553
F-statistic 2.049146 (1, 102) 0.1553 Variable Coefficie... Std. Error t-Statistic Prob.
Likelihood ratio 2.108397 1 0.1465
C -0.03257... 4.205901 -0.007746 0.9938
F-test summary: INV -2.75686... 2.958218 -0.931935 0.3536
Sum of S... df Mean Squares POP 1.836818 1.934073 0.949715 0.3445
Test SSR 1.369654 1 1.369654 FITTED^2 0.181975 0.127124 1.431484 0.1553
Restricted SSR 69.54667 103 0.675210
Unrestricted SSR 68.17702 102 0.668402 R-squared 0.481126 Mean dependent var 8.123731
Adjusted R-squared 0.465865 S.D. dependent var 1.118648
LR test summary: S.E. of regression 0.817559 Akaike info criterion 2.472017
Value df Sum squared resid 68.17702 Schwarz criterion 2.572524
Restricted LogL -128.071... 103 Log likelihood -127.016... Hannan-Quinn criter. 2.512753
Unrestricted LogL -127.016... 102 F-statistic 31.52652 Durbin-Watson stat 1.385906
Prob(F-statistic) 0.000000
57
3.4. Les autres quesitons
Le problème de la multicollinéarité
- On parle de multicollinéarité lorsque certaines variables explicatives sont liées entre elles de manière linéaire
-Le problème survient essentiellement dans le cas des séries temporelles et lorsque les variables présentent des
tendances fortes
- Lorsqu’il y a multicollinéarité le R2 est très élevé mais les SE sont très élevés, il s’en suit des intervalles de
confiances assez larges donc absence de précisions au niveau des tests
- Il existe plusieurs tests pour tester la multicollinéarité
- Nous en présentons deux
-Test de Klein
- Test de Farrar-Glauber
58
3.4. Les autres quesitons
Le problème de la multicollinéarité
Test de Klein : il consiste à examiner la matrice des corrélations simple
Si les coefficients de corrélations simples élevés au carré sont tous inférieurs à R2 alors il n’y a pas de risque de
multicollinéarité.
Dans notre exemple relatif au modèle de Solow, la matrice des corrélations simple est donnée par
INV POP GDP
INV 1 -0,29457977 0,67963517
POP -0,29457977 1 -0,28984326
GDP 0,67963517 -0,28984326 1
On voit qu’un des coefficients de corrélations simples élevés au carré est proche du R 2 =0,46, alors il y a risque de
multicollinéarité.
59
3.4. Les autres quesitons
Le problème de la multicollinéarité
Test de Farrar—Glauber :Il teste que le déterminant D de la matrice de corrélation est égal à 1.
Ainsi on teste
H0 : Les variables explicatives sont des variables aléatoires non-corrélées
H1 : Les variables explicatives sont des variables aléatoires corrélées.
Le test est basé sur le fait que sous H0 et avec une hypothèse de normalité, la statistique (sur 10 observations)
obs
2
n 1 16 [2( k 1) 5]log( D )
60
3.4. Les autres quesitons
Le problème de la multicollinéarité
Dans notre exemple, le déterminant de la matrice des coefficients de corrélation est donné par 0,483
Ainsi
obs
2
10 1 16 [2(3 1) 5]log(0,483) 2,15
Comme obs
2
2 on ne rejette pas H0. Il n’ ya pas de problème de multicollinéarité
61