Vous êtes sur la page 1sur 44

République Tunisienne

Ministère de l’Enseignement Supérieur


et de la Recherche
Ecole Supérieure de Commerce de Tunis

Cours d’Econométrie

Slim Ben Youssef et Haykel Hamdi

Année Universitaire : 2020-2021


Table des matières
Objectif du cours

Le but de cours est d’initier les étudiants aux méthodes fondamentales de l’écono-
métrie qui permettent de mesurer les relations entre des phénomènes économiques,
sociologiques sur la base d’observations de faits réels. Donner un contenu empirique
aux théories économiques afin de vérifier leur plausibilit.
Chapitre 1

Utilité et définition de l’économétrie

1.1 Définition
Définition 1.1 L’économétrie est le principal outil d’analyse quantitative utilisé par les
économistes et gestionnaires dans divers domaines d’application, comme la macroéco-
nomie, la finance ou le marketing. Les méthodes de l’économétrie permettent de véri-
fier l’existence de certaines relations entre des phénomènes économiques, et de mesurer
concrètement ces relations, sur la base d’observations de faits réels.
Dans son acception la plus restreinte, l’économétrie est un ensemble de techniques
utilisant la statistique mathématique qui vérifient la validité empirique des relations
supposées entre les phénomènes économiques et mesurent les paramètres de ces re-
lations. Au sens large, l’économétrie est l’art de construire et d’estimer des modèles
empiriques adéquats par rapport aux caractéristiques de la réalité, et intelligibles au
regard de la théorie économique.

1.2 Relations économiques


La réflexion que l’on peut mener sur une réalité économique quelconque conduit tou-
jours à établir des relations entre les phénomènes économiques concernés. Une réflexion
approfondie dans un domaine de science économique ou science de gestion est à la
base de toute analyse économétrique. En d’autres termes, la réalisation de travaux
économétriques suppose la connaissance préalable des disciplines économiques en jeu,
puisqu’elles suggèrent le type de relation à vérifier sur les données réelles observées.
— La consommation est fonction du revenu
— L’investissement privé dépend du taux d’intérêt

1.3 Le rôle de l’économétrie


— Tester les théories économiques : bien que découlant de raisonnements rigou-
reux, les théories reposent également sur des hypothèses plus ou moins vraisem-
blables et donc discutables. D’où la coexistence de différentes théories parfois
contradictoires. L’économétrie doit donc permettre de trancher.
1.4. L’économétrie comme outil d’investigation 5

— Evaluer les paramètres d’intérêt dans les relations économiques : l’idée est
aussi d’avoir une fonction d’évaluation des paramètres.

Exemple 1.1 Le cas de la fonction de consommation du type Ci = α + βRi .


Quand le revenu varie, quel est l’impact sur la consommation ?

1.4 L’économétrie comme outil d’investigation


L’économétrie n’est pas seulement un système de validation, mais également un outil
d’analyse. Nous pouvons citer quelques domaines où l’économétrie apporte une aide à
la modélisation, à la réflexion théorique ou à l’action économique par :
— la mise en évidence de relations entre des variables économiques qui n’étaient
pas a priori évidentes ou pressenties.
— l’induction statistique ou l’inférence statistique consiste à inférer, à partir des
caractéristiques d’un échantillon, les caractéristiques d’une population. Elle per-
met de déterminer des intervalles de confiance pour des paramètres du modèle
ou de tester si un paramètre est significativement inférieur, supérieur ou simple-
ment différent d’une valeur fixée.
— la simulation qui mesure l’impact de la modification de la valeur d’une variable
sur une autre.
— la prévision, par l’utilisation de modèles économétriques, qui est utilisée par les
pouvoirs publics ou l’entreprise afin d’anticiper et éventuellement de réagir à
l’environnement économique.

1.5 Les données


Les données sont au centre de la réflexion économétrique. En effet, ce sont elles qui
vont permettre de mesurer le phénomène étudié et ses déterminants. C’est la réalité
que le modèle économétrique cherche à représenter.

1.5.1 La nature des observations


— Les séries temporelles ou chronologiques correspondent à des observations ré-
pétées de variables à intervalles temporels réguliers.
— Les coupes instantanées ou transversales correspondent à l’observation à un
moment donné de différents individus.
— Enfin, les données de panel intègrent les deux dimensions individuelles et tem-
porelles et permettent le suivi des variables caractérisant des individus au cours
du temps. Les données sont double indicées en i pour les individus et en t pour
les dates.

1.6 La notion de modèle économétrique


Prenons le cas de deux variables : C la consommation et R le revenu. Et supposons
que l’on observe ces 2 informations pour N individus, notés génériquement i.

Econométrie Slim Ben Youssef et Hamdi Haykel


1.6. La notion de modèle économétrique 6

1.6.1 Les différents types de relations entre variables


— Relation fonctionnelle déterministe : La représentation graphique associée dans
le cas où la relation est linéaire
— Relation fonctionnelle d’indépendance : La deuxième est l’absence de toute
relation entre les deux variables. On parle alors d’indépendance.
— La corrélation linéaire : Le troisième type de relation se situe entre les deux.
On fait l’hypothèse d’une relation fonctionnelle, mais celle-ci n’est pas parfaite-
ment vérifiée pour chaque observation parce que la réalité économique est trop
complexe à appréhender.
Cette technique est utilisée lorsque les deux variables étudiées sont quantitative. Dans
la suite on suppose qu’on a les séries de valeurs suivantes : x(x1 , . . . , xn ) et y(y1 , . . . , yn )
pour chacune des deux variables. Alors, pour connaı̂tre le coefficient de corrélation liant
ces deux variables, on applique la formule suivante :
n
X
(xi − x) · (yi − y)
cov(x, y) i=1
rx,y = =v v
σx σy u n
uX
u n
uX
t (xi − x̄)2 · t (yi − ȳ)2
i=1 i=1

Econométrie Slim Ben Youssef et Hamdi Haykel


1.6. La notion de modèle économétrique 7

— Si rx,y est proche de 1 ⇒ forte corrélation linéaire positive.


— Si rx,y est proche de 0 ⇒ absence de corrélation linéaire.
— Si rx,y est proche de -1 ⇒ forte corrélation linéaire négative.
Remarque 1.1 Il convient de noter qu’une corrélation linéaire nulle ne signifie pas
l’absence de corrélation non linéaire entre les deux variables. Autrement dit, l’absence
de corrélation linéaire n’implique pas l’indépendance
Test d’hypothèses pour un niveau de risque α
— Les hypothèses :
(
H0 : rx,y = 0 (absence de relation)
H1 : rx,y 6= 0 (présence de la relation)

|rx,y |
— Statistique du test (t de Student) : t = r
2
1−rx,y
n−2
— Règle de décision :
1− α
— Si La plus-value > α (t∗ < tn−22 ) on accepte H0 (Absence de relation).
1− α
— Si La plus-value < α on rejette H0 (t∗ > tn−22 ) (présence de la relation).

Remarque : La plus-value c’est la probabilité que l’on rejette H0 à tort.

Econométrie Slim Ben Youssef et Hamdi Haykel


Chapitre 2

Modèle de régression linéaire simple

2.1 Modèle et hypothèses


2.1.1 Modèle
Soit le modèle suivant :

yi = β0 + β1 xi + εi , pour i = 1...n (2.1.1)

avec :
— yi : variable à expliquer (variable endogène)
— xi : variable explicative (variable exogène)
— β0 et β1 : les paramètres du modèle (les coefficients)
— n : nombre d’observations
— εi : Le terme aléatoire , que l’on appelle l’erreur du modèle, tient un rôle très
important dans la régression. Il permet de résumer toute l’information qui n’est
pas prise en compte dans la relation linéaire que l’on cherche à établir entre y
et x.

2.1.2 Les hypothèses


— H1 : le modèle est linéaire en xi (ou en n’importe quelle transformation de xi ).
— H2 : les valeurs xi sont observées (non aléatoire).
— H3 : E(εi ) = 0, l’espérance mathématique de l’erreur est nulle : en moyenne le
modèle est bien spécifié et donc l’erreur moyenne est nulle.
— H4 : E(ε2i ) = σε2 , la variance de l’erreur est constante : le risque de l’amplitude
de l’erreur est le même quelle que soit la période.
— H5 : E(εi εj ) = 0 ∀i 6= j les erreurs sont non corrélées (ou encore indépendantes) :
une erreur à l’instant i n’a pas d’influence sur les erreurs suivantes.
— H6 : Cov(xi , εi ) = 0 , l’erreur est indépendante de la variable explicative.
2.2. Estimateur des moindres carrés ordinaires (MCO) 9

2.2 Estimateur des moindres carrés ordinaires (MCO)


2.2.1 Estimation des paramètres
Notre objectif est de déterminer les valeurs de β0 et β1 en utilisant les informations
apportées par l’échantillon. Nous voulons que l’estimation soit la meilleure possible
c.-à-d. la droite de régression doit approcher au mieux le nuage de points.

Le critère des moindres carrés consiste à minimiser la somme des carrés des écarts (des
erreurs) entre les vraies valeurs de y et les valeurs prédites avec le modèle de prédiction.
En opérant par dérivation par rapport à β0 et β1 afin de trouver le minimum de cette
fonction, on obtient les résultats suivants :
n
ε2i
X
min S = min
{β0 ,β1 } {β0 ,β1 }
i=1
n
[yi − β0 − β1 xi ]2
X
= min
{β0 ,β1 }
i=1

Pour déterminer les valeurs de β0 et β1 , les conditions suivantes sont nécessaires :


∂S

=0





 ∂β0

∂S





 =0
∂β1

En opérant par dérivation par rapport à β0 et β1 , afin de trouver le minimum1 de cette


fonction, on obtient les résultats suivants :
n h
∂S
 i
X
= −2 yi − βc0 − βc1 xi = 0



∂β0



 i=1

n
∂S

 h i
 X
= −2 xi yi − βc0 − βc1 xi = 0




∂β1 i=1

Econométrie Slim Ben Youssef et Hamdi Haykel


2.2. Estimateur des moindres carrés ordinaires (MCO) 10


∂S
= y − βc0 − βc1 x = 0



∂β0




n n n

 ∂S
x2i = 0
X X X
xi yi − βc0 xi − βc1


 =
∂β1 i=1


i=1 i=1

qu’on appelle les équations normales et qui impliquent que :






βc0 = y − βc1 x






 n
X
xi yi − nx y
 i=1 Cov(x, y)
βc1 = =


 n

V (x)
x2i − nx2

 X



i=1

Remarque 2.1 Il y a une relation directe entre l’estimateur de la pente et le coefficient


de corrélation linéaire de Pearson ryx . en effet :
n
X
xi yi − nx y
i=1
βc1 = n
x2i − nx2
X

i=1
cov(x, y)
=
σx2
σy
= rx,y
σx

2.2.2 Erreur et Résidu


Le modèle de régression simple peut s’écrire sous deux formes selon qu’il s’agit du mo-
dèle théorique spécifié par l’économiste ou du modèle estimé à partir d’un échantillon.
— Modèle théorique spécifié par l’économiste avec εi l’erreur inconnue :

y i = β 0 + β 1 xi + εi

— Modèle estimé à partir d’un échantillon d’observations (εbi : les résidus) :

yi = βc0 + βc1 xi + εbi = ybi + εbi


Le résidu observé εbi est donc la différence entre les valeurs observées de la variable à
expliquer et les valeurs ajustées à l’aide des estimations des coefficients du modèle.
Exemple 2.1 On considère les données suivantes :
yi 2,01 2,02 2,018 2,02 2,01 2,03 2,05 2,06 2,06 2,07
xi 2,29 2,3 2,3 2,3 2,297 2,31 2,32 2,327 2,33 2,37

avec

Econométrie Slim Ben Youssef et Hamdi Haykel


2.2. Estimateur des moindres carrés ordinaires (MCO) 11

— yi est le taux de change dollars/dinars.


— xi esst le taux de change euro/dinars.
10
X 10
X 10
X
n = 10 xi = 20, 348 yi = 23, 144 (xi − x) (yi − y) = 0, 0044788
i=1 i=1 i=1
10 10
(xi − x) = 1, 77636E −15 (yi − y) = −4, 44089E −16
X X

i=1 i=1
10 10
(xi − x)2 = 0, 0047136 (yi − y)2 = 0, 0050644
X X

i=1 i=1

Solution
10
X
(xi − x) (yi − y)
0, 0044788
βb1 = i=1 10 = = 0, 884369323
0, 0047136
(xi − x)2
X

i=1

βb0 = y − βb1 x = 2, 3144 − 0, 884369323 × 2, 0348 = −0, 011984361

2.2.2.1 Équation d’analyse de variance


Le résidu est donné par :

εbi = yi − ybi
= yi − βc0 − βc1 xi
= yi − βc0 − βc1 xi + βc
1
x − βc1 x 
= yi − βc1 (xi − x) − βc1 x + βc0
| {z }
y
= (yi − y) − βc1 (xi − x)

Econométrie Slim Ben Youssef et Hamdi Haykel


2.2. Estimateur des moindres carrés ordinaires (MCO) 12

yi ybi εbi
2,01 2,013221389 -0,003221389
2,02 2,022065082 -0,002065082
2,018 2,022065082 -0,004065082
2,02 2,022065082 -0,002065082
Exemple 2.2 2,01 2,019411974 -0,009411974
2,03 2,030908775 -0,000908775
2,05 2,039752468 0,010247532
2,06 2,045943053 0,014056947
2,06 2,048596161 0,011403839
2,07 2,083970934 -0,013970934
Par ailleurs, les condutions de premières ordre se traduisent par les proprétes suivantes :
— La somme des résidus est nulle :
n
X
εbi = 0 par conséquent y = yb
i=1

— Le vecteur des résidus et de la variable expicative sont orthogonaux :


n
X
εbi xi = 0
i=1
De ces caratéristiques, il est possible de déduire l’équation d’analyse de la variance :
n n n
2 2
εbi 2
X X X
(yi − y) = (ybi − y) + (2.2.2)
i=1 i=1 i=1
| {z } | {z } | {z }
SCT SCE SCR

— SCT est la somme des carrés totaux. Elle indique la variabilité totale de Y c-à-d.
l’information disponible dans les données.

— SCE est la somme des carrés expliqués. Elle indique la variabilité expliquée par
le modèle c-à-d la variation de Y expliquée par X.

— SCR est somme des carrés résiduels. Elle indique la variabilité non-expliquée
(résiduelle) par le modèle c-à-d l’écart entre les valeurs observées de Y et celles
prédites par le modèle.
Deux situations extrêmes peuvent survenir :

— Dans le meilleur des cas, SCR = 0 et donc SCT = SCE : les variations de Y
sont complètement expliquées par celles de X. On a un modèle parfait, la droite
de régression passe exactement par tous les points du nuage (ybi = yi ).

— Dans le pire des cas, SCE = 0 : Xn’apporte aucune information sur Y . Ainsi,
(ybi = y), la meilleure prédiction de Y est sa propre moyenne.

Econométrie Slim Ben Youssef et Hamdi Haykel


2.3. Propriétés des estimateurs 13

Source Somme Degrés Carrés


de variation des carrés de liberté moyens
n
(ybi − y)2
X
SCE
Expliquée SCE = 1 1
i=1
n
εbi 2
X
SCR
Résiduelle SCR = n−2 n−2
i=1
n
(yi − y)2
X
Totale SCT = n−1 −
i=1

La définition la plus accessible de la degrés de liberté est de les comprendre comme


le nombre de termes impliqués dans les sommes (le nombre d’observations) moins le
nombre de paramètres estimés dans cette somme.
Source Somme Degrés Carrés
de variation des carrés de liberté moyens
Exemple 2.3 Expliquée SCE = 0, 003960913 1 0, 003960913
Résiduelle SCR = 0, 000752687 10 − 2 9, 40858E −05
Totale SCT = 0, 0047136 10 − 1 −

2.2.2.2 Coefficient de détermination


Le coefficient de détermination R2 qui mesure le rapport entre la variance expliquée
par le modèle et la vaiance totale est un indicateur de la qualité d’ajustement. Il donne
le pourcentage de la variance totale de y exploiqué par le modèle de régression.
SCE SCR
R2 = =1− (2.2.3)
SCT SCT

— Lorsque R2 −→ 1, meilleur sera le modèle, la connaissance des valeurs de X


permet de deviner avec précision celle de Y .
— Lorsque R2 −→ 0, cela veut dire que X n’apporte pas d’informations utiles sur
Y , la connaissance des valeurs de X ne nous dit rien sur celles de Y .
Exemple 2.4
SCE 0, 003960913
R2 = = = 0, 840315963
SCT 0, 0047136
SCR 0, 000752687
= 1− =1− = 0, 840315963
SCT 0, 0047136

Lorsque R2 −→ 1, meilleur sera le modèle, la connaissance des valeurs de X permet

de deviner avec précision celle de Y .

2.3 Propriétés des estimateurs


Deux propriétés importantes sont mises en avant dans l’évaluation d’un estimateur.

Econométrie Slim Ben Youssef et Hamdi Haykel


2.3. Propriétés des estimateurs 14

— Est-ce qu’il est sans biais c.-à-d. est-ce qu’en moyenne nous obtenons la vraie
b = θ.)
valeur du paramètre ? (un estimateur est sans biais si E(θ)

— Est-ce qu’il est convergent c.-à-d. à mesure que la taille de l’échantillon aug-
mente, l’estimation devient de plus en plus précise ?

2.3.1 L’estimateurs βc1 est-il sans biais ?


Soient :
yi = β0 + β1 xi + εi (2.3.4)
y = β0 + β1 x + ε (2.3.5)
[??] − [??] ⇐⇒ (yi − y) = β1 (xi − x) + (εi − ε) (2.3.6)
Comme n
X
(xi − x)(yi − y)
i=1
βc1 = n (2.3.7)
2
X
(xi − x)
i=1

Ainsi
n
X
(xi − x) [β1 (xi − x) + (εi − ε)]
i=1
βc
1 = n
(xi − x)2
X

i=1

n n
(xi − x)2 +
X X
β1 (xi − x)(εi − ε)
i=1 i=1
= n
(xi − x)2
X

i=1
n
X
(xi − x)(εi − ε)
i=1
= β1 + n
(xi − x)2
X

i=1
n
X
(xi − x)εi
i=1
= β1 + n
(xi − x)2
X

i=1

Econométrie Slim Ben Youssef et Hamdi Haykel


2.3. Propriétés des estimateurs 15

Puisque
n
X n
X
(xi − x)ε = ε (xi − x)
i=1 i=1
Xn n
X
= ε xi − εx
i=1 i=1
Xn
= ε xi − nεx
i=1
= nεx − nεx
= 0

 n
X
  n
X

 (xi − x)εi   (xi − x)εi 
 i=1   i=1 
E(βc )
1 = β1
E + n

 = E (β1 ) + E  X

n


− x)2 − x)2
X
(xi (xi
   
i=1 i=1
n
X
(xi − x)E(εi )
i=1
= E (β1 ) + n = β1
2
X
(xi − x)
i=1

La variable exogène x n’est pas stochastique par hypothèse.

2.3.2 L’estimateurs βc0 est-il sans biais ?

βc0 = y − βc1 x ⇐⇒ y = βc0 + βc1 x (2.3.8)


[??] ⇐⇒ y = β0 + β1 x + ε (2.3.9)
[??] = [??] ⇐⇒ βc0 = β0 + ε − (βc1 − β1 )x (2.3.10)
 
E(βc0 ) = E β0 + ε − (βc1 − β1 )x
 
= E (β0 ) + E (ε) − E (βc1 − β1 )x
= β0
   
Puisque E (ε) = 0 et E (βc1 − β1 )x = xE βc1 − β1 = 0
Conclusion : Les deux estimateurs sont sans biais.

2.3.3 L’estimateurs βc1 est-il convergent ?


Définition 2.1 Un estimateur θb sans biais de θ est convergent si et seulement si :
b −→ 0
V (θ) n→∞

Econométrie Slim Ben Youssef et Hamdi Haykel


2.3. Propriétés des estimateurs 16

Nous devons donc d’abord déterminer la variance de l’estimateur, et montrer qu’il tend
vers 0 quand n tend vers ∞.

 2
V (βc1 ) = E βc1 − β1
 n 2
X
(xi − x)εi 
xi − x

 i=1 
= E
X n

 on pose wi = X
n
2 
(xi − x) (xi − x)2

i=1 i=1
n
!2
X
= E w i εi
i=1
 
n
E  w 2 ε2
X X
= i i +2 w i w j εi εj 
i=1 i<j

 
n
E  w 2 ε2
X X
= i i +2 w i w j εi εj 
i=1 i<j
n  
wi2 E ε2i + 2
X X
= wi wj E (εi εj )
i=1 i<j

Or, d’après les hypothèses H4 et H5 :


— H4 : E(ε2i ) = σε2 ,
— H5 : E(εi εj ) = 0 ∀i 6= j
donc n
σε2
wi2 σε2 = X
X
V (βc1 ) = n (2.3.11)
i=1 (xi − x)2
i=1

On remarque que :

— σε2 est une valeur qui ne dépend pas de n, c’est la variance de l’erreur définie
dans la population.
n
(xi − x)2 . (c’est une somme
X
— En revanche, lorsque n −→ ∞, on remarque que
i=1
de valeurs toutes positives ou nulles) −→ ∞, donc

V (βc1 ) −→ 0 (2.3.12)
n→∞

Conclusion : βc1 est un estimateur convergent de β1 .


On Montre que :

−→ 0 ⇐⇒ βc0 est un estimateur convergent de β0


V (βc0 ) n→∞ (2.3.13)

Econométrie Slim Ben Youssef et Hamdi Haykel


2.4. Test de significativité des paramètres 17

Théorème 1 Théorème de Gauss-Markov Les estimateurs des MCO de la régression


sont sans biais et convergents. On peut même aller plus loin et prouver que parmi les
estimateurs linéaires sans biais de la régression, les estimateurs MCO sont à variance
minimale c-à-d. il n’existe pas d’autres estimateurs linéaires sans biais présentant une
plus petite variance. Les estimateurs des MCO sont BLUE (best linear unbiased esti-
mator).
Aautrement dit, l’estimateur des MCO est :
— Une fonction linéaire de y,
— Non biais : E(βb0 ) = β0 et E(βb1 ) = β1
— Efficace : l’estimateur des MCO a la variance la plus faible. La matrice de
variance-covariance des paramètres est donnée par :
     
V βb0 cov βb0 , βb1
   
− V βb1

  h  i
avec cov βb0 , βb1 = E βb0 − E(βc0 ) βb1 − E(βc1 )
σε2  
= −x X
n = −xV βb1
(xi − x)2
i=1

Estimateur de la variance de l’erreur

La matrice de variance-covariance ne peut pas être calculée car la valeur de σε2 est
inconnue. Pour déterminer cette matrice, on doit déterminer un estimateur de σε2 non
biaisé de la variance.
Définition 2.2 Estimateur de la variance de l’erreur L’estimateur de la variance de
l’erreur σε2 noté σbε2 est égale à 1 :
n
1 X
σbε2 = εb2 (2.3.14)
n − 2 i=1 i

2.4 Test de significativité des paramètres


2.4.1 Distribution des coefficients estimés
2.4.2 Distribution de βc1 et βc0
Nous introduisons l’hypothèse qui est celle de la normalité des erreurs :
εt N(0, σε2 )
Cette hypothèse de normalité des erreurs implique que :
βc1 − β1
N(0, 1)
σβb1

1. voir Régis Bourbonnais, Cours et exercices corrigés, (9e édition) pages 25-26.

Econométrie Slim Ben Youssef et Hamdi Haykel


2.4. Test de significativité des paramètres 18

βc0 − β0
N(0, 1)
σβb0

De fait, yi = β0 + β1 xi + εi suit aussi une loi normale, et βc1 et βc0 étant une combinaison
linéaire des yi ,

On sait par hypothèse que

εi
εi N(0, σε2 ) ⇐⇒ N(0, 1)
σε
εbi
⇐⇒ N(0, 1) Comme εbi est une réalisation de εi
σε
2
En passant au carré, nous avons un X(1) . D’où
n
εb2i
X
n 
εbi 2

i=1
X
=
i=1 σε σε2
σbε2 2
= (n − 2) X(n−2)
σε2

C’est la somme au carré de (n−2) variables aléatoires indépendantes normales centrées


réduites.
On peut remarquer que :

σb 2 σbβ2b
(n − 2) ε2 = (n − 2) 1
(2.4.15)
σε σβ2b
1
n
εb2i
X

i=1
= n (2.4.16)
2
X
σβ2b (xi − x)
1
i=1
2
X(n−2) (2.4.17)

Il en résulte que :
βb1 − β1 βb0 − β0
et suivent une loi de Student à (n − 2) degrés de liberté
σbβb1 σbβb0

Rappel : la loi de Student est définie par un rapport entre une loi normale centrée
réduite et la racine carrée d’un loi du X 2 normalisée par ses degrés de liberté.

Econométrie Slim Ben Youssef et Hamdi Haykel


2.4. Test de significativité des paramètres 19

2.4.3 Test de significativité globale


Les hypothèses (
H0 SCE = 0
6 0
H1 SCE =

Le test H0 : SCE = 0 est équivalent au test d’hypothèse H0 : β1 = 0 (la variable


explicative xt ne contribue pas à l’explication du modèle).
Pour tester la signficativité globale de la régression, nous nous basons sur la statistique

F,
SCE R2
F∗ = 1 = 1
SCR 1 − R2
n−2 n−2
La statistique F ∗ est le rapport de la somme des carrés expliqués par xt sur la somme
des carrés des résidus, chacune de ces sommes étant divisée par son degré de liberté
respectif.
2
Sous H0 , SCE est distribué selon un X(1) et SCR selon un X(n−2) , de fait pour F on

a:
2
X(1)
F ∗ = 21 ≡ F (1, n − 2)
X(n−2)
n−2
Sous H0 , F est donc distribué selon une loi de Fisher à F (1, n − 2) degrés de liberté.
— La région critique du test : correspondant au rejet de H0 , au risque α est définie
pour les valeurs anormalement élevées de F ∗ c-à-d :
F ∗ > F(1−α) (1, n − 2)

— Décision à partir de la p-value : Dans la plupart des logiciels de statistique, on


0
fournit directement la probabilité critique (p − value) α , elle correspond à la
probabilité que la loi de Fisher dépasse la statistique calculée F ∗ . Ainsi, la règle
de décision au risque α devient :
α0 < α

Exemple 2.5
SCE 0, 003960913
F∗ = 1 = 1
SCR 0, 000752687 = 42, 09893389
n−2 10 − 2
0, 840315963
= 1
1 − 0, 840315963 = 42, 09893389
10 − 2

Econométrie Slim Ben Youssef et Hamdi Haykel


2.4. Test de significativité des paramètres 20

0,05
Or F(1,8) = 5, 318 < 42, 09893389 donc on rejette H0 ⇐⇒ le modèle est globalement
significatif.

2.4.4 Test de significativité individuelle


Le test de significativité du paramètre β1 consiste à vérifier l’influence réelle de la
variable x sur l’endogène y. Les hypothèses à confronter s’écrivent :
(
H0 β1 = 0
6 0
H1 β1 =

βb1 − β1
Sous H0 le ratio appelé ratio de Student suit donc une loi de Student à (n − 2)
σbβb1
degrés de liberté.
— Le test d’hypothèses bilatéral consiste donc à comparer le ratio de Student
empirique : t∗ = bσ|β1 | à la valeur du t de Student lue dans la table à (n − 2)
b
β1
b
degrés de liberté
— La région critique (de rejet de H0 ) au risque α s’écrit :
1− α
t∗ > tn−22

avec t1− α2 est le quantile d’ordre (1 − α2 ) de la loi de Student.


— Décision à partir de la p-value : Dans la plupart des logiciels de statistique, on
0
fournit directement la probabilité critique (p − value) α , elle correspond à la
probabilité que la loi de Student dépasse la statistique calculée t∗ . Ainsi, la règle
de décision au risque α devient :

α0 < α

Exemple 2.6 L’estimation de la variance de l’erreur est donc égale à :


n
1 X 1
σbε2 = εb2i = 0, 000752687 = 9, 40858E −05
n − 2 i=1 10 − 2

ce qui nous permet de calculer la variance estimée βb1 :


σbbε2 9, 40858E −05
σbβ2b = P10 = = 0, 018577884
i=1 (xi − x)
1 2 0, 0050644
d’où √
σbβb1 = 0, 018577884 = 0, 136300711

Calcul du t∗ de Student et règle de décision. (avec α = 0.05)

βb1 0, 884369323
t∗ = = = 6, 488369124
σbβb1 0, 136300711

Econométrie Slim Ben Youssef et Hamdi Haykel


2.4. Test de significativité des paramètres 21

Or,
0.05
t10−2
2
= 2, 306 < 6, 488369124

Donc on rejette H0 .
Exemple 2.7 Exemple d’application avec Eviews

Dependent Variable : REAL GPD GROWTH


Method : Least Squares
Sample : 1 99
Included observations : 99

Variable Coefficient Std. Error t-Statistic Prob.

C −0.002091 0.004865 −0.429874 0.6682


INFLATION RATE 0.671983 0.180123 3.730685 0.0003

R-squared 0.125480 Mean dependent var 0.014783


Adjusted R-squared 0.116465 S.D. dependent var 0.018949
S.E. of regression 0.017812 Akaike info criterion −5.197945
Sum squared resid 0.030773 Schwarz criterion −5.145518
Log likelihood 259.2983 Hannan-Quinn criter. −5.176733
F-statistic 13.91801 Durbin-Watson stat 1.626859
Prob(F-statistic) 0.000322

2.4.5 Test unilatéral


(
H0 β1 = c
Test unilatéral à droite
H1 β1 > c
(
H0 β1 = c
Test unilatéral à gauche
H1 β1 < c

βb1 − c
Sous H0 le ratio appelé ratio de Student suit donc une loi de Student à (n − 2)
σbβb1
degrés de liberté.
— Le test d’hypothèses unilatéral consiste donc à comparer le ratio de Student
empirique : t∗ = |βbσ1 −c| à la valeur du t de Student lue dans la table à (n − 2)
b
β1
b
degrés de liberté

— La région critique (de rejet de H0 ) au risque α s’écrit :

t∗ > t1−α

Econométrie Slim Ben Youssef et Hamdi Haykel


2.5. La prévision dans le modèle de régression simple 22

avec t1−α
n−2 est le quantile d’ordre (1 − α) de la loi de Student.

Exemple 2.8 (
H0 β1 = 0.5
H1 β1 < 0.5

Sous l’hyopthèse H0 , on a :

|βb1 − 0.5| 0, 671983 − 0, 5


= = 2, 82 > t0,05 = 1, 65
σβb1 0, 180193

Donc on rejette H0 .

2.4.6 Intervalle de confiance


L’intervalle de confiance de β au niveau de confiance (1 − α) est définie par :
h i
IC(β) = βb ∓ t(1− α2 ) × σbβb

Exemple 2.9
IC(β1 ) = [0, 671983 ∓ 2, 306 × 0, 136300711]

2.5 La prévision dans le modèle de régression simple


2.5.1 Prévision ponctuelle
Soit le modèle estimé :
yi = βb0 + βb1 xi + εbi (2.5.18)
Si la valeur de la variable explicative xi est connue en n + h, alors la prévision est
donnée par :
ybn+h = βb0 + βb1 xn+h (2.5.19)
L’erreur de prévision est égale à :

εbn+h = yn+h − ybn+h

On peut facilement montrer que cette prévision est sans biais.

Econométrie Slim Ben Youssef et Hamdi Haykel


2.5. La prévision dans le modèle de régression simple 23

2.5.2 Prévision par intervalle


Une prévision ponctuelle est intéressante et simple. En revanche on ne connait pas quel
degré de confiance on peut lui accorder. Il est alors plus intéressant de s’intéresser à un
intervalle de prévision.
Pour construire intervalle de prévision, on avons besoin de connaı̂tre :

— d’une part la variance de l’erreur de prévision

— d’autre part, sa loi de distribution.

V (εbn+1 ) = V (yn+1 − ybn+1 )


 
= V β0 + β1 xn+1 + εn+h − (βb0 + βb1 xn+h )
 
= V (β0 − βb0 ) + (β1 − βb1 )xn+h + εn+h

Sous les hypothèses H2 (xn+h est observée (non aléatoire)) et H5 (les erreurs sont non
corrélées (ou encore indépendantes)), d’où
     
V (εbn+h ) = V βb0 + x2n+h V βb1 + V (εn+h ) + 2xn+h cov βb0 , βb1
| {z } | {z }
2
σε
+x2 V
(βb1 ) −xV (β
b1 )
n

La prévision dans le modèle de régression simple

En remplaçant les variances et la covariance des coefficients par leurs expressions et


connaissant V (εn+h ) = σε2 on obtient :
 

1 (xn+h − x)2 
 
V (εbn+h ) = σε2  +1+ Xn
 (2.5.20)
n
 
2
(xi − x)
i=1

Remarque 2.2 La variance V (εbn+h ) sera d’autant plus faible si

— σbε2 est faible, ⇐⇒ la régression est de bonne qualité.


— n est élevé ⇐⇒ la taille de l’échantillon ayant servi à la construction du modèle
est élevé.
— (xn+h − x)2 est faible ⇐⇒ l’observation est proche du centre de gravité du nuage
de points
n
(xi − x)2 est élevée ⇐⇒ la dispersion des points ayant servi à la construction
X

i=1
du modèle est grande, ils couvrent bien l’espace de représentation
Sous l’hypothèse normalité des erreurs dans le modèle de régression εi N(0, σε2 ), on

Econométrie Slim Ben Youssef et Hamdi Haykel


2.5. La prévision dans le modèle de régression simple 24

a   

2 1 (xn+h − x)2 
  
  
εbi+1 N 0, σε 
 +1+ X
n

n

2 
(xi − x)

i=1

Lorsque l’on passe à l’estimation de la variance de l’erreur σbε2 à l’instar de ce que on a


établi lors de la détermination de la distribution des paramètres estimés, on a
εbi+1
v 2
Tn−2
u1 (xn+h −x)
σε u
b
un +1+ X
n
t (xi − x)2
i=1

Implique :
yn+h − ybn+h
v Tn−2
u
u1 (xn+h − x)2
σbε u
un
+1+ X n
t (xi − x)2
i=1

On peut donc déterminer l’intervalle de confiance au niveau de prévision (1 − α) :


 
 v 
(xn+h − x)2 
u
 α u1
IC[yn+h ] = ybn+h

∓ t(n−2) σbε u
2
+1+ X
n 

un
u
2
 
 t (xi − x)
i=1

On reprend le modèle le taux de change dollars/dinars-le taux de change euro/dinars


estimé :
yi = −0, 011984361 + 0, 884369323xi + εbi
Pour le 11ième jour, on prévoit que le taux de change euro/dinars (x11 ) est égale à 2, 41.
La prévision est calculée par l’utilisation du modèle estimé :

yb11 = −0, 011984361 + 0, 884369323 × 2, 41 = 2, 119

L’intervalle de prévision est :

 s 
q 1 (2, 41 − 2, 3144)2 
IC[y11 ] = 2, 119 ∓ 2, 306 × 9, 40858E −05 +1+
10 0, 0047136
= [2, 118; 2, 12]

Econométrie Slim Ben Youssef et Hamdi Haykel


Chapitre 3

Modèle de régression linéaire multiple

3.1 Modèle et Forme matricielle


3.1.1 Modèle
Le modèle de régression linéaire multiple est un modèle composé d’une équation dans
laquelle une variable endogène est expliquée par plusieurs variables exogènes. Soit le
modèle suivant :

yi = β0 + β1 x1i + β2 x2i + ... + βk xki + εi , pour i = 1...n (3.1.1)


avec :
— yi : est la i-ème observation de la variable Y (variable endogène)

— xki : est la i-ème observation de la k-ème variable (variable exogène)

— βk : les paramètres du modèle (les coefficients)

— n : nombre d’observations (avec n > k + 1).

— εi : est l’erreur du modèle, elle résume les informations manquantes qui permet-
trait d’expliquer linéairement les valeurs de Y à l’aide des k variables xk .

3.1.2 Forme matricielle


De manière générale, le modèle de régression linéaire multiple s’écrit :

Y = X β + ε (3.1.2)
(n,1) (n,k+1) (k+1,1) (n,1)
3.2. Estimation et propriétés des estimateurs 26

avec
       
y1 1 x11 . . xk1 β0 ε1
y2 1 x12 . . xk2 β1 ε2
       
       
       
Y = 
 . 
 ,X = 
 . . . . . 
 ,β = 
 . 
 ,ε = 
 . 


 . 


 . . . . . 


 . 


 . 

yn 1 x1n . . xkn βk εn

3.1.3 Hypothèses
— H1 : les valeurs xi sont observées (non aléatoire).
— H2 : E(εi ) = 0, l’espérance de l’erreur est nulle. En moyenne, le modèle est bien
spécifié.
— H3 : E(ε2i ) = σε2 ,la variance de l’erreur est constante, c’est l’hypothèse de l’ho-
moscédasticité.
— H4 : cov(εi εj ) = 0 ∀i 6= j les erreurs sont indépendantes, c’est l’hypothèse de
non autocorrélation des résidus (indépendances des erreurs).
— H5 : cov(xi,j εi ) = 0.
— H6 : εi N(0, σε2 ) , l’erreur est indépendante de la variable explicative.
— H7 : La matrice (X 0 X) est régulière c-à-d. det(X 0 X) 6= 0 et (X 0 X)−1 existe.
Elle indique l’absence de colinéarité entre les exogènes. Nous pouvons aussi voir
cette hypothèse sous l’angle rang(X) = k + 1 et rang(X 0 X) = k + 1.
0
— H8 : (XnX) tend vers une matrice finie non singulière (invesible) lorsque n 7−→ ∞
— H9 : n > k + 1 le nombre d’observations est supérieur au nombre des séries
explicatives.

3.2 Estimation et propriétés des estimateurs


3.2.1 Estimateur des MCO
L’estimateur des MCO est dérivé de la minimisation de la somme des carrés des erreurs :

n
0
ε2i
X
min ε ε = min (3.2.3)
β β
i=1
= min (Y − Xβ)0 (Y − Xβ) (3.2.4)
β | {z }
S

S = (Y − Xβ)0 (Y − Xβ) (3.2.5)


= Y 0 Y − Y 0 Xβ − β 0 X 0 Y + β 0 X 0 Xβ (3.2.6)
= Y 0 Y − 2β 0 X 0 Y + β 0 X 0 Xβ (3.2.7)

∂S
D’après les conditions du premier ordre, = 0, la solution est donnée par :
∂β

∂S
= −2X 0 Y + 2(X 0 X)β = 0
∂β

Econométrie Slim Ben Youssef et Hamdi Haykel


3.2. Estimation et propriétés des estimateurs 27

d’où

−1
βb = (X 0 X) X 0Y (3.2.8)
— Cette solution est réalisable ssi l’hypothèse [7] est vérifiée.
— On appelle équations normales les équations issues de la relation :

(X 0 X)βb = (X 0 Y )
 n
X n
X n
X

 n x1i x2i ··· xki
 1 1 1 

 n
X n
X n
X Xn 


 x1i x21i x1i x2i · · · x1i xki 

1 i=1 i=1 i=1
 
 n n n n 
(X 0 X) =
 X X X X 

 x2i x2i x1i x22i ··· x2i xki 

i=1 i=1 i=1 i=1
 
..
 
 

 . ··· ··· ··· ··· 

 n
X n
X n
X Xn 
2
xki xki x1i xki x2i · · · xki
 
i=1 i=1 i=1 i=1

(X 0 X) est une matrice symétrique.

 n
X

 yi 
 i=1 
 n   


X 
x1i yi  βb0
   
 i=1
  βb1 
 n   
(X 0 Y ) = 

X 
x2i yi  βb = 
 βb2 

   .. 
 i=1
 
. 
..
   
 

 . 
 βbk
 Xn 
xki yi
 
i=1

Lorsque les variables sont centrées, l’estimateur de β peut s’écrire en fonction des
matrices des variances et covariances empiriques :
 b
β1
  −1  
var(x1 ) cov(x1 x2 ) · · · cov(x1 xk ) cov(x1 , y)
 βb
· · · cov(x2 xk )

 2
 .



 cov(x2 x1 ) var(x2 ) 


 cov(x2 , y) 

 . 
cov(x3 x1 ) cov(x3 x2 ) · · · cov(x3 xk )
 
cov(x3 , y)

 .

 =    
 ..
  
.. .. ..  
.. 
. . . .
    
 .     
βb cov(xk x1 ) cov(xk x2 ) ··· var(xk ) cov(xk , y)
k

3.2.2 Propriétés des estimateurs


Théorème 2 Théorème de Gauss-Markov Les estimateurs des MCO de la régression
sont sans biais et convergents. On peut même aller plus loin et prouver que parmi les
estimateurs linéaires sans biais de la régression, les estimateurs MCO sont à variance
minimale c-à-d. il n’existe pas d’autres estimateurs linéaires sans biais présentant une

Econométrie Slim Ben Youssef et Hamdi Haykel


3.2. Estimation et propriétés des estimateurs 28

plus petite variance. Les estimateurs des MCO sont BLUE (best linear unbiased esti-
mator).

−1
βb = (X 0 X) X 0 Y
−1
= (X 0 X) X 0 (Xβ + ε)
−1
= β + (X 0 X) X 0 ε
βb est-il un estimateur sans biais
−1
   
E βb = E β + (X 0 X) X 0ε
−1
= β + (X 0 X) X 0 E (ε)
= β
Conclusion : βb est un estimateur sans biais.
βb est-il un estimateur convergent ?
Sous l’hypothèse 2 :

       0 
var βb = E βb − E βb βb − E βb
  0 
= E βb − β βb − β
 0 
−1 −1

= E (X 0 X) X 0ε (X 0 X) X 0ε
−1 −1
= (X 0 X) X 0 E (εε0 ) X (X 0 X)
−1
= σε2 (X 0 X)
= Ωβb

d’où la matrice de variance-covariance de βb est définie par :

 
var(βb0 ) cov(βb0 βb1 ) · · · cov(βb0 βbk )
cov(βb0 βb1 ) var(βb1 ) · · · cov(βb1 βbk ) 
 

   
var βb = Ωβb = 
 cov(βb2 βb0 ) cov(βb2 βb1 ) · · · cov(βb2 βbk ) 

 .. .. .. 
. . .
 
 
cov(βk β0 ) cov(βbk βb1 )
b b ··· var(βbk )

−1
 
lim var βb = lim σε2 (X 0 X)
n−→∞ n−→∞
!−1
σ2 X 0X
= lim ε
n−→∞ n n
= 0

d’après l’hypothèse H8 .

⇒ L’estimateur est donc convergent.

Econométrie Slim Ben Youssef et Hamdi Haykel


3.2. Estimation et propriétés des estimateurs 29

3.2.3 Application
On considère le modèle suivant :
yi = β0 + β1 x1i + β2 x2i + β3 x3i + εi
Les données se présentent dans le tableau suivant :
i yi x1i x2i x3i
1 12 2 45 121
2 14 1 43 132
3 10 3 43 154
4 16 6 47 145
5 14 7 42 129
6 19 8 41 156
7 21 8 32 132
8 19 5 33 147
9 21 5 41 128
10 16 8 38 163
11 19 4 32 161
12 21 9 31 172
13 25 12 35 174
14 21 7 29 180
     
12 1 2 45 121 ε1
β0
 
14 1 1 43 132  ε2
     
 β1
      
     
Y =  .  ,X =  . . . .  ,β = 

,ε =  . 
 β2
     


.  
. . . .  
. 
β3
     
21 1 7 29 180 ε14
 
1 2 45 121
1 1 . 1
 
1 1 43 132 
 
 2 1 . 7 
X 0X =  

 . . . . 
45 43 . 29

  

. . . . 
121 132 . 180
 
1 7 29 180

14 85 532 2094
 
 85 631 3126 13132 
=
 
532 3126 20666 78683

 
2094 1132 78683 317950

20.1686 0.0150 −0.2314 −0.0761


 
 0.0150 0.0132 0.0011 −0.0009 
(X 0 X)−1 =  
−0.2314 0.0011 0.0036 0.0005 
 

−0.0761 −0.0009 0.0005 0.0004
 
12
1 1 . 1 248
   
14
 
2 1 . 7  1622
   
X 0Y =   
 .  = 
45 43 . 29 9202
  
    

. 
121 132 . 180 37529
 
21

Econométrie Slim Ben Youssef et Hamdi Haykel


3.3. Tableau d’analyse de variance et coefficient de détermination 30

βb = (X 0 X)−1 (X 0 Y )
20.1686 0.0150 −0.2314 −0.0761 248
  
 0.0150 0.0132 0.0011 −0.0009   1622
  
= 
 
 −0.2314 0.0011 0.0036 0.0005   9202
 

−0.0761 −0.0009 0.0005 0.0004 37529
 
32.8913 βb0
 

0.8019 βb1
   
 
= =
   
−0.3813
 
  
 βb2 

−0.0371 βb3

3.3 Tableau d’analyse de variance et coefficient de déter-


mination
3.3.1 Tableau d’analyse de variance
La décomposition de la variabilité de Y (SCT) en variabilité expliquée par le modèle
(SCE) et variabilité résiduelle (SCR) reste valable.
n n n
(yi − y)2 = (ybi − y)2 + εbi 2
X X X

i=1 i=1 i=1


| {z } | {z } | {z }
SCT SCE SCR

Source Somme Degrés Carrés


de variation des carrés de liberté moyens
n
(ybi − y)2
X
SCE
Expliquée SCE = k k
i=1
n
εbi 2
X
SCR
Résiduelle SCR = n−k−1 n−k−1
i=1
n
(yi − y)2
X
Totale SCT = n−1 −
i=1

2
3.3.2 R2 et Le coefficient de détermination corrigé R

SCE SCR
R2 = =1−
SCT SCT
Cette équation va nous permettre de juger de la qualité de l’ajustement d’un modèle.
En effet, lorsque ce coefficient tend vers 1, meilleur est l’ajustement global du modèle.
Remarque 3.1 Ce coefficient de détermination R2 n’est pas pertinent pour comparer le
pouvoir explicatif entre plusieurs modèles ne comprenant pas le même degré de liberte.
2
Il convient de calculer Le coefficient de détermination corrigé R par les degrés
de liberte.
2 n−1
R =1− (1 − R2 )
n−k−1

Econométrie Slim Ben Youssef et Hamdi Haykel


3.4. Tests statistiques usuels 31

SCE SCR 67, 45


R2 =
=1− =1− = 0, 702
SCT SCT 226, 86
2 n−1 14 − 1
R =1− (1 − R2 ) = 1 − (1 − 0, 702) = 0, 613
n−k−1 14 − 3 − 1

3.3.3 Test de significativité globale de la régression


Le test de significativité globale de F isher consiste à vérifier si le modèle est globa-
lement significatif. c-à-d si l’ensemble des variables explicatives a une influence sur la
variable à expliquer. (
H0 : β1 = β2 = · · · = βk = 0
H1 : ∃ i telque βi 6= 0

Attention
Seuls les coefficients associés aux variables xi sont inclus dans le test. On ne teste pas le
cas où le terme constant β0 est nul car seules nous intéressent les variables explicatives.
— Statistique de test et région critique
La statistique F ∗ est le rapport de la somme des carrés expliqués sur la somme
des carrés des résidus, chacune de ces sommes étant divisée par son degré de
liberté respectif.
2 2
Sous H0 , SCE est distribué selon un X(k) et SCR selon un X(n−k−1) , de fait
pour F on a :

SCE R2
F∗ = k = k ≡ F (k, n − k − 1)
SCR 1 − R2
n−k−1 n−k−1
— La région critique du test : correspondant au rejet de H0 , au risque α est définie
pour les valeurs anormalement élevées de F ∗ c-à-d : F ∗ > F(1−α) (k, n − k − 1)

0, 702
3
F ∗ = 1 − 0, 702 = 7, 878
14 − 3 − 1
5%
F(3,10) = 3, 71 < F ∗ = 7, 85
Donc le modèle est globalement significatif.

3.4 Tests statistiques usuels


3.4.1 Distribution de l’estimateur des MCO
βb étant un estimateur BLUE et sa matrice de variance-covariance étant égale à σε2 (X 0 X)−1 .
Donc

Econométrie Slim Ben Youssef et Hamdi Haykel


3.4. Tests statistiques usuels 32

βb N (0, σε2 (X 0 X)−1 I)Cerésultatimpliquequepourunparamètreβk

βbk − βk
N (0, 1)
σβbk

avec var(βbk ) = σε2 skk où skk est l’élément (k, k) de la matrice (X 0 X)−1 .

La matrice de variance-covariance ne peut pas être calculée car la valeur de σε2 est
inconnue. Pour déterminer cette matrice, on doit déterminer un estimateur de σε2 non
biaisé de la variance.

Estimateur de la variance de l’erreur

L’estimateur de la variance de l’erreur σε2 noté σbε2 est égale à :


n
1
σbε2 = εb2
X
(3.4.9)
n − k − 1 i=1 i
n
εb2i
X

i=1 σbε2 σbβ2k 2


= (n − k − 1) = (n − k − 1) ≡ Xn−k−1 (3.4.10)
σε2 σε2 σβ2b
k


b =σb ε (X 0 X)−1 (3.4.11)
βb
Un estimateur de la matrice de variances et covariances des coefficientsde regression.
Il en résulte que :

βbk − βk
βbk − βk σβbk
=v t(n−k−1)
σbβbk u
σbβ2b  1
u 
t(n − k − 1) 2 k
u
σβb n − k − 1
k

  0  
βb − β Ω−1
b β−β
β
b 2
X(k+1)
C’est la somme au carré de k + 1 variables aléatoires normales centrées réduites.
0
−1
  
1 b 0   1
k+1
βb − β [σε2 (X 0 X)−1 ] βb − β
β−β Ω b −1 βb − β =
k+1 β σb 2 1
b  
(n − k − 1) ε2
σε n−k−1

est le rapport de deux chi-deux divisés par leurs degrés de liberté. Donc elle suit la loi
de Fisher à k + 1 et n − k − 1 degrés de liberté.

Econométrie Slim Ben Youssef et Hamdi Haykel


3.4. Tests statistiques usuels 33

3.4.2 Test de significativité d’un coefficient


Le test de significativité de paramètre βbk consiste à vérifier l’influence réelle de la
variable xk sur l’endogène y. Les hypothèses à confronter s’écrivent :
(
H0 βk = 0
6 0
H1 βk =

βbk − βk
Sous H0 le ratio appelé ratio de Student suit donc une loi de Student à (n−k−1)
σbβbk
degrés de liberté.
— Le test d’hypothèses bilatéral consiste donc à comparer le ratio de Student
empirique : t∗ = bσ|βk | à la valeur du t de Student lue dans la table à (n − k − 1)
b
βk
b
degrés de liberté
— La région critique (de rejet de H0 ) au risque α s’écrit :
1− α
t∗ > tn−k−1
2

avec t1− α2 est le quantile d’ordre (1 − α2 ) de la loi de Student.


— Décision à partir de la p-value : Dans la plupart des logiciels de statistique, on
0
fournit directement la probabilité critique (p − value) α , elle correspond à la
probabilité que la loi de Student dépasse la statistique calculée t∗ . Ainsi, la règle
de décision au risque α devient :
α0 < α

SCR 67, 45
σbε2 =
= = 6, 745
n−k−1 10
Estimation de la variance de chacun des coefficients
−1

b b ε2 (X 0 X)
b = σ
β
20.1686 0.0150 −0.2314 −0.0761
 
 0.0150 0.0132 0.0011 −0.0009 
= 6, 745 
 
−0.2314 0.0011 0.0036 0.0005 


−0.0761 −0.0009 0.0005 0.0004
σbβ2b
 
6, 745 ∗ 20, 1686 136, 04
   
0
σbβ2b
 
   6, 745 ∗ 0, 0132   0, 087 
1
= =
     
σbβ2b 6, 745 ∗ 0, 0036 0, 024
   
     
 2 
σbβ2b 6, 745 ∗ 0, 0004 0, 0026
3

(
H0 : βk = 0
H1 : βk 6= 0

|βbk |
Sous H0 t∗ = suit donc une loi de Student à (14 − 3 − 1) degrés de liberté.
σbβbk

Econométrie Slim Ben Youssef et Hamdi Haykel


3.4. Tests statistiques usuels 34

|βb1 | |0, 8019| 1− α


— t∗βb = = = 2, 687 > t10 2 = 2, 228
1 σbβb1 0, 2984
|βb2 | | − 0, 38136| 1− α
— t∗βb = = = 2, 4356 > t10 2 = 2, 228
2 σbβb2 0, 1655
|βb3 | | − 0, 0371| 1− α
— t∗βb = = = 0, 713 < t10 2 = 2, 228
3 σbβb3 0, 052
⇐⇒ Donc x1 et x2 sont contributives à lexplication de y et non pas x3 .

3.4.3 Comparaison d’un paramètre βk à une valeur fixée β


Les hypothèses à confronter s’écrivent :
(
H0 βk = β
6 β
H1 βk =

βbk − β
Sous H0 le ratio appelé ratio de Student suit donc une loi de Student à (n−k−1)
σbβbk
degrés de liberté.
— Le test d’hypothèses bilatéral consiste donc à comparer le ratio de Student
empirique : t∗ = |βbσk −β| à la valeur du t de Student lue dans la table à (n − k − 1)
b
βk
b
degrés de liberté
— La région critique (de rejet de H0 ) au risque α s’écrit :
1− α
t∗ > tn−k−1
2

avec t1− α2 est le quantile d’ordre (1 − α2 ) de la loi de Student.


— Décision à partir de la p-value : Dans la plupart des logiciels de statistique, on
0
fournit directement la probabilité critique (p − value) α , elle correspond à la
probabilité que la loi de Student dépasse la statistique calculée t∗ . Ainsi, la règle
de décision au risque α devient :

α0 < α

1. Test Bilatéral (
H0 β1 = 0, 5
6 0, 5
H1 β1 =

|βb1 − 0, 5| |0, 8019 − 0, 5| 1− α


Sous H0 , = = 1, 04 < t10 2 = 2, 228 Donc β1 n’est pas
σbβb1 0, 29
significativement different de 0, 5

2. Test Unilatéral (
H0 β1 = 1, 2
H1 β1 < 1, 2

Econométrie Slim Ben Youssef et Hamdi Haykel


3.4. Tests statistiques usuels 35

|βb1 − 1, 2| |0, 8019 − 1, 2|


Sous H0 , = = 1, 37 < t1−α
10 = 1, 81
σbβb1 0, 29
Donc β1 n’est pas significativement inferieur à 1, 2

3.4.4 Test de conformité pour un bloc de coefficients


Nous pouvons généraliser le test de significativité à un groupe de q coefficients.
    

 β1 c1
β2 c2

    

    


 H0 :  ..  =  .. 
. .
   
   



 βq cq
H1 : ∃ i βi 6= ci




la statistique de test s’écrit :


1 b 0 
b −1 β(q)

F∗ = β(q) − c(q) Ω b − c (q)
q β
b(q)

βb(q) représente le sous-vecteur des coefficients estimés mis à contribution dans le test ;
Ωb
b(q) est la matrice de variance covariance réduite aux coefficients testés.
β
Si F ∗ 6 F α (q, n − k − 1) Donc on accepte H0
Les coefficients β1 et β2 sont-ils signficativement différents de 1 et -0,5 simultanément ?
 ! !
β1 1
H0 : =






 β2 −0, 5
 ! !

 β1 1
H1 : 6=


−0, 5


β2

Sous H0
1 b 0 
b −1 β(q)

F∗ = β(q) − c(q) Ω b − c (q)
q β
b(q)

Avec :
— q=2 !
0, 8019
— (q) =
βb
−0, 38
!
1
— c(q) =
−0, 5
Par définition β(q) représente le sous-vecteur des coefficients estimés mis à contribution
b
dans le test c-à-d β1 et β2 ;

20.1686 0.0150 −0.2314 −0.0761


 
 0.0150 0.0132 0.0011 −0.0009 

b = 6, 745  
β −0.2314 0.0011 0.0036 0.0005 
b  

−0.0761 −0.0009 0.0005 0.0004

Econométrie Slim Ben Youssef et Hamdi Haykel


3.5. Prédictions et qualité prédictive d’un modèle estimé 36

Donc ! !
0, 0132 0, 0011 0, 0890 0, 0074

b = 6, 745 =
β
b(q) 0, 0011 0, 0036 0, 0074 0, 0242
!
b (−1) 11, 5714 −3, 8021
Ω =
β
b(q) −3, 8021 42, 035

1 b 0 
b −1 β(q)

F∗ = β(q) − c(q) Ω b − c (q)
q β
b(q)
0! ! !
1 −0, 2 11, 5714 −3, 8021 0, 2
=
2 0, 12 −3, 8021 42, 035 0, 12
5%
= 0, 612 < F2,10 = 4, 10

⇔ On accepte l’hypothèse nulle

avec
! ! !
  0, 8019 1 −0, 2
βb(q) − c(q) = − =
−0, 38 −0, 5 0, 12

3.5 Prédictions et qualité prédictive d’un modèle estimé


3.5.1 Prévision ponctuelle
Le modèle général estimé est le suivant :

yi = βb0 + βb1 x1i + βb2 x2i + ... + βbk xki + εbi

La prévision pour la donnée n + h est la suivante :

yb(n+h) = βb0 + βb1 x1(n+h) + βb2 x2(n+h) + ... + βbk xk(n+h)

L’erreur de prévision est donnée par :

εb(n+h) = y(n+h) − yb(n+h)


 
0
= Xn+h β − βb + ε(n+h)

3.5.2 Prévision par intervalle


Une prévision ponctuelle est intéressante et simple. En revanche on ne connait pas quel
degré de confiance on peut lui accorder. Il est alors plus intéressant de s’intéresser à un
intervalle de prévision.
Pour construire un intervalle de prévision, nous avons besoin de connaı̂tre :

Econométrie Slim Ben Youssef et Hamdi Haykel


3.5. Prédictions et qualité prédictive d’un modèle estimé 37

— d’une part la variance de l’erreur de prévision

— d’autre part, sa loi de distribution.


   
0
V (εbn+h ) = V Xn+h β − βb + ε(n+h)
    
0
= V Xn+h β − βb + V ε(n+h)
   
0
= Xn+h V β − βb Xn+h + V ε(n+h)
−1
 
0
= σε2 Xn+h (X 0 X) Xn+h + σε2
−1
 
0
= σε2 1 + Xn+h (X 0 X) Xn+h
avec  
1
x1,n+h
 
 
 
Xn+h = 
 x2,n+h 


 . 

xk,n+h

Sous l’hypothèse de normalité des erreurs dans le modèle de régression εi N(0, σε2 ),
on a
−1
  
0
εbn+h N 0, σε2 1 + Xn+h (X 0 X) Xn+h

Lorsque l’on passe à l’estimation de la variance de l’erreur σbε2 à l’instar de ce que on a


établi lors de la détermination de la distribution des paramètres estimés, on a
y(n+h) − yb(n+h)
r  Student à (n-k-1)degeés de liberté
0 0 −1
σbε 1 + Xn+h (X X) Xn+h

On peut donc déterminer l’intervalle de confiance au niveau de prévision (1 − α) :


 α q 
IC[yn+h ] = ybn+h ∓ t(n−k−1)
2 0
σbε 1 + Xn+h (X 0 X)−1 Xn+h

yi = 32, 89 + 0, 801x1i − 0, 38x2i − 0, 0371x3i + εbi


On pose x1,15 = 9 x2,15 = 34 x 3,15 = 177
yb15 = 32, 89 + 0, 801 × 9 − 0, 38 × 34 − 0, 0371 × 177 = 20, 6
D’où  0,05 q 
IC[y15 ] = yb15 ∓ t(10)
2 0
σbε 1 + X15 (X 0 X)−1 X15
0,05
t(10)
2
= 2, 228

σbε = 6, 745
0 
1 20.16 0.01 −0.23 −0.07 1
  

0 −1
 9   0.01 0.01 0.00 −0.0   9
  
X15 (X 0 X) X15 =    
34 −0.23 0.00 0.00 0.0   34
    
   
177 −0.07 −0.00 0.00 0.0 177

Econométrie Slim Ben Youssef et Hamdi Haykel


Chapitre 4

Quelques problèmes dans le modèle de


régression linéaire

Ce chapitre est consacré à l’étude de problèmes particuliers rencontrés lors de la spé-


cification du modèle et le choix des variables à intégrer. On va définir par la suite
l’estimateur des moindres carrés généralisés utilisé lorsque les hypothèses de base liés
à la matrice de variance et de covariance de l’erreur ne sont plus vérifiées.

4.1 Multicolinéarité : conséquences, détection et remèdes


On parle de multicolinéarité lorsque le modèle en question incorpore des variables ex-
plicatives qui sont liées entre elles (une variable explicative est une combinaison linéaire
d’une ou plusieurs autres variables explicatives). On dit que ces variables ne sont pas
orthogonales (cov(x1 , x2 )#0).

Ce problème est généralement présent dans la pratique car les séries de données sont
plus ou mois dépendantes entre elles.

Une multicolinéarité prononcée s’avère problématique car elle augmente la variance es-
timée des coefficients de la regression et rend les estimations instables (une faible modi-
fication de la valeur d’une observation entraı̂ne une variation prononcée des coefficients
estimés et de leurs signes) et difficiles à interpréter. Dans le cas d’une multicolinéarité
parfaite, l’estimation par MCO est impossible car le déterminant de la matrice X0X
est nul.

4.1.1 Tests de multicolinéarité


4.1.1.1 Critère de Klein
Ce critère est basé sur la comparaison du coefficient de détermination de la regression
R2 et les coefficients de corrélations simples rxi,xj
2
entre les variables explicatives. La
2 2
situation est problématique lorsque R < rxi,xj .
4.1. Multicolinéarité : conséquences, détection et remèdes 39

4.1.2 Test de Farrar et Glauber


2
Ce test est fondé sur d’abord le calcul des coefficients de corrélations simples rxi,xj entre
les variables explicatives. Ensuite, la construction de la matrice suivante D :
1 rx1,x2 ... rx1,xk
 
r
 x2,x1 1 ... rx2,xk 
D=

 ... ... ... ... 

rxk,x1 rxk,x2 ... 1


Si le det(D) → 0 alors le risque de multicolinéarité est important.
L’étape suivante consiste à définir les deux hypothèses :
(
H0 : det(D) = 1 (les variables explicatives sont orthogonales)
H1 : det(D) < 1 (les variables explicatives sont dépendantes)
La statistique du test S = −(n − 1 − 61 (2k + 7)). ln(det(D)) suit une distribution de χ2
à 12 k(k + 1) degrés de liberté et un seuil α choisi (avec n la taille de l’échantillon et K
le nombre de variables explicatives, constante inclues).
Si S ≥ χ2 alors on rejette H0 , il y’a donc un risque important de multicolinéarité.
Si S < χ2 alors on accepte H0.
Le test de Farrar et Glauber est priviligié au critère de Klein car son fondement théo-
rique est plus affirmé.

4.1.3 Remèdes et selection du modèle optimal


Afin de remédier au problème de multicolinéarité on peut soit :
— Augmenter la taille de l’échantillon par l’ajout de nouvelles observations : cette
méthode ne fonctionne que lorsque les observations ajoutées diffèrent d’une ma-
nière significative des données existantes.
— Eliminer les variables explicatives qui sont dépendantes entre elles. Ceci nous
renvois à la méthode de sélection des variables à intégrer ou à retirer du modèle
optimal. Cette démarche est à suivre avec précaution car elle peut aboutir à
un modèle bon d’un point de vue statistique mais aberrant d’un point de vue
économique.
Critère de sélection :
Le choix des variables explicatives nous amène également à parler du choix du modèle
optimal. Le premier critère à utiliser est le coefficient de détermination R2 : le modèle
à retenir est celui qui a le R2 le plus élevé. Le R2 ajusté est préféré dans le cas d’une
régression linéaire multiple car il tient compte du changement du nombre de variables
explicatives dans le modèle.
On retient aussi le modèle qui minimise les critères d’Akaike ou Schwarz :
AIC = Ln( SCR
n
)+ 2k
n
k ln(n)
SC = Ln( SCR
n
)+ n

Econométrie Slim Ben Youssef et Hamdi Haykel


4.2. L’autocorrelation des erreurs 40

Avec SCR, la somme des carrés des résidus du modèle, n le nombre d’observations et
k nombre de variables explicatives.
Algorithme de sélection
- Examiner toutes les combinaisons possibles : On estime toutes les combinaisons de re-
gressions possibles et on retient le modèle qui minimise les critères d’Akaike ou Schwarz.
La limite de cette méthode est que le nombre de regression à estimer croit de manière
significative avec le nombre de variables explicatives k (2k − 1 possibilités).
- Procéder par elimination progressive sur le modèle complet des variables dont les t de
student sont inférieurs au seuil critique et réestimer le modèle aprés chaque élimination.
- Procéder par une sélection progressive de la variable explicative xi dont le coefficient
de corrélation simple avec la variable à expliquer y est le plus élevé. Ensuite, on calcule
2
les coefficients de corrélations partielles ryxj,xi (j 6= i) et on retient la variable dont le
coefficient est le plus élevé. La selection s’arrête lorsque les t de Student inférieur au
seuil critique.
- Procéder à une regression pas à pas identique à la précédente tout en éliminant du
modèle les variables explicatives dont le t de student est inférieur au seuil.
- Appliquer la méthode de regression par étage qui consiste à sélectionner la variable
explicative xi dont le coefficient de corrélation simple avec la variable à expliquer y est
le plus élevé. On calcule ensuite les résidus de la regression suivante :
e1 = y − βb0 − βb1 xi
et on retient la variable explicative dont le coefficient de corrélation simple avec le
résidu e1 est le plus élevé.
On calcule par la suite un nouveau résidu :
e2 = y − βb0 − βb1 xi − βb2 xj
et on retient la variable explicative dont le coefficient de corrélation simple avec le
résidu e2 est le plus élevé puis on calcule un nouveau résidu. On arrête le calcul lorsque
les coefficients de corrélation ne sont plus significatifs.

4.2 L’autocorrelation des erreurs


Lorsque la matrice de variance-covariance ne satisfait plus l’hypothèse de base de cova-
0 0
riance nulle (cov(εt , εt ) = 0), on a Ω = E(εε ) 6= σε2 I et les estimateurs MCO obtenus
ne sont pas biaisés mais leurs variances n’est plus minimale.
0 0 0 0 0
Ω = E[(βb − β)(βb − β )] = (X X)−1 X E(εε )X(X X)−1 =
0 0 0 0
(X X)−1 (X Ωε X)(X X)−1 6= σε2 (X X)−1

4.2.1 L’estimateur des Moindres Carrés Généralisés (MCG)


Soit le modèle lineaire suivant :
y = Xβ + ε

Econométrie Slim Ben Youssef et Hamdi Haykel


4.2. L’autocorrelation des erreurs 41

0
avec Ω = E(εε ) 6= σε2 I . L’estimateur MCG dit aussi d’Aitken est un estimateur qui
satisfait les mêmes propriétés que l’estimateur MCO et est à variance minimale
0 0
βb = (X Ω−1 −1 −1
ε X) (X Ωε Y )
0
Ωβb = (X Ω−1
ε X)
−1

Lorsque l’hypothèse d’absence d’autocorrélation est satisfaite, l’estimateur MCG et


l’estimateur MCO sont identiques :
0 0 0 0 0 0
βb = (X Ω−1 −1 −1
ε X) (X Ωε Y ) = (X
1
σε2
I.X)−1 (X σ12 I.Y ) = (X .X)−1 (X .Y
ε

Dans la pratique, la matrice Ωε n’est pas connue donc on ne peut estimer βb directement.

4.2.2 Detection de l’autocorrelation :


4.2.2.1 Analyse graphique
L’examen visuel des résidus permet le plus souvent de détecter un aspect qui se re-
produit et se répète. Lorsque le graphique des résidus montre des alternances positives
et négatives ceci peut être le signe d’une autocorrélation négative. Lorsque les rési-
dus gardent le même signe pendant plusieurs périodes de suite ceci est le signe d’une
autocorrélation positive.

4.2.2.2 Test de Durbin Watson


On présume des erreurs autoregressives sur le terme de l’erreur : εt = φεt−1 + vt .Ce test
est destiné à tester l’autocorrélation des résidus avec l’hypothèse nulle est l’absence
d’autocorrélation des erreurs H0 : φ = 0 (les résidus ne sont pas autocorrélés) et
l’hypothèse alternative H1 : φ 6= 0 (Les résidus sont distribués selon un AR (1)). La
statistique du test DW est la suivante

Pn 2
t=2 (et − et−1 )
Pn 2
(4.2.1)
t=1 et

et elle varie entre 0 et 4. La lecture de la table de Durbin Watson au seuil choisis et


pour un échantillon de taille n et un nombre de variables explicatives k permet de
déterminer deux valeurs critiques d1 et d2 comprises entre 0 et 4. La règle de décision
est comme suit :
— si d2 < DW < 4 − d2 , on accepte l’hypothèse nulle d’absence d’autocorrelation
d’ordre 1.
— si 0 < DW < d1 ou si 4 − d1 < DW < 4 alors on rejette l’hypothèse nulle
(φ > 0, φ < 0)
— si d1 < DW < d2 ou 4 − d2 < DW < 4 − d1 alors on est dans une zone de doute
et on ne peut pas conclure.
Pour pouvoir appliquer ce test, il faut que la variable expliquée retardée) ne figure
pas dans le modèle, que le nombre d’observations soit supérieur ou égal à 15 et que le
modèle comporte une constante. Rappelons que le test de Durbin Watson ne détecte
qu’une autocorrélation d’ordre 1.

Econométrie Slim Ben Youssef et Hamdi Haykel


4.2. L’autocorrelation des erreurs 42

4.2.2.3 Test de Breusch-Godfrey


Basé sur un test de Fisher classique de nullité des coefficients ou sur la statistique LM
(qui suit une loi de de chi-2 à p degrés de liberté), ce test peut être utilisé pour détecter
l’autocorrélation d’ordre supèrieur à 1.
La logique du test consiste à rechercher une relation significative entre les résidus et
les résidus décalés dans :
εt = ρ1 εt−1 + ρ2 εt−2 + ... + ρp εt−p + vt
Soit le modèle général à erreurs autocorrélées d’ordre p , on commence par estimer
le modèle par MCO et calculer les résidus. Ensuite on regresse les résidus sur toutes
les variables explicatives du modèle et sur les résidus retardés (équation intermédiaire)
pour déterminer les paramètres et le coefficient de détermination. L’hypothèse nulle
correspond à l’absence d’autocorrélation peut être menée à l’aide de la statistique LM :
si (n − k) × R2 > χ2 (p) alors on rejette H0.

4.2.3 Procédure d’estimation


On considère le modèle linéaire suivant
Y = Xβ + ε, avec εt = ρεt−1 + vt , |ρ| < 1 et vt ∼ N (0, σv2 )
On procéde par des substitutions successives on obtient :
εt = vt + ρvt−1 + ρ2 vt−2 + ρ3 vt−3 ... tend vers 0 car |ρ| < 1
σv2
E(εt ) = 0 et σε2 = (1−ρ2 )

La matrice de variance-covariance de l’erreur est donnée par :


Ωε = E(εε0 )

... ρn−1

1 ρ ρ2
 ρ 1 ρ ... ρn−2 
 
σv2
... ρn−3 
 2 
1  , |ρ| =
6 1
=  ρ ρ
(1−ρ2 ) 
 ... ... ... ... ... 


ρn−1 ρn−2 ρn−3 ... 1
L’estimateur MCG est défini par :
0 0
βb = (X Ω−1 −1 −1
ε X) (X Ωε Y )

Toutefois, la connaissance de σv2 et ρ est essentielle pour déterminer la matrice de


variance-covariance de l’erreur et son inverse. La procédure d’estimation consiste à
substituer la méthode MCG par la méthode MCO qu’on applique sur le modèle de
départ aprés avoir trouver une transformation matricielle M telle que M Y = M Xa +
M ε ait des erreurs non autocorrélées et homoscédastiques

4.2.3.1 Estimation de ρ
Si εt = ρεt−1 + vt , on peut estimer ρ directement à partir des résidus de la regression
du modèle de départ ou à partir de la statistique de DW.

Econométrie Slim Ben Youssef et Hamdi Haykel


4.3. L’hétéroscédasticité 43

ρb ' 1 − DW/2
On peut aussi appliquer la méthode itérative de Cochrane-Orcutt. On commence par
initialiser la valeur ρ par une estimation directe ; ensuite on regresse sur les quasi-
différences pour estimer βb et on réestime ρ à partir des nouveaux résidus. On répète la
procédure 3 ou 4 fois jusqu’à obtenir des estimations des coefficients stables.

4.3 L’hétéroscédasticité
On parle d’hétéroscédasticité lorsque l’hypothèse de base (E(ε2t ) = σε2 ) n’est pas véri-
fiée. En effet, la variance de l’erreur n’est plus constante.
L’hétéroscédasticité peut être observée lorsque les observations représentent des moyennes
calculées sur des échantillons de differentes tailles. Elle résulte aussi lors de la répéti-
tion d’une même valeur de la variable à expliquer ou lorsque les erreurs sont fortements
dépendantes des valeurs prises par la variable explicative.
Comme dans le cas de l’autocorrélations des erreurs, l’hétéroscédasticité entraine aussi
des estimateurs MCO à variances élevées.

4.3.0.1 Procédure d’estimation


La règle à appliquer pour corriger l’hétéroscédasticité consiste à trouver une trans-
formation des données (variables dépendantes et indépendante) pour se ramener à
l’homoscédasticité (variance constante).
L’estimateur BLUE ( Best Linear Unbiaised Estimator) est l’estimateur MCG
0 0
βb = (X Ω−1 −1 −1
ε X) (X Ωε Y )

Lorsque les données représentent des moyennes, on peut appliquer la transformation


en multipliant les variables explicatives et la variable expliquée par la matrice M et
appliquer la méthode MCO au données transformées.

4.3.0.2 Test de détection de l’hétéroscédasticité


Test de Goldfeld-Quandt On commence par ordonner les observations de la variable
suceptible d’être la source de l’hétéroscédasticité dans un ordre croissant ou décrois-
sant. Ensuite, on choisi arbitrairement un nombre d’observations centrales à eliminer
(approximativement le 1/4) pour obtenir deux sous-échantillon. On regresse le modèle
sur les deux sous-échantillon et on calcule la statistique de Fisher avec l’hypothèse nulle
d’homoscédasticité. La statistique du test suit une loi de Fisher à degrés de liberté v1
et v2 . Si cette statistique est supérieure à la valeur lue dans la table on rejette H0.

SCR2
∗ ddl2
F = SCR1 F(ddl2 ,ddl1 )
ddl1

Test de White Ce test est basé sur la recherche d’un coefficient significatif dans
l’équation qui relie le carré du résidu et une ou plusieurs variables explicatives en
niveau et au carré :

Econométrie Slim Ben Youssef et Hamdi Haykel


4.3. L’hétéroscédasticité 44

e2t = a1 x1t + b1 x21t + a2 x2t + b2 x22t + ... + ak xkt + bk x2kt + a0 + vt


L’hypothèse nulle d’homoscédasticité peut être testé à l’aide d’un test de Fisher de
nullité des coefficients :
H0 : a1 = b1 = a2 = b2 = ... = ak = bk = 0
Soità l’aide de la statistique LM. Si l’hypothèse nulle est rejetée alors is existe un risque
d’hétéroscédasticité. Si F ∗ > F(2k,n−2k)
α
, ou si n × R2 > X(α)
2
(2k), on rejette H0 au seuil
de α.

Econométrie Slim Ben Youssef et Hamdi Haykel

Vous aimerez peut-être aussi