Vous êtes sur la page 1sur 40

Rapport N°1 :

Nom complet de l’étudiant : HALIDOU MOUSSA Issoufou

Spécialité : Doctor Ph.D in Econometrics

Titre du manuel étudié : Econométrie 7ème édition (William Greene)

Date : Dimanche 26 mai 2019

Déclaration sur l’honneur :

Par la présente, je déclare être l’unique auteur de ce rapport dont le


contenu est le seul résultat de mon travail sur le livre mentionné.

Issoufou HALIDOU MOUSSA

Rédigé par HALIDOU MOUSSA ISSOUFOU


SOMMAIRE
I-Indices des concepts.......................................................................................... 1

II- Résumé analytique ......................................................................................... 3

Chapitre 1 : Modèle de régression multiple ......................................................... 3

Chapitre 2: Forme fonctionnelle et changement structurel ................................... 7

Chapitre 3 : Modèles de régression non linéaire ................................................... 9

Chapitre 4 : Endogénéité et estimation par variables instrumentales .................. 9

Chapitre 5 : Modèle de régression généralisée et hétéroscédasticité .................. 12

Chapitre 6 : Systèmes d’équations ...................................................................... 16

Chapitre 7 : Modèle de données de panel ........................................................... 20

III. Cas pratique ................................................................................................ 26

Problème1 .................................................................................................... 26

Problème 2 .................................................................................................... 28

Problème 3 ( TP) ........................................................................................... 33

Rédigé par HALIDOU MOUSSA ISSOUFOU


ii
I-Indices des concepts
Nous avons commencé la rédaction de ce document par la définition du concept du
mot économétrie et de ses deux branches à savoir la microéconométrie et la
macroéconométrie. Dans le chapitre 1 de ce rapport, il sera question d’étudier le modèle de
régression multiple et plus particulièrement, nous allons nous intéresser : à la présentation
générale et matricielle du modèle de régression multiple, ses hypothèses de base, à la méthode
d’estimation des moindres carrés ordinaires (MCO) des paramètres du modèle, aux différents
tests d’hypothèses, à la construction des intervalles de confiance et aux prédictions de
certaines valeurs inconnues. Le chapitre 2, intitulé, Forme fonctionnelle d’un modèle et
changement structurel, traitera en détail : des variables binaires ou indicatrices dans un
modèle, des modèles non linéaires dans les variables, des modèles log-linéaires, des modèles
semi-log linéaires, des modèles de régression comportant des termes d’interaction, des
modèles intrinsèquement linéaires, de la modélisation et du test de changement structurel.
Quant au chapitre 3, titré, modèle de régression non linéaire, il complète les autres types de
modèles vus aux chapitres1 et 2. Ce chapitre 3 présentera dans l’ordre les concepts suivants :
Définition du modèle non linéaire, les hypothèses de base de ce modèle. Il fait recours au
chapitre 1 pour ce qui concerne l’estimation, l’interprétation des paramètres et les tests
hypothèses. Dans le chapitre 4, il sera question d’étudier les conséquences du relâchement de
l’une des principales hypothèses du modèle de régression linéaire, « Absence de corrélation
entre les variables explicatives et les perturbations ». Ce chapitre intitulé Endogénéité et
Estimation par variables instrumentales, s’articulera autour des notions suivantes :
présentation du contexte d’utilisation des variables instrumentales, définition d’une variable
instrumentale, présentation de la méthode des variables instrumentales (IV) et expression de
la formule générale de l’estimateur des variables instrumentales suivie d’un exemple illustratif
étape par étape sous forme générale d’un modèle utilisant les variables instrumentales. Pour
mettre fin à ce chapitre, un test d’endogénéité d’une variable explicative du modèle sera
présenté, de même qu’un test d’exogénéité d’une variable instrumentale encore appelé test de
Sargan (1958). Comme au chapitre 4, le chapitre 5 étudie les conséquences du relâchement
d’une autre hypothèse, l’hypothèse d’homoscédasticité des perturbations du modèle linéaire
du chapitre1. Cela permettra l’introduction du modèle de régression généralisé (MCG) et
l’hétéroscédasticité. Ce chapitre abordera premièrement, les conséquences de
l’hétéroscédasticité sur les propriétés de l’estimateur des MCO et deuxièmement, il proposera
une correction éventuelle de l’hétéroscédasticité après avoir passé par la présentation des tests
d’hétéroscédasticité de Breusch-Pagan (1979) et de White (1980). Cette correction sera
faite selon deux stratégies : la première stratégie concerne le cas où la matrice de variance-
covariance des perturbations Ω est inconnue et la seconde stratégie, le cas où Ω est connue.
C’est cette dernière stratégie qui nous conduira à la méthode des MCG. Pour terminer ce
chapitre, nous donnerons un exemple simple pour appréhender la démarche d’exécution des
MCG. Le chapitre 6, système d’équations de régression décrit une façon de modéliser
simultanément un ensemble de variables aléatoires. Après une présentation du modèle de
régression apparemment indépendant SUR, nous procédons à son estimation suivant deux
cas : le cas où la matrice de covariance des perturbations est connue (ce qui conduit à
l’utilisation des MCG) et le cas où est inconnue [nous utilisons la méthode des moindres
Rédigé par HALIDOU MOUSSA ISSOUFOU
1
carrés quasi-généralisés (MCQG)]. L’utilisation des MCG ou MCQG pour le modèle SUR
n’est pas automatique. Cela passe d’abord par un test de spécification du modèle SUR pour
arbitrer entre l’utilisation des MCO et MCG (ou MCQG). Suite au modèle SUR, le modèle à
équations simultanées est présenté et estimé à travers les concepts ci-après : Notion générale
pour les modèles à équations simultanées, Equation simple (estimation et inférence) et
Méthode d’estimation de système. Ce qui a permis de mettre en place une autre méthode
d’estimation qui est la méthode des triples moindres carrés (3MC). Le dernier chapitre de
ce rapport intitulé le modèle des données de panel, présente les techniques les plus courantes
de modélisation qui sont des extensions des modèles examinés au cours des chapitres
précédents. Après avoir expliqué le cadre général de l’analyse des données de panel et
présenté les structures d’un modèle des données de panel, nous allons définir certains
concepts clés (panels cylindrés, panels non cylindrés). Nous présentons ensuite le modèle
de régression groupé et l’estimation de la matrice de covariance. Pour finir, nous allons
étudier successivement les concepts suivants : Estimations intra et interindividuelles ; les
modèles à effets fixes (estimation des moindres carrés ; test de significativité des effets
individuels) ; modèles à effets aléatoires et le test de significativité de Hausman.
Pour mettre fin à ce rapport, nous proposons trois problèmes d’applications. Le
problème1 mettra en œuvre les notions vues aux chapitres1 et 2 (méthode d’estimation des
moindres carrés, tests d’hypothèses, prédictions, etc…). Le problème 2 quant à lui, ballait
les notions contenues dans presque tous les chapitres et utilise les méthodes d’estimation
MCO, MCG et les MCQG. Enfin le problème3 est un TP. Il applique l’estimation par les
variables instrumentales et les MCO sur un fichier de données. Le logiciel R est utilisé pour
la mise en œuvre de ce TP.

Rédigé par HALIDOU MOUSSA ISSOUFOU


2
II- Résumé analytique
L’économétrie est un domaine de l’économie qui traite des applications de la
Statistique Mathématique et des outils de l’inférence statistique à l’évaluation empirique
des relations postulées par la théorie économique. On distingue deux types d’économétrie :
la microéconométrie et la macroéconométrie. La microéconométrie est caractérisée par
l’utilisation des données en coupe ou en panel portant sur les consommateurs individuels, les
entreprises et les décideurs au niveau micro. La macroéconométrie s’intéresse à l’analyse des
séries temporelles qui sont généralement des agrégats tels que les niveaux des prix, l’offre de
la monnaie, des taux de change, l’investissement, la croissance économique etc….. Dans ce
résumé, rédigé en sept chapitres, nous nous forcerons de présenter les différentes facettes de
l’utilisation des techniques économétriques dans des contextes et pour des objectifs différents.

Chapitre 1 : Modèle de régression multiple


1.1 Présentation générale et matricielle du modèle de régression multiple
Le modèle de régression linéaire est l’ensemble des caractéristiques d’une population
fondée sur un échantillon de données observées. Il peut s’écrire sous la forme :
= + + + ⋯+ + ( . ) où y est la variable dépendante ou
endogène ou expliquée; , , … sont les paramètres du modèle ; , , … , les
variables indépendantes ou exogènes ou explicatives et est la perturbation aléatoire.
, , … : sont aussi appelées régresseurs ou covariables.
, y, X, et sont respectivement des matrices d’ordre 1, 1 , , 1 1, on a :
. . . %1
'(
. . . %2 ')
. . . . . .
. . . .
= . . != . ;#= . . . . . . ; = ; ' = . ; avec i = 1, ..., n
. . . . . . .
. . . .
. . . . . .
'
" . . . " %
" *
"

Ainsi la forme matricielle de l’équation ( . ) est: = + + ( . ).


1.2 Hypothèses du modèle de régression linéaire
Les hypothèses H- de base du modèle (1.2) sont :
. : !/ = %0 + /( %( + /) %) + ⋯ + /* %* + '/ : la relation entre y et ( , ) … * est linéaire.
. : Plein rang : X est une matrice d’ordre n x K de rang K.
. : Exogénéité des variables indépendantes: E[ /+] = 2, pour tout i allant de 1 à n.
.3 : Homoscédasticité et absence d’autocorrélation des erreurs: 456( ) = 7 est
constante, pour tout i allant de 1 à n, 456( )< ∞ et cov( , 8 ) = 2, si ≠ 8.
.: : <é"é65= >" ?@A ?>""é@A
H6 : /X N(0, 7 B) où I est la matrice unité de rang n x n.
1.3 Estimation du modèle par les moindres carrés ordinaires
Il existe plusieurs méthodes d’estimation des paramètres du modèle ( . ). Dans

(MCO). Soit le modèle de régression ( . ) et désignons par b et / les estimateurs


cette section, nous étudierons les résultats de la méthode des moindres carrés ordinaires

Rédigé par HALIDOU MOUSSA ISSOUFOU


3
respectifs des paramètres et La régression de la population est C[ /+ ] = +′ et son
estimateur est noté G = + I. La perturbation associée à la i-ième observation est
H
= −
+′ et l’estimateur de est @ = − G = − +′ I. Ainsi nous avons: =+ I+@ .
H

Intéressons-nous l’expression du vecteur b des coefficients des moindres carrés. Il minimise


la somme des carrés des résidus : ∑"L @ 2 = ∑"L ( − + H I2) ( . ) où I2 désigne le choix
du vecteur des coefficients. Si nous désignons par b la solution de cette minimisation, alors b
vérifie la relation: I = (+H +)M +H (1.4) si X est de plein rang (hypothèse H2 vérifiée).
1.3.1 Qualité d’ajustement et mesure de la variance.
Le coefficient de détermination N est une mesure de la qualité d’ajustement. Il est donné
OPQ OPRMOPS OPS ∑W
UXY TU
V
par: N = OPR = =1− = 1 − ∑W (Z
OPR OPR UXY U [)
MZ V (1.5) où SCT = Somme des carrés des
écarts ou variation totale de y ; SCR = Somme des carrés des résidus et SCE = Somme des
carrés expliqués. N mesure la proportion de la variation totale de y prise en compte par la
variation des régresseurs. N est comprise entre 0 et 1.
Si N = 2, alors X n’a aucun pouvoir explicatif sur y.
Si N = , alors le calcul de N n’a plus d’intérêt car SCR = 0.
avec !a = #b ( . c).
^)]
[∑"X ( M\)( G] M\
Par ailleurs, on démontre aussi que : N = _∑" ( ] ^) `
M\) " ( G M\
X `_∑ X

N est alors le carré de la corrélation entre les valeurs observées de y et les prédictions
obtenues par l’équation estimée de la régression, Il faut noter que, la régression avec une
variable supplémentaire produit un N plus grand. On est ainsi tenté d’ajouter des variables au
modèle car N augmente jusqu’à sa limite supérieure qui est 1. Pour remédier à ce problème,
un coefficient N ajusté (par rapport au degré de liberté), noté N \ est donné par:
\ =
N
@H@
− d"Mef / d
′g2
\ =
f ( . h) ou N − "Me ( − N ) ( . i).
"M
"M
1.3.2 Propriétés à distance finie de l’estimateur des moindres carrés
Les hypothèses du modèle de régression linéaire permettent d’établir les propriétés
exactes à distance finie des estimateurs des MCO, b j ) des paramètres inconnus % et k ) .
• C[I/+] = C[I] = et C[A /+] = C[A ] = 7 donc b et j ) sont sans biais.
• 456(I/+) = 7 (+H +)M et 456CA=. (I/+) = A (+H +)M
• limo→qr b = % , donc b est un estimateur convergent.
• On peut démontrer que limo→qr A = 0 donc A est convergent.
• L’estimateur des moindres carrés est asymptotiquement efficace c'est-à-dire qu’il est
convergent, asymptotiquement normal et de matrice de covariance asymptotique
inférieure à celle de tout estimateur convergent et asymptotiquement normal.
Théorème de Gauss-Markov : Dans le modèle classique de régression linéaire, b est
l’estimateur linéaire sans biais de variance minimale de que X soit stochastique ou non,
pourvu que les hypothèses du modèle soient vérifiées.
1.4 Intervalle de confiance
Une estimation étant une approximation, il serait utile de la cadrer c'est-à-dire de lui
trouver un meilleur intervalle. Une approche générale pour l’estimation d’un paramètre t,
^ ± w56 5= >" ?@ x′éz{5"= xx>".
serait : u
Supposons que l’intervalle d’intérêt est symétrique autour de t| . Le but est de choisir une
valeur conventionnelle } (0.05 •€ 0.01 ) de manière à associer la probabilité 100(1 − })%.
Rédigé par HALIDOU MOUSSA ISSOUFOU
4
Théorème : Si ' est normalement distribué, alors l’estimateur MCO, b est indépendant du
vecteur des résidus et indépendant de toute autre fonction de , y compris A . Ainsi la
A ("‡ )

… /† "M
I M e Ie M e
relation =e = ‚ e ee 7
= ( . ˆ) est une distribution t à n-K degrés de liberté.
ƒ7 „ ƒA „ee

On peut utiliser =e pour pour construire des intervalles de confiance des éléments de % . En
conséquence, l’intervalle de confiance de %‰ peut être construit de la façon suivante :
Š‹•b Œb‰ − •
((M , oM‰)
√•‰‰ ≤ %‰ ≤ b‰ + •
((M , oM‰)
√•‰‰ ‘ = 1 − } ( . 2) où =d ’
M , "Mef
est la
V V

valeur critique appropriée à la distribution t. Ici =e dépend de la taille de l’échantillon. Si la


taille de l’échantillon est suffisamment grand, la distribution t va tendre vers la loi normale et
donc au risque de 5%, la valeur critique =( M’, "Me) sera remplacé par , ˆc.
1.5 Tests d’hypothèse
Nos tests seront construits de façon soit à
• Rejeter l’hypothèse “0 : « Les données sont incompatibles avec l’hypothèse avec un
degré raisonnable de certitude »
• Ne pas rejeter l’hypothèse “0 : Les données semblent être compatibles avec “0
L’hypothèse de régression linéaire est un ensemble de J restrictions sur le modèle de
régression linéaire: ! = #% + '. Les restrictions s’écrivent : ‹(( %(+‹() %) + ‹(” %” + ⋯ +
‹(‰ %‰ = •( ; ‹)( %( +‹)) %) + ‹)” %” + ⋯ + ‹)‰ %‰ = •) ; …; ‹–( %(+‹–) %) + ‹–” %” + ⋯ +
‹–‰ %‰ = •– . Le cas le plus simple est une restriction sur un coefficient e = 2. Le cas le plus
général peut être écrit sous forme matricielle, N = — .Chaque ligne de R représente les
coefficients de l’une des constantes. Ainsi, on a : .2 : N − — = 2 z>"=6@ . : N − — ≠ 2.
Nous considérons ici deux méthodes de tests : le test de Wald et les tests d’ajustement.
1.5.1 Test de Wald fondé sur la distance
Le test de Wald est la procédure la plus utilisée. Il est souvent appelé « test de
significativité ». La procédure consiste à ajuster la régression sans restriction puis à évaluer
les résultats obtenus pour voir s’ils sont en accord avec l’hypothèse. Considérons les
hypothèses suivantes : “0 : %‰ = %‰0 et “( : %‰ ≠ %‰0
La distance de Wald d’un coefficient estimé à partir d’une valeur hypothétique est la distance
linéaire, mesurée en écart-type d’unité. Ainsi la distance de b‰ à partir de %‰0 serait :
™š M›šœ
˜‰ = . k ) étant estimé par j ) , alors nous obtenons une nouvelle statistique qui est
ƒ•V O šš
™š M›šœ
‰ = ( . ). Sous l’hypothèse “0 , ‰
ƒžV O šš
a une distribution t avec n-K degrés de liberté.
La valeur standard utilisée est 95%. En utilisant ( . ), nous pouvons écrire :
Ÿ6>I −=( M’, "Me) ≤ =e ≤ =( M’, "Me) ¡ = 2. ˆ: où =( M’, "Me) est la valeur appropriée de la table t.

Si %‰0 = 0 alors ( . ) devient =e = e . Elle est notée t-ratio pour l’estimateur b‰ .


I
A Ie
|Ie | ’
≥ =’¤ où =’¤ représente 100 d1 − f % de la valeur critique de la distribution de t
AIe
Si
à n-K degrés de liberté, alors “0 est rejetée et le coefficient est dit « statistiquement
significatif ».

Rédigé par HALIDOU MOUSSA ISSOUFOU


5
Un intervalle de confiance de %‰ est b‰ ± =e AIe . On peut voir cet intervalle comme

l’ensemble des valeurs plausibles de %‰ avec une confiance de 100 d1 − f % où } = 5%,
habituellement.
1.5.2 La statistique F et la différence des moindres carrés
Nous voulons tester maintenant, un ensemble de J restrictions linéaires traduites par
l’hypothèse nulle .2 : N − — = 2 contre l’hypothèse alternative . : N − — ≠ 2.
L’estimateur des moindres carrés b, nous pousse à nous intéresser au vecteur de différence
NI − — = ¥. Il est peu probable que m prenne exactement la valeur 0. Le problème est de
savoir si l’écart entre m et 0 peut être attribué à une erreur d’échantillonnage ou s’il est
fondamental. Comme b est normalement distribué et que m est une fonction de b, alors m est
aussi normalement distribué.
Si l’hypothèse nulle est vraie, alors N − — = 2 et la moyenne de m est le vecteur
¦[§/#] = ¨¦[§/#] − • = N − — = 2 et sa matrice de covariance est :
©ª‹[§/#] = ¨©ª‹[§/#]¨H = 7 N(+H +)M N′ . Le test de .2 peut être fondée sur le critère de Wald
˜ = §′«©ª‹[§/#]¬M( § = (¨b − •)H «7 N(+H +)M NH ¬M( (¨b − •) donc on a :

(NIM—)® «N¯+® +° N® ¬‡ (NIM—)
-= ( . ) suit une loi de Khi-2 à J degrés de liberté sous .2 .
7
La statistique W de (1.12) ne peut pas être utilisée car 7 est inconnue. En utilisant A au lieu
de 7 et en divisant par J, nous obtenons la statistique F ayant J et n-K degrés de liberté. Ainsi
nous trouvons après toutes les transformations nécessaires sous l’hypothèse nulle .2 ,

(NIM—)® «N[A ¯+® +° ]N® ¬‡ (NIM—)
±∗ = ±[³, " − e] = ( . )
³
Par ailleurs, si on suppose qu’on impose de manière explicite les restrictions de l’hypothèse
linéaire générale dans la régression, l’estimateur des moindres carrés contraints est
b∗ = b − (# H #)M( ¨′«¨(# H #)M( ¨ H ¬M( (¨b − •). Dans le cas où (# H #) est régulière, on a
©ª‹[b∗ /#] = 7 (+H +)M − 7 N′(+H +)M [¨(# H #)M( ¨ H ]M ¨(# H #)M(
©ª‹[b∗ /#] = ©ª‹[b/#] − ´(7) avec ´(7) est une matrice définie non négative. Cette
réduction de la variance peut s’interpréter comme l’information contenue dans les restrictions.
Si on désigne par ¨ ) le coefficient de détermination du modèle non contraint et par ¨∗) ,
celui du modèle contraint. La différence d’ajustement entre les deux modèles peut être
N MN∗ MN
mesurée par la statistique F définie par : ±(³, " − ) = d f / d "M f
³
(1.14).
Pour étudier la significativité globale de la régression, on peut utiliser le test joint de
l’hypothèse selon laquelle tous les coefficients sont nuls (sauf la constante). Si c’est le cas,
alors le coefficient de corrélation multiple est également nul. Nous pouvons réaliser le test à
N MN∗ MN
partir de ¨ ) en utilisant la statistique : ±( − , " − ) = d M
f / d "M f (1.15)
1.6 Prédiction
Après avoir estimé les paramètres d’un modèle et testé sa significativité, on réalise
couramment des prédictions de la variable dépendante. Supposons que nous voulons prévoir
la valeur ! 0 associée 0 , cette valeur est ! 0 = % 0 ′+' 0 . D’après le théorème de Gauss-
Markov, !a 0 = 0H b est l’estimateur sans biais de variance minimale de ¦[! 0 / 0 ]. L’erreur et
la variance de prédiction sont données respectivement par : @2 = G2 − 2 = (I − )H 2 + 2
et ©ª‹[ 0 /#, 0 ] = k ) + 0 [k ) (# H #)M( ] 0 ( . c).
Rédigé par HALIDOU MOUSSA ISSOUFOU
6
La variance de prédiction peut être estimée par j ) plutôt que par k ) . L’intervalle de confiance
de ! 0 est alors : ! 0 ± =d M’, "Mef A@( 0 ).

Chapitre 2: Forme fonctionnelle et changement structurel


2.1 Variables binaires dans la régression
Les variables binaires, indicatrices ou encore appelées variables muettes en français
(dummy variables) représentent un des dispositifs les plus utiles de l’analyse de la régression.
Une variable muette prend la valeur 1 pour certaines observations, afin de capter l’effet
d’appartenance à un groupe, et la valeur 0 sinon. Les variables muettes permettent de
modéliser les sauts discrets dans les fonctions de régression. Elles sont fréquemment utilisées
avec d’autres variables quantitatives. De même, pour modéliser les catégories multiples
comme la correction des facteurs saisonniers dans les données macroéconomiques, il est utile
d’utiliser un ensemble de variables binaires. Par exemple la fonction de consommation pour
des données trimestrielles peut s’écrire : µ¶ = %( + %) ¶ + ·( ¸¶( + ·) ¸¶) + ·” ¸¶” + ' (2.1) où
¶ est le revenu disponible. Pour éviter le problème de multicolinéarité (piège de la variable
muette), la quatrième variable muette a été abandonnée. Dans certains cas, il est préférable de
garder les 4 variables muettes et d’exclure la constante du modèle. Une formulation
alternative à la dessaisonalisation des données précédentes est µ¶ = %( ¶ + ·( ¸¶( + ·) ¸¶) +
·” ¸¶” + ·¹ ¸¶¹ + ' (2.2). Dans la plupart des applications, les variables muettes sont utilisées
pour tenir compte des facteurs qualitatifs (variables qualitatives) tels que l’appartenance à
un groupe ou l’effet d’une certaine période particulière (effet de seuil). Dans d’autres cas,
elles peuvent représenter les niveaux d’un certain facteur mesurable.
2.2 Non linéarité dans les variables.
º = º( , º) , … , º» est l’ensemble des variables indépendantes ; ¼( , ¼) , … , ¼* est
l’ensemble des K fonctions de z linéairement indépendantes, ½(!) une fonction observable de
y, et les hypothèses sur la perturbation. La forme générale de la fonction de régression peut
s’écrire: ½(!) = %1 ¼ (º) + %2 ¼ (º) + ⋯ + % ¼ (º) + ' = %1 + %2 + ⋯ + % + ', donc
1 2 1 2
½(!) = H
% + ' (2.3). Ce modèle peut être transformé en des différents types de modèles
grâce à certaines fonctions (les fonctions logarithmes, exponentielles, réciproques etc…).
2.2.1 Modèles log-linéaire et semi-log-linéaire
Le modèle log-linéaire, ¿ ! = ¿ } + ∑‰ %* ¿ #‰ + ' = %( + ∑‰ %* ‰ + ' est une forme
fonctionnelle couramment utilisée. Les % représentent les élasticités : dÀÁ ÀZ
f d šf =
Á
Z
ÀÂoZ
ÀÂoÁ
= %*
š š

(2.4). Dans ces modèles, les variations sont en proportion ou en pourcentage. Par exemple, %
mesure la variation en pourcentage de y par rapport à une variation de 1% de #Ã .
Le modèle semi-log constitue un modèle hybride des modèles linéaire et log-linéaire, c'est-
à-dire x" = + + ( . :). Les coefficients du modèle semi-log correspondent à des
Äx"
élasticités partielles. Par exemple dans ( . :) on trouve : =
Ä
.
2.2.2 Effets d’interaction
Une autre formulation intéressante du modèle de régression est celle comportant des
termes d’interaction. Par exemple, un modèle reliant la distance de freinage D à la vitesse V
ÄC[Å/4,.]
et à l’humidité de la route H peut s’écrire ¸ = %( + %) © + %” “ + %¹ ©“ + ' . Ainsi, Äx"4
= %2 +
%4 “ signifie que l’effet marginal d’une vitesse supérieure sur la distance de freinage
Rédigé par HALIDOU MOUSSA ISSOUFOU
7
augmente avec l’humidité de la roue (en supposant %¹ positif). Pour construire des intervalles
de confiance ou des tests d’hypothèse sur les effets marginaux, les écarts-types sont calculés
f = ©ª‹_%Ç) ` + “) ©ª‹_%ǹ ` + “È•É_%Ç) , %ǹ `, et de façon comparable pour
ÄC[Å/4,.]
selon 456 dÄC[Å/4,.]
Äx"4 Äx".
2.2.3 Modèle intrinsèquement linéaire
Dans le modèle de régression classique, si on peut écrire K paramètres %1, %2 , … . , %
comme K fonctions bijectives, éventuellement non linéaires, d’un ensemble de K paramètres
sous-jacents t1, t2 , … , t , alors le modèle est intrinsèquement linéaire en t. L’équation du
modèle log-linéaire est intrinsèquement linéaire. Le logarithme de ÊË = }#Ë %2 'Ë , donne
¿ Ê/ = ¿ } + %) ¿ #/ + '/ ou !Ë = %1 + %2 Ë + 'Ë . Malgré son aspect non linéaire par rapport à }, le
modèle reste entièrement linéaire avec l’utilisation de %1 . Si b( est un estimateur de %1 , alors
a = exp (b1 ) est un estimateur de }. Le point central de linéarité intrinsèque est la « bijection ».
}
Si les conditions sont remplies, nous pouvons estimer le modèle selon les fonctions
%1, %2 , … . , % permettant de déduire ensuite les paramètres sous-jacents. La propriété de
bijection représente une condition d’identification. Les paramètres sous-jacents (t) de la
régression sont identifiés exactement selon les paramètres % du modèle.
Par ailleurs, tous les modèles de la forme !Ë = %1 (t) Ë1 + %2 (t) Ë2 + ⋯ + % (t) Ë + 'Ë (2.6) ne
sont pas intrinsèquement linéaires. Par exemple le modèle, !Ë = } + % Ë1 + Ï Ë2 + %Ï Ë3 + 'Ë est
non linéaire. Si on l’écrit sous la forme de (2.6), alors %4, = %2 %3 qui est une restriction non
linéaire. Dans ce modèle, }, % Ï sont suridentifiés en termes de quatre paramètres
%1, %2 , %3 et %4.
2.3. Modélisation et test de changement structurel
Le test de changement structurel représente l’une des applications les plus courantes
du test de F. Avec un modèle de régression, on suppose que les hypothèses s’appliquent à
toutes les observations de l’échantillon. Il est tout à fait possible de tester si certains ou tous
les coefficients du modèle varient d’un sous-ensemble de données à l’autre. Si !1 et #1 sont les
( premières observations d’un échantillon des données, et !2 et #2 , les ) dernières, alors
une régression non contrainte autorisant les %Ë, à varier entre ces deux périodes est
!1 #1 0 %1 '1
!2 ¡ = 0 ¡ Œ ‘ + ' ¡.
#2 %2 2
Si # et ! sont les matrices des données, l’estimateur des moindres
0 #H ! b
carrés non contraint est b = (#′#)M( #′! = Œ#( #(
H M(
‘ Œ (H ( ‘ = Œ ( ‘.
0 #)H #) #) !) b)
Il est possible de
construire la restriction sur les coefficients de deux manières. Formellement, la restriction
%1 = %2 est équivalente à ¨% = • où ¨ = [Ñ ∶ −Ñ] et • = 0. Une autre façon, plus simple,
consiste à intégrer la restriction directement dans le modèle. Si %1 = %2 alors on a
!1 #1 0 '1
!2 ¡ = 0 #2
¡ % + ' ¡.
2
Une régression simple sur les données empilées donne l’estimateur
contraint. La somme des carrés des résidus de cette régression contrainte est ∗H ∗ et
constitue le point de départ du test. La statistique du test est :
(T∗® T∗ MTHT)⁄Õ
Ó[J, 1 + 2 −2 ]= , J est le nombre de restrictions (nombre de colonnes de #2 )
′ /( 1 + 2 −2 )

Rédigé par HALIDOU MOUSSA ISSOUFOU


8
Chapitre 3 : Modèles de régression non linéaire
3.1 Formulation et définition du modèle de régression non linéaire
Le chapitres 1 a mis l’accent sur un modèle de régression linéaire qui peut s’écrire
sous la forme ! = ( %(+ ) %)+…+ * %* +' (3.1) et le chapitre 2 a apporté une amélioration au
modèle (3.1) en nous fournissant une forme un peu plus générale :
! = ¼( (#)%( +¼) (#)%) +…..+¼* (#)%* +' (3.2) qui est linéaire en vertu de la définition que nous
voulons utiliser ici et du fait que ses paramètres apparaissent dans une forme linéaire. Dans ce
chapitre, nous allons étudier le modèle de régression non linéaire :
! = ℎ( ( , ) , … , * ; %( , %) ,..., %* ) + ' (3.3) où la fonction de moyenne conditionnelle inclut P
variables et K paramètres. Cette forme de modélisation change la fonction de moyenne
conditionnelle ¦[!/ , %] = ′% à ¦[!/ ] = ℎ( , %). Ainsi, un modèle de régression non
linéaire est celui pour lequel les conditions de premier ordre de l’estimation des moindres
carrés des paramètres sont des fonctions non linéaires des paramètres. Sa forme générale
est donnée par !/ = ℎ( / , %) + ' (3.4).
3.2 Hypothèses du modèle de régression non linéaire
Les hypothèses sur lesquelles le modèle (3.4) se fondent sont:
Forme fonctionnelle {¦[!/ / / ] = ℎ( / , %), i=1, …, n, où ℎ( / , %) est une deux fois
continûment différentiable} ; Les paramètres du modèle de régression non linéaire sont
identifiables ; Nullité de la moyenne de la perturbation {¦['/ /ℎ( / , %)] = 0} ;
Homoscédasticité et absence d’autocorrélation {¦_'/) /ℎ( – , %), Ø = 1, … , ` = k ) < ∞ et
¦_'/ '– /ℎ( / , %), ℎ( – , %), Ø = 1, … , ` = 0, ∀Ë ≠ Ø } ; Processus générateur des des données (
ce processus est strictement exogène par rapport à celui de '/ . Les données sur / sont
supposées avoir des « bonnes propriétés ») et Modèle de probabilité sous-jacent ('/ a une
distribution de probabilité bien définie). Ces hypothèses sont plus ou moins analogues à celles
du modèle linéaire.
3.3 Estimation et Tests d’hypothèses
Nous constatons que les résultats concernant l’estimation, l’interprétation et les tests
d’hypothèses restent analogues à ceux du modèle linéaire déjà vus au chapitre 1. Cependant
on peut noter deux différences essentielles: d’une part, une méthode d’estimation plus
élaborée pour le modèle non linéaire et d’autre part l’ambiguïté liée à l’interprétation des
coefficients du modèle non linéaire (car les dérivées de la régression ne sont généralement
pas constantes, contrairement au modèle linéaire).

Chapitre 4 : Endogénéité et estimation par variables instrumentales


4.1 Présentation du contexte d’utilisation des variables instrumentales
Dans le modèle de régression linéaire Y- = X -H % + ε- (4.1), l’hypothèse d’absence de
corrélation entre Xi et '/ a été cruciale pour l’analyse menée jusqu’à présent. Mais elle se
révèle intenable dans des nombreuses applications économiques. Sous cette hypothèse,
aucune des démonstrations de la convergence de l’estimateur des moindres carrés du chapitre
1 n’est valable. Au cours de ce chapitre, nous développons une méthode d’estimation qui
répond à ce cadre. Cette méthode est appelée méthode des variables instrumentales (IV).
Elle repose sur la stratégie d’estimation suivante : Considérons le modèle (4.1) où K variables
Xi sont corrélées avec '/ . On suppose qu’il existe un ensemble de L variables ßË tel que ßË est
Rédigé par HALIDOU MOUSSA ISSOUFOU
9
corrélée avec / mais pas avec '/ . Ainsi % ne peut pas être estimé de façon convergente par les
moindres carrés. Toutefois, nous pouvons construire un estimateur convergent fondé sur
l’hypothèse faite sur la relation ß/ , X - et '/ . Ce chapitre présente un résumé de la méthode des
variables instrumentales comme une extension des modèles et des estimateurs qui ont été
examinés au chapitres1. Soit le modèle (4.1) suivant Y- = X -H % + ε- où ε- est d’espérance nulle
et de variance conditionnelle égale à k ) . Ce modèle reprend les notations habituelles du
chapitre 1. Le problème étudié dans ce chapitre est le suivant : nous soupçonnons une variable
explicative d’être endogène. Supposons qu’il s’agisse de la dernière variable du modèle, notée
XK . Dans ce cas, la variable XK est corrélée avec le terme d’erreur et l’hypothèse E(X á ε-) = 0
n’est plus vérifiée. Ainsi, si on applique les MCO sur le modèle (4.1) qui contient une
variable explicative endogène on obtient des paramètres estimés biaisés et inconsistants. On
montre que dans ce cas, on peut obtenir des estimateurs consistants grâce à la méthode des
variables instrumentales qui est une méthode d’estimation en information limitée c’est à dire
que nous nous intéressons à une seule équation.
4.2 Définition d’une variable instrumentale (IV) et méthode d’estimation par IV
On appelle variable instrumentale, une variable exogène (non corrélée avec le terme
d’erreur) et corrélée avec la variable explicative qui est soupçonnée d’être endogène, ici XK .
Soit Z la matrice des variables instrumentales de dimension (N, L) avec L ≥ K c’est à dire que
le nombre d’instruments doit être supérieur ou égal au nombre de variables explicatives du
modèle. Si L= K, le modèle est juste identifié ; si L > K le modèle est suridentifié. Attention si
L< K, le modèle est sous identifié et on ne peut pas retrouver les paramètres structurels. La
formule générale pour l’estimateur des IV, noté bäå est:
bäå = [X Z(Z Z) Z X] X Z(Z Z) Z Y (4.2). Si le modèle est juste identifié (L= K), alors
H H M( H M( H H M( H

l’équation (4.2) se réduit à : bäå = (ZH X)M( ZH Y (4.3). En pratique la matrice Z contient toutes
les variables exogènes du modèle.
Supposons que l’équation structurelle soit: Y- = β( X(-+β) X )-+…+βáM( XáM(- + βá Xá- +ε-
dans laquelle on soupçonne XK d’être endogène. Soit Z( , Z) , … , Zè , les variables
instrumentales. Dans ce cas la matrice Z aura pour colonne : (1, X( , X ) , … , X áM( , Z( , Z) , … , Zè )
avec L = K + m où L est le nombre de colonnes de Z. notons de plus que les variables
instrumentales Zi ne figurent pas dans l’équation structurelle; ces restrictions d’exclusion
permettent d’identifier le modèle. On montre dans ce cas que, pour obtenir bäå , il faut
procéder selon les deux étapes ci-contre:

Etape 1: On régresse xá sur−(1, X( , … , X áM( , Z( , … , Zè ) et on calcule Xa K grâce à cette


régression. Notons Xa la matrice qui contient les K colonnes suivantes : 1, X( , X ) , …, X áM(
^ á où X á a été remplacée par Xa K . La régression de cette première étape n’a pas
et X
d’interprétation économique. C’est une “régression auxiliaire" car elle aide à la correction
du biais.
Etape 2: On régresse Y1 sur X ^ c’est à dire sur les variables ( 1, X( , X ) , … , X áM( , X
^ á ). Les
paramètres estimés à la fin de cette seconde étape sont les estimateurs par la méthode des IV.
Cette estimation en deux étapes correspond aussi à la méthode des Doubles Moindres
OPS
^′X° ^
Carrés, 2MC. Ainsi: b)éP = ¯ X XH Y = bäå . On démontre que j ) =
M(
oM*
et
^′X°M(
©ª‹¦j . (b)O»O ) = j ) ¯ X où SCR est la somme des carrés des résidus des 2MC ; j ) est un
Rédigé par HALIDOU MOUSSA ISSOUFOU
10
estimateur sans biais de k ) . Les 2MC sont moins efficaces que les MCO quand les variables
explicatives sont toutes exogènes. Donc si les variables explicatives sont toutes exogènes, il
faut utiliser les MCO.
4.3 Test d’endogénéité
Le test d’endogénéité permet de savoir si les 2MC sont nécessaires. L’idée du test est
que la différence entre les estimateurs des MCO et des 2MC doit être faible si la variable
explicative est exogène. Si cette différence est “grande" on conclut que la variable explicative
suspectée est endogène. Pour le savoir, on peut utiliser une régression avec le raisonnement
suivant : Supposons que nous avions une seule variable explicative suspectée d’être endogène,
notée Y2 dans la suite. Le modèle structurel est Y( = β0 + β( Y) + β) X( + β” X) + ε( (4.5). On
dispose de deux variables exogènes supplémentaires, les deux instruments, notés Z( et Z) . La
forme réduite s’écrit : Y) = α0 + α( X( + α) X) + α” Z( + α¹ Z) + ε) (4.6). Si Y) n’est pas corrélée
avec ε( [ c H est − à − dire ε( et ε) sont non corrélées], nous devons utiliser les MCO. Donc
la variable Y) n’est pas corrélée avec le terme d’erreur ε( si ce terme d’erreur n’est pas
corrélée avec ε) . Pour tester la nullité de cette corrélation, écrivons ε( = δε) + u où u vérifie
toutes les hypothèses des MCO. Si ε( et ε) ne sont pas corrélées alors δ = 0. Il suffit donc de
remplacer ε( par l’expression ci-dessus dans (4.5) pour obtenir: Y( = β0 + β( Y) + β) X( +
β” X) + δε) + u . On remplace ε) dans (4.6) et on teste δ = 0. En pratique on procède de la
manière suivante :
Etape 1 : On estime la forme réduite par MCO en régressant Y2 sur Z c'est-à-dire X1 , X2 , Z1 , Z2
et on calcule le résidu de cette équation, noté εa) .
Etape 2 : On estime l’équation structurelle par MCO en ajoutant ce résidu comme variable
explicative c’est à dire que l’on estime Y1 = β0 + β1 Y2 + β2 X1 + β3 X2 + δε̂ 2 + ε1 et on teste δ = 0
dans cette équation. Tester δ = 0, revient à tester l’existence d’un biais d’endogénéité ou de
simultanéité. Si on rejette H0 : «Y) est exogène », alors on conclut que Y) est endogène car ε(
et ε) sont corrélés et qu’il faut donc utiliser les 2MC. Dans le cas contraire on utilisera les
MCO.
NB : les paramètres estimés par MCO dans l’étape 2 sont identiques à ceux estimés par
2MC.
4.4 Test de Sargan (test d’exogénéité d’une variable instrumentale)
On applique le test de restrictions suridentifiantes, si on dispose de plus d’un
instrument pour la variable suspectée d’être endogène. On définit le nombre de restrictions
suridendifiantes, noté q, comme le nombre total d’instruments moins le nombre de variables
explicatives suspectées d’être endogène. Nous avons vu qu’une variable instrumentale doit
respectée deux conditions : Elle doit être corrélée avec la variable explicative endogène (nous
avons déjà testé cela), elle doit être exogène et donc non corrélée avec le terme d’erreur. Pour
tester cette seconde condition nous allons utiliser le test de Sargan (1958) :
Etape 1 : On enregistre les résidus des 2MC.
Etape 2 : On régresse ce résidu sur toutes les variables exogènes du modèle (les variables X
et les instruments). On effectue un test du multiplicateur de Lagrange sur cette régression
auxiliaire en calculant N x R2 que l’on compare à une loi du χ2 à q degré de liberté, où q est le
nombre de restrictions suridentifiantes. Si la valeur observée dépasse la valeur théorique de la

Rédigé par HALIDOU MOUSSA ISSOUFOU


11
table, on rejette H0 : « les instruments sont exogènes » et on conclut donc qu’au moins une
variable instrumentale n’est pas exogène.

Chapitre 5 : Modèle de régression généralisée et hétéroscédasticité


5.1 Contexte d’utilisation des Moindres Carrés généralisés (MCG)
Dans le chapitre1 nous avons supposé que ©ª‹('/ /#) = k ) pour tout i (les erreurs
sont homoscédastiques). Sur des données individuelles, l’hypothèse d’homoscédasticité peut
poser problème. Il y a en pratique deux stratégies possibles. Nous choisirons la première
stratégie si nous soupçonnons un problème d’hétéroscédasticité sans en connaître la forme
c’est à dire si l’on pense que la variance des erreurs n’est pas constante pour tous les

information sur la forme de cette dépendance (la variance de '/ dépend de i mais on ne sait
individus, ou encore que la variance des erreurs dépend de i mais nous n’avons aucune

pas “comment“). Cette stratégie utilise les propriétés asymptotiques des estimateurs et est
donc valable en grand échantillon. En pratique c’est la stratégie la plus utilisée quand
l’échantillon est de taille suffisante. La seconde stratégie sera utilisée si nous disposons d’une
information sur la forme de l’hétéroscédasticité. Cette information auxiliaire permet d’utiliser
les Moindres Carrés Généralisés, noté MCG (GLS en anglais). Dans ce cas nous pourrons
utiliser les propriétés exactes des estimateurs c’est à dire en échantillon fini.
5.2 Conséquences de l’hétéroscédasticité sur les propriétés de l’estimateur des MCO
Si la variance des erreurs n’est plus constante, on montre que les estimateurs des
MCO sont toujours sans biais et consistants mais ils ne sont plus les meilleurs estimateurs
(linéaires et sans biais). En effet la variance des MCO, c’est à dire, σ2(X’X)−1 n’est plus
valide. Ainsi tous les tests présentés dans le chapitre1 ne sont plus valides. Deux stratégies
sont alors possibles : la première stratégie consiste à conserver les estimateurs des MCO
et à corriger la variance des estimateurs des MCO. La variance corrigée (ou variance
robuste à l’hétéroscédasticité) est une estimation robuste à l’hétéroscédasticité (par défaut
et dans la suite de ce chapitre toute mention de robustesse correspond à la robustesse à
l’hétéroscédasticité) valable en grand échantillon. Cette première stratégie très utilisée en
pratique sera présentée dans le paragraphe suivant. Les paragraphes qui vont suivre
présenteront la seconde stratégie qui consiste à abandonner les MCO et à faire une
hypothèse sur la spécification de la variance des erreurs afin d’appliquer une autre
méthode d’estimation, les Moindres Carrés Généralisés (MCG ou GLS en anglais).
5.3 Stratégies d’estimation en présence d’hétéroscédasticité
La première stratégie est utilisée si on n’a aucune information sur la forme de
l’hétéroscédasticité et permet d’éviter de spécifier la variance des erreurs. White(1980) a

la suivante : Σ| = (X H X)M( (X H diag(ε) )X(X H X)M( où diag(λi) est la matrice diagonale qui
proposé une matrice de variance-covariance asymptotique des paramètres estimés qui est

contient λi sur la diagonale. Nous supposons que i toutes les hypothèses des MCO sont
vérifiées sauf une : la variance des erreurs n’est pas constante dans l’échantillon. Ainsi
nous supposons toujours que la covariance entre les erreurs est nulle et que, hors
diagonale la matrice de Variance-Covariance des erreurs ne contient que des 0. Une seule
hypothèse est donc levée sur cette matrice : les termes sur la diagonale ne sont pas
constants, ils dépendent de i. En pratique pour savoir si cette hypothèse
d’homoscédasticité doit être levée sur l’échantillon étudié, on procède à des tests
d’hétéroscédasticité sur les erreurs. La seconde stratégie consiste à abandonner les
estimateurs des MCO et à estimer le modèle par MCG. La première étape de cette
stratégie consiste à procéder à des tests d’hétéroscédasticité. En cas de rejet de
Rédigé par HALIDOU MOUSSA ISSOUFOU
12
l’homoscédasticité des erreurs, la seconde étape consistera à appliquer les MCG en faisant
une hypothèse sur la forme de l’hétéroscédasticité.
On peut rarement affirmer que les perturbations sont hétéroscédastiques et
connaître la forme de l’hétéroscédasticité. Il est donc utile de tester la présence de celle-ci
et de modifier la procédure d’estimation le cas échéant.
5.4 Tests d’hétéroscédasticité des erreurs (Tests de White et Breusch-Pagan)
Nous allons présenter dans ce paragraphe deux tests d’hétéroscédasticité des erreurs
qui sont des tests asymptotiques très utilisés en pratique: le test de Breusch- Pagan (1979)
et celui de White (1980). Nous présenterons brièvement le principe d’un test asymptotique
du multiplicateur de Lagrange avant de présenter les tests d’hétéroscédasticité.
5.4.1 Test du multiplicateur de Lagrange
Soit le modèle de régression partitionnée suivant : Y = X1β1 + X2β2 + u (5.1) où X1 est
de dimension (1, k1) constante incluse et X2 de dimension (1, k2) . Nous allons présenter

Notons β|(ø l’estimateur de β1 sous H0. Le résidu du modèle contraint est uaÈ = Y − X1βa 1È .
une autre approche pour tester H0: β2 = 0. Cette approche utilise le modèle contraint.

procède comme suit : on régresse le résidu du modèle contraint uaø sur X1 et X2. Soit le
Lagrange ou test du Score, repose sur cette observation sur le modèle contraint. On

R2 de cette régression. La statistique de test est N x R2 qui suit, sous H0, une loi de
χ2 à k2 degrés de liberté. Si N x R2 est “grand”, le résidu est corrélé avec X2 et on
rejette H0. Attention, il est important de faire figurer X1 dans la régression auxiliaire des
résidus même si ce résidu est toujours orthogonal à X1. Si X1 est exclue, la statistique ne suit
généralement pas une loi de χ2 quand X1 et X2 sont corrélées, ce qui est très souvent le cas
en pratique.
5.4.2 Test de Breusch-Pagan (1979)
Le test de Breusch-Pagan (1979) sera noté BP. Il s’agit de itester l’hypothèse selon
laquelle la variance des erreurs ne dépend pas des variables explicatives du modèle. Soit le
modèle de régression multiple Y = Xβ +' . L’hypothèse nulle d’homoscédasticité est H0 :
©ª‹('/ /#) = k ) ou encore H0: E('2 /X) = k2 . Pour tester la violation de cette hypothèse, nous
allons tester si ' ) dépend d’une ou de plusieurs variables explicatives. Si H0 est rejetée
alors E('2 /X) est une fonction des variables explicatives. La spécification la plus simple
est '/) = δ0 + δ1X1 + . . . + δkXk + v où v vérifie toutes les hypothèses des MCO.
L’hypothèse nulle d’homoscédasticité devient H0 : δ1 = δ2 = . . . = δk = 0. Si les paramètres
δ sont tous nuls, alors la dispersion des erreurs ne dépend pas des variables explicatives ;
cette dispersion devient une constante et nous retrouvons l’hypothèse d’homoscédasticité.

On régresse Y sur toutes des variables explicatives par MCO ; on sauve les résidus '̂/) .
Nous procédons ensuite à un test du multiplicateur de Lagrange pour tester la nullité des δ :

On régresse '̂/) sur toutes les variables explicatives. On obtient le R2 de cette


régression auxiliaire. On calcule donc la statistique du multiplicateur de Lagrange qui est
LM= N x R2
On compare cette valeur observée à la valeur critique d’une table de χ2 à K-1 degrés de
liberté où K est le nombre de paramètres de la régression auxiliaire. On procède de la
manière habituelle pour rejeter ou pas l’hypothèse nulle.
5.4.3 Test de White(1980)
Le test de White(1980) repose sur le même principe que le test de BP. La seule
différence réside dans le fait que la liste des variables explicatives de la régression
auxiliaire est plus grande. Pour obtenir cette liste on effectue le “produit” des variables du
Rédigé par HALIDOU MOUSSA ISSOUFOU
13
modèle. Ainsi pour le test de White la liste des variables explicatives de la régression
auxiliaire contient toutes les variables du modèle (comme le test de BP) ainsi que tous les
doubles-produits des variables. Par exemple, si le modèle contient les variables (1, X1, X2,
X3) alors la régression auxiliaire est : '2Ë = δ0 + δ1X1+ δ2X2 + δ3X3 + δ4X12 + δ5X22 + δ6X32 + δ7 X1X2 +
δ8 X1X3 + δ9X2X3+ui. On procède ensuite à un test du multiplicateur de Lagrange comme
précédemment. Le test de White est plus général que le test de BP mais la puissance de ce
test est plus faible ; en effet le test de White peut rejeter l’homoscédasticité en cas d’erreur
de spécification comme l’omission d’une variable explicative au carré dans le modèle.
Si l’hypothèse H0 est rejetée, alors nous corrigeons l’hétéroscédasticité à travers les
Moindres Carrés Généralisés (MCG).
5.5 Méthode des Moindres Carrés Généralisés (MCG).

' avec E(' /X) = 0 et Var(' /X) = σ2I. En présence d’hétéroscédasticité, la diagonale de la
Nous avons vu dans le chapitre 1, le modèle de régression multiple suivant: Y = Xβ +

matrice Var(' /X) n’est plus constante; elle dépend de i et on a :


2 . . . 2
2 . . . 2
. 2 . . . .
ùúû( /+) = ü ý, þù Ω =
. . . . . .
. L’estimateur des MCG en présence
. . . . . .
2 2 . . .
d’hétéroscédasticité est: %ÇéP = (#′ΩM( #)M( #′ΩM( Ê avec ©ª‹¯%ÇéP ° = k ) (#′ΩM( #)M( , k )
peut être estimé comme suit: On construit le résidu des MCG: '̂ µ = Ê − # %a µ et on
a ‡Y a
calcule ka ) = M*
. Ω est une matrice symétrique définie positive, ΩM( existe et
elle est définie positive. Il existe une matrice T telle que ΩM( = ′ , T est la matrice de
transformation du modèle Y = Xβ + '. Le modèle transformé par T est TY = TXβ + T' avec
Var(T' /X) = σ I et donc les MCO sur le modèle transformé sont BLUE car les erreurs T' sont
2

homoscédastiques. Nous levons l’hypothèse d’homoscédasticité, mais nous conservons


celle de non corrélation des erreurs. Ce qui rend simple le calcul de la matrice T. D’après
Ω, on a
2 . . . 2 2 . . . 2 2 . . . 2 2 . . . 2
. . . 2 √ . . . 2 √ . . . 2 √ . . . 2
2 . . . . 2 √
. . . . 2 √
. . . . 2 √
. . . .
ýM = . 2 . . . . = . 2
. . . . . 2
. . . . = . 2
. . . .
. . . . . . . . .
Donc . Il suffit
. . . . . . . . . . . . . . .
. . . . . . .
. . . . .
. . . . .
. . .
2 2 2 2 √ 2 2 √ 2 2 √
(
ƒ U
donc de multiplier le modèle par pour obtenir le modèle transformé. Dans la méthode
des MCG, deux cas peuvent se présenter: le premier cas concerne les situations où la
matrice Ω est connue; le second concerne des situations où cette matrice Ω doit être
estimée. En fait “Ω est connue" signifie que l’on n’a pas besoin d’estimer Ω.
5.6 Exemple illustratif de la mise en œuvre des MCG
= 2+ +…+ M M +
Premier Cas : Ω est connue, et supposons que ©ª‹(ε- ) = σ X á-
Considérons le modèle : + + (5.2)
) )

#‰(
) 2 . . . 2
2 #‰)
) . . . 2
2 . . . .
Si ©ª‹(ε- ) = σ) Xá-
)
Ω= . . . . . . Nous
. .
, alors Ω devient sommes donc bien
. . . . . .
2 2 . . . #‰)
dans le cas où Ω est connue car nous connaissons la diagonale de la matrice Ω car la variable
Rédigé par HALIDOU MOUSSA ISSOUFOU
14
#* de chaque individu est connue. La transformation du modèle consiste toujours à diviser
l’équation initiale par la racine carrée de la diagonale de la matrice Ω−1. Procédons ainsi sur
notre modèle qui est le suivant : Y- = β0 + β( X(-+β) X)-+…..+βáM( XáM(- + βá X á-+ε- (5.3)
(
En divisant (4.3) par XK , on obtient : = β0 d f +β( d Y
f + β) d V
f + ⋯ + βá + d f (5.4)
( (
/ = , on a ©ª‹( / /#) = ©ª‹( /#) = ©ª‹('/ /#) = ¯σ) X á ) ° = k ) . Donc en
ÁV ÁV
Posons :
appliquant la transformation adéquate sur le (5.3), on obtient un modèle transformé dont les
erreurs / sont homoscédastiques. Nous pouvons donc appliquer les MCO sur le modèle
transformé: ils seront BLUE si ©ª‹(ε- ) = σ) X )á- est vraie (et que toutes les autres hypothèses
des MCO sont vérifiées). Il est à noter qu’à la lecture des paramètres estimés dans le modèle
(
transformé, la constante β0 est le paramètre de dans le modèle transformé mais c’est la
constante dans notre modèle initial et βK est le paramètre de Xá du modèle initial et ce
paramètre est devenu la constante dans le modèle transformé. Pour éviter ce problème de
lecture nous utiliserons les Moindres Carrés Pondérés (MCP ou WLS, Weighted Lesat
)
Squares): Au lieu de transformer le modèle et de minimiser ∑ )
/ ou ∑ d f , on peut

minimiser la somme pondérée '/) , ∑


( ) (
'
ÁVU / ÁVU
où est la pondération.

Second cas : Ω est inconnue


Ω est inconnue quand cette matrice dépend de paramètres inconnus. Supposons que,
par exemple, cette matrice soit une fonction des 3 variables du modèle et dépende de 4
paramètres inconnus de la manière suivante: Var( ) = σ2(θ0 + θ1 + θ2 + θ3 ) = σ 2 w i

première étape consiste à estimer ωi et à obtenir Ω ^ ; la seconde consiste à utiliser Ω ^


(5.5). Dans ce cas on procède en deux étapes pour estimer le modèle efficacement : la

pour calculer un estimateur des MCG : ^ g < = ¯+′Ω ^ M +° +′Ω ^ M . Cette méthode
M

d’estimation des MCG en deux étapes est appelée Moindres Carrés Quasi Généralisés,
MCQG, (ou Feasible GLS).
Dans la première étape on régressei les résidus au carré sur les variables spécifiées dans
l’équation (5.5) de la variance. Grâce à cette régression on obtient une estimation de la
variance des en calculant la variable endogène estimée de l’équation des résidus. En effet,
étant donné que a une espérance nulle sa variance est égale à E('/) ). Dans notre exemple,
nous allons donc supposer que E('/) )= σ2(θ0 + θ1
régressant ε)- sur les variables explicatives, on obtient les w
+ θ2 + θ3 ) = σ2wi . Ainsi en
G - , et on dispose donc d’une
estimation de Ω. Nous utilisons ensuite cette variable “omega” pour transformer le modèle et
appliquer les MCO sur le modèle transformé et nous nous ramenons au cas où Ω est connue.
En conclusion, nous avons vu, au cours de ce chapitre, une forme du modèle de
régression généralisé, le modèle hétéroscédastique. L’estimation des moindres carrés garde sa
convergence et sa normalité asymptotique mais la matrice de covariance asymptotique doit
être corrigée pour réaliser une inférence correcte. L’estimateur de White en est une approche
standard. Après avoir considéré deux tests d’hétéroscédasticité, nous avons étudié quelques
formes hétéroscédastiques paramétriques ainsi que les estimations des moindres carrés
pondérés (généralisés) pour une estimation efficace. Si la forme hétéroscédastique est connue
Rédigé par HALIDOU MOUSSA ISSOUFOU
15
mais présente des paramètres inconnus, il n’est pas certain que les corrections MCQG soient
meilleures que MCO. La comparaison est claire asymptotiquement, mais dans les échantillons
petits ou moyens, la variation additionnelle incorporée par l’estimation des paramètres de la
variance peut compenser les gains dus à l’utilisation des MCO.

Chapitre 6 : Systèmes d’équation


Il existe de nombreuses situations où les modèles à équations uniques étudiés au cours
des chapitres précédents s’appliquent à un groupe de variables liées. Ce chapitre présentera
l’essentiel de la théorie des équations de régressions liées.
6.1 Modèle de régression apparemment indépendant, SUR
Le modèle de régressions apparemment indépendantes (Seemingly Unrelated
Regressions, SUR ) est défini par Ê/ = %/ #/ + '/ , Ë = 1, … , (6.1) où ' = ['(H , ')H , … , 'é
H
];
¦['/#( , … , #é ] = 0 et ¦[''′/#( , … , #é ] = Ω . T observations sont utilisées pour l’estimation
des paramètres des M équations. Chaque équation a Ë régresseurs avec = ∑é /L( / . On

suppose que > / et ¦['/¶ '–ž /#( , … , #é ] = k/– si jË = j et 0 sinon. (Non corrélation entre
les observations) implique. ¦['/ '– ′/#( , … , #é ] = k/– ÑR (6.2).
6.1.1 Moindres carrés généralisés
Chaque équation est une régression classique, donc les paramètres du modèle SUR
peuvent être estimés de manière convergente par les méthodes MCO. La régression
généralisée s’applique aux données empilées.
Ê1 #1 0 . . . 0 %1 '1 k(( k() . . . k(é
Ê2 0 #2 . . . 0 %2 '2 k)( k)) . . . k)é
. . . . .. . . . . . . . .. . .
= . . . + . = #% + ' Σ= . . . . . . (6.4)
. . . . .
(6.3). Posons :
. . . . . . . . . . . . . . .
Ê . . . # % ' ké( ké) . . . kéé
0 0

covariance MxM des perturbations, pour tout t est Σ. On a que Ω = Σ⨂I et ΩM( = Σ M( ⨂I.
Pour estimer efficacement (6.3), il faut utiliser la méthode des MCG. La matrice de

Ainsi l’estimateur MCG est: | µ = (#′Ω−1 #)−1 #′ Ω−1 Ê = _#′ (Σ−1 ⨂I)X` #′ (Σ−1 ⨂I)Y. Cet
%
−1

estimateur est différent des MCO. Pour l’instant, les équations sont seulement liées par les
perturbations, d’où le terme de régressions apparemment indépendantes. Il est donc
intéressent de se demander quel est le gain d’efficacité provenant de l’utilisation de MCG à la
place de MCO. Généralement, plus la corrélation entre les perturbations est élevée, plus le
gain d’efficacité des MCG est important. De même, moins les matrices X sont corrélées, plus
le gain d’efficacité venant de l’utilisation des MCG est élevé.

6.1.2 Régressions apparemment indépendantes (SUR )avec régresseurs identiques

les MCG et les MCO. Ainsi %| Ë = bË , Ë = 1 … , . La matrice de covariance asymptotique de %Ç est


Dans le cas des modèles SUR avec régresseurs identiques, il y a équivalence entre

estimée par $j!. ¦j _%Ç/ , %Ç– ` = ka/– (#′#)M( , Ë, Ø = 1, … , , ka/– =


TU® T%
R
6.1.3 Moindres carrés quasi généralisés
Σ était supposée connue précédemment, or en général, elle n’est pas souvent connue.

Rédigé par HALIDOU MOUSSA ISSOUFOU


16
Dans le cas où Σ est inconnue, les résidus des moindres carrés peuvent être utilisés pour
(
estimer de manière convergente les éléments de Σ avec ka/– = j/– = /H – . Ainsi un
R
j(( j() . . . j(é
j)( j)) . . . j)é
. . . .. . .
estimateur de Σ est: • = . . . . . . et on applique MCQG de manière habituelle.
. . . . . .
jé( jé) . . . jéé

6.2 Test de spécification du modèle SUR


En l’absence d’hétéroscédasticité ou d’autocorrélation, l’estimateur efficace du vecteur
des paramètres est l’estimateur des MCO, équation par équation. En supposant que les
perturbations '/ sont normales, les trois tests standard Wald, rapport de vraisemblance et
multiplicateur de Lagrange peuvent être utilisés pour tester le modèle SUR. Mais la statistique

par Breusch et Pagan (1980) est: &é» =


la plus simple à utiliser est celui du multiplicateur de Lagrange. Cette statistique développée
∑é
/L) ∑–L( ‹/– = ) [ ‹ªÈ (¨ ¨) −
R
/M( ) H
] où R est la
matrice de corrélation des M ensembles de T résidus MCO.
6.3 Modèle à équations simultanées
6.3.1 Notion générale pour les modèles à équations simultanées
La forme structurelle du modèle à équations simultanées est :

Ï11 ! 1 + Ï21 ! 2 + ⋯ + Ï 1
! + %11 1 + %21 2 +⋯+ % 1
='1

Ï12 ! 1 + Ï22 ! 2 + ⋯ + Ï 2
! + %12 1 + %22 2 +⋯+ % 2
='2

Ï13 ! 1 + Ï23 ! 2 + ⋯ + Ï 3
! + %13 1 + %23 2 +⋯+ % 3
='2
.
.
.

Ï1 ! 1 + Ï2 ! 2 + ⋯ + Ï ! + %1 1 + %2 2 +⋯+% ='2
Il y a M équations et M variables endogènes, !( , !) , … , !é . Il y a K régresseurs, ( , ) , … , *
(6.1)

qui peuvent comprendre des valeurs prédéterminées de !( , !) , … , !é . Le premier élément de


¶ est la constante. Enfin, '¶( , '¶) , … , '¶é sont des perturbations structurelles. Les
observations sont indexées par = 1, = 2, … = . En termes matricielle, (6.1) devient
Ï(( Ï() . . . Ï(é %(( %() . . . %(é
Ï)( Ï)) . . . Ï)é %)( %)) . . . %)é
. . . . . . . . . . . .
[!( !) … !é ]¶ . . . . . . + . . . . [ (, ) , … , * ]¶ = ['( ') … 'é ]¶ !¶H Γ + ¶(
H
= '¶H
. .
ou .
. . . . . . . . . . . .
Ïé( Ïé) . . . Ïéé %*( %*) . . . %*é
Chaque colonne des matrices de paramètres est un vecteur de coefficients d’une équation

un certain nombre de restrictions sur Γ et (. Une des variables dans chaque équation est
particulière, alors que chaque ligne correspond à une variable spécifique. La théorie impose

conséquent, il y a au moins une valeur égale à 1 dans chaque colonne de Γ. Cette


considérée comme variable dépendante afin que son coefficient soit égal à 1. Par

colonnes entièrement connues de Γ et de ( et ne contiennent aucune perturbation. Si Γ est


normalisation n’est pas une restriction importante. Les relations d’identité correspondent aux

Rédigé par HALIDOU MOUSSA ISSOUFOU


17
une matrice triangulaire supérieure, le système est dit triangulaire. Sa forme est :! 1 =
¼1 ( ) + ' 1 ; ! 2 = ¼2 ¯ ! 1 , ° + ' 2 ;… ; ! = ¼2 ¯ ! 1 , … , ! −1 , ° + ' . La détermination
commune des valeurs dans ce modèle est récursive. La première variable est complètement
déterminée par les facteurs exogènes, la deuxième peut être ensuite déterminée, et ainsi de
suite. La solution du système d’équations permettant d’écrire !¶ en termes de ¶ et '¶ est la

)11 )12 . . . )1
forme réduite du modèle.
)21 )22 . . . )2

] = − ′ ) + *′ avec ) = −(ΓM( et *′ = ' Γ−1


. . . . . .
!′ = [ 1 , 2, … , ] . . . . . . +[ 1 2 …
. . . . . .
) 1 ) 2 . . . )
La solution existe, si + non singulière (le modèle vérifie la condition de complétude).
L’identification précède l’estimation. Certains systèmes d’équations sont identifiés et
d’autres non. Les conditions mathématiques sous lesquelles un système d’équation est
identifié sont connues sous le nom condition de rang et d’ordre. La condition d’ordre est
que le nombre de variables exogènes qui apparaissent ailleurs dans le système doit être au
moins aussi grand que le nombre des variables endogènes dans l’équation.
6.3.2 Equation simple: l’estimation et l’inférence
La spécification du modèle à équations simultanée : !Ø = #Ø %Ø + ÊØ ÏØ + 'Ø = ßØ ·Ø + 'Ø (6.2)
où !Ø est la variable dépendante, #Ø est l’ensemble des variables exogènes de l’équation j et
ßØ = (#Ø , !Ø ). L’ensemble complet des variables exogènes dans le modèle, y compris les #Ø et
les variables qui apparaissent ailleurs ( y compris le terme constant, si toute fois les équations
en contiennent) est noté X. Enfin ÊØ est constituée des variables endogènes qui apparaissent
sur le côté droit de l’équation j. Il y a deux méthodes d’estimation et d’inférence pour les
modèles à équations simultanées. Les estimateurs à information limitée sont construits pour
chaque équation individuelle. L’approche est analogue à l’estimation du modèle SUR par les
MCO. Les estimateurs à information complète sont utilisés pour estimer les équations
simultanément. La contre partie pour le modèle SUR est l’estimateur MCQG. La différence
majeur réside dans la prise en compte de l’endogénéité de ÊØ dans (6.2) . Le système
d’équations (6.2) est précisément le modèle développé au chapitre 4. Les moindres carrés sont
généralement inadaptés, car non convergents du fait de la corrélation entre ÊØ et '– . Les
doubles moindres carrés représentent la méthode habituelle. La seule différence entre le cas
considéré ici et celui du chapitre 4 réside dans la source des VI. Dans notre modèle général du
chapitre 4, la source de ces instruments est restée quelque peu ambiguë, la règle générale était
en « dehors du modèle ». Ainsi pour estimer le modèle linéaire à équations simultanées,
l’estimateur le plus courant est :

·| Ø,2 où toutes les colonnes de ßÇ–H


−1 −1
µ
a Ø ßa Ø ¡
= ß

a Ø !Ø = (ß′Ø #)(#′#) (ß′Ø #)¡
ß
′ −1
(ß′Ø #)(#′#) #′!Ø (6.3)
−1

sont obtenues comme des prédictions dans une régression de la colonne j correspondant, ß–H
sur X. (6.3) se traduit aussi par une simplification utile de la covariance estimée
| Ø )′(!Ø −ßØ ·| Ø )
asymptotique, ©ª‹. $j!. ¦j . _·Ç–,)éP ` = ka/– _ßÇ–H ßÇ– ` ; ka ËØ =
M( (!Ø −ßØ ·
(6.4)

Rédigé par HALIDOU MOUSSA ISSOUFOU


18
Les 2MC sont largement utilisés pour l’estimation de modèle à équations simultanées.
Cependant certaines applications ont suggéré que l’estimateur du maximum de vraisemblance
à information limitée, MVIL peut avoir de meilleures propriétés. L’estimateur MVIL a la même
distribution asymptotique que l’estimateur 2MC et ce dernier ne repose pas sur l’hypothèse de
normalité. Un avantage important de MVIL est son invariance à la normalisation de l’équation
alors que l’estimateur 2MC n’est pas invariant à cette normalisation. L’estimateur MVIL ou
ratio de moindre variance se calcule comme suit :
−1
˜•Ø = ¦•′
Ø ¦Ø où ÊØ = [!Ø , ÊØ ] et ¦Ø =
• • •
Ø ÊØ

= [I - #Ø d#′Ø # f #′Ø ]Ê•Ø
Ø
(6.5)

Chaque colonne de ¦•Ø est un ensemble de résidus des moindres carrés de la régression de la
colonne correspondante Ê•Ø sur #Ø , c'est-à-dire les variables exogènes apparaissant dans
l’équation j. Ainsi ˜•Ø est la matrice de la somme des carrés et des produits croisés des résidus.
est définie comme ˜–0 sauf que les régressions
−1
Ø ¦Ø = ÊØ ′[I - #Ø d#Ø # f
˜1Ø = ¦1′ #′Ø ]Ê•Ø (6.6) . ˜1Ø
1 • ′

portent sur tous les x du modèle et pas seulement sur l’équation j. Soit ℷ( la plus petite racine
Ø

˜ØØ ˜•′
caractéristique de ¯˜1Ø ° ˜0Ø (6.7). La partition de ˜•Ø en ˜•Ø = - • >.

−1 Ø
correspond à [!– , Ê– ],
˜ Ø -88

− ℷ1 ˜ØØ d˜•Ø − ℷ1 ˜1Ø f et %| Ø,


−1
à ˜1Ø sinon. Ainsi : ÏaØ, = _˜ØØ ` = d#′Ø # f d!Ø − ÊØ ÏaØ, f
• 1 −1
©Ñ/ ©Ñ/ Ø ©Ñ/
et

(6.8). %Ç–
est estimé par MCO. La matrice de covariance asymptotique de MVIL est identique à
celle de 2MC. Par suite, avec des perturbations normales, 2MC est efficace. Les estimateurs de
Ê′Ø ÊØ − é′Ø ©Ø Ê′Ø #Ø Ê′Ø !Ø − é′Ø ÉØ
« classe k » sont de la forme : ·| Ø,Ã = - .0 1 (6.9). Trois estimateurs
#′Ø ÊØ #′Ø #Ø #′Ø !Ø
de cette classe ont été étudié : MCO avec k = 0, 2MC avec k =1 et MVIL avec k = ℷ1 .
6.3.3 Méthodes d’estimation de système

!1
Une reformulation du système complet d’équations est sous la forme
ß1 0 . . . 0 ·1 '1
!2 0 ß2 . . . 0 ·2 '2
. . . . .. . . . .
. = . . . . + . = ß· + ' (6.10) où ¦['/ß] = 0 et ¦[''′/ß] = Σ[ = Σ⨂I
. . .
. . . . . . . . .
! 0 0 . . . ß · '
L’estimateur des moindres carrés 2 = [ß′ß]M( ß H ! est l’estimateur MCO équation par équation
et n’est pas convergent. Même si l’estimateur MCO était convergent, nous savons d’après les
modèles SUR, qu’il n’est pas efficace par rapport à un estimateur qui utilise les corrélations
des perturbations entre équations. En ce qui concerne le premier problème, nous en revenons

\ satisfasse les conditions d’un estimateur VI, un estimateur


aux estimateurs VI. Pour le second nous utilisons l’estimateur MCG. Si nous supposons que la
matrice des instruments ˜
convergent est : ·| ©Ñ = [˜
\ ′ß]−1 ˜
\ ′ ! (6.11). De façon analogue à un modèle SUR, un estimateur

plus efficace peut être fondé sur le principe des MCG, ·| ©Ñ, \ ′ (Σ−1 ⨂I)ß¡ \ (Σ−1 ⨂I)! .
−1
= ˜ ˜

µ

Trois méthodes des VI sont généralement utilisées pour l’estimation jointe du système
complet d’équations: 3MC, modèle des moments généralisés (MMG), maximum de
vraisemblance à information complète (MVIC). MMG et MVIC seront étudié ultérieurement.
Rédigé par HALIDOU MOUSSA ISSOUFOU
19
ß( 0 . . . 0
0 ß) . . . 0
. . . .. . .
˜ = ß = 2˪½[#(# #) # ß( … #(# #) # ßé ] =
\ Ç H M( H H M( H
. . .
. . .
Posons . L’estimateur VI,
. . . . . .
0 0 . . . ßé
·Ç34 = _ßÇ H ß` ßÇ H !
M(
correspond au 2MC équation par équation. La convergence de l’estimateur 2MC
a été déjà établie. Mais, par analogie aux régressions SUR, nous pouvons-nous attendre à ce
que cet estimateur soit moins efficace que l’estimateur MCG. Une solution naturelle serait
·Ç”éP = _ßÇ H (ΣM( ⨂I)ß` ßÇ H (Σ M( ⨂I)! . Pour que cet estimateur soit valide, il faut que ßa (Σ−1 ⨂I)ε = 0
M( 1 ′

et
1
a (Σ−1 ⨂I)Z ≠ 0. L’estimateur 3MC peut être considéré
ß

comme un estimateur MCG de la forme

·| 3 a (Σ−1 ⨂I)ß¡ a (Σ−1 ⨂I) !.


′ −1 ′
µ = ß ß La matrice de covariance asymptotique appropriée à
l’estimateur est ©ª‹. $j!. ¦• . _·Ç”éP ` = [ß̅ H (ΣM( ⨂I)Z[]M( où Z[ = diag[Xπj , Xj ]. Z[ est estimé par ßÇ
L’estimateur des triples moindres carrés (3MC) est défini comme suit :

1- Estimer ) par MCO pui calculer Êa Ø pour chaque équation


(Z M8 9 )H(Z M8 9 ) ^ ^
2- Calculer ·Ç–,)éP pour chaque équation ; ensuite ka/– = U U U % % %
R
3- Calculer l’estimateur MCG et estimer la matrice de covariance asymptotique en utilisant ßÇ et '̂.
On peut montrer que parmi tous les estimateurs VI, 3MC est asymptotiquement efficace.

Chapitre 7 : Modèle de données de panel


Ce chapitre présente les techniques les plus courantes de modélisation des données de
panel qui sont des extensions des modèles examinés au cours des chapitres précédents.
7.1 Cadre général d’analyse des données de panel
L’avantage fondamental d’un échantillon de données de panel par rapport à une coupe
transversale est qu’il permet au chercheur d’étudier les différences dans les comportements
entre individus. Le modèle de base de cette étude est le suivant :
!/¶ = /¶
H
% + º/H } + '/¶ = /¶
H
% + È/ + '/¶ (7.1). Il y a K régresseurs dans /¶ , mais aucun
terme constant, l’hétérogénéité ou effet individuel est º/H } où º/ contient un terme constant et
un ensemble de variables spécifiques aux individus et aux groupes qui peuvent être observées,
telles que l’origine ethnique, le sexe, la domiciliation, etc.., ou non observées, telles que les
caractéristiques propres aux ménages, l’hétérogénéité individuelle en termes de compétences
ou de préférences, etc. Ces variables sont invariantes dans le temps. Ce modèle correspond à
une régression classique. Si º/ est observée pour tous les individus, alors le modèle peut être
traité comme un modèle linéaire ordinaire et estimé par les moindres carrés. Le problème se
complique lorsque ci n’est pas observé. Par exemple dans l’étude de l’effet de l’instruction et
de l’expérience sur les rémunérations, la capacité est toujours une variable manquante non
observable. Dans les études sur l’usage du système de soins, la « santé » et les « soins » seront
des facteurs non observables.

% = :¦[!/¶ ⁄ /¶ ]/: /¶ . Celle-ci dépend des hypothèses sur les effets non observés.
L’objectif principal de l’analyse sera l’estimation convergente et efficace des effets partiels,

Commençons avec l’hypothèse d’exogénéité stricte des variables indépendantes :

Rédigé par HALIDOU MOUSSA ISSOUFOU


20
¦['/¶ ⁄ /( , /) , …] = 0. Elle signifie que la perturbation courante n’est pas corrélée avec les
valeurs passées, présentes et futures des variables indépendantes. L’hétérogénéité est l’espace
crucial du modèle. Une hypothèse particulièrement commode serait l’indépendance moyenne,
¦[È/ ⁄ /( , /) , …] = }. Si les variables manquantes ne sont pas corrélées avec les variables
inclusives, elles peuvent être incluses dans la perturbation du modèle. C’est l’hypothèse qui

restrictive. L’hypothèse alternative serait ¦['Ë ⁄ Ë1 , Ë2 , …] = ℎ(#Ë ), #/ = /( , /) …


soutend le modèle à effets aléatoires, modèle étudié plus loin. Cependant elle est très

7.2 Les structures de modèle


Nous étudions les modèles de données de panel suivants :
Régression groupée : Si º/ ne contient qu’un terme constant, alors les moindres carrés
ordinaires fournissent des estimateurs convergents et efficaces du paramètre commun } et du
vecteur des coefficients %.
Effets fixes : Si º/ est non observée, mais corrélée avec /¶ , alors l’estimation des moindres
carrés de % est biaisé et non convergent à cause de l’omission d’une variable. Cependant, le
modèle !/¶ = /¶H % + }/ + '/¶ où }/ = º/H }, englobe tous les effets observables et caractérise une
moyenne conditionnelle estimable. Dans cette approche des effets fixes, }/ est un terme
constant et spécifique du groupe i dans la régression. Le mot fixe indique la corrélation entre
È/ et /¶ , pas le fait que È/ soit stochastique.
Effets aléatoires : Si l’hétérogénéité individuelle non observée est supposée non corrélée

% + } + ;/ + '/¶ . C’est un modèle de régression


avec les régresseurs, alors le modèle peut s’écrire :
!/¶ = /¶H
% + ¦[º/H }] + «º/H } − ¦[º/H }]¬ + '/¶ = /¶
H

linéaire avec une perturbation composée, qui peut être estimé de façon convergente, quoi que
inefficace, par les moindres carrés. Cette approche des effets aléatoires spécifiques du groupe
i de la même manière que '/¶ , sauf que pour chaque groupe, un seul tirage entre dans la
régression identiquement pour toutes les périodes.
7.3 Panels cylindrés et non cylindrés
Un échantillon de données de panel sera constitué de n ensembles d’observations sur
les individus notés Ë = 1, 2, … , . Si chaque individu est observé le même nombre de fois,
noté T, l’échantillon de données est un est panel cylindré ou équilibré. En revanche, si les
individus sont observés un nombre de fois différents, noté / , l’échantillon de données est un
panel non cylindré ou déséquilibré. Un panel fixe est un échantillon dans lequel le même
ensemble d’individus est observé durant la période d’étude.
A la section suivante, nous utilisons T pour simplifier l’analyse, ce qui suggère un panel
cylindré. On peut remplacer T par / pour généraliser le résultat.
7.4 Méthode de régression groupé
Nous commençons l’analyse par la version la plus simple du modèle, le modèle
groupé : !/¶ = }+ /¶H % + '/¶ , Ë = 1, 2, … , , = 1, 2, … , / , ¦['/¶ ⁄ /( , /) , … /RU ] = 0 ;
©ª‹['/¶ ⁄ /( , /) , … /RU ] = k ) et µ•É['/¶ , '–ž ⁄ /( , /) , … /RU ] = 0, Ë ≠ Ø et ≠ j (h. )
Si le reste des hypothèses du modèle classique est vérifié, alors les résultats du chapitre 1
suffiront. L’estimateur des moindres carrés ordinaires est efficace et l’inférence peut être
développée selon la manière vue au chapitre 1.
L’essentiel de l’analyse des données de panel repose sur le fait que les hypothèses de MCO ne
sont probablement pas vérifiées. Que se passe-t-il si l’hétérogénéité varie selon les individus ?
Rédigé par HALIDOU MOUSSA ISSOUFOU
21
Le résultat est évident avec les effets fixes. Ignorer l’hétérogénéité lorsque le modèle à effets
fixes est approprié a pour conséquence la non-convergence de l’estimateur des MCO. Pour les
effets aléatoires, le vrai modèle, !/¶ = /¶H % + '/¶ , ¦[È/ ⁄#/ ] = }, peut être réécrit
!/¶ = } + /¶H % + '/¶ + (È/ − ¦[È/ ⁄#/ ]) = } + /¶H % + '/¶ + €/ ⇒ !/¶ = } + /¶H % + >/¶ . Sous cette forme,
on remarque que l’hétérogénéité non observée entraîne l’autocorrélation, ¦[>/¶ , >/ž ] = k?)
lorsque ≠ j. Comme au chapitre 5, l’estimateur MCG peut être convergent mais l’estimateur
conventionnel de sa variance asymptotique en sous-estime probablement la vraie variance.
7.5 Estimation robuste de la matrice de covariance
L’empilement de / observations de l’individu i en une seule équation donne :
!/ = #/ % + >/ , où % contient le terme constant. L’hétéroscédasticité peut exister entre individus.
Mais, dans un échantillon de données de panel, le point le plus important est la corrélation au
sein de l’observation, ou autocorrélation. Dans un échantillon longitudinal, le groupe
d’observations pouvant se rapporter au même individu, tout effet latent concernera toutes les
périodes. Supposons que le vecteur de perturbation comprenne '/¶ et les composantes omises.
Donc ©ª‹[>/ ] = k ) ÑRU + Σ/ = Ω/ et , l’estimateur robuste de la matrice de covariance est
©ª‹. $j!. ¦j . [b] = _∑@L( #@H #@ ` ∑@L(¯#@H >
M( M(
G@ °(>
G@H #@ )¡ _∑@L( #@H #@ `
M(
où G est le nombre
de grappes dans l’échantillon et où chaque grappe compte @ observations ( ½ = 1, 2, … , ).
7.6 Estimateurs intra- et interindividuels
On peut exprimer le modèle de régression de trois façons. Premièrement, la
formulation d’origine est !/¶ = } + /¶ H
% + '/¶ (7.3a).
En termes des moyennes par groupe, ![/ = } + ̅/ % + '̅/ (7.3b). En termes des écarts par
rapport aux moyennes par groupe, !/¶ − ![/ = } + ( /¶ H
− ̅/ )% + '/¶ − '̅/ (7.3c).
On suppose qu’il n’y a pas des variables invariantes dans le temps dans /¶ . Ces trois modèles
peuvent être estimés par les MCO. On examine les matrices des sommes des carrés et des
produits croisés dans chaque cas, où on ne s’intéresse qu’à l’estimation de %.

l’échantillon, ̿ et !B : •CC
Dans (7.3a), où les moments correspondent à la variation par rapport aux moyennes de
¶D¶EÂ
= ∑o/L( ∑R¶L(( /¶ − ̿ )( /¶ − ̿ )′ et •CZ¶D¶EÂ
= ∑o/L( ∑R¶L(( /¶ − ̿ )(!/¶ − !B) (7.4).

( /¶ − ̅/ ) et (!/¶ − ![/ ) sont nulles. Les matrices des moments sont les sommes des carrés et
Pour (7.3c), comme les variables sont déjà exprimées en termes d’écarts, les moyennes de

des produits croisés intragroupes ou interindividuels ou within ( ou la variation autour des


moyennes par groupe) : •CC /o¶FE
= ∑o/L( ∑R¶L(( /¶ − ̅/ )( /¶ − ̅/ )′ et •CZ/o¶FE
= ∑o/L( ∑R¶L(( /¶ − ̅/ )(!/¶ − ![/ ).
Finalement pour (7.3b), la moyenne des moyennes par groupe est celle de l’échantillon. Les
matrices des moments sont les sommes des carrés et des produits croisés intergroupes ou
interidividuels ou between (ou la variation des moyennes par groupe autour des moyennes de
l’échantillon). Ainsi on a : •CC /o¶TF
= ∑o/L( ∑R¶L(( ̅/ − ̿ )( ̅/ − ̿ )′ et •CZ/o¶TF
= ∑o/L( ∑R¶L(( ̅/ − ̿ )(![/ − !B).
Il est facile de vérifier que •CC ¶D¶EÂ
= •CC/o¶FE
+ •CC /o¶TF
et •CZ
¶D¶EÂ
= •CZ /o¶FE
+ •CZ
/o¶TF
.
Ainsi, il existe trois estimateurs des moindres carrés de % suivant la décomposition :
• L’estimateur des MCO : b ¶D¶EÂ = [•CC ¶D¶EÂ ]M( ¶D¶EÂ
•CZ = [•CC /o¶FE
+ •CC/o¶TF ]M( /o¶FE
_•CZ + •CZ /o¶TF
` (7.5)
M(
• L’estimateur intragroupe est : b /o¶FE = _•CC
/o¶FE
` •CZ
/o¶FE
(7.6)
/o¶TF M( /o¶TF
• L’estimateur intergroupe est : b /o¶TF = _•CC ` •CZ (7.7)

Rédigé par HALIDOU MOUSSA ISSOUFOU


22
Cet estimateur des moindres carrés de (7.5b) est fondé sur n moyennes par groupe ( ≥ ).A
partir de ces expressions, on obtient •CZ
/o¶FE
= •CC b
/o¶FE /o¶FE
et •CZ
/o¶TF
= •CC b
/o¶TF /o¶TF
.
Si on insert ces résultats dans (7.5), on voit que l’estimateur des moindres carrés est une
moyenne matricielle pondérée des estimateurs intra- et intergroupe :
M(
b ¶D¶EÂ = Ó /o¶FE b /o¶FE + Ó /o¶TF b /o¶TF où Ó /o¶FE = _•CC
/o¶FE
+ •CC
/o¶TF
` •CC
/o¶TF
= 1 − Ó /o¶TF (7.8)
7.7 Le modèle à effets fixes
Le modèle à effets fixes repose sur l’hypothèse que les effets omis, È/ , dans le modèle
général, !/¶ = /¶ H
%+È/ + '/¶ , sont corrélés avec les variables incluses. Sous une forme
générale, ¦[È/ /#/ ] = ℎ(#/ ) (7.9). La moyenne conditionnelle est la même pour toutes les
périodes, donc le modèle peut être réécrit !/¶ = /¶ H
% + }/ + '/¶ (7.10). De plus, on a :
©ª‹[È/ /#/ ] = È• ª , donc (7.10) devient un modèle de régression linéaire classique.
Chaque }/ est un paramètre inconnu à estimer.
7.7.1 Estimation des moindres carrés
Soit !/ et #/ les T observations de la i-ième unité, i la matrice colonne Tx1 de 1, et '/
le vecteur Tx1 des perturbations. Alors, !/ = #/ % + }/ + '/ , Ë = 1, … , . En regroupant les
!( #( 0 . . . 0 }( '(
!) #) 0 . . . 0 }) ')
. . . .. . . . . %
+ . ou ! = [#, 2( , 2) , … , 2o ] ¡ + ' (7.11)
. .
termes, on a : . = . %+ . . . . . . . }
. . . . . . . . . .
!o #o 0 0 . . . }o 'o
où 2/ est une variable indicatrice correspondant à la i-ième unité. Soit la variable
¸ = [2( , 2) , … , 2o ] de dimension nT x n. Les nT lignes rassemblées donnent ! = #% + ¸} + '.
Ce modèle, souvent appelé modèle des moindres carrés à variables indicatrices (least squares
dummy variable, LSDV), est une régression classique. Il peut être estimé, si n est
suffisamment petit, par les MCO avec K régresseurs dans X et n colonnes dans D, comme une
régression multiple avec K+n paramètres. Si n est grand, on peut utiliser les résultats connus
sur une régression partitionnée pour réduire la taille de calcul. L’estimateur des MCO de % est
b = [#′ G #]M( # H G ! = b /o¶FE (7.12) où G = Ñ − ¸(¸′¸) ¸′. Cela correspond à la
M(

régression des moindres carrés utilisant des données transformées #∗ = G # et !∗ = G !.

normale dans la régression partitionnée : ¸H ¸ª + ¸H #b = ¸′! ou ª = (¸H ¸)M( ¸H (! − #b), il


Les coefficients des variables indicatrices peuvent être trouvés à partir de l’autre équation

en résulte que pour chaque i, ª/ = ![/ − ̅ /H b (7.13).


L’estimateur approprié de la variance asymptotique de b est :

©ª‹. $j!. ¦j . [b] = [#′


M( ∑W I ® V
UXY ∑HXY¯ZUH MCUH ™MEU °
G #] = j ) _•CC ` ; j) =
M( /o¶FE
oRMoMR
(7.14)
Les it-ième résidus utilisés dans ces calculs est /¶ = !/¶ − /¶ b
H
− ª/ = (!/¶ − ![/ ) − ( /¶ − ̅/ )b
Pour les effets individuels, on a : ©ª‹. $j!. [ª/ ] = + #[/H «©ª‹. $j!. [b]¬#[/ (7.15)
•JV
R
7.7.2 Test de significativité des effets individuels
Le t-ratio de ª/ peut être employé pour tester l’hypothèse selon laquelle }/ = 0.
Cependant cette hypothèse sur un groupe spécifique est inutile. Si on s’intéresse à la
différence entre groupes, on peut tester l’hypothèse d’égalité entre les termes constants avec
un test F. Sous l’hypothèse nulle d’égalité, l’estimateur efficace est celui des moindres carrés

Rédigé par HALIDOU MOUSSA ISSOUFOU


23
V
dSKLMN MS V OPQRé f/(oM()
groupés. Le ratio F pour ce test est : Ó[ − 1, − − ]= V
¯(MSKLMN °/(oRMoM*)
(7.16) où
LSDV représente le modèle à variables indicatrices, et « Groupé », le modèle groupé ou
contraint avec une seule constante.

7.8 Modèle à effets aléatoires


Examinons le modèle à effets aléatoires, !/¶ = ′/¶ % + (} + €/ ) + ε-S . (7.17), où il y a K
régresseurs y compris une constante, et où le seul terme constant est la moyenne de l’hétéro-
généité non observée, ¦[ß/ }]. €/ = hétérogénéité aléatoire spécifique de la i-ème observation et
elle est constante dans le temps. €/ = «ß/ } − ¦[ß/ }]¬.On suppose la stricte exogénéité :
¦[ε-S /#] = ¦[€/ /#] = 0 ; ¦_ε)-S /X` = kε) ; ¦[€/ ) /#] = k?) ; ¦_'/¶ €– /#` = 0, U•€‹ •€j Ë, Ø.
¦_'/¶ '–ž /#` = 0, jË ≠ j •€ Ë ≠ Ø et ¦_€/ €– /#` = 0, jË Ë ≠ Ø (7.18)

ε- . Pour ces T observations, posons W/¶ = '/¶ + €/ et W/¶ = [W/( ; W/) ; … , W/R ]′ . Etant
Il est utile de réécrire le modèle sous forme de blocs de T observations pour le groupe
, !/ , #/ , €/
donné la forme de W/¶ , nous avons un modèle à erreurs composées, pour lequel,
¦[W/¶
)
/#] = k ) + k?) , ¦[W/¶ W/ž /#] = k?) , jË ≠ j et ¦_W/¶ W–ž /#` = 0, U•€‹ •€ j jË Ë ≠ Ø.
Pour tout T observations du groupe Ë, on pose Σ = ¦_W/ W/′ ⁄#`. Alors
k) + k?) k?) k?) . . k?) Σ 0 0 . . 0
k?) k ) + k?) 0 . . k) 0 Σ 0 . . 0
?

Σ= . . k ) + k?) . . . =kε) ÑR + k?) Ë R Ë ′R (7.19) et Ω=


. . . . . .
= Ño ⨂Σ (7.20)
. . . . . . . . . . . .
. . . . . . . . . . . .
k?) k?) . . .k ) + k ) 0 0 . . . Σ
?
Ë R est une colonne de 1 de taille T×1. Comme les observations Ë Ø sont indépendantes, la
matrice de covariance de perturbation pour les observations est Ω. Passons alors à
l’estimation du modèle défini dans (7.17). Ce modèle, avec de stricte exogénéité dans (7.18)
et la matrice de covariance dans (7.19) et (7.20), est un modèle de régression généralisée (voir
chapitre 5). Ainsi de tous les estimations de %, seul l’estimateur MCG de % est efficace. Il est
défini par %Ç = ¯# ′ ΩM( ° # ′ ΩM( ! = ¯∑o/L( #/H ΩM( #/ ° ¯∑o/L( #/H ΩM( !/ ° comme au chapitre 5, il faut
M( M(

Y
que ΩMV = [Ño ⨂ Σ]MV ou, plus précisément, ΣMV , laquelle est donnée par ΣM 2 = •( Ñ − Rθ ËR ËR′ ¡ avec
Y Y 1

J
!/( − t![/
( !/) − t! [/
Σ V !/ = \ ⋮ ⋮ ^ (7.21)
Y
t =1− La transformation de !/ #/
•J M
Z•[V q•Q •J ⋮
. pour les MCG est et
VR
!/R − t![/
c’est la même chose pour les lignes de #/ . Avec l’ensemble des données, l’estimateur des
moindres carrés est obtenu par la régression des écarts partiels de #/¶ . Cette procédure est
analogue à celle utilisée dans le modèle LSDV où t = 1. (on peut interpréter t comme l’effet
restant si k = 0 car, il ne reste plus que €/ . Ainsi, les modèle à effets fixes et à effets
aléatoires ne sont plus distinguables). On peut montrer que l’estimateur MCG est :
%Ç = Ó| /o¶FE b /o¶FE + ¯Ñ − Ó| /o¶FE °™ (7.30) où Ó| /o¶FE = [•CC + &•CC •CC , & =
/o¶FE /o¶FE ]M( /o¶FE •JV
/o¶FE
V V = (1 − t))
Dans la mesure où & ≠ 1, l’inefficacité de l’estimateur MCO varie selon une pondération
•J qR•Q

inefficace des deux estimateurs. Comparer à l’estimateur de MCG, celui de MCO accord trop
de poids à la variation interindividuelle. Cette dernière est entièrement incorporée dans la
variation de X, plutôt que partiellement incluse dans la variation aléatoire entre groupe qui est
Rédigé par HALIDOU MOUSSA ISSOUFOU
24
due à la variation dans €/ entre unités. L’aspect non cylindré des données ajoute des
difficultés au modèle à effets aléatoires comme l’a montré (7.32), la matrice Ω n’est plus Ño ⨂ Σ
car les blocs dans Ω sont de tailles différentes. Il y a aussi une hétéroscédasticité individuelle
dans (11.33) puis que le i-ième bloc diagonal dans Ω est : ΩMV = ÑRU − R_U ËRU ËR′ U , t/ = 1 −
Y
•J

Z•JV qRU •Q
.
` V

En principe l’estimation est simple car la source d’hétéroscédasticité provient de l’inégalité de


la taille de groupe. Ainsi pour les MCG et les MCO avec les estimateurs des composantes de la
variance, il suffit d’utiliser les t/ spécifiques aux groupes dans la transformation (7.33).
∑W I
UXY ∑UXY(TUH MT̅ U )
V
Un estimateur sans biais de k ) est j»OG3
)
=
oRMoM*
. C’est l’estimateur de la variance
du modèle à effets fixes adéquatement corrigé des degrés de liberté. Testons à présent les
effets aléatoires du modèle. Bransh et Pagan (1980) ont proposé un test du multiplicateur de

“0 : k?) (•€ µ•‹‹[W/¶ , W/ž ] = 0) contre “( : k?) ≠ 0, la statistique du test est :


lagrange (ML), fondé sur les résidus MCO, pour le modèle à effets aléatoires. Pour

)
/= - .=
V
∑W
UXY_∑H̀XY TUH ` ∑W
UXY(RT̅U )
V
Œ − 1‘ . Sous“0 , ML suit
oR oR
∑W I V )(RM() ∑W I V
)(RM() UXY ∑HXY TUH UXY ∑HXY TUH
un Khi-2 à 1 degré de liberté.
7.9 Test de spécification d’Hausman
Le test de spécification d’Hausman (1978) pour le modèle à effets aléatoires est utilisé
pour tester l’orthogonalité entre les effets communs et les régresseurs. Sous l’hypothèse de
non-corrélation, l’estimateur MCO dans le modèle LSDV et l’estimateur MCQG sont
convergents mais l’estimateur MCO est inefficace. Sous l’alternative, l’estimateur LSDV est
convergent tandis que l’estimateur MCQG ne l’est pas. Par conséquent sous l’hypose nulle, les
deux estimateurs ne sont pas systématiquement différents. Un test peut être construit sur cette

différence, _b − %Ç ` : ©ª‹_b − %Ç` = ©ª‹[b] + ©ª‹_%Ç` − 2È•É_b, %Ç`(7.43). Le résultat essentiel


différence. Un autre aspect important du test est la matrice de covariance du vecteur de

d’Hausman est que la covariance entre un estimateur efficace et sa différence avec un


estimateur inefficace est 0, cov_¯b − %Ç°, %Ç` − Var _%Ç` = 0 ou cov_¯b − %Ç°, %Ç` = È•É_¯b − %Ç°`=Var_%Ç`.
L’insertion de ce résultat dans (7.43) donne Var_b − %Ç`=Var[b]-Var_%Ç` = b. Le test, suivant un
Khi-2, repose sur le critère de Wald : ˜ = c ) [ − 1] = _b − %Ç ` b| _b − %Ç ` (7.44).

On utilise les estimateurs des matrices de covariance des coefficients estimés du modèle LSDV et
l’estimateur de la matrice de covariance du modèle à effet aléatoire, excepté le terme constant. Sous
l’hypothèse nulle, W suit un Khi-2 à K-1 degrés de liberté. Le test d’Hausman est un outil pratique
pour déterminer la spécification préférée du modèle à effet communs.
Une statistique asymptotique à (7.44) qui est particulièrement commode est donnée par :
“ H = ¯%Ç»OG3 − %Çéde ° ©ª‹. $j!. _%Ç»OG3 ` + ©ª‹. $j![%éde
M(
¯%Ç»OG3 − %Çéde °
H o ]
¡ (7.45)
D’après Imbens et Wooldridge (2007), malgré son aspect pratique dans (7.444) et (7.45), le test de
Hausman devait être fondé sur les matrices de covariance robustes qui ne dépendent pas de
l’hypothèse nulle (modèle à effets aléatoires). Leur approche conduit au test de variables
additionnelles avec une matrice de covariance robuste.
Ce chapitre, qui vient boucler le contenu de notre résumé analytique, a étudié les
extensions du modèle classique au cadre des données de panel. Tous ces modèles, y compris
ceux à équations multiples, sont généralisés de la même manière. L’avantage principale réside
dans le fait que grâce aux données de panel, les effets dynamiques et l’hétérogénéité entre

Rédigé par HALIDOU MOUSSA ISSOUFOU


25
groupes, cette dernière étant présente fréquemment dans les données microéconomiques,
peuvent être formellement modélisés.

III. Cas pratique


Problème1
( = I2 + I + I + I +
85
On considère le modèle suivant : . On dispose
14 532 2094 248
85 631
#′ # = \ ^ et #′ ! = \ ^ et
3126 13132 1622 ′
= 67,45
532 3126 20666 78683 9202
de 14 observations ; de de
2094 13132 78683 317950 37592
1- Estimez les paramètres du modèle ( par les MCO.
2- Calculez l’estimation de la variance de l’erreur ainsi que les écarts-types des coefficients.
\ sachant que ∑14 [ ° = 226,86. Testez la significativité globale de (
Ë=1¯!Ë − !
2
3- Evaluez N et le N
4- Les régresseurs de ( contribuent-elles significativement à expliquer la variable endogènes ?
5- Le coefficient b( est-il significativement inférieur à 1 ?
6- b( et b) sont-ils simultanément et significativement différents de 1 et -0,5 ?
7- L’estimation du modèle M1 sans la variable ” donne les résultats suivants :
= :, i3 + 2, h : − 2, i + @ , avec N = 2, cih ; A = , : i

; = 14 et (. ) = éȪ‹ − !U 2 j È• ¼¼ËÈË j
(0,26) (0,13)

( (g = 3; ( (h = 6; ) (g = 24 et ) (h = 38 .
Calculez une prévision et son intervalle à 95% pour les périodes 15 et 16, sachant que :

8- Décrivez comment peut-on obtenir les estimateurs des moindres carrés non linéaires des
paramètres du modèle ! = } › + ' (% est non nul et différent de zéro).
Résultat 1
1- Estimation des paramètres du modèle ( par les MCO.
le modèle ( peut s’écrire sous la forme : ! = #b + ' avec b H = (I2 , I , I , I ).
D’après la formule (1.4), nous avons : I^ = (+H +)M +H
14
85 532 2094 20,169 0,015 −0,231 −0,076
85
631 3126 13132 0,015 0,013 0,001 −0,001
⇒ (#′ #) = \ ^
−1
#′ # = 5
3126 20666 78683 −0,231 0,001 0,004 0,001
532
13132 78683 317950 −0,076 −0,001 0,001 0,0004
2094
20,1686 0,0151 −0,2315 −0,0762 248 32,891
^ = (#′ #)−1 #′ ! = \ 0,0151 0,0132 0,0012 −0,0009^ \ 1622 ^ = \ 0,8019 ^
I
−0,2315 0,0012 0,0036 0,0006 9202 −0,3814
−0,0762 −0,0009 0,0006 0,0004 37592 −0,0371
D’où b|0 = , iˆ ; b|( = 2, i2 ; b|) = −2. i @= b|” = −2, 2 h et on :
( : = , iˆ + 2, i2 − 2, i − 2, 2 h +@
2- Calculons l’estimation de la variance de l’erreur, A ainsi que les écarts-types de chacun
b|” . Nous avons A = "M = (¹M¹ = 6,745 d’où A = c, h3:
hi,¹g
des coefficients b|0 , b|( , b|)
@@ ®

La matrice des variances estimées des coefficients est: 456CA=. (I/+) = A (+H +)M ; d’où

Rédigé par HALIDOU MOUSSA ISSOUFOU


26
20,1686 0,0151 −0,2315 −0,0762 c, 2 h: 0,1016 −1,5611 −0,5138
0,0151 0,0132 0,0012 −0,0009 0,1016 2, 2iˆ 0,0081 −0,0063
456CA=. (I/+) = 6,745 ∗ \ ^=\ ^
−0,2315 0,0012 0,0036 0,0006 −1,5611 0,0081 2, 2 3: 0,0039
−0,0762−0,0009 0,0006 0,0004 −0,5138 −0,0063 0,0039 2, 22 h

Les variances des coefficients de régression se retrouvent sur la diagonale de ©ª‹¦j . (b/#).
Ainsi nous avons : kab^) = 136,0375; kab^) = 0,0891 ; ka^b) = 0,0245 et kab^) = 0,0027 . D’où
0 1 2 3

G I^2 =
7 G I^ = 2, ˆi: ; 7
, cc : ; 7 G I^ = 2, :c: et 7
G I^ = 2, 2: 2
¨[ ) . D’après la formule (1.5), nous avons ¨ ) =
@H@
3- Calculons ¨ ) −∑ 3 ( M\)
or
X

′ = 67,45 et ∑(¹
hi,¹g
/L((!/ − !
[)) = 226,86 donc ¨) = 1 − ))h,jh = 0,703 d’où N = 2, h2
\ =
La relation ( . h) donne N −
"M
( −N )=1−
(¹M(
\ = c , c 3.
(1 − 0,703), d’où N
"Me (¹M¹
Testons la significativité globale du modèle avec les trois variables. D’après la formule
2,h2 ‡2

(1.15), nous avons ¨∗) =0 Ó = ±( ,



2) = ‡2,h2 = h, ihi or Ó(”,(0)
0,0g
= 3,71 donc

Ó ∗ > Ó(”,(0)
2
0,0g
, nous rejetons alors l’hypothèse “0 de nullité de tous les coefficients. Ainsi, la
régression est globalement significative.
4- Voyons si les variables explicatives du modèle1 sont significativement contributives pour
expliquer la variable endogène.
Calculons les trois ratios de Student et comparons-les à la valeur lue dans la table pour un
seuil de 5% pour un test bilatéral.
= k•G Y k = 0,)mjg = 2,687 > = 2,228 ⇒ b( ≠ 0, donc la variable explicative
∗ ™| 0,j0) 0,0g
™|Y (0
l
^Y

est contributive à l’explication de y. De même :


= k•G V k = 0,(ghg = 2,435 > = 2,228 ⇒ b) ≠ 0
∗ ™| 0,”j( 0,0g
™|V (0
l
^V

= k•G n k = 0,0g)0 = 0,712 < = 2,228 ⇒ b” = 0,


∗ ™| 0.0”i 0,0g
™|n (0
l
^n

D’où la variable contribue à l’explication de y alors que n’explique pas y.


5- Voyons si le coefficient b( est significativement inférieur à 1.
=k k = o 0,)mjg o,
™|Y M™Y
Considérons les hypothèses “0 : b( = 1 et “( : b( < 1. Sous “0 , on a ∗ 0,j0)M(
™|Y G l^

Y

™|Y = 0,663 < 0,0g
(0 = 1,812 (test unilatéral). Donc on ne rejette pas “0 . D’où I = .
6- Voyons si b( et b) sont simultanément et significativement différents de 1 et -0,5. Cela
revient à tester les hypothèses “0 : ¨b − • = 0 et “( : ¨b − • ≠ 0. b| est l’estimateur des MCO,
alors nous allons nous intéresser au vecteur ¨b| – • avec ¨ = 1 0¡ ; b| =
0,802 1
¡ et • = ¡.
0 1 −0.381 −0,5
La statistique permettant de tester l’hypothèse “0 est d’après la formule (1.13)
® ‡
¯N™| M—° «N[A ¯+® +°— ]N® ¬‡ ¯N™| M—°
±[³, " − e] = avec J=2 ; n=14 ; K=4 et A (+H +)M
— est la sous
³
matrice de dimension 2x2 correspondant aux deux coefficients de régression faisant l’objet du
test. D’après les résultats de la question 2), on a :

Rédigé par HALIDOU MOUSSA ISSOUFOU


27
j ) (# H #)M(
q =
0,0jm(
0,00j(
0.00j(
0,0)¹g
¡ ⇒ ¨[j ) (# H #)M(
q ]¨′ =
0,0jm(
0,00j(
0.00j(
0,0)¹g
¡ Car R est une identité. Ainsi
1 0 0,802 1 −0,198
«N[A (+H +)M
— ]N′ ¬
M(
= ,:h M , c
¡ Nb| − — = ¡ ¡− ¡= ¡
M ,i c 3 ,.2i 0 1 −0.381 −0,5 0,119
et donc
(Nb| − —)′ = (−2, ˆi; 2, ˆ).
−0,198
¯Nb| − —° «N[A (+H +)M |
H
— ]N ¬ ¯Nb − —° = (−2, ˆi; 2, ˆ) ¡ ¡ =1,2298, alors
H M ,:h M ,i c
M ,i c 3 ,.2i 0,119

, ˆi
Ó ∗ = ±[ , 2] = = 2, c 3ˆ or le F lu est Ó(),(0)
0,0g
= 4,10 . On a Ó ∗ < Ó(),(0)
0,0g
donc on accepte
l’hypothèse nulle. Les données ne sont pas incompatibles avec la possibilité que les
coefficients I et I sont simultanément et respectivement égaux à 1 et -0,5.

( (g = 3 ; ( (h = 6 ; ) (g = 24 et ) (h = 38 .
7. Prédiction et intervalle de prédiction à 95% pour les périodes 15 et 16, sachant que :

La prévision pour la période 15 est calculée à partir du modèle estimé :


!a(g = 25,84 + 0,715 ( (g − 0,328 ) (g = 20,25. De même, pour la période 16, on obtient
!a(h = 25,84 + 0,715 ( (h − 0,328 ) (h =17,26.
H (# H
Les écarts types de l’erreur de prévision sont donnés par (1.20) : kaT(g
)
= j ) [#(g #)M( #(g + 1]
14 85 532 5,7077 −0,1634 −0,1222
# H # = 0 85 631 31261 ⇒ (# H #)M( = 0−0,1634 0,0110 0,0025 1
532 3126 2066 −0,1222 0,0025 0,0028
5,7077 −0,1634 −0,1222 1
kaT(g
)
= (2,538)) 0 (1, 3, 24) 0−0,1634 0,0110 0,0025 1 0 3 1 + 11 donc on trouve
−0,1222 0,0025 0,0028 24
kaT(g =12,526⇒ kaT(g = 3,5392. De la même manière après calcule, on obtient kaT(h = 2,63
)

L’ intervalle de prévision de !(g est donné par :


r
!(g = !a(g ± )
oM‰ ∗ kaT(g = !a(g ± 0,0)g
(¹M” ∗ kaT(g = 20,25 ± 2,201 3,54 ⇒ B : =
2,2:
[ , c; h, i3]
De la même façon, on obtient l’intervalle de prévision de la période 16 : B c =[ , 3ˆ; ,2 ]
2,2:

8- Décrivons comment on obtient les estimateurs des moindres carrés non linéaires des
paramètres du modèle = ’ + .
Nous ne pouvons pas simplement prendre les logarithmes des deux membres de l’équation
= ’ + car la perturbation est additive plutôt que multiplicative. Nous devons donc

! ≈ } 0 › + › (} − } 0 ) + } 0 (¿ ) › (% − % 0 ) où } 0 et % 0 sont les points d’expansion.


traiter le modèle comme un modèle non linéaire. L’équation linéarisée est :
œ œ œ

Pour des valeurs données de } 0 et % 0 , l’équation estimée serait :


! − } 0 › + } 0 › − } 0 (¿ ) › = }¯ › ° + %_} 0 (¿ ) › ` + ' ∗ ce qui donne :
œ œ œ œ œ

! + } 0 (¿ ) › = }¯ › ° + %_} 0 (¿ ) › ` + ' ∗ . Les estimations de ’ et sont obtenues


œ œ œ

en appliquant les MCO à cette équation. Le processus est repété avec des nouvelles
estimations dans le } 0 et % 0 . Cette itération pourrait être continuée jusqu’à la convergence.

l’esorit, un candidat serait } 0 = ![ et % 0 = 0, ou % 0 = 1 et (} 0 = H !/ ′ ou } 0 = ![/ ̅ ).


Les valeurs de départ sont toujours un problème. Si l’on a pas des valeurs particulières à

Alternativement, on pourrait chercher ’ et en minimisant la somme des carrés,


•(’, ) = ∑ ¯ −’ ° =∑ .
Problème 2
Rédigé par HALIDOU MOUSSA ISSOUFOU
28
I) Le modèle !( = %( ( + '( et !) = %) ) + ') satisfait toutes les hypothèses du modèle de
régressions multi variées. Toutes les variables sont de moyenne nulle. La matrice des
moments de second ordre obtenue à partir d’un échantillon de 20 observations est :
!( !) ( ) 1- Calculez les estimateurs MCQG de %( et de %)
!1 20 6 4 3 2- Testez l’hypothèse% = %
!2 6 10 3 6
( )
\ ^ Dans tout ce qui suit, on suppose que %( = %) = %
1 4 3 5 2
2 3 6 2 10 3- Calculez séparément les estimateurs MCO de %, leurs variances de
l’échantillon, les estimateurs de k() , k)) , et ¨ ) dans les deux régressions.

.4- Réalisez le test du multiplicateur de Lagrange pour l’hypothèse k() = k)) .


5- Calculez l’estimateur des doubles MCQG de % et un estimateur de sa variance.
II) On examine les données de panel du tableau ci-dessous sur l’investissement (y) et le profit
(x) de n =3 firmes sur T = 10 périodes.
1- Calculez les coefficients des moindres carrés
du modèle groupé : !/¶ = } + % /¶ + '/¶ .
i=1 i=2 i=3
t y x y x y x
1 13,32 12,85 20,30 22,93 8,85 8,65

= =u +
2- Estimez le
modèle à effets fixes
= + = et testez l’hypothèse de la
2 26,30 25,69 17,47 17,96 19,60 16,55 ′

3 2,62 5,48 9,31 9,16 3,87 1,47 même constante pour toutes les firmes.

= + (} + u ) + = et construisez le test
4 14,94 13,79 18,01 18,73 24,19 24,91 3- Estimez le modèle à effets aléatoires
= =
5 15,80 15,41 7,63 11,31 3,99 5,01 ′

6 12,20 12,59 19,84 21,15 5,73 8,34 du multiplicateur de Lagrange pour l’hypothèse
7 14,93 16,64 13,76 16,13 26,68 22,70 du modèle classique sans l’effet commun.
8 29,82 26,45 10,00 11,61 11,49 8,36 4- Effectuez le test de spécification de Hausman
9 20,32 19,64 19,51 19,55 18,49 15,44 pour le modèle à effets aléatoires contre le
10 4,77 5,43 18,32 17,06 20,84 17,87
modèle à effets fixes.

Résultats 2:
I)
1- Calculons les estimations MCQG %| = _%| 1 , %| 2 ` de % = [%( , %) ]H .

Les estimateurs b( et b) des MCO de %1 et de %2 sont :


C® Z ¹ C® Z h
b( = ( ( ()
H
( !(
M( H
= CY® CY = g = 2, i et b) = ( ) ))
H
) !)
M( H
= CV® CV = (0 = 2, c.
Y Y V V
Donc les variances et covariances estimées •11 , •22 et •12 des perturbations sont données par :
•(( = (!(H !( − b( (H !( )⁄ = 20 − 0,8(4)⁄20 = 2, i3;
•)) = (!)H !) − b) )H !) )⁄ = [10 − 0,6(6)]⁄20 = 2,
•() = (!(H !) − b) )H !( − b( (H !) + b( b) (H ) )⁄ = [6 − 0,6(3) − 0,6 × 0,8(2)]⁄20 = 2, i.
• • 0,84 0,138
La matrice de covariance des perturbations est Σ et • = •11 •12 ¡ = ¡ est son
12 22 0,138 0,32
0,84 0,138 M( ( 0,32 −0,138 1,281 −0,552
estimateur. • M( = 0,138 0,32 ¡ = 0,j¹×0,”)M0,(”jV −0,138 0,84 ¡ = Œ ‘
−0,552 3,363
Posons •−1 = j12 j22 ¡. Donc l’estimateur MCQG est %| = _#′ (S−1 ⨂I)X` #′ (S−1 ⨂I)Y. On a
11 12 −1

j j µt

Rédigé par HALIDOU MOUSSA ISSOUFOU


29
%Ç • (( H • () (H ) • (( (H !( + • () (H !) 1,231(5) −0,552(2) M( 1,231(4) − 0,552(3)
M(
- ( . = Œ () (H ( ‘ Œ ‘ = Œ ‘ Œ ‘
%Ç) • ( ) • )) )H ) • () )H !( + • )) )H !) −0,552(2) 3,363(10) −0,552(3) + 3,363(6)
|
% 6,155 −1,104 −1 3,268
- 1. =
33,63 1,104 3,268 0,6335
¡ ¡ = 206,992−1,219 ¡ ¡ =Œ
1

|
% −1,104 33,63 18,522 1,104 6,155 18,522 0,5716
D’où
2
| 1 = 2, c
% %| 2 = 2, :h c. La matrice de covariances asymptotiques estimée de %Ç est :
:
1 33,63 1,104 2, c 2, 22: c
©ª‹. $j!. ¦j . _%Ç ` = [# H (S M( ⨂I)X]M( = ¡=Œ ‘
206,992 − 1,219 1,104 6,155 2, 22: c 2, 2 ˆˆ
2- Testons l’hypothèse %( = %) . Pour tester l’hypothèse%( = %) , nous utilisons la
t-statistique : = (%Ç( − %Ç) )/©ª‹[%Ç( − %Ç) ] = (0,6335 − 0,5716)⁄[0,163 + 0,0299 − 2 × 0,00536] ¤)
(

= 0,0619⁄(0,182) ¤) ≈ 0,145 est très petit donc nous ne rejetterions pas l’hypothèse %1 = %2 .
(

3- Calculons séparément les estimateurs MCO de %, leurs variance de l’échantillon, les


estimateurs de k() k)) ¨ ) dans les deux régressions.


Echantillon1
b( = ( ( ()
H
( !(
M( H
= (4)M( (5) = 3⁄: ; H
= !(H !( − b( (H !( = 20 − (4⁄5)(4) =
( ( g
j¹⁄g j¹⁄g
( ( ⁄(
TY® TY
•() = H
− 1) = = 2, ii3 ¨() = 1 − Z® Z = 1 − = 2, c
(m )0
;
Y Y
0,88421
©ª‹. ¦j [b( ] = •() ( ( ()
H M(
= = 0,1768
5
h h¹
Echantillon 2
b) = ( ) ))
H
) !)
M( H
= (0 = 2, c ; H
) ) = !)H !) − b) ) !)
H
= 10 − 0,6(6) = (0
h¹ h¹
) ) ⁄( − 1) = d(0f⁄19 = 2, ci3 ; ¨)) = 1 − ZV® ZV = 1 − d(0f⁄10 = 2, c
T® T
•)) = H
V V
0,33684
©ª‹. ¦j [b( ] = •)) ( ) ))
H
=
= 2, 2ch ci
M(
5
4- Réalisons le test de multiplication de Lagrange pour l’hypothèse k() = k))
Nous avons besoin des estimateurs séparés et groupés de la variance basés sur l’estimateur de

b = [ (H !( + )H !) ]⁄[ (H ( + )H ) ] donc on a b = (4 + 6)⁄(5 + 10) = ⁄


pente restreinte. En combinant les échantillons, nous obtenons l’estimateur groupé b suivant :

Déterminons la variance groupée hypothétique : H = (!(H !( + !)H !) ) − b( (H !( + )H !) ).


T®T ()0q(0)M()⁄”)(¹qh)
Ainsi, l’estimateur de la variance groupée est • ) = = (7⁄3)⁄40 = 2, :i
¹0 ¹0
.
Notons que le diviseur est 40 et non 39. Car nous somme entrain de calculer l’estimateur du
maximum de vraisemblance.
Les estimateurs individuels sont :
2 2 )
¯!(H !( − 2b( (H !( ) + b ) ( ‚10 − 8 d f + d f (5)…
( ( )° 3 3
H
•() = H
( (¤
20 = = = 2, i33
20 20
2 2 )
H
¯!)H !) − 2b( )H !) ) + b ) ( H
) )°
[10 − 12 d f + d f (10)]
•)) =
) )
=
)
= 3 3 = 2, 2
20 20 20
) )
La statistique LM est donnée par : /
R OV OV
= ) ŒdOYV − 1f + dOVV − 1f ‘

/ = 10 Œd0,gj”” − 1f + d0,gj”” − 1f ‘ d’où /


0,j¹¹¹ ) 0,”))) )
= 4,007. Ceci a un degré de liberté pour la

restriction simple. La valeur critique de la table de Khi-2 est 3,84, ainsi nous pouvons rejeter
l’hypothèse nulle k() = k)) .
Rédigé par HALIDOU MOUSSA ISSOUFOU
30
5- Calculons l’estimateur des doubles MCQG de % et un estimateur de sa variance.
Afin de calculer les deux étapes de l’estimateur MCG, nous pouvons utiliser soit les
estimations de la variance originale basée sur les estimations des moindres carrés séparés ou
ceux obtenus ci-dessus en faisant le test LM. Puisque les deux pairs sont cohérents, les deux
estimateurs MCQG auront tous des propriétés asymptotiques durables. Pour notre estimateur,
nous avons utilisé ka–) = –H – ⁄ de la régression originale. Ainsi, ka() = 0,84 et ka)) = 0,32.
L’estimateur MCG est :
¡ v 0,j¹ + 0,”)¡ = 0,632
h ) g
%Ç =
( H ( ( H ( ¹ (0
!
GYV ( (
+ GV ) !) ¡¤ •
H
GYV ( (
+ GV ) )¡
H
= +
• •V •V 0,j¹ 0,”)
( (
1¤ G V (H ( + G V )H ) ¡ = 0,2688 , cela
•Y •V
La variance d’échantillonnage estimée est implique une
2
erreur standard asymptotique de (0,2688) =0,16395.
II)
1-Calculons les coefficients des moindres carrés du modèle groupé: !/¶ = } + % /¶ + '/¶ .

Après tout calcul fait avec le tableur Excel, nous trouvons les matrices suivantes
30 448,86 0,21205 −0,01194 452,86
# H# = ¡ ; (# H #)M( = Œ ‘ # HÊ = Œ ‘. Donc un
448,86 7968,4544 −0,01194 0,00080 8102,0386
−0,7474
estimateur % est = (# H #)M( # H Ê = ¡, d’où = = −0,7474 + 1,0589 = + @ = et H = 120,6687
1,0589

Estimons le modèle à effets fixes = = u + ′ = + =


2-

Désignons par d1, d2 et d3 les variables indicatrices associées aux individus (? = pour
l’individu Ë et 0 pour les autres). La régression du modèle à effets fixes devient alors :
= w ? + w ? +w ? + ′ = + = . En utilisant le tableur Excel pour les calculs et en
=
désignant par Z le vecteur (? , ? , ? , +) , nous trouvons les résultats suivants :
10 0 0 153,97 0,3002 0,2154 0,1682 −0,0130
0 10 0 165,59 0,2154 0,3316 0,1808 −0,0140
ßH ß = \ ^ ; (ß H ß)M( = \ ^ et
0 0 10 129,3 0,1682 0,1808 0,2412 −0,0109
153,97 165,59 129,3 7968,4544 −0,0130 −0,0140 −0,0109 0,0008

155,02 −1,4659
154,15 −2,8334
ßH Ê = \ ^ . On en déduit donc que : b»OG3 = (ß H ß)M( ß H Ê = \ ^. D’où on a :
143,69 0,1198
8102,0386 1,1020

= = −1,4659 ? − 2,8334 ? +0,1198 ? + 0,1198 = + @ = et H


∗ ∗ = 79,183.

• Testons maintenant l’hypothèse de la même constante pour toutes les firmes.


La statistique F pour tester l’hypothèse que les termes constants sont tous les mêmes est :
¯T ® TMT∗® T∗ °⁄(oM() (()0,hhjiMim,(j”)⁄(”M()
Ó ∗ = Ó[2; 26] = T ® = = c, i
∗ T∗ ⁄(oCRM(*qo) T∗® T∗ ⁄(”0M((q”)
. La valeur critique de la table

de F est ÓÂ?T
0,0g
= 3,37. On constate que Ó ∗ > ÓÂ?T
0,0g
donc on rejette l’hypothèse nulle, alors la
constante n’est pas la même pour toutes les firmes. Ainsi la qualité d’ajustement du modèle
augmente considérablement lorsque les effets individuels sont ajoutés.

+ (} + u ) +
3-
• Estimons le modèle à effets aléatoires = = ′
= =
Rédigé par HALIDOU MOUSSA ISSOUFOU
31
Pour estimer le modèle à effets aléatoires, nous avons besoin de quelques estimateurs

̅
supplémentaires. En calculant les moyennes des groupes, on trouve :
![
Groupe 1 15,502 14,962
Groupe 2 15,415 16,559
Groupe 3 14,373 12,930

![/ = 10,665 + 0,29909 ̅/ +


Dans la régression des groupes en utilisant ces trois observations, nous obtenons
∗∗ ∗∗ = 0,19747
∗∗ H
/ avec
•JV
+ k?) est oRM*
T∗∗ T∗∗
® 0,(mi¹i
= = 0,19747.
R ”M)
Un estimateur de Dans la régression des moindres carrés
im,(j”
des variables dummy (à effets fixes), nous avons une estimation de k ) qui est = 3,045. Donc
”0M¹

notre estimation de k?) est ka?) = 0,19747 − = −1,10703 ( il y a une absurdité, car ka?) est
3,045
10
négatif). Avant d’abandonner éventuellement les effets aléatoires, considérons un estimateur
cohérent alternatif de la constante et de la pente, l’estimateur des moindres carrés

∑”/L([![/ − (−0,747476 + 1,058959 ̅/ )]) = 3,9273. Donc nous utilisons maintenant, l’estimateur,
ordinaires groupé. En utilisant les moyennes de groupe ci-dessus, nous trouvons,

Z•Q
ka?) =
V
3,9273 3,045
− = 3,6227. Ainsi, nous pouvons calculer t = 1 − = 1−
√”,h))i
”M) 10 Z•JV qR•Q
V ƒ3,045+10(3,6227)

t = 0,721524. Finalement, les estimations MCQG sont déterminées par la régression de


différences partielles de !/¶ sur les différences partielles de la constante et du régresseur. En
utilisant l’estimation de t dans la formule (7.21) et après tout calcul fait, on trouve :
! = −1,3415 + 0.0987 +
(0,786) (0,0506)
• Construisons le test du multiplicateur de Lagrange LM pour l’hypothèse du modèle
classique sans l’effet commun.

Pour le test LM, nous revenons à la régression des moindres carrés ordinaires groupés. Les
quantités nécessaires sont H = 120,6687 ; ∑(0
¶L( (¶ = −0,55314 ; ∑¶L( )¶ = −13,72824 et
(0

∑(0
¶L( ”¶ = 14,28138.

) V V V )
d∑10 10 10
/= - -
V
∑W
UXY_∑H̀XY TUH ` =1 1 f qd∑ =1 2 f qd∑ =1 3 f
− 1. = − 1. = i, 3ci
oR ”((0)
∑W I V
)(RM() UXY ∑HXY TUH )((0M() T ®T

La valeur critique de la distribution de Khi-2 à 1 degré de liberté est c(()


)
= , i3. Donc on a
/ > c2(1) alors l’hypothèse de non effet aléatoire est rejetée

4- Effectuons le test de spécification de Hausman pour le modèle à effets aléatoires contre le


modèle à effets fixes.

Pour le test de Hausman, nous comparons les MCQG et les LSDV. On utilise les estimateurs des
matrices de covariance des coefficients estimés du modèle LSDV et l’estimateur de la matrice de
covariance du modèle à effet aléatoire MCQG, excepté le terme constant. Sous l’hypothèse nulle, H
suit un Khi-2 à K-1 degrés de liberté. La statistique du test est

Rédigé par HALIDOU MOUSSA ISSOUFOU


32
“ = c ) [ − 1] = _%Ç»OG3 − %Çxyz{ ` _Var[b] − Var[%| ]` _%Ç»OG3 − %Çxyz{ `
′ M(

= , hˆ3 h . On a “ < c2(1) , donc on ne rejette pas l’hypothèse nulle.


((,0mjiM(,0gjmgm)V
“ = (0,0gjhgh)V
M(0,0g0h)V
D’où le modèle de panel est un modèle à effets aléatoires.

Problème 3 ( TP)
Le TP porte sur un fichier de données constitué d’un échantillon de 3010 hommes, sur
lesquels sont observées 6 variables quantitatives : LWAGE (log du salaire horaire), EDUC
(nombre d'années d'études), EXPER (expérience sur le marche du travail en années), EXPERSQ
(EXPER au carre), FATHEDUC (nombre d'années d'étude du père) et MOTHEDUC (nombre
d'années d'étude de la mère) et 3 variables qualitatives binaires NEARC4 (=1 si l'individu vivait
près d'un collège disposant de 4 ans d’étude en 1966), SMSA (=1 si l'individu vit dans une
métropole) et SOUTH (=1 si l'individu vit dans le sud).
L’objectif est d’étudier le rendement de l’éducation (EDUC) sur le salaire horaire (LWAGE)

|}~•€ = €•‚ƒ + € „€… + € „€…†‡ + †ˆ†~ + †‰‚Š‹ + u


pour les hommes. Le modèle étudié est le suivant :
2
+ 3 :
En plus de la variable explicative principale (EDUC), d’autres variables explicatives sont
intégrées au modèle : EXPER dont l’effet est suppose non linéaire, puisqu’elle est introduite en
tant que telle (EXPER) et au carre (EXPERSQ), SMSA et SOUTH.
Dans ce modèle, nous soupçonnons une variable explicative, la variable EDUC, d’être
endogène c'est-a-dire d’être corrélée avec le terme d’erreur. Dans ce cas la méthode des
moindres carrées ordinaires MCO pour l’estimation des paramètres du modèle n’est pas
utilisable, car elle conduit a des estimateurs biaises et inconsistants. Il faut utiliser la méthode
des doubles moindres carres 2MC et avoir recours a des variables instrumentales (IV
Instrumental variables) ce qui permet d’obtenir des estimateurs consistants. Une variable
instrumentale étant une variable qui ne figure pas dans le modèle (pas d’effet direct sur
LWAGE), qui est exogène (non corrélée avec le terme d’erreur) et corrélée avec la variable
explicative qui est soupçonnée d’être endogène ici EDUC. Toutefois, les 2DC sont moins
efficaces que les MCO quand les variables explicatives sont toutes exogènes. Quand la
méthode des 2MC est mise en œuvre, il faut s’assurer qu’elle l’est dans les conditions qui le
nécessitent. Pour estimer les paramètres du modèle nous allons procéder comme suit:
1-) MCO ; 2-) 2MC avec deux variables instrumentales ; 3-) 2MC avec tois variables
instrumentales ; 4-) Comparaison des résultats obtenus par ces différentes méthodes
d’estimation ; et enfin 5-) Tester l’exogénéité de l’éducation et des variables instrumentales.
Pour toutes les estimations, nous avons utilisé le logiciel R dont les sorties se trouvent en
annexes. Nous présentons uniquement les résultats et les commentaires dans ce TP.
1-) Estimation par les MCO
Après estimation, nous obtenons le modèle estimé suivant :
|}~•€ = 3, :ihi + 2, 2i2i €•‚ƒ + 2, 2iˆc € „€… −2, 22 3 € „€…†‡ + 2, :c †ˆ†~ − 2, :2 †‰‚Š‹ + @
Le modèle est très significatif (p-value < 2e-16). Toutes les variables explicatives du modèle
sont aussi très significatives (p-value < 0,001). Les paramètres estimés dans la régression sont
donc tous significativement différents de zéro.
Nous sommes dans le cas où la variable à expliquer (Y) est en log, et les variables explicatives
(Xi) en niveau ; la variation de Xi est d'une unité; pour calculer la variation en pourcentage de
Rédigé par HALIDOU MOUSSA ISSOUFOU
33
Y, il suffit de multiplier le paramètre de Xi par 100. Ainsi le rendement de l’éducation est de
8,08%. Pour le rendement de l’expérience, le calcul est légèrement plus complexe, dans la
mesure ou le modèle comprend deux termes faisant appel a cette variable EXPER et EXPERSQ.
On notera que le paramètre associe a EXPERSQ est négatif, indiquant une tendance a la
saturation a mesure que l’expérience augmente. Si on effectue le calcul pour une
augmentation d’une unité de EXPER, on obtient un rendement de 8,72% (8,96-0,24).
Revenons au modèle estimé, le R2 qui lui est associe est faible, ainsi le modèle n’explique
que 25% de la variance de la variable log du salaire horaire. Se pose donc la question de la
spécification du modèle : n’existe-t- il pas un modèle permettant de mieux expliquer le salaire
horaire (omission de variables importantes a prendre en considération, effet non linéaire d’une
variable autre que EXPER …).
2-) Estimation par les 2MC avec deux variables instrumentales
Dans ce modèle, on soupçonne la variable explicative EDUC, d’être endogène c'est-a-
dire d’être corrélée avec le terme d’erreur. Ce qui introduit un biais d’endogénéité dans
l’estimation des paramètres du modèle.
On suppose que l’on dispose de deux variables instrumentales FATHEDUC et MOTHEDUC.
Pour appliquer la méthode des 2MC avec variables instrumentales, nous allons utiliser la
fonction ivreg de la librairie AER. Le modèle estimé est alors le suivant :
|}~•€ = 3,90 + 0,1215 €•‚ƒ + 0,1073 € „€… −0,0025 € „€…†‡ + 0,1355 †ˆ†~ − 0,1312†‰‚Š‹ + @
R2 = 0,21
Le modèle est très significatif (p-value < 2e-16). Toutes les variables explicatives du modèle
sont très significatives (p-value < 0,001). Les paramètres estimés dans la régression sont donc
tous significativement différents de zéro.
Le rendement de l’éducation est désormais de 12,15%.
Le R2 associé au modèle est toujours faible, ainsi le modèle n’explique que 21% de la
variance du log du salaire horaire. La question de la spécification du modèle reste posée.
3-) Estimation par les 2MC avec trois variables instrumentales
On suppose à présent que l’on dispose désormais de trois variables instrumentales

|}~•€ = 3,905 + 0,1212 €•‚ƒ + 0,118 € „€… −0,0025 € „€…†‡ + 0,1356 †ˆ†~ − 0,1313†‰‚Š‹ + @
FATHEDUC, MOTHEDUC et NEARC4. Le modèle estimé devient

Le modèle est très significatif (p-value < 2e-16). Toutes les variables explicatives du modèle
sont très significatives (p-value < 0,001). Les paramètres estimes dans la régression sont donc
tous significativement différent de zéro. Le rendement de l’éducation est finalement de
12,12%. Le R2 associé au modèle est toujours faible, ainsi le modèle n’explique que 21% de
la variance du log du salaire horaire.
4-) Test de l’exogénéité de l’éducation
Pour tester l’exogénéité de la variable EDUC, on procède en deux étapes :
• On estime la forme réduite par MCO en régressant EDUC sur toutes les variables exogènes :
EDUC~EXPER+EXPERSQ+SMSA+SOUTH+MOTHEDUC+FATHEDUC+NEARC4. On calcule le
résidu de cette régression (résidu EDUC)
• On estime l’équation structurelle par MCO en ajoutant ce résidu comme variable explicative.
On va ainsi tester l’hypothèse H0 : le paramètre, βrésidu = 0 ; c’est-à-dire EDUC est exogène.
On a alors l’équation : LWAGE~EDUC+EXPER+EXPERSQ+SMSA+SOUTH+résidu EDUC

Rédigé par HALIDOU MOUSSA ISSOUFOU


34
Tester cette hypothèse revient a tester l’existence d’un biais d’endogénéité. Si on rejette H0
on conclut que EDUC est endogène et qu’il faut donc utiliser les 2MC. Dans le cas contraire il
faut utiliser les MCO.

Dans notre cas, βrésidu= -0,0461508 et la p-value associée est égale a 0,00018. On rejette donc
H0. On en conclut que EDUC est bien endogène et qu’il fallait effectivement utiliser les 2MC.
5-) Test de l’éxogénéité des instruments
Dans notre application, on est en conditions suridentifiantes : nous disposons de trois
variables instrumentales pour une variable endogène, autrement dit le nombre de restrictions
suridendifiantes, noté q, est égal a deux.
Dans la mesure où q≥1, nous pouvons donc appliquer le test de Sargan pour tester
l’exogénéité des instruments. Pour ce faire, il faut procéder en deux étapes :
• On enregistre les résidus des 2MC. Dans notre cas, nous utilisons le code R suivant
iv2 < - ivreg (LWAGE~EDUC+EXPER+EXPERSQ+SMSA+SOUTH | MOTHEDUC+FATHEDUC+
NEARC4+EXPER+EXPERSQ+SMSA+SOUTH, data=card2)
• On régresse ce résidu sur toutes les variables exogènes du modèle. le code R est :
lm(residuals(iv2)~EXPER+EXPERSQ+SMSA+SOUTH+MOTHEDUC+FATHEDUC+NEARC4,data=card2)
On effectue un test du multiplicateur de Lagrange sur cette régression auxiliaire en calculant
N*R2 que l’on compare une loi du Khi2 à q (=2 ici) degrés de liberté. L’hypothèse nulle étant
: toutes les variables instrumentales sont exogènes. Si la valeur observée dépasse la valeur
théorique de la table, on rejette H0. Au moins une variable instrumentale n’est pas exogène.
Si la valeur observée n’est pas dans la région critique, alors on ne rejette pas H0, le test n’a
pas permis de mettre en évidence de problème d’endogénéité au sein des variables
instrumentales, on considère donc les variables instrumentales comme étant toutes exogènes.
Ici : R2= 0,0006215 et n = 2220. La valeur observée est donc de 1,379733, avec une p-value
associée de 0,501. En conséquence, on ne rejette pas H0, on considère donc les variables
instrumentales comme étant toutes exogènes.
Conclusion
Dans le cadre de cette application, la méthode des MCO aurait conduit a une
estimation biaisée et inconsistante des paramètres du modèle et notamment du rendement de
l’éducation. Ainsi dans cette application, la méthode des MCO nous aurait amené à sous-
estimer le rendement de l’éducation (8,08% par MCO contre 12,12% par 2MC avec 3 IV) et à
le considérer plus faible (pour une augmentation d’une unité) que le rendement de
l’expérience, alors que la méthode des 2MC le fait apparaitre comme étant plus élevé que le
rendement de l’expérience (12,12% pour l’éducation contre 8,22% pour l’expérience).
L’utilisation de la méthode des 2MC était justifiée : d’une part car nous avons pu mettre en
évidence l’endogénéité de la variable explicative éducation et d’autre part car les 3
instruments respectent les conditions attendues.

NB : Nous avons utilisé principalement le Tableur Excel et le logiciel R


pour les calculs et le traitement des données.

Rédigé par HALIDOU MOUSSA ISSOUFOU


35
TABLE DES MATIERES
SOMMAIRE ........................................................................................................... ii

I-Indices des concepts ............................................................................................... 1

II- Résumé analytique .............................................................................................. 3

Chapitre 1 : Modèle de régression multiple ............................................................... 3

1.1 Présentation générale et matricielle du modèle de régression multiple ................... 3

1.2 Hypothèses du modèle de régression linéaire ........................................................ 3

1.3 Estimation du modèle par les moindres carrés ordinaires .................................... 3

1.3.1 Qualité d’ajustement et mesure de la variance. ............................................. 4

1.3.2 Propriétés à distance finie de l’estimateur des moindres carrés .................... 4

1.4 Intervalle de confiance .......................................................................................... 4

1.5 Tests d’hypothèse................................................................................................. 5

1.5.1 Test de Wald fondé sur la distance ................................................................ 5

1.5.2 La statistique F et la différence des moindres carrés ...................................... 6

1.6 Prédiction ............................................................................................................. 6

Chapitre 2: Forme fonctionnelle et changement structurel .......................................... 7

2.1 Variables binaires dans la régression ................................................................... 7

2.2 Non linéarité dans les variables. ........................................................................... 7

2.2.1 Modèles log-linéaire et semi-log-linéaire ......................................................... 7

2.2.2 Effets d’interaction ......................................................................................... 7

2.2.3 Modèle intrinsèquement linéaire .................................................................... 8

2.3. Modélisation et test de changement structurel .................................................. 8

Chapitre 3 : Modèles de régression non linéaire.......................................................... 9

3.1 Formulation et définition du modèle de régression non linéaire ........................... 9

3.2 Hypothèses du modèle de régression non linéaire ................................................. 9

3.3 Estimation et Tests d’hypothèses ......................................................................... 9

I
Chapitre 4 : Endogénéité et estimation par variables instrumentales ........................... 9

4.1 Présentation du contexte d’utilisation des variables instrumentales .................... 9

4.2 Définition d’une variable instrumentale (IV) et méthode d’estimation par IV . 10

4.3 Test d’endogénéité ............................................................................................. 11

4.4 Test de Sargan (test d’exogénéité d’une variable instrumentale) ......................... 11

Chapitre 5 : Modèle de régression généralisée et hétéroscédasticité ............................ 12

5.1 Contexte d’utilisation des Moindres Carrés généralisés (MCG) ......................... 12

5.2 Conséquences de l’hétéroscédasticité sur les propriétés de l’estimateur des MCO


................................................................................................................................... 12

5.3 Stratégies d’estimation en présence d’hétéroscédasticité .................................... 12

5.4 Tests d’hétéroscédasticité des erreurs (Tests de White et Breusch-Pagan) ....... 13

5.4.1 Test du multiplicateur de Lagrange.............................................................. 13

5.4.2 Test de Breusch-Pagan (1979) ...................................................................... 13

5.4.3 Test de White(1980) .................................................................................... 13

5.5 Méthode des Moindres Carrés Généralisés (MCG). ........................................... 14

5.6 Exemple illustratif de la mise en œuvre des MCG .............................................. 14

Chapitre 6 : Systèmes d’équations ........................................................................... 16

6.1 Modèle de régression apparemment indépendant, SUR ..................................... 16

6.1.1 Moindres carrés généralisés .......................................................................... 16

6.1.2 Régressions apparemment indépendantes (SUR )avec régresseurs identiques


................................................................................................................................ 16

6.1.3 Moindres carrés quasi généralisés ................................................................ 16

6.2 Test de spécification du modèle SUR ................................................................ 17

6.3 Modèle à équations simultanées ......................................................................... 17

6.3.1 Notion générale pour les modèles à équations simultanées ........................... 17

6.3.2 Equation simple: l’estimation et l’inférence................................................. 18

II
6.3.3 Méthodes d’estimation de système ............................................................... 19

Chapitre 7 : Modèle de données de panel ................................................................. 20

7.1 Cadre général d’analyse des données de panel .................................................... 20

7.2 Les structures de modèle ..................................................................................... 21

7.3 Panels cylindrés et non cylindrés ......................................................................... 21

7.4 Méthode de régression groupé ............................................................................. 21

7.5 Estimation robuste de la matrice de covariance.................................................. 22

7.6 Estimateurs intra- et interindividuels .................................................................. 22

7.7 Le modèle à effets fixes ........................................................................................ 23

7.7.1 Estimation des moindres carrés ..................................................................... 23

7.7.2 Test de significativité des effets individuels ................................................... 23

7.8 Modèle à effets aléatoires ................................................................................... 24

7.9 Test de spécification d’Hausman ......................................................................... 25

III. Cas pratique .................................................................................................... 26

Problème1 .................................................................................................................. 26

Résultat 1 ................................................................................................................... 26

Problème 2 ................................................................................................................. 28

Résultats 2: ................................................................................................................. 29

Problème 3 ( TP) ........................................................................................................ 33

TABLE DES MATIERES .......................................................................................... I

III

Vous aimerez peut-être aussi