Académique Documents
Professionnel Documents
Culture Documents
SUPERIEUR DE LA RECHERCHE
SCIENTIFIQUE ET DE L’INNOVATION
*-*-*-*-*-*
Unité-Progrès-Justice
*-*-*-*-*-*-*-*-*-*-*-*-*-*
*-*-*-*-*-*-*-*-*-*-*-*-*-*
* -*-*-*-*-*-*-*-*-*-*-*-*-*
NIVEAU : MASTER I
Les résidus sont corrélés : pour un couple ( i ,, j ) , Cov(ε i , ε j ) ≠0 . On dit que ε est
corrélé, ou encore que ε a une structure de processus.
On supposera dans la suite que le modèle est identifiable. Il est important de savoir que
lorsque Σ est connu à un facteur près, on utilise les moindres carrés généralisés (MCG ) et
dans le cas contraire, lorsqu’elle n’est pas connue ou inconnue, on utilise les MC O ou MCQG .
D’où l’ossature du travail.
Propriétés :
Q et V ayant même trace, on en déduit le résultat annoncé. Cette convergence des MCO est
importante : elle permet en effet de se rapprocher des MCG lorsque Σ est de la forme
paramétrique connue.
{−1,1 } de paramètre 0,5 , les moments de ces deux lois sont les mêmes, l’Esperance E=0
étant et la variance V =1.
E σ
2
variable aléatoire d’espérance et de variance ,on sait que l’espérance de cette moyenne
y i−E
est E et sa variance σ 2/n la quantité √N est donc une variable d’espérance nulle et de
σ
variance unitaire. Le Théorème Central Limite permet de préciser la loi de cette
transformation de la moyenne empirique en établissant que, quelle que soit la distribution de
la variable y , la loi asymptotique de la variable aléatoire est une loi normale centrée réduite
N (0,1) La loi des grands nombres et le Théorème Central Limite sont des résultats
fondamentaux de la théorie asymptotique, qui permettent d’étudier les propriétés d’une
variable aléatoire en l’absence de toute hypothèse quant à sa distribution vraie. La prochaine
section applique ces résultats à l’estimateur des MCO .
On considère pour le vérifier des intervalles de taille différente, δ =0.1 , 0.05 , 0.02 ,0.01. La
Figure ci-dessous présente les proportions de moyenne empirique tombant dans les intervalles
considérés, en fonction à la fois de la loi vraie ayant produit les données (qui est toujours de
moyenne E=0 et de la taille d’échantillon.
La proportion d’échantillons tombant dans l’intervalle est croissant tant de la largeur de
l’intervalle que de la taille de l’échantillon. Lorsque l’échantillon est très grand, toutes les
moyennes empiriques tombent dans l’intervalle considéré, aussi étroit soit-il, confirmant ainsi
la convergence asymptotique de la moyenne empirique vers sa valeur théorique. La loi des
grands nombres s’applique par ailleurs quelle que soit la loi de la variable aléatoire : aucune
différence notable n’apparaît entre la loi Binomiale et la loi uniforme.
La forme du modèle considéré reste inchangée : on s’intéresse à l’estimation des paramètres b
du modèle linéaire y i=x i b+ui . Les hypothèses retenues sont en revanche moins restrictives,
puisque la normalité des résidus n’est plus imposée a priori:
MCA '
H1 : lamatrice x x est inversible ∀ N ;
H 2MCA : E(u i∨x i)=0;
MCA 2
H3 : V (ui ∨x)=σ , ∀ i ;
MCA
H4 : E(u i u j∨x)=0 , ∀ i , j ;
b^ MCO =(x x) x y = (x i x i) x i y i
' −1 ' ' −1 '
MCA b^ MCO P b
Proposition : Sous H , l’estimateur des MCO (1) est convergent : →
Démonstration : L’estimateur des MCO s’écrit b^ MCO =(x ' x)−1 x' y = (x i x i) x i y i.
' −1 '
b^ MCO =(x x) x y =
' −1 '
En remplaçant yi par y i=x i b+ui , on a : s’écrit
' −1 ' ' −1 ' ' ' −1 '
(x i x i) x i (x i b+ui ¿ )=( xi xi ) (¿ x i x i b+ xi ui )=b+( x i x i) x i u i ¿ ¿
Comme les moments |x ki x lj| des variables explicatives existent par H 5MCA, on peut appliquer la
loi des grands nombres à (x i' x i). En ce qui concerne x i' ui, la loi des grands nombres suppose
' ' ' '
que E ( x i ui) et V ( x i ui) existent. Or E ( x i ui) ¿ E(E ( x i u i)∨x i )¿=0
' '
Et V ( x i ui) ¿ E(V ( xi ui )∨x i)+V ¿ d’où :
N N
1
x i' x i=
N
∑ x i' x i P→ E( x i' xi ) et x i' ui= N1 ∑ x i' ui P→ E( x i' ui )
i=1 i=1
' −1 ' −1
On en déduit que (x i x i) P →
E ( x i x i)
b^ MCO =b+(x i x i) x i u i ¿ P b+ E( x i x i ) E( xi ui )
' −1 ' ' −1 '
Car les espérances E( x i' x i ) et E( x i' ui ) sont par définition des constantes, que l’application
P
A → A est continue enfin que la somme et le produit des suites de variables aléatoires
convergent en probabilité vers des constantes. Comme par ailleurs,
^
E( x i ui )=E [x i E( ¿u i)∨x i ¿]=0 , on a bien : b MCO P b
' '
→
√ N ( b^ MCO −b) L N (0 ,V as) avec V as=σ 2 E ( x i' x i)−1 est la variance asymptotique de l’estimateur.
→
cette quantité, il faut appliquer le Théorème Central Limite à √ N x i' ui . Les variables aléatoires
'
x i ui sont indépendantes et équidistribuées. On peut appliquer le TCL si les deux premiers
moments de cette variable existent. Or on sait par hypothèse que E ( x i' ui)=0 et V ( x i' ui)
'
¿ E(V ( xi ui )∨x i)+V ¿.
'
Par H 2MCA, les moments d’ordre 1 et 2 de x i ui existent. Le TCL peut alors affirmer que
√ N ( b^ MCO −b) L N (0 , σ 2 E (xi' x i)). Comme, en outre, ( x i' x i)−1 P E ( x i' x i)−1 qui est une
→ →
−1
matrice constante, on peut appliquer le théorème de Slutsky à ( x i x i) et √ N (x i' x i) :
' −1
−1
'
(x i x i)
−1
√N (x i
'
xi ) L N ¿
→
2 ' −1
L N (0 , σ E(x i x i) )
→
En remplaçant yi par y i=x i b+ui , on a : s’écrit b^ MCO =(x ' x)−1 x' y =
(x i' x i)−1 x i' (x i b+ui ¿ )=( xi' xi )−1 (¿ x i' x i b+ xi' ui )=b+( x i' x i)−1 x i' u i ¿ ¿
Comme les moments |x ki x lj| des variables explicatives existent par H 5MCA, on peut appliquer la
' '
loi des grands nombres à (x i x i). En ce qui concerne x i ui, la loi des grands nombres suppose
que E ( x i' ui) et V ( x i' ui) existent. Or E ( x i' ui) ¿ E(E ( x i' u i)∨x i )¿=0
' '
Et V ( x i ui) ¿ E(V ( xi ui )∨x i)+V ¿ d’où :
N N
1 1
x i' x i=
N
∑ x i' x i P E( x i' xi ) et x i' ui=
→
∑ x ' u P E( x i' ui )
N i=1 i i →
i=1
' −1
On en déduit que (x i x i) P E ( x i' x i)−1
→
Car les espérances E( x i' x i ) et E( x i' ui ) sont par définition des constantes, que l’application
P
A → A est continue enfin que la somme et le produit des suites de variables aléatoires
convergent en probabilité vers des constantes. Comme par ailleurs,
^
E( x i ui )=E [x i E( ¿u i)∨x i ¿]=0 , on a bien : b MCO P b
' '
→
Une des hypothèses fondamentales pour l’étude du modèle linéaire est que,
conditionnellement à x , les residus sont centrés : pour tout i , E ( ε i| x i ) =0. Cette condition
assure que l’estimateur des MCO du paramètre β est sans biais, convergent vers β sous de
bonnes conditions sur la matrice des regresseurs. Si cette hypothèse n’est pas vérifiée,
l’estimation des MCO est biaisée et non-convergente.
Une telle situation se présente quand les régresseurs sont stochastiques et corrélés aux
résidus : Cov ( X , ε )≠ 0. La méthode d’estimation par variables instrumentales (VI) est une
méthode alternative aux MCO , convergente sous certaines conditions. Même si elle n’est pas
optimale, elle fournit une estimation utile à l’initialisation d’un logarithme itératif de
recherche du maximum de vraisemblance (MV).
Exemple 1 : Erreur sur la variable exogène.
Dans le modèle ¿) : y i=a x i +ε i , i=1 :n et x i ϵ R , on commet une erreur sur x i , l’observation
¿
étant x i = xi +ηi , i=1 :n . Si η=(η¿ ¿i)¿ est un BB de variance σ 2n> 0 non corrélé à ε , le modèle
observable est :
¿ ¿ ¿
(Ω¿¿ ¿): y i=a x i + ε i avec ε i =ε i −a ηi ,i=1:n ¿
Sur Stata, la commande regress permet de réaliser une régression MCO. Sa syntaxe est :
regress y x1 x2, options. Exemple : reg growth tourism prim infl, robust c’est-à-dire que
growth, tourism, prim et inflation sont les variables choisies. Avec l’option robust (ou ro),
les t de Student sont corrigés de l’hétéroscédasticité par la méthode de White. Toutes les
commandes d’estimation fonctionnent de la même manière sous Stata. La syntaxe est
identique : by variable : commande y x1 x2... if/in condition, options.
Références Bibliographiques
Anderson, T. W., et C. Hsiao (1982) : “Formulation and estimation of dynamic models using
Angrist, J. D. (1990) : “Lifetime Earnings and the Vietnam Era Draft Lottery : Evidence from