Vous êtes sur la page 1sur 13

MINISTERE DE L’ENSEIGNEMENT BURKINA FASO

SUPERIEUR DE LA RECHERCHE
SCIENTIFIQUE ET DE L’INNOVATION
*-*-*-*-*-*
Unité-Progrès-Justice
*-*-*-*-*-*-*-*-*-*-*-*-*-*

UNIVERSITE JOSEPH KI ZERBO


(UJKZ)

*-*-*-*-*-*-*-*-*-*-*-*-*-*

INSTITUT SUPERIEUR DES SCIENCES


DE LA POPULATION (ISSP)

* -*-*-*-*-*-*-*-*-*-*-*-*-*

NIVEAU : MASTER I

MOINDRES CARRES ORDINAIRES (MCO)

Enseignant : Dr LOUGUE, enseignant en théorie des estimations à


l’ISSP

Travail présenté par : COULIBALY Lombo Gildas

Année académique : 2021-2022


Table des matières
INTRODUCTION......................................................................................................................3
Propriétés des MCO ....................................................................................................................3
1) Ce que permettent les MCO .........................................................................................3
2) Ce que ne permettent pas les MCO ..............................................................................3
3) Convergence des MCO................................................................................................4
I. Propriétés asymptotiques de l’estimateur des MCO........................................................4
Théorèmes de convergence : Simulations...................................................................................5
1) Les principaux résultats de convergence : une introduction........................................5
2) L’estimateur des MCO sans hypothèse de normalité...................................................6
THEOREME CENTRAL LIMITE.............................................................................................8
II. Régresseurs stochastiques et estimation par variables instrumentales (VI)...................11
Application avec STATA.........................................................................................................12
Références Bibliographiques....................................................................................................13
INTRODUCTION
Les résidus ε ∈ R n d’un modèle sont dits sphériques si leur matrice de covariance Σ=cov ( ε )
est proportionnelle à l’identité. Dans le cas contraire, on dit que les résidus sont
2
non-sphériques : y=xβ + ε , E ( e )=0 ,et Σ=cov ( ε ) =σ R≠ c I n.

Deux situations classiques conduisent à la non-sphéricité des résidus :


Les résidus sont décorrélés mais leurs variances sont inégales : Σ est diagonale mais
pour un couple ( i ,, j ) , V ( ε i ) ≠ V (ε j ). On dit qu’il y’a hétéroscédasticité des résidus.

Les résidus sont corrélés : pour un couple ( i ,, j ) , Cov(ε i , ε j ) ≠0 . On dit que ε est
corrélé, ou encore que ε a une structure de processus.

On supposera dans la suite que le modèle est identifiable. Il est important de savoir que
lorsque Σ est connu à un facteur près, on utilise les moindres carrés généralisés (MCG ) et
dans le cas contraire, lorsqu’elle n’est pas connue ou inconnue, on utilise les MC O ou MCQG .
D’où l’ossature du travail.

Propriétés des MCO


Commençons par recapituler les propriétés des MCO :

1) Ce que permettent les MCO


L’estimateur des MCO , β ¿ =(¿t XX)−1 t XY ¿ est sans biais. Il présente l’avantage de ne pas
nécessiter la connaissance de Σ , la covariance des résidus.

Propriétés :

1. β ¿ estime ¿ biais β et V ( β ¿¿ ¿)=σ 2 ∆ , ou ∆=( X t X )−1t X Σ X (¿t XX )−1 ¿ ¿


2. Si≤modèle est gaussien, β ¿ N (β , σ 2 ∆).

Sous de bonnes conditions, on verra que l’ E MCO est convergente.

2) Ce que ne permettent pas les MCO


1. L’estimateur σ 2 déduit des MCO est biaisé si les résidus sont non sphériques ;
2. La statistique F associé aux MCO et aux SCR ne suit pas une loi de Fischer en
situation non sphérique ;
¿
3. β n’est pas indépendante de l’estimation σ^ 2 déduite des MCG ;
4. L’estimation des MCO n’est pas optimale.
3) Convergence des MCO
Sous les bonnes conditions asymptotiques sur X et sur Σ , l’estimation des MCO est
convergente. Si A est une matrice symétrique semi-définie positive (sdp), on notera λ M ( A )
(resp. λ m ( A ) ) la plus grande (resp. la plus petite) valeur propre de A .
Proposition : L’estimateur β ¿ des MCO est convergent sous les conditions :
1. λ M ( Σ ) est uniformément bornée en n ;
2. λ M (¿ t XX ) → ∞ sin → ∞ ¿
¿ ¿
Démonstration : β ¿ est sans biais, il suffit de vérifier que la trace de V (β ) tend vers 0. Or, en
utilisant l’identité, Tr ( AB ) =Tr (BA) , on a pour A=¿ (¿t XX)−1 t X ¿ et B=¿ Σ X (¿t XX)−1 ¿:
Tr ¿
≤ λ M ( Σ ) Tr ¿
¿ λ M ( Σ ) Tr ¿
Lemme : Si Σ et V sont deux matrices réelles n × n, symétriques et définie positive, alors :
Tr ( Σ V ) =λ M ( Σ ) Tr (V )
Démonstration :
Soit ¿ ¿ Posons Q=¿t OV O ¿.
Tr ( Σ V ) =Tr (¿t O Σ ¿ ¿t OV O)=Tr ( DQ) ¿ ¿
On obtient :
Tr ( Σ V ) =∑ d ii q ii ≤ ¿
i

Q et V ayant même trace, on en déduit le résultat annoncé. Cette convergence des MCO est
importante : elle permet en effet de se rapprocher des MCG lorsque Σ est de la forme
paramétrique connue.

4) Propriétés asymptotiques de l’estimateur des MCO


L’objectif de cette section est de généraliser les propriétés obtenues sous hypothèse de
normalité des résidus à un modèle qui ne la respecte pas. Pour ce faire, il s’agira d’obtenir des
estimateurs en l’absence d’hypothèse a priori sur la loi des perturbations. L’hypothèse de
normalité de la distribution conditionnelle sera remplacée par des hypothèses sur l’existence
de moments des variables du modèle lorsque le nombre d’observations devient grand. C’est
ainsi aux propriétés asymptotiques plutôt qu’exactes que cette partie est consacrée. A ce titre,
les résultats présentés sont par nature assez techniques et auront peu de conséquences
apparentes en matière d’économétrie appliquée. Ils n’en constituent pas moins des résultats
fondamentaux, largement responsables de la puissance des méthodes d’estimation linéaire
dans le cadre de travaux appliqués. Quelle que soit la distribution des résidus, ces résultats
asymptotiques permettent de maintenir en substance les propriétés d’identification et de
précision de l’estimateur des MCO.
Ces propriétés sont cependant légèrement affectées par l’abandon de distributions exactes :
l’estimateur n’est plus sans biais mais convergent, et la distribution des statistiques de test est
différente. Au-delà de ces nuances, lorsque le nombre d’observations est suffisamment
important, l’indépendance du résidu et des variables explicatives reste ainsi une condition
suffisante pour que l’estimateur révèle la vraie valeur des paramètres. L’obtention de ces
résultats repose sur des outils de théorie asymptotique comme, par exemple, la notion de
convergence, la Loi des Grands Nombres ou encore le Théorème Central Limite.

Théorèmes de convergence : Simulations


Les résultats asymptotiques sont illustrés à partir de simulations, réalisées de la façon
suivante.
5000 échantillons d’une variable aléatoire dont la loi est connue sont tirés au hasard, de façon
indépendante, Il s’agit donc bien d’un échantillon aléatoire, constitué d’observations c’est à
dire. En calculant la moyenne empirique de chaque échantillon, on dispose ainsi d’un (super)
échantillon de 5000 observations de la moyenne empirique de la variable aléatoire considérée.
Afin d’étudier l’évolution des simulations lorsque la taille d’échantillon s’accroît, des
échantillons de 10 , 100 ,1000 puis 10000 observations sont considérés. Pour vérifier la
généralité de ces propriétés, on considère en outre deux lois de distribution différentes : la loi

uniforme sur l’intervalle [√ √ ]


−1 1
,
3 3
. ; et une loi dichotomique, la loi binomiale sur l’intervalle

{−1,1 } de paramètre 0,5 , les moments de ces deux lois sont les mêmes, l’Esperance E=0
étant et la variance V =1.

1) Les principaux résultats de convergence : une introduction


La théorie asymptotique permet de caractériser le comportement de la moyenne des
observations d’une variable aléatoire à la limite, c’est à dire lorsque la taille de l’échantillon
s’accroît (ces résultats sont donc asymptotiques).
La loi des grands nombres : établit que la moyenne empirique des observations d’une
variable aléatoire converge vers l’espérance mathématique de cette variable aléatoire lorsque
le nombre d’observations devient grand. La notion de convergence utilisée pour obtenir ce
résultat est celle de convergence en probabilité. Comme toute statistique, la moyenne
empirique est elle-même une variable aléatoire, prenant différentes valeurs lorsqu’elle
calculée sur différents échantillons issus d’une même population. La loi forte des grands
nombres établit que cette distribution de la moyenne empirique se concentre
asymptotiquement autour de l’espérance mathématique, ce qui signifie que pour n’importe
quel intervalle [ E−δ , E+δ ] de longueur donnée (2 δ ), la probabilité que la moyenne
empirique d’un échantillon particulier tombe dans cet intervalle croît avec la taille de
l’échantillon en se rapprochant de (“converge vers”) 1. La moyenne empirique se rapproche
ainsi de la vraie valeur de l’espérance d’une variable, et ce de façon d’autant plus précise que
le nombre d’observations est grand.

Le Théorème Central Limite s’intéresse quant à lui à la distribution asymptotique de la


moyenne empirique. Lorsque l’on considère la moyenne empirique de N observations d’une

E σ
2
variable aléatoire d’espérance et de variance ,on sait que l’espérance de cette moyenne

y i−E
est E et sa variance σ 2/n la quantité √N est donc une variable d’espérance nulle et de
σ
variance unitaire. Le Théorème Central Limite permet de préciser la loi de cette
transformation de la moyenne empirique en établissant que, quelle que soit la distribution de
la variable y , la loi asymptotique de la variable aléatoire est une loi normale centrée réduite
N (0,1) La loi des grands nombres et le Théorème Central Limite sont des résultats
fondamentaux de la théorie asymptotique, qui permettent d’étudier les propriétés d’une
variable aléatoire en l’absence de toute hypothèse quant à sa distribution vraie. La prochaine
section applique ces résultats à l’estimateur des MCO .

2) L’estimateur des MCO sans hypothèse de normalité

La propriété de convergence en probabilité stipule que la proportion des 5000 moyennes


empiriques tirées selon la procédure de l’Illustration précédant tombant dans un intervalle
donné [ E−δ , E+δ ]doit tendre vers 1 , ∀ δ lorsque le nombre d’observations utilisées pour
calculer la moyenne tend vers l’infini.

On considère pour le vérifier des intervalles de taille différente, δ =0.1 , 0.05 , 0.02 ,0.01. La
Figure ci-dessous présente les proportions de moyenne empirique tombant dans les intervalles
considérés, en fonction à la fois de la loi vraie ayant produit les données (qui est toujours de
moyenne E=0 et de la taille d’échantillon.
La proportion d’échantillons tombant dans l’intervalle est croissant tant de la largeur de
l’intervalle que de la taille de l’échantillon. Lorsque l’échantillon est très grand, toutes les
moyennes empiriques tombent dans l’intervalle considéré, aussi étroit soit-il, confirmant ainsi
la convergence asymptotique de la moyenne empirique vers sa valeur théorique. La loi des
grands nombres s’applique par ailleurs quelle que soit la loi de la variable aléatoire : aucune
différence notable n’apparaît entre la loi Binomiale et la loi uniforme.
La forme du modèle considéré reste inchangée : on s’intéresse à l’estimation des paramètres b
du modèle linéaire y i=x i b+ui . Les hypothèses retenues sont en revanche moins restrictives,
puisque la normalité des résidus n’est plus imposée a priori:
MCA '
H1 : lamatrice x x est inversible ∀ N ;
H 2MCA : E(u i∨x i)=0;
MCA 2
H3 : V (ui ∨x)=σ , ∀ i ;
MCA
H4 : E(u i u j∨x)=0 , ∀ i , j ;

: Les moments|x ki xlj|et E ( xi x i ) est inversible ∀ i ;


MCA '
H5
MCA '
H 5 bis : Les moments x i x i∨N P Q et Q est inversible ;

A l’exception de l’hypothèse de normalité, remplacée par une condition de convergence sur la


matrice de variance des explicatives, les hypothèses du modèle restent inchangées. Les
2
hypothèses H 2MCA H 4MCAréunies impliquent ainsi que V (ui ∨xi )=V ( xi )=σ . De même,
MCA
l’hypothèse H 1 suffit à garantir l’existence de l’estimateur des MCO, défini comme :

b^ MCO =(x x) x y = (x i x i) x i y i
' −1 ' ' −1 '

THEOREME CENTRAL LIMITE


A partir des simulations présentées dans l’illustration des principaux résultats de convergence,
on s’intéresse à la distribution des écarts à l’espérance théorique, en étudiant la distribution
y i−E
empirique de√ N ( ) . Il faut pour ce faire calculer la fonction de répartition de la
σ
distribution empirique des moyennes d’échantillon c’est à dire la proportion de moyennes
empiriques inférieures à une valeur donnée, pour tout niveau possible de cette valeur. D’après
le TCL, les distributions empiriques présentées dans la Figure ci-dessous doivent tendre vers
la fonction de répartition de la loi normale centrée réduite, quelle que soit la distribution ayant
généré les données :

3) Propriétés asymptotiques de l’estimateur des MCO


L’affaiblissement des hypothèses imposées au modèle remet en cause les résultats établis sous
hypothèse de normalité des résidus et oblige donc à reconsidérer les propriétés précision et de
d’identification de l’estimateur. Sur ce dernier aspect, le passage à un contexte asymptotique
conduit à statuer en termes de convergence plutôt que de biais.

MCA b^ MCO P b
Proposition : Sous H , l’estimateur des MCO (1) est convergent : →

Démonstration  : L’estimateur des MCO s’écrit b^ MCO =(x ' x)−1 x' y = (x i x i) x i y i.
' −1 '

b^ MCO =(x x) x y =
' −1 '
En remplaçant yi par y i=x i b+ui , on a : s’écrit
' −1 ' ' −1 ' ' ' −1 '
(x i x i) x i (x i b+ui ¿ )=( xi xi ) (¿ x i x i b+ xi ui )=b+( x i x i) x i u i ¿ ¿
Comme les moments |x ki x lj| des variables explicatives existent par H 5MCA, on peut appliquer la
loi des grands nombres à (x i' x i). En ce qui concerne x i' ui, la loi des grands nombres suppose
' ' ' '
que E ( x i ui) et V ( x i ui) existent. Or E ( x i ui) ¿ E(E ( x i u i)∨x i )¿=0
' '
Et V ( x i ui) ¿ E(V ( xi ui )∨x i)+V ¿ d’où :
N N
1
x i' x i=
N
∑ x i' x i P→ E( x i' xi ) et x i' ui= N1 ∑ x i' ui P→ E( x i' ui )
i=1 i=1

' −1 ' −1
On en déduit que (x i x i) P →
E ( x i x i)

(x i' x i)−1 x i' u i P E(x i' x i)−1 E( x i' ui )


b^ MCO =b+(x i x i) x i u i ¿ P b+ E( x i x i ) E( xi ui )
' −1 ' ' −1 '

Car les espérances E( x i' x i ) et E( x i' ui ) sont par définition des constantes, que l’application
P
A → A est continue enfin que la somme et le produit des suites de variables aléatoires
convergent en probabilité vers des constantes. Comme par ailleurs,
^
E( x i ui )=E [x i E( ¿u i)∨x i ¿]=0 , on a bien : b MCO P b
' '

La convergence en probabilité de l’estimateur est un résultat nouveau : lorsque le nombre


d’observations devient grand, l’estimateur des MCO est de plus en plus proche de la vraie
valeur, du paramètre, ce qui fait de lui un estimateur convergent. Bien que proche, cette
notion est très différente de celle d’absence de biais rencontrée dans l’étude précédente.
L’absence de biais implique que le moment d’ordre 1 de l’estimateur (la moyenne empirique
de l’ensemble des estimateurs que l’on obtiendrait en répliquant si c’était possible le calcul de
l’estimateur sur des échantillons indépendants), concorde avec la vraie valeur du paramètre.
La notion de convergence signifie quant à elle que la probabilité que l’estimateur soit éloigné
de la vraie valeur du paramètre tend vers zéro lorsque la taille de l’échantillon devient grande.
Si ces notions permettent toutes deux de qualifier les propriétés d’identification de
l’estimateur, elles ne se recoupent que partiellement. Certains estimateurs sont ainsi sans biais
mais non convergents, d’autres sont biaisés mais convergents (car la taille du biais tend vers
zéro lorsque la dimension de l’échantillon tend vers l’infini), et d’autres enfin sont sans biais
et convergents.
Pour mettre œuvre les outils de l’inférence statistique, tels que des tests d’hypothèse ou des
intervalles de confiance, il est nécessaire de connaitre la loi de l’estimateur. En l’absence de
restriction a priori sur la forme de la distribution des résidus, c’est la distribution
asymptotique qu’il faut étudier.
Proposition : Sous H MCA , l’estimateur des MCO (1) est asymptotiquement normal :

√ N ( b^ MCO −b) L N (0 ,V as) avec V as=σ 2 E ( x i' x i)−1 est la variance asymptotique de l’estimateur.

Démonstration  : De la formulation précédente : b^ MCO =b+(x i x i) x i u i ¿= (x i x i) x i y i On


' −1 ' ' −1 '

√ N ( b^ MCO −b ) =¿ √ N (x i' x i) x i' u i=(x i' x i )−1 √ N x i' ui .


−1
déduit que : Pour établir la loi de

cette quantité, il faut appliquer le Théorème Central Limite à √ N x i' ui . Les variables aléatoires
'
x i ui sont indépendantes et équidistribuées. On peut appliquer le TCL si les deux premiers
moments de cette variable existent. Or on sait par hypothèse que E ( x i' ui)=0 et V ( x i' ui)
'
¿ E(V ( xi ui )∨x i)+V ¿.

'
Par H 2MCA, les moments d’ordre 1 et 2 de x i ui existent. Le TCL peut alors affirmer que
√ N ( b^ MCO −b) L N (0 , σ 2 E (xi' x i)). Comme, en outre, ( x i' x i)−1 P E ( x i' x i)−1 qui est une
→ →

−1
matrice constante, on peut appliquer le théorème de Slutsky à ( x i x i) et √ N (x i' x i) :
' −1

−1
'
(x i x i)
−1
√N (x i
'
xi ) L N ¿

2 ' −1
L N (0 , σ E(x i x i) )

D’après l’expression de l’estimateur développée plus haut, on a alors :

√ N (b^ MCO −b) L N (0 , σ 2 E ( x i' x i ) )


−1

En remplaçant yi par y i=x i b+ui , on a : s’écrit b^ MCO =(x ' x)−1 x' y =

(x i' x i)−1 x i' (x i b+ui ¿ )=( xi' xi )−1 (¿ x i' x i b+ xi' ui )=b+( x i' x i)−1 x i' u i ¿ ¿
Comme les moments |x ki x lj| des variables explicatives existent par H 5MCA, on peut appliquer la
' '
loi des grands nombres à (x i x i). En ce qui concerne x i ui, la loi des grands nombres suppose
que E ( x i' ui) et V ( x i' ui) existent. Or E ( x i' ui) ¿ E(E ( x i' u i)∨x i )¿=0
' '
Et V ( x i ui) ¿ E(V ( xi ui )∨x i)+V ¿ d’où :
N N
1 1
x i' x i=
N
∑ x i' x i P E( x i' xi ) et x i' ui=

∑ x ' u P E( x i' ui )
N i=1 i i →
i=1

' −1
On en déduit que (x i x i) P E ( x i' x i)−1

' −1 ' ' −1 '


(x i x i) x i u i P E(x i x i) E( x i ui )

b^ MCO =b+(x i' x i)−1 x i' u i ¿ P b+ E( x i' x i )−1 E( xi' ui )


Car les espérances E( x i' x i ) et E( x i' ui ) sont par définition des constantes, que l’application
P
A → A est continue enfin que la somme et le produit des suites de variables aléatoires
convergent en probabilité vers des constantes. Comme par ailleurs,
^
E( x i ui )=E [x i E( ¿u i)∨x i ¿]=0 , on a bien : b MCO P b
' '

4) Régresseurs stochastiques et estimation par variables instrumentales (VI)

Une des hypothèses fondamentales pour l’étude du modèle linéaire est que,
conditionnellement à x , les residus sont centrés : pour tout i , E ( ε i| x i ) =0. Cette condition
assure que l’estimateur des MCO du paramètre β est sans biais, convergent vers β sous de
bonnes conditions sur la matrice des regresseurs. Si cette hypothèse n’est pas vérifiée,
l’estimation des MCO est biaisée et non-convergente.
Une telle situation se présente quand les régresseurs sont stochastiques et corrélés aux
résidus : Cov ( X , ε )≠ 0. La méthode d’estimation par variables instrumentales (VI) est une
méthode alternative aux MCO , convergente sous certaines conditions. Même si elle n’est pas
optimale, elle fournit une estimation utile à l’initialisation d’un logarithme itératif de
recherche du maximum de vraisemblance (MV).
Exemple 1 : Erreur sur la variable exogène.
Dans le modèle ¿) : y i=a x i +ε i , i=1 :n et x i ϵ R , on commet une erreur sur x i , l’observation
¿
étant x i = xi +ηi , i=1 :n . Si η=(η¿ ¿i)¿ est un BB de variance σ 2n> 0 non corrélé à ε , le modèle
observable est :
¿ ¿ ¿
(Ω¿¿ ¿): y i=a x i + ε i avec ε i =ε i −a ηi ,i=1:n ¿

Ainsi, Cov ( x i , ε i )=−a σ n ≠ 0 si a ≠ 0. Cette constatation se maintient pour une régression


¿ ¿ 2

multiple dès qu’une variable exogène est observé avec erreur.


Application avec STATA

Sur Stata, la commande regress permet de réaliser une régression MCO. Sa syntaxe est :
regress y x1 x2, options. Exemple : reg growth tourism prim infl, robust c’est-à-dire que
growth, tourism, prim et inflation sont les variables choisies. Avec l’option robust (ou ro),
les t de Student sont corrigés de l’hétéroscédasticité par la méthode de White. Toutes les
commandes d’estimation fonctionnent de la même manière sous Stata. La syntaxe est
identique : by variable : commande y x1 x2... if/in condition, options.

Références Bibliographiques

Abowd, J. M., F. Kramarz, et D. N.


Margolis (1999) : “High Wage
Workers and High Wage
Abowd, J. M., F. Kramarz, et D. N. Margolis (1999) : “High Wage Workers and High Wage
Firms,” Econometrica, 67(2), 251–333.
Akerlof, G. A. (1982) : “Labor Contracts as Partial Gift Exchange,” Quarterly Journal of
Economics 97(4), 543–569.

Amemiya, T. (1984) : “Tobit models : A survey,” Journal of Econometrics, 24(1-2), 3–61

(1985) : Advanced Econometrics. Harvard University Press

Anderson, T. W., et C. Hsiao (1982) : “Formulation and estimation of dynamic models using

panel data,” Journal of Econometrics, 18(1), 47–82.

Angrist, J. D. (1990) : “Lifetime Earnings and the Vietnam Era Draft Lottery : Evidence from

Social Security Administrative Records ,” American Economic Review, 80(3), 313–336.

Angrist, J. D., K. Graddy, et G. W. Imbens (2000) : “The Interpretation of Instrumental


Variables Estimators in Simultaneous Equations Models with an Application to the Demand
for Fish,” Review of Economic Studies, 67(3), 499–527.
Barrodale, I., et F. D. K. Roberts (1973) : “An Improved Algorithm for Discrete l1 Linear
Approximation,” SIAM Journal on Numerical Analysis, 10(5), 839–848.
Black, S. E. (1999) : “Do Better Schools Matter ? Parental Valuation of Elementary
Education,” Quarterly Journal of Economics, 114(2), 577–599.
Card, D. (1995) : “Using Geographic Variation in College Proximity to Estimate the Return to
Schooling ,” in Aspects of Labour Market Behavior : Essays in Honour of John Vanderkamp,
ed. by L. N. Christofides, E. K. Gran, et R. Swidinsky, pp. 201–222. University of Toronto
Press, Toronto.
Dezhbakhsh, H., et J. M. Shepherd (2006) : “The Deterrent Effect of Capital Punishment :
Evidence from a "Judicial Experiment",” Economic Inquiry, 44(3), 512–535.
Falk, A., E. Fehr, et C. Zehnder (2006) : “Fairness Perceptions and Reservation Wages : The
Behavioral Effects of Minimum Wage Laws,” Quarterly Journal of Economics, 121(4), 1347–
1381.
Galton, F. (1886) : “Regression Towards Mediocrity in Hereditary Stature,” Journal of the
Anthropological Institute, 15, 246–263.

Vous aimerez peut-être aussi