1 / 43
Rappels
Echantillon/Population
2 / 43
Rappels
Echantillon/Population
Estimateur/Estimation
2 / 43
Rappels
Echantillon/Population
Estimateur/Estimation
2 / 43
Modèle linéaire
y = f (x0 , ..., xK ) + ε
3 / 43
Modèle linéaire
y = f (x0 , ..., xK ) + ε
3 / 43
Modèle linéaire
y = f (x0 , ..., xK ) + ε
3 / 43
Modèle linéaire
y = f (x0 , ..., xK ) + ε
3 / 43
Modèle linéaire
y = f (x0 , ..., xK ) + ε
3 / 43
Modèle linéaire
4 / 43
Modèle linéaire
4 / 43
Modèle linéaire
4 / 43
Modèle linéaire
4 / 43
Modèle linéaire
5 / 43
Modèle linéaire
5 / 43
Modèle linéaire
5 / 43
Modèle linéaire
5 / 43
Modèle linéaire
5 / 43
Plan
6 / 43
Plan
7 / 43
Estimateur des MCO
Définition
8 / 43
Estimateur des MCO
Définition
8 / 43
Estimateur des MCO
Définition
8 / 43
Estimateur des MCO
Définition
8 / 43
Estimateur des MCO
Définition
9 / 43
Estimateur des MCO
Condition d’existence
10 / 43
Estimateur des MCO
Condition d’existence
10 / 43
Estimateur des MCO
Condition d’existence
10 / 43
Estimateur des MCO
Condition d’existence
10 / 43
Estimateur des MCO
Condition d’existence
10 / 43
Plan
11 / 43
Propriétés statistiques de l’estimateur des MCO
Quand l’estimateur des MCO est-il sans biais?
12 / 43
Propriétés statistiques de l’estimateur des MCO
Quand l’estimateur des MCO est-il sans biais?
E [ε i /X ] = 0. (1)
12 / 43
Propriétés statistiques de l’estimateur des MCO
Quand l’estimateur des MCO est-il sans biais?
E [ε i /X ] = 0. (1)
12 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
y = X1 β 1 + X2 β 2 + ε
13 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
y = X1 β 1 + X2 β 2 + ε
13 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
y = X1 β 1 + X2 β 2 + ε
13 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
y = X1 β 1 + X2 β 2 + ε
13 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
14 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
14 / 43
Propriétés statistiques de l’estimateur des MCO
Biais dû à l’omission de variables
14 / 43
Propriétés statistiques de l’estimateur des MCO
Quand l’estimateur des MCO est-il sans biais?
15 / 43
Propriétés statistiques de l’estimateur des MCO
Quand l’estimateur des MCO est-il sans biais?
15 / 43
Propriétés statistiques de l’estimateur des MCO
Quand l’estimateur des MCO est-il sans biais?
15 / 43
Propriétés statistiques de l’estimateur des MCO
Quelle est la précision de l’estimateur des MCO?
16 / 43
Propriétés statistiques de l’estimateur des MCO
Quelle est la précision de l’estimateur des MCO?
16 / 43
Propriétés statistiques de l’estimateur des MCO
Quelle est la précision de l’estimateur des MCO?
16 / 43
Propriétés statistiques de l’estimateur des MCO
Quelle est la précision de l’estimateur des MCO?
17 / 43
Propriétés statistiques de l’estimateur des MCO
Quelle est la précision de l’estimateur des MCO?
18 / 43
Propriétés statistiques de l’estimateur des MCO
Quelle est la précision de l’estimateur des MCO?
h 0 i
Var β̂/X = E β̂ − E β̂/X β̂ − E β̂/X /X
0
−1 0 0 −1 0 0
= E X X X ε X X X ε /X
−1 −1
X 0X X 0 E εε0 /X X X 0 X
=
−1 0 2 −1 −1
= X 0X X σ I X X 0X = σ2 X 0 X
19 / 43
Propriétés statistiques de l’estimateur des MCO
L’estimateur des MCO est-il le plus précis ? - Le théorème de Gauss-Markov
∀λ, V λ0 b̂1 ≤ V λ0 b̂
20 / 43
Propriétés statistiques de l’estimateur des MCO
L’estimateur des MCO est-il le plus précis ? - Le théorème de Gauss-Markov
∀λ, V λ0 b̂1 ≤ V λ0 b̂
20 / 43
Propriétés statistiques de l’estimateur des MCO
Estimation des paramètres du second ordre
21 / 43
Propriétés statistiques de l’estimateur des MCO
Estimation des paramètres du second ordre
21 / 43
Propriétés statistiques de l’estimateur des MCO
Estimation des paramètres du second ordre
21 / 43
Propriétés statistiques de l’estimateur des MCO
Estimation des paramètres du second ordre
21 / 43
Plan
22 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
23 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
N 0, σ2 I .
ε/X
23 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
N 0, σ2 I .
ε/X
23 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations*
24 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations*
24 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations*
24 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations*
24 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations*
24 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations*
24 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Test d’une contrainte simple
On considère le test
H0 : β k = c contre H1 : β k 6= c
25 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Test d’une contrainte simple
On considère le test
H0 : β k = c contre H1 : β k 6= c
β̂ k −c H0
Considérant la statistique Ŝ = σ̂ β̂ avec Ŝ St (N − (K + 1))
k
La zone de rejet de H0 est donnée par
n o n o
W = Ŝ /Ŝ < −tN1−−(α/2
K +1)
∪ Ŝ / Ŝ > t 1−α/2
N −(K +1)
25 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Test d’une contrainte simple
On considère le test
H0 : β k = c contre H1 : β k 6= c
β̂ k −c H0
Considérant la statistique Ŝ = σ̂ β̂ avec Ŝ St (N − (K + 1))
k
La zone de rejet de H0 est donnée par
n o n o
W = Ŝ /Ŝ < −tN1−−(α/2
K +1)
∪ Ŝ / Ŝ > t 1−α/2
N −(K +1)
25 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Test d’une contrainte simple
On considère le test
H0 : β k = c contre H1 : β k 6= c
β̂ k −c H0
Considérant la statistique Ŝ = σ̂ β̂ avec Ŝ St (N − (K + 1))
k
La zone de rejet de H0 est donnée par
n o n o
W = Ŝ /Ŝ < −tN1−−(α/2
K +1)
∪ Ŝ / Ŝ > t 1−α/2
N −(K +1)
25 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Test d’une contrainte simple
On considère le test
H0 : β k = c contre H1 : β k 6= c
β̂ k −c H0
Considérant la statistique Ŝ = σ̂ β̂ avec Ŝ St (N − (K + 1))
k
La zone de rejet de H0 est donnée par
n o n o
W = Ŝ /Ŝ < −tN1−−(α/2
K +1)
∪ Ŝ / Ŝ > t 1−α/2
N −(K +1)
25 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Test d’une contrainte simple
On considère le test
H0 : β k = c contre H1 : β k 6= c
β̂ k −c H0
Considérant la statistique Ŝ = σ̂ β̂ avec Ŝ St (N − (K + 1))
k
La zone de rejet de H0 est donnée par
n o n o
W = Ŝ /Ŝ < −tN1−−(α/2
K +1)
∪ Ŝ / Ŝ > t 1−α/2
N −(K +1)
26 / 43
Estimateur des MCO sous l’hypothèse de normalité des
perturbations
Intervalle de confiance
où tN1−−(α/2
K +1)
est le quantile d’ordre 1 − α/2 d’une loi de student à
N − (K + 1) degrés de liberté.
26 / 43
Plan
27 / 43
Estimation sous contraintes linéaires
28 / 43
Estimation sous contraintes linéaires
28 / 43
Estimation sous contraintes linéaires
28 / 43
Estimation sous contraintes linéaires
28 / 43
Estimation sous contraintes linéaires
Estimateur moindres carrés contraints
29 / 43
Estimation sous contraintes linéaires
Estimateur moindres carrés contraints
29 / 43
Estimation sous contraintes linéaires
Estimateur moindres carrés contraints
29 / 43
Estimation sous contraintes linéaires
Estimateur moindres carrés contraints
29 / 43
Estimation sous contraintes linéaires
Estimateur moindres carrés contraints
30 / 43
Estimation sous contraintes linéaires
MCC vs MCO
30 / 43
Estimation sous contraintes linéaires
MCC vs MCO
30 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
On considère le test
H0 : R β − r = 0 contre H1 : R β − r 6= 0
31 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
On considère le test
H0 : R β − r = 0 contre H1 : R β − r 6= 0
31 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
On considère le test
H0 : R β − r = 0 contre H1 : R β − r 6= 0
31 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
On considère le test
H0 : R β − r = 0 contre H1 : R β − r 6= 0
31 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
32 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
32 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
33 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
33 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
33 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
33 / 43
Estimation sous contraintes linéaires
Tester les contraintes : le test de Fisher
33 / 43
Plan
34 / 43
Propriétés asymptotiques de l’estimateur des MCO
35 / 43
Propriétés asymptotiques de l’estimateur des MCO
Le théorème central limite
Le
TCLétablit que la loi asymptotique de la variable aléatoire
X̄n −m
√σ est une loi normale centrée réduite
n
36 / 43
Propriétés asymptotiques de l’estimateur des MCO
Le théorème central limite : exemple
Population
Imaginons que l’on dispose d’une population (que l’on crée) d’un
million de valeurs qui suivent une loi uniforme entre 0 et 3.
moyenne = 1.5 , écart type=√3
12
cf distribution dans la population
Observations
On extrait de cette population 500 échantillons de 50 valeurs (ici
n = 50).
37 / 43
Propriétés asymptotiques de l’estimateur des MCO
Le théorème central limite : exemple
38 / 43
Propriétés asymptotiques de l’estimateur des MCO
Le théorème central limite : exemple
39 / 43
Propriétés asymptotiques de l’estimateur des MCO
40 / 43
Propriétés asymptotiques de l’estimateur des MCO
p
L’estimateur des MCO est convergent : β̂ → β
41 / 43
Propriétés asymptotiques de l’estimateur des MCO
Test d’hypothèse multi-dimensionnelle
42 / 43
Plan
43 / 43