Académique Documents
Professionnel Documents
Culture Documents
S6 ME-MISS 2019-2020
Université de Fianarantsoa
1
Ce document fournit un résumé des éléments de base en économétrie théorique
ainsi qu’à des études pratiques. On s’est servi des documents en ligne du Dr. Ricco
Rakotomalala de l’Université de Lyon. On incite les étudiants à visiter son site très
riche en ressources pédagogiques et à consulter aussi les liens à d’autres sites proposant
des cours/TD/TP d’économétrie.
Mention Mathématiques 2 Faculté des Sciences
Chapter 1
REGRESSION LINEAIRE
SIMPLE
1.1 Modèle
Définition 1.1 Le modèle de régression linéaire simple s’écrit sous la forme
suivante:
Yi = β0 + β1 Xi + εi , i = 1, ..., N (1.1)
où
1.2 Hypothèses
Les hypothèses suivantes sont fondamentales en régression linéaire simple.
Hypothèse 5 εi ∼ N (0, σε2 ) càd les erreurs suivent une loi normale.
3
1.3. ESTIMATION CHAPTER 1. REGRESSION LINEAIRE SIMPLE
1.3 Estimation
L’estimation des paramètres β0 et β1 est obtenue en minimisant la somme des
carrés des erreurs. Cette méthode d’estimation s’appelle moindres carrés ordi-
naires (MCO). Les estimateurs par MCO de β0 et β1 sont donnés par:
PN
i=1 (Xi − X̄)(Yi − Ȳ )
β̂1 = PN , β̂0 = Ȳ − β̂1 X̄ (1.2)
2
i=1 (Xi − X̄)
PN PN
avec X̄ = N1 i=1 Xi et Ȳ = N1 i=1 Yi .
Les valeurs estimées pour Y sont données par Ŷi = β̂ 0 + β̂1 Xi . On obtient ainsi
N
les résidus par ε̂i = Yi − Ŷi . Après calcul, on a E[ i=1 ε̂2i ] = (N − 2)σε2 . On
P
en déduit donc un estimateur sans biais de la variance de l’erreur ayant comme
expression:
PN 2
ε̂
σ̂ε = i=1 i
2
(1.3)
N −2
avec
SCE
R2 = (1.5)
SCT
Ce coefficient est compris entre 0 et 1. De plus, on peut avoir une idée sur la
qualité de l’ajustement à partir de ce coefficient.
1. Les estimateurs par MCO de β0 et β1 sont des estimateurs sans biais càd
E[β̂0 ] = β0 et E[β̂1 ] = β1 .
2. Les variances des coefficients estimés par MCO ont pour expression:
σε2 σ 2 X¯2
σβ̂2 = PN , σβ̂2 = PN ε (1.6)
2 2
i=1 (Xi − X̄) i=1 (Xi − X̄)
1 0
Le théorème ci-après démontre l’efficacité des estimateurs par MCO (ou simple-
ment EMCO).
Théorème 1.1 (Théorème de Gauss-Markov) Parmi les estimateurs sans
biais, les EMCO sont à variance minimale. On dit qu’ils sont BLUE (Best
Linear Unbiased Estimator).
1.6 Tests
On fait appel à des tests d’hypothèses pour savoir si les coefficients sont (in-
dividuellement ou globalement) significatives. Le test de Student nous permet
de voir si le coefficient du modèle est significativement différent de zéro ou non.
Ceci correspond au test d’hypothèses suivant, H0 : βj = 0 contre H1 : βj 6= 0
pour j = 0, 1. On construit ainsi les statistiques tβ̂1 et tβ̂0 comme ci-après:
βˆ1 β̂0
tβ̂1 = ; tβ̂0 =
σ̂β̂1 σ̂β̂0
Sous l’hypothèse H0 , tβ̂j suit une loi de Student à (N-2) dl. En effet:
Si tβ̂1 > t1− α2 alors on décide β1 6= 0, sinon β1 = 0.
Si tβ̂0 > t1− α2 alors on décide β0 6= 0, sinon β0 = 0.
t1− α2 représente la statistique théorique de Student associée au niveau de risque
α.
(n − 2)SCE
F =
SCR
Sous l’hypothèse H0 , cette statistique suit une loi de Fisher à (1,n-2) dl. On
décide ainsi de rejeter l’hypothèse H0 au risque α si F > F1−α (1, n − 2) avec
F1−α (1, n − 2) représente la statistique théorique de Fisher associée au niveau
de risque α.
1.7 Exercices
Exercice 1.1 On s’intéresse à l’analyse du couple (X, Y ) d’échantillon :
On pose yi = ln(Ni ) et Y (t) = ln(N (t)). Ainsi on obtient, Y (t) = ln(N0 ) + kt.
1. Représenter, à l’aide d’un graphe adapté, la relation entre les variables
Y et t. Les différentes hypothèses du modèle du régression linéaire vous
semble-t-elle être vérifiée?
2. Par la méthode des moindres carrés, déterminer la droite de régression de
Y en t.
3. Calculer le résidu quadratique moyen et le coefficient de détermination.
4. Calculer la matrice de la variance des paramètres de régression.
5. Vérifier votre réponse en question 1 par calcul.
6. Ecrire le modèle théorique ajusté aux données (ti , Ni ) auquel conduisent
les estimations de N0 et k.
7. Au bout d’un jour, quelle est l’estimation du nombre de bactéries? Au bout
de combien de jours peut-on prévoir que le nombre de bactéries sera 2000
fois celui du nombre initial ?
REGRESSION LINEAIRE
MULTIPLE
Y = Xβ + ε (2.2)
Hypothèse 7 E(ε) = 0.
Hypothèse 8 E(εε0 ) = σ 2 IT .
0
Hypothèse 9 H3 : Rang(X X) = p + 1.
Hypothèse 10 ε ∼ N (0, σ 2 IT ).
9
2.3. ESTIMATION CHAPTER 2. REGRESSION LINEAIRE MULTIPLE
2.3 Estimation
L’estimation de vecteur β se fait toujours par la méthode de M CO, on obtient:
0 0
β̂ = (X X)−1 X Y (2.3)
0
avec (X X) une matrice inversible.
1 0
F = β̂ Ω−1 β̂(q)
q (q) β̂(q)
Ω−1
β̂
représente l’inverse de la matrice de variance covariance réduite aux coef-
(q)
ficients testés.
Sous l’hypothèse H0 , cette statistique F suit une loi de Fisher à (q,n-p-1) dl.
On décide ainsi de rejeter l’hypothèse H0 au risque α si F > F1−α (q, n − p − 1)
avec F1−α (q, n − p − 1) représente la statistique théorique de Fisher associée au
niveau de risque α.
On peut généraliser ce test en considérant les hypothèses suivantes: H0 : Lβ = c
contre H0 : Lβ 6= c. La statistique associée est donc :
1
F (Y ) = (Lβ̂ − c)0 [LΩL0 ]−1 (Lβ̂ − c)
q
Sous l’hypothèse H0 , cette statistique F suit une loi de Fisher à (q,n-p-1) dl.
Ainsi, la région de rejet est {y, F (y) > F1−α (q, n − p − 1)}.
2.6 Exercices
Exercice 2.1 Soit le modèle linéaire multiple:
Y = Xβ+ ε (2.5)
(T, 1) (T, k)(k, 1) (T, 1) (2.6)
200 150 350
X’X= X’Y=
150 113 263
L’ajout d’une observation a modifié ces matrices de la façon suivante :
199 149 347.5
X’X= X’Y=
149 112 261.5
3. Commenter.
Y = Xβ+ ε (2.7)
4. En déduire que β̂G est plus efficace que β̂ (au sens du coût quadratique).