Vous êtes sur la page 1sur 5

Modèle linéaire théorique

(sur toute la population)


yt = a0 + a1 xt + εt , t = 1, 2, ...........
I Le vrai coefficient de correlation linéiare noté r(x, y) (inconnu)

I Les paramètres du vrai modèle a0 et a1 sont inconnus.

Modèle linéaire empirique


(sur un échantillon)
yt = â0 + â1 xt + εt , t = 1, 2, ...., n
I Le coefficient de correlation linèaire empirique noté ρx,y , c’est un estimateur du vrai
coefficient r(x, y) :

Cov(x, y)
ρx,y =
σx σy
I â1 et â0 sont des éstimateurs des vrais paramètres a1 et a0 respectivement :

Cov(x, y)
â1 = , â0 = y − â1 x
V ar(x)

Estimation du paramètre r(x, y)


I On test l’hypothèse :
H0 : r(x, y) = 0, contre H1 : r(x, y) 6= 0
On montre que :
ρx,y
q 2
τn−2
1−ρx,y
n−2

On calcule :

| ρx,y |
t∗ = q 21−ρx,y
n−2
α/2
Si t∗ > tn−2 (avec α = 5%), on rejete H0 .
Dans le cas contraire On accepte H0

1
Estimation des varaiance de ε, a1 et a0
I L’estimateur de la variance de l’erreur ε est :
n
1 X
b ε2
σ = e2t
n−2 t=1

Où le résidu et est donné par :

et = yt − ybt , t = 1, 2, ....n
I Les estimateurs de la variance des paramètres â1 et â0 sont :

b ε2
σ b ε2
σ
b ab21 = Pn
σ =
t=1 (xt − x)2 nV ar(x)
1 x2 1 x2
b ab20
σ = b ε2 (
σ + Pn )= b ε2 (
σ + )
n t=1 (xt − x)2 n nV ar(x)

Construction des tests pour les


paramètres a1 et a0
I On montre que :
Pn
t=1 e2t b ε2
σ
= (n − 2) χ2n−2
σε2 σε2
b 1 − a1 a
a b 0 − a0
, τn−2
σ
b ab1 σ
b ab0
I On test l’hypothèse :

H0 : ai = 0, contre H1 : ai 6= 0, i = 0, 1
|b
ai |
On calcule le ratio de Student t∗ = σ
babi
, i = 0, 1.
α/2
Si t∗ > tn−2 (avec α = 5%), on rejete H0 .
Dans le cas contraire On accepte H0

2
Intervalles de confiance pour a1, a0 et
σε2
b 1 −a1
a b 0 −a0
a
I Nous savons que : σ
b ab
, σ
b ab
τn−2.
1 0

Alors, les intervalles de confiance pour a1 et a0 sont donnés respec-


tivement :

α/2 α/2
a1 ∈ [b
a1 − σ
b ab1 × tn−2; a b ab1 × tn−2]
b1 + σ

α/2 α/2
a0 ∈ [b
a01 − σ
b ab0 × tn−2; a b ab01 × tn−2]
b0 + σ

b2
σ
I Nous savons que : (n − 2) σε2 χ2n−2
ε

Alors, l’intervalle de confiance pour σε2 est donné par :

b ε2
σ b ε2
σ
σε2 ∈ [(n − 2) ; (n − 2) ]
χ21−α/2 χ2α/2

à n − 2 degré de liberté et pour un seuil de probabilité égal à 5%.

3
Equation et tableau d’analyse de la
variance
I On montre que la moyenne des résidus est nulle :
Σnt=1et = 0
I On appelle :
Pn 2
t=1 (yt − y) : Somme des carrś totale (SCT)
Pn
yt − y)2 : Somme des carrś expliquée (SCE)
t=1 (b
Pn 2
t=1 et : Somme des carrś résiduelle (SCR)

I On montre que :

SCT=SCE+SCR : équation fondamentale d’analyse de la


variance

I On calcule le coefficient de détermination R :


SCE SCR
R2 = =1−
SCT SCT
I Le test H0 : a1 = 0 est équivalent au test H0 : SCE = 0
La statistique de ce test est donnée par :
SCE R2
ddlSCE
F∗ = SCR
= 1
1−R2
ddlSCR n−2
F ∗ suit une loi de Fisher à 1 et n-2 degré de liberté.

4
Si F ∗ > F1;n−2
α
On rejète au seuil α = 5% l’hypothèse H0 et donc
la variable xt est significative.

Dans le cas contraire, on accepte l’hypoths̀e d’égalité des variance,


donc la variable xt n’est pas explicative de la variable yt

La prévision dans le modèle simple


Soit le modèle estimé sur la période t = 1, 2, ..., n :

yt = b
a0 + b
a1xt + εt
Si la valeur de la variable explicative xt est connu en n + 1 (xn+1),
la prévision de la valeur estimée de yn+1 est donnée par :
ybn+1 = a
b0 + a
b 1xn+1
I On montre que :

a b 1xn+1 − yn+1
b0 + a
q τn−2
−x)2
b ε n1 + P(xn n+1
σ (x −x)2
+1
t=1 t

I On obtient alors l’intervalle de prédiction :


q
α/2 −x)2
yn+1 ∈ [b
yn+1 − tn−2σ b ε n1 + P(xn n+1 2 + 1;
t=1 (xt −x)
s
α/2 1 (xn+1 − x)2
ybn+1 + tn−2σ bε + Pn 2
+ 1]
n t=1 (x t − x)

Vous aimerez peut-être aussi