Vous êtes sur la page 1sur 12

Estimation Des paramètres 

:

∑ ( y− ý ) .∑ ( x1− x́ 1 )
A1 =
∑ ( x 1−x́ 1 )2

â0 = Y − x́i 1 â1
∑ yi
Y=
n
∑ Xi
x́=
n
( y ¿ ¿ i− ^y i )² 2
σ 2ε = ∑ ¿ σ ❑ε =√ σ 2ε
n−2

σ 2ε
v ( a^ 1 )= 2 σ ❑^a =√ σ 2a^
∑ ( x 1− x́ 1) 1 1

σ 2ε ∑ x 2
v ( a^ 0 )= 2 σ ❑^a =√ σ 2a^
n . ∑ ( x 1− x́1 ) 0 0

SCE=∑( ^y − ý )2
SCR = ∑( yi− ^y ) ²

¿
T* = ¿ a^ 1 −a 1∨ σ ❑ ¿
a^ 1

1
ICa^ 1= [a^ 1+/- ta n-2 * σ ^a ] 1

2
IC = [^y h +/- t a
n-2 √σ ε ¿¿ ]
Estimation et propriétés des estimateurs :

m x 1 Y ×m x 2 x2 −m x 1 x 2−m x 2 Y
a^ 1=
m x 1 x 2 × m x 2 x2−(m x1 x 2)2
m x 2 Y ×m x2 x 2−m x 1 x 2−m x 1 Y
a^ 2=
m x 1 x 2 ×m x 2 x2 −(m x1 x 2)2
a^ 0=Y − a^ 1 x́ 1− a^ 2 x́ 2

Y^ t =a^ 0 + a^ 1 x 1 t + a^ 2 x 2 t + Et

m x 2 x2 =∑ x 2−T x´2
2 2
my y =∑ y −T ý

m x 1 x2 =∑ x 1 x 2−¿ T x́ 1 x́ 2 ¿

m x 1 Y =∑ x 1 Y −¿ T x́ 1 Y ¿

cov ( x 1 x 2)
rx x =
1 2
σ x 1 σ x2
S ²E
S a^ 1=
∑ ( x 1−x́ 1 )2 (1−r 2 x x )1 2

TEST DE RENDEMENT GLOBAL :

( y ¿ ¿ t− ^y t )²
S ² E=VR=∑ ¿
T −K −1
SA=∑( ^y − ý) ²
SA
VA =
K
SR=∑ ( y− ^y )²
SR
VR=
T −K −1
ST =∑( y − ý) ²
VA
FC=
VR
H0: FC < Fα =¿ Rendement non significatif

H1: F C > Fα ¿>¿ Rendement global significatif

Fα :v 1=K et v 2=T −K −1
( y ¿ ¿ t− ^y t ) ²
R2=1−∑ ¿
∑ ( y− ý )²
T −1
R ²corr =1− (1−R 2)
T −K−1

R2−R ² corr
BE=
R ² corr

Test de Signification :

|a^ i− a^ 0|
t c=
S a^ i

t αs : v=T −K −1

|θ^ a−θ^ b|
t c= 1
(S ² ¿ ¿ θ^ a −S 2θ^ ) 2 ¿
b

t αs : v=T B +T A −4

POUR LES MATRICES :

A=σ 2ε (X ' X )−1


Ω^
−1
A =TR .( S2ε . ( X ' X ) )
TR Ω ^

A=S 2^a
Ω^ i

A=( X ' X )−1 .(X ' Y )


^

X ' Y =( ¿ )
Y =(¿ )
X ' =( ¿ )

a^ 0
^
()
A = a^ 1
a^ 2

( y ¿ ¿ t− ^y t )²
S ² E=VR=∑ ¿
T −K −1
Y^ t =a^ 0 + a^ 1 x 1 t + a^ 2 x 2 t + a^ 3 x 3 t

|a^ i|
t c= / tα=1,96
S ^a i

H0 : t c < tα => présomption d’absence de significativité de régression

H1 : t c > tα => présomption d’existence de significativité de régression


Test de Stabilité :

SR−SR1 −SR 2 / K +1
FC = / Fα :v 1=K +1 et v 2=T −2(K +1)
SR1 +SR 2 /T −2( K +1)

H0 : SR=SR1 + SR2

H1 : SR≠ SR1 +SR 2

SR1=∑ ( y 1t − ^y 1t ¿)² ¿

SR2=∑ ( y 2t − ^y 2t ¿)² ¿

SR=∑ ( y− ^y )²
H0: FC < Fα ¿> Existence de stabilit é

H1: F C > Fα ¿> Absence de stabilit é

Test de l’Ajout :

H0 : SA−S A ' =0

H1 : SA−SA ' ≠ 0

FC =¿ ¿
Fα :v 1=K −I et v 2=T −K −1

S A ' =ST −SR w


SA=ST −SR

H0 : FC < Fα => Absence d’influence significative de l’ajout

H1 : F C > Fα => Influence significative de l’ajout sur le rendement du modèle

Test de Restriction :

H0 : SR=S R'

H1 : SR≠ S R'

FC =¿ ¿

Fα :v 1=K −K ' et v 2=T−K −1


H0 : FC< Fα => Restriction Vérifiée

H1 : F C > Fα => Restriction non Vérifiée


Rendement partiel et Multicolinéarité :

Corrélation partielle  :

Méthode particulière  :

t i²
r 2 y . x i=
t i ² +(T −K−1)

Cas particulier d’un modèle à 2 variables explicatives  :

ry x 1−ry x 2 × r x 1 x 2
ry x 1 . x 2= 2
√1−r y x 2 × √ 1−r 2 x 1 x 2
ry x 2−ry x 1 × r x 1 x 2
ry x 2 . x 1= 2
√1−r y x1 × √ 1−r 2 x 1 x 2
Méthode Globale  :

2 2
R y x 1 . x 3=R e 1 , e 2=
∑ (e 1 , e 2)²
∑ e1 ² ∑ e2 ²
e 1= y− ^y

e 2=¿ x 1−^x 1

Coefficient de Corrélation simple  :

1
( ∑ Y x 1−T x́ 1 Ý )
T
ry x 1=
1
T √
¿¿¿

1−R 2 y x1 x 2 x 3=1−R 2 y x3 ×1−R 2 y x 2 . x 3 ×1−R2 y x 1 . x 2 x 3

Multicolinéarité :

Test de Glauber Farrar  :

H0 : D = 1

H1 : D <1

1
X 2C =−[ T −1− ( 2 k +7 ) ] × ln D
6
1
X 2α :v = ( k +1 ) k
2
2 2
H0 : X C < X α => Hypothèse de d’orthogonalité acceptée, Présomption d’absence de multicolinéarité
2 2
H1 : X C > X α => Existence de multicolinéarité

Variable Indicatrice :

Variable DUMMY  :

A=( X ' X )−1 .(X ' Y )


^

X ' Y =( ¿ )
Y =(¿ )
X ' =( ¿ )
^
A=( ¿ )
X θ =( ¿ ) X ' θ =(¿)

S2ep =S2ε [ X ' θ .( X ' X)−1 . X ' θ + 1 ]

( y ¿ ¿ t− ^y t )²
S ² E=VR=∑ ¿
T −K −1
3∗¿ ¿

y θp= a^ 0 + a^ 1 . X 2∗¿+ a^ . X
2 θ ¿
θ

IP=[ y θp −t αs . Sep ; y θp +t αs . Sep ]

Si y θ ϵ IP , donc la qualité prédictive du modéle est bonne

Test de Barlett :

Q
X 2C = / X 2α :v =l−1
C

2 ∑ Y 2i −ni Ý 2i
S=
i
n i−1

∑ ( ni −1 ) S 2i
Q= (T −l ) ln [ (T −l) ]∑ − 2
( ni −1 ) ln S i

1 1 1
C=1+
3(k +1) [ ∑ n −1 − T −l
i
]
H 0 : X 2C < X 2α =¿ Présomption d’absence d’hétéroscedasticité
H 1: X 2C > X 2α =¿ Existence d’hétéroscedasticité

Test de Glester :

2 S2v
S=α^
∑ x 2i −N x́ 2
S2v =
∑ (|e i|−|e^ i|) ²
T −K −1

|e^ i|= y i−^y i


α
t c= / t αs=N −K−1

H0 : t c < tαs => présomption d’absence d’héteroscedasticité

H1 : t c > tαs => présomption d’existence d’héteroscedasticité

Héteroscedasticité sous forme de moyenne :

A=( X ' F−1 X )−1 .( X ' F−1 Y )


^

∑ ni ∑ ni X́ i
'
(X F X ) =
−1 −1
( ∑ n i X́ i ∑ ni X́ i ² )

n ý
Y )= ∑ i i
(X F ' −1
[ ]
∑ n i X́ i ý i

^
A
A= 0
^
A1
^ [ ]
Ý i= ^
A 0+ ^
A 1 X́ i

S ² E=
∑ n i ý i ²− a^ 0 ∑ ni ýi −^a1 ∑ ni X́ i ý i
N −K−1

A=S2ε .(X ' F−1 X )−1


TR Ω ^
a^
t c= / t α =N−K −1
S ^a

H1 :
t c > t αs =¿ donc significativit é des coefficients ou constantes , lastructure pr é visionnelle à retenir : Ý i= ^
A0+ ^
A1 X́
H0 : t c < t αs =¿ donc Absence de significativit é des coefficients ou constantes

IC : a^ i ±tαs . S ^a

Si a^ i ϵ IC ,il y a 95 % que la valeur inconnue vraie ϵ à IC

Test de Goldfield :

Equation MCO : ( 2 équations ) :

a^ =
∑ XY −N X́ Ý
∑ X 2 −N X́ 2
^ Ý − a^ X́
b=
^
Y =¿ a^ x + b^ ¿

∑ X 2=¿ / ∑ Y 2=¿
X́ =¿ ET Ý =¿

∑ XY =¿ ¿
∑ ( y 1t − ^y 1t ¿)²
VR =
1 ¿
T −K−1

VR 2=
∑ ( y 2t − ^y 2t ¿) ² ¿
T −K−1
VR 1
FC =
VR 2
VR 2 >VR 1

Fα :v 1=T −K −1 ET v 2=T −K −1

H0 : FC < Fα => présomption d’absence d’héteroscedasticité

H1 : F C > Fα => présomption d’existence d’héteroscedasticité

Durbin Watson :
(et−et −1)2
DW= et 2

Coefficient d’autocorrélation :
cov (et , et−1) (et et−1)
^Þ= -1 =.
et−12 et 2−1
DW
Par approximation : ^Þ=1- 2

Tes h de Durbin :
- S ²E

−( yt−1− ý t−1)2= yt−1( yt−1)2-T ý (t−1)2

2 S2
−S b^ = 2
( yt−1− ý t−1 ) ( 1−R2 )
1
T
- h=|Þ^|( 1−T × S 2 b^ )2

tαs = v=T-K-1
si h< tαs Ho , préemption d’absence d’autocorrélation au sens de h
dubrin

Xt*=xt- ^Þ xt−1
Yt*=yt- ^Þ yt−1
Avec en periode. 1 xt* =Xt-1- ^Þ xT 0=xt ¿
Yt* =yt-1- ^Þ yT 0= yt ¿
c^
Mode:e original : ^y =a^ xt+b^ tel que b^ = 1− ^Þ

MCO : Y t = axt + b - ε t

cov ( xt ; y t )
a^ = 2
^ ý− a^ x́
b= e t = y t− ^yt
σ xt

e t = y t− a^ x t −b^
cov ( x t ; y t )2
r=
2
coef/ de détermination linéaire ^y t =a^ x t + b^
σ 2x −σ 2 yt t

ý= a^ x́+ b^
^y t − ý= a^ ( x t −x́ )

E(a^ ¿=a et E(b^ ¿=b


Estimation Sε 2

ε ( y t − ^y t )2 2
Sε =
2
  / S X 2= ε (x− x́ )
T −2 T −K −1

εy t −T ý 2
¿)
2
Sε =
T −2

2 Sε 2 ^ ou S ^ 2=¿ Sε 2( 1 + x́ 2
V ( a^ ) ou Sa^ = / V ( b) )
ε (x t−x́ ) b T ε ( x t −x́ )2

cov ( a 2 ; b2 ) =E[ ( a^ −E ( a^ ) ) . ( b−E


^ ( b^ ) ) ]

= E [(a^ - a).(b^ – b)]


− x́ 2 . σ 2ε
= ε ( x− x́ )2

cov ( a^ ; b^ )=−x 2 .V ( a^ )

Test a^ et b^
a^ b^
t = S et t = S
a^ b^

P(-tα S <t <¿ tα S ¿=1−α


tα S (α =5 % ¿ : v = T- 2 DDL
|t|<t α S →H0 , influence non significative de la var explicative
|t|>t α S → H5 , influence significative de la var explicative

Seuil critique :
a^ −a
t α S=
sa^
[−tα S . s a^ ; tα S . s ^a]
π1 π2

Si a^ ∈[ π 1 ; π 2] → H0
Si a^ ∉[ π 1 ; π 2] → H0 si T→ Loi de SF (tα =1,96 pour α=5 % )

cov ( x , y) Σ xy−T x́ ý /T
R= = 1 /2
σ xt . σ yt [ ( Σ x −T x́ 2 )( Σ y 2−T ý 2 ) ]
2

∑ (x t− x́ )( y t − ý)
cov ( x t ; y t ) =
T

2 ∑( x t − x́)2 2 ∑( y t − ý)2
σ xt = ; σ yt =
T T
2
SA=∑ ( ^y t − ý ) ; SR=∑ ( y t −^y t )2 ; ST =∑ ( yt − ý )2
SA SR
VA = avec ∂=1 ; VR= avec ∂=T −2
T T −2
VA R²
Fc= =( T −2 ) . avec Fα=¿ ∂1 =1 et ∂2=T −2
VR 1−R ²

Fc<Fα :conclusion H0 (r=0), absence d’influence spécifique significative de régression.


Fc>Fα :conclusion H1 (r≠0), existence d’influence spécifique globale de régression.

Qualité prévisionnelle du modèle :

P ( π a1 <a< π 2b )=1−α ; P ( π a1 <b< π b2 ) =1−α

π a1= a^ −t αs . S a^ ; π a2 =a^ +t αs . S a^

π b1= b−t
^ αs . S b^ ; π b2 =b−t
^ αs . S b^

Qualité :

S2μθ =S 2ξ ¿ on met la racine √ S 2μθ

P( ^y θP−t αs . S μθ< y θ< ^y Pθ +t αs . S μθ) ; ^y θP=a^ x θ + b^

Vous aimerez peut-être aussi