Vous êtes sur la page 1sur 5

TD3 L3 Econométrie

Exercice I

1) Pour i = 1, 2, on note la moyenne x̄i = n1 t≤n xi (t) et xci les variables


P
centrées xci = xi − x̄i . De même y c = y − ȳ.
Posons    
xc1 (1) xc2 (1) y c (1)
X =  ... ..  , Y =  .. 

.   . 
c c
x1 (n) x2 (n) y c (n)
en notant X ′ la transposée de X on obtient
 
c c
 c  x1 (1) x2 (1)  P c 2
P c c

′ x1 (1) · · · xc1 (n)  .. .
..  = P t≤n x 1 (t) t≤n x1 (t)x2 (t)
XX=

 .
xc2 (1) · · · xc2 (n) c c c 2
P
c c t≤n x2 (t)x1 (t) t≤n x2 (t)
x1 (n) x2 (n)

Ainsi on doit d’abord calculer


X X
xc1 (t)2 = (x1 (t) − x̄1 )2
t≤n t≤n
X
= x1 (t)2 − nx̄2
t≤n

= 1400000 − 7(2800/7)2
= 280000

De même X
xc2 (t)2 = 3200 − 7(140/7)2 = 400,
t≤n

et X
xc1 (t)xc2 (t) = 63000 − 7(140/7)(2800/7) = 7000.
t≤n

On obtient la matrice  
′ 280000 7000
XX= .
7000 400
On peut l’inverser directement, det(X ′ X) = 280000.400 − 70002 = 63000000
Donc  
′ −1 1 400 −7000
(X X) = .
63000000 −7000 280000

1
Il reste à calculer
c c
P     
′ x1 (t)y(t) 184500 − 7(420/7)(2800/7) 16500
X Y = Pt≤n c c = P =
t≤n x2 (t)y(t) t≤n 9000 − 7(420/7)(140/7) 600

Finalement on peut calculer les coefficients de la régression centrée


   
α1 ′ −1 ′ 0.0381
A= = (X X) X Y =
α2 0.8333
Remarque : On a alors ŷ c = α1 xc1 +α2 xc2 . En remplaçant les variables centrées par
leur définition on peut retrouver la valeur du terme constant β = ȳ − α1 x̄1 − α2 x̄2 .

2˚) On retrouve la somme des carrés totaux


 2
X 420
SCT = yic (t)2 = 26350 − 7. = 1150
t≤n
7

Pour le SCE on peut utiliser l’égalité SCE = A′ X ′ Y


 
 16500
SCE = 0.0381 0.8333 = 0.0381 × 16500 + 0.8333 × 600 = 1128.6.
600

Attention : cette égalité n’est vraie que sur des variables centrées.
Finalement
SCE
R2 = = 0.9814
SCT

3˚) Pour estimer la variance des coefficients de la regression on estime la va-


riance du résidu. Il y a n = 7 observations et m = 2 variables expicatives, on
SCR = 1150−1128.6 = 5.34.
obtient σu2 = n−m−1 4
Puis on lit les termes de la diagonale de la matrice,
 
σα21 · −1
= σu2 X t X .
· σα22
En identifiant terme à terme il vient σα2 1 = 3, 3921.10−5 et σα2 2 = 0.0237.
On effectue ensuite le test bilatéral de Student. On sait que la variable t suit
une loi de Student
α̂1 − α1
t= ∼ St(n − m − 1)
σα1

2
On remplace α̂1 par l’estimation obtenue, et α1 par la valeur à tester. Ici (et
souvent) on teste la nullité des coefficients, donc on remplace α1 = 0.
Finalement il s’agit de comparer
α̂1
tobs,1 = = 6.54
σα1
α̂2
tobs,2 = = 143.07
σα2
à la valeur de référence qu’on lit dans la table de Student St(4), p = 0.05, tref =
2.776. tobs,1 6∈ [−2.776, 2.776] donc α1 est significativement non nul. Même conclu-
sion pour le test à p = 0.01, tref = 4.64.

4˚) Test de Fisher du R2 On sait que la variable F qui suit une loi de Fisher
R2 /m
F = ∼ F (m, n − m − 1),
(1 − R2 )/(n − m − 1)
et on observe Fobs = 105.62
On veut comparer la valeur observée à la valeur limite de référence qu’on lit
dans la table de Fisher, F (2, 4) Fref = 6.94. Le test est unilatéral, Fobs ≥ Fref donc
la régression est bonne dans son ensemble.

Exercice II

1˚) cf. cours

2˚) On sait que la variable t suit une loi de Student


α̂1
t= ∼ St(n − m − 1)
σα1
Il y a n = 7 observations et m = 1 variable explicative. Finalement il s’agit de
comparer
α̂
tobs = = 6.50
σα
à la valeur de référence tref dans la table St(5), tref ] = 2.571. On a bien tobs 6∈
[−tref , tref ] donc α est significativement non nul.

3
On calcule la somme des carrés totale SCT = t≤n (Y (t) − Ȳ )2 = 160.
P
3˚)
Ainsi R2 = 1 − SCR 75.09
SCT = 1 − 160 = 0.53
Le R2 n’est pas proche de 1, donc la régression est plutôt mauvaise.
Remarque : Il faut en toute rigueur un test de Fisher pour estimer la qualité de
la régression. On peut cependant s’attendre à une bonne régression quand 0.8 <
R2 ≤ 1 et une mauvaise régression quand 0 < R2 ≤ 0.8.

4˚) C’est une régression multilinéaire. On traite X 2 comme une deuxième va-
riable explicative, indépendante de X.

5˚) On définit deux variables t1 , t2 qui suivent une loi de Student d’après le
cours :
β̂1
t1 = ∼ St(n − m − 1),
σβ1

β̂2
t2 = ∼ St(n − m − 1).
σβ2
On observe t1 = −19.0435 et t2 = 16.2012. On a n = 7 observations et m = 2
variables explicatives, donc on lit tref = 2.776 dans la table St(4). On vérifie
tobs 6∈ [−tref , tref ]. et on conclut : β1 et β2 sont significativement non nuls.

6˚) Ici R2 = 1 − SCR


SCT = 1 −
1.67
160
= 0.9896.

 
23.25
Exercice III Attention : Il faut lire Y t Y = 1200 et X t Y = 52.75
130.7

1) La demande est une fonction décroissante du prix de vente, donc α1 < 0. Par
contre si le prix du concurrent augmente, la demande augmente et α2 > 0.
 
−0.85
−1
2) En suivant les notations de l’énoncé A = (X t X) X t Y =  1.2 
5

4
3) On est dans une régression multilinéaire sur des données brutes. Les variables
ne sont pas centrées. Ainsi par définition
   
x1 (1) x2 (1) 1 y(1)
X =  ... .. ..  , Y =  .. 

. .  . 
x1 (n) x2 (n) 1 y(n)
P 
t≤n x1t yt
Le calcul de X t Y contient presque la moyenne de Y , puisque X t Y =  Pt≤n x2t yt 
P

t≤n y(t)
2 2 2 130.70 2
P P
On a SCT = t≤n (yt − ȳ) = t≤n yt − nȳ = 1200 − 25( 25 ) = 516.7.
On calcule SCR = Y t Y − At X t Y = 1200 − 697.03 = 502.9625
On en déduit SCE = SCT − SCR = 13.73
Remarque : L’équation SCR = Y t Y −At X t Y est vraie dans le cas des données
brutes et dans le cas des données centrées.

4˚) Finalement
SCE
R2 = = 0.02,
SCT
l’ajustement a l’air très mauvais.

5˚) SCR = 22.86


On estime la variance du bruit σu2 = n−m−1
Ensuite on construit la matrice de variance des coefficients de régression
 2 
σα1 · · −1
 · σα2
2
·  = σu2 X t X .
· · σβ
La variance des coefficients se lit sur la diagonale
 
σα2 1 σα2 2 σβ2 = 1.8485 3.7079 1.3672
On lit tref = 2.074 dans la table St(22) à 5%, et on en déduit les intervalles de
confiance.
IC(α1 ) = [α1 ± σα1 tref ] = [−3.6698, 1.9698]
IC(α2 ) = [−2.79375.1937]
IC(α3 ) = [2.57497.4251]
Les intervalles de confiance sont équivalents aux tests de Student sur les coef-
ficients. Ici, 0 ∈ IC(α1 ) et 0 ∈ IC(α2 ) donc α1 , α2 ne sont pas non nuls significa-
tivement. Par contre α3 est non nul significativement.