Vous êtes sur la page 1sur 8

RAKINI Salma

Section 2, groupe 11
Corrigé TD statistique appliquée

Régression multiple

Exercice 1 :

On a : Yt = a + bX1t + cX2t + Ɛt

1- Tableau ANOVA :

Source de Somme des Degré de Carrés


variation carrés liberté moyens

Régression 1504,4 2 ESS/2 = 752,2

Résiduelle 176,4 N-3 19,6

Totale 1680,8 N-1

RSS=TSS-ESS=1680,8-1504,4=176,4

Interprétation : on constate que la variation expliquée par le modèle est


largement supérieur à la variation non expliquée, donc le modèle peut être
valable.

2- Calculons Test de Fisher :


ESS /2 1504 , 4 /2
Fe= = =38 ,37
RSS /N −3 19 ,6
On compare le test de Fisher calculé ave F de la table à (2, N-2) degré de
liberté.
On a F théorique = 5,14
On constate que Fe> Ft ce qui signifie qu’il y a au moins une variable qui
explique significativement Y.

2 RSS 176 , 4
3- Coefficient de détermination : R =1− =1− =0,104
TSS 1680 , 8
RSS / N−3 19 , 6
Coefficient de détermination ajusté : R ²=1− TSS/ N−1 =1− 152 , 8 =0 , 87
87% de la variation de Y est expliquée par le modèle par rapport à la variation
totale.

On constate que le coefficient de détermination est supérieur au coefficient de


détermination ajustée car il est impacté par le nombre de variables explicatives.
RAKINI Salma
Section 2, groupe 11
4- Estimation de la valeur résiduelle :
2 RSS
σ Ɛ= =19 , 6
N−P

Exercice 2 :

On a : ∑ X 1 t=∑ X 2 t=∑ X 1 X 2=0 ; N=10

∑ X 1²=20 ; ∑ X 2²=40 ; ∑ Yt =10 ;∑ Y ²=165 ; ∑ X 1 Y =∑ X 2Y =40


1- Calcul des estimateurs des moindres carrés des paramètres de régression.

( )(
∑ X1 ∑ X2
)
N 10 0 0
X X= ∑ X 1 ∑ X 1² ∑ X 2 X 1 = 0
T
20 0
∑X2 ∑ X 1 X 2 ∑ X 2² 0 0 40

20 0
|
0 0 0 20
| | | | |
 Dét =10× 0 40 −0 0 40 +0 × 0 0 =8000
1+1
-1er terme : (−1) |200 400 |
×

( )
800 0 0
(−1) ×|
0 40|
 Mcof = 0 400 0 0 0
1+2
-2eme terme :
0 0 200

(−1) ×|
0 0|
0 20
1+3
 Madj= Mcof (car la matrice est symétrique) -3eme terme :

1
 Matrice inverse=Madj×
dét

∑Y
()
10
¿ Et :
t
x y= 40 ∑ YX 1
40 ∑ YX 2
Â=¿

( )
800 ×10
+ ( 0 × 40 ) + ( 0 × 40 ) =1
8000
400 × 40
Â= ( 0× 10 ) + + ( 0× 40 )=2
8000
( 0 ×10 ) + ( 0 × 40 ) + 200 ×40 =1
8000

Donc le modèle estimé est comme suit :Ŷ =1+ 2 X ₁+ X ₂


RAKINI Salma
Section 2, groupe 11
2- L’estimation de la variance résiduelle de Ɛ :
2 RSS 35
σ Ɛ= = =5
N−P 10−3

RSS=∑ Y −â 0 ∑ Y t−â1 ∑ X 1 Y −â2 ∑ X 2 Y


2

¿ 165−1×10−2 × 40−1 × 40=35


2
3- La matrice de variance covariance  : M var .cov (  )=σ Ɛ ¿

( )(
800
×5 0 0
8000

)
0,5 0 0
400
M var .cov( Â )= 0 ×5 0 = 0 0 , 25 0
8000
0 0 0,125
200
0 0 ×5
8000

4- L’intervalle de confiance :

On pose : H :â ≠ 0
1
{ H 0 : â=0

 P(â0−T α × σ â )≤ a 0 ≤ P(â 0 +T α × σ â )
0 0

D’après la matrice de variance covariances :


On a : σ â =√ V ( â0 ) =√ 0 ,5=0 , 70 et d’après la table student on a :T α =2,262
0

Donc : P ( â 0−T α × σ â ) =1−2,262 ×0 , 70=−0 ,59


0

P ( â 0+ T α ×σ â )=1+2,262 × 0 ,70=2 ,58


0

On constate que 0 appartient à l’intervalle de confiance [-0,59 ; 2,58], on accepte


donc H 0 càd le paramètre n’est pas significativement différent de 0.
 P(â1−T α × σ â )≤ a1 ≤ P(â1 +T α × σ â )
1 1

σ â =√ V ( â1 )= √ 0 , 25=0 ,5
1

P ( â 1−T α ×σ â )=2−2,262× 0 , 5=0,869


1

P ( â 1+T α × σ â ) =2+2,262 ×0 , 5=3,131


1

On constate que 0 n’appartient à l’intervalle de confiance [0,869 ; 3,131], on


accepte donc H 1 càd le paramètre est significativement différent de 0.

 P(â2−T α × σ â )≤ a2 ≤ P (â2 +T α × σ â )
2 2

σ â =√ V ( â2 )= √ 0,125=0 , 35
2

P ( â 2−T α × σ â )=1−2,262× 0 , 35=0 , 20


2

P ( â 2+T α × σ â ) =1+2,262 ×0 , 35=1 , 79


2
RAKINI Salma
Section 2, groupe 11
On constate que 0 appartient à l’intervalle de confiance [0,20 ; 2,58], on accepte
donc H 1 càd le paramètre est significativement différent de 0.

5- Test de Fisher : Selon ce test, le modèle est valable s’il y a au moins une variable
qui explique Y.

Exercice 3: 2 2
Y X1 X2 X3 (Y t −Y ) Ŷ (Y t −Ŷ )
3 -3 5 -1 1 2,49 0,2601
1 -2 0 1 1 1,77 0,5929
1 -1 -3 1 1 1,97 0,9409
1 0 -4 0 1 1,2 0,04
2 1 -3 -1 0 2,17 0,0289
3 2 0 -1 1 2,34 0,4356
3 3 5 1 1 3,51 0,2601

1- La régression linéaire consiste à expliquer un phénomène (variable endogène)


par une ou plusieurs variables explicatives (variable exogène).
2- La démarche statistique :
 Formulation du modèle de régression
 Estimation des paramètres du modèle
 L’étude de validité du modèle de régression
3- On a : Y = b + aX1 + cX2 + E

( )(
∑ X1 ∑ X2
)
N 7 0 0
X X= ∑ X 1 ∑ X 1² ∑ X 2 X 1 = 0
T
28 0
∑X2 ∑ X 1 X 2 ∑ X 2² 0 0 84

28 0
| | | | | |
0 0 0 28
 Dét =7 × 0 84 −0 0 84 +0 × 0 0 =16464

( )
2352 0 0
 Mcof = 0 588 0
0 0 196
RAKINI Salma
Section 2, groupe 11

 Madj= Mcof (car la matrice est symétrique)

1
 Matrice inverse=Madj× dét

∑Y
()
14
 ¿ Et :
t
x y= 5 ∑ YX 1
17 ∑ YX 2
Â=¿

( )
2352 ×14
+ ( 0 × 5 ) + ( 0 ×17 )=2
16464
588 ×5
Â= ( 0× 14 ) + + ( 0 ×17 )=0 , 17
16464
( 0× 14 ) + ( 0 × 5 ) + 196 × 17 =0 , 20
16464
Donc le modèle estimé est comme suit :Ŷ =2+ 0 ,17 X 1+ 0 ,2 X ₂

4- Tableau d’analyse de la variance :


Source de Somme des Degré de Carrés
variation carrés liberté moyens

Régressio
3,441 2 1,72
n

Résiduelle 2,558 N-3=4 0,63

Total ∑ (Y t −Y )2=6 N-1=6

ESS=TSS-RSS=6−¿2,558=3,441

On constate que la variation expliquée par le modèle est largement supérieur


à la variation non expliquée, donc le modèle peut être valable.
RAKINI Salma
Section 2, groupe 11
2 RSS /N −3 0,041
5- R =1− TSS / N−1 ¿ 1− 1 =0,959
95,9% de la variation de Y est expliquée par le modèle par rapport à la
variation totale.
6- Pour calculer le test de student, il faut calculer la matrice de variance,
2
covariance : M var .cov ( Â )=σ Ɛ ¿

( )( )
2352 41
× 0,041 0 0 0 0
16464 7000
588 41
M var .cov( Â )= 0 × 0,041 0 = 0 0
16464 28000
196 41
0 0 ×0,041 0 0
16464 84000

{
On pose : H :ĉ ≠ 0
1
H 0 : ĉ=0


ĉ 41
Calculons T e = σ et σ ĉ =√ V ( ĉ )= =0,022
ĉ 84000
ĉ 0 ,2
Donc T e= = =9 , 09 et on a d’après la table : T t=2,571
σ ĉ 0,022

On constate queT e >T c , on rejette H 0 et on accepte H 1, càd ĉ ≠ 0 donc la variable X 2 explique


significativement Y.

7- P(b̂ −T α × σ b̂ )≤ b ≤ P(b̂ + T α ×σ b̂ )
D’après la matrice de variance covariances :
On a : σ â =√ V ( b^ ) =
0

41
7000
=0,076 et d’après la table student on a :T α =2,571

Donc : P ( b̂ −T α × σ b̂ )=2−2,571× 0,076=1 ,80


P (b+
^ T ×σ ^ )=2+2,571× 0,076=2 ,19
α b

On constate que 0 n’appartient pas à l’intervalle [1,80 ; 2,19], on accepte H 1 donc la


constante est significativement différente de 0.

8- En utilisant les trois variables X1, X2 et X3, le logiciel SPSS a donné les résultats
suivants :
2 RSS /N −4 0,083
a. R =1− TSS/ N −1 ¿ 1− 1 , 01 =0 , 91
RAKINI Salma
Section 2, groupe 11
91 % de la variation de Y est expliquée par le modèle par rapport à la variation
totale.
b. Dans le cas de la régression multiple, le coefficient de détermination n’est
pas significatif car il est impacté par le nombre de variables explicatives.
c.

ANOVA

Modèle Somme des Degré de liberté Carré moyen


carrés

Régression 5,833 3 1,94

Résidu 0,25 N-4= 3 0,083

TOTAL 6,083 6

RSS=∑ Y −â 0 ∑ Y t−â1 ∑ X 1 Y −â2 ∑ X 2 Y −â 3 ∑ X 3 Y


2

¿ 34−2 ×14−0 , 17 ×5−0 , 2×17 +0 , 5× (−3 )=0 ,25


On constate que la variation expliquée par le modèle est largement supérieur à la
variation non expliquée, donc le modèle peut être valable.

Coefficients

Coefficient Estimation Ecart-type T student de l’échant

(constante) 2 0,089 22,450

X1 0,17 0,045 4,009

X2 0,20 0,026 7,869

X3 -0,5 0,096 -5,196

{
d. On pose : H :â ≠ 0
1
H 0 : â=0

ESS/3 1 , 94
F e= = =23 , 37 et F t=6 ,59
RSS /4 0,083
RAKINI Salma
Section 2, groupe 11
On constate que F e > F t , on rejette H 0 et on accepte H 1, X explique donc
significativement Y. (le modèle est valable s’il y a au moins une variable qui
explique Y). Le modèle est donc valable.
e. On a d’après le tableau ANOVA :
 Pour X 1: T e =¿4,009 et T t=2,776
T e >T t donc X 1explique significativement Y.

 Pour X 2 : T e =¿7,869 et T t=2,776


T e >T t donc X 2 explique significativement Y.

 Pour X 3 : T e =−5,196 et T t=2,776


T e <T t donc X 3 n’explique pas significativement Y.

Donc le modèle définitif est :Y =2+ 0 ,17 X 1+ 0 ,2 X ₂

Exercice 4:

1-

Vous aimerez peut-être aussi