Vous êtes sur la page 1sur 11

Travail à rendre

Statistiques
El gourichi loubna
Groupe 5
Exercice 1
Soit le modèle linéaire de régression multiple suivant:
Yt = a + bX1t + cX2t + Ɛt
1. Compléter le tableau d'analyse de variance suivant:
Source de variation Somme des carrés Degré de liberté Carrés moyens
Régression 1504,4 2 752.2
Résiduelle 176.4 9 19,6
Totale 1680,8 11 152.8
2. Les variables explicatives X1 et X2, prises simultanément, expliquent-t-elles
significativement Y? Justifier.
Les variables explicatives X1 et X2 sont prises simultanément, donc on doit étudier leur
significativité globalement, pour ce fait, on utilise le test Fisher.
Fisher calculé =(SCE/p) / (SCR/n-p-1)
= 752.2/19.6
= 38.38
Fisher tabulé= ( P; n-p-1)
= 4.256
On a Fc>Ft car 38.38>4.256
Alors on rejette H0 les variables X et Y expliquent significativement la variable Y.

3. Calculer le coefficient de détermination R² ainsi que le coefficient de détermination ajusté R².


Que peut-on conclure ?
R²= RCE/ SCT
= 0.895
R² ajusté= 1-[(SCR/n-p-1) / (SCT/n-1)]
= 1-(19.6 /152.8)
= 0.871
Donc 87.1% Du comportement de la variable Y est expliqué par les variables X1 et X2.
4. Donner une estimation de la variance résiduelle de Ɛ
Var(Ɛ)= SCR/n-k
= 176.4 / 9
= 19.6
Exercice 2
Sur la base de 10 observations, on estime le modèle suivant:
Yt = a + bX1t + cX2t + Ɛt
Le traitement des informations nous a donné les résultats suivants:

1. Calculer les estimateurs des moindres carrés des paramètres de régression.

Calculons tous d’abord le déterminant de X’X

= 10 -0 +0

= 8000 differente de 0 donc inversible.

On peut calculer l’inverse de la matrice.


Com(X’X)=

Com(X’X)=com(X’X)’ =

(X’Y)=

= 1/8000* *

Alors Y= 1 + 2X1 + X2
2. Estimer la variance résiduelle de Ɛ
Var(Ɛ)= SCR/n-k
=35/7
=5
3. Déterminer la matrice de variance covariance  (vecteur des paramètres).
matrice de variance covariance Â= α(X’X)’

=
4. Les paramètres du modèle, prises individuellement, sont-ils significativement différents de
Zéro? Justifier en utilisant la méthode de l'intervalle de confiance.

On pose :

D’après la matrice de variance covariances :

On a : et d’après la table student on a :

Donc :

On constate que 0 appartient à l’intervalle de confiance [-0,59 ; 2,58], on


accepte donc càd le paramètre n’est pas significativement différent
de 0. 

On constate que 0 n’appartient à l’intervalle de confiance [0,869 ; 3,131], on


accepte donc càd le paramètre est significativement différent de 0.

5. La régression est-elle
globalement significative? Justifier en utilisant le test approprié.
Test de Fisher : Selon ce test, le modèle est valable s’il y a au moins une variable qui
explique y.

Exercice 3 :
On a obtenu les données suivantes à partir d’une étude scientifique :
X1 X2 X3
3 -3 5 -1
1 -2 0 1
1 -1 -3 1
1 0 -4 0
2 1 -3 -1
3 2 0 -1
3 3 5 1
1. En quoi la régression consiste-t-elle ?
La regression consiste a etudier le type de relation pouvant exister entre une certaine
dépendante et plusieurs autres variables indépendantes qui servent a cette explication.
2. Expliquez la démarche de la régression.
1. formulation du modele de regression.
2. estimations des parametres.
3. L’etude de la validité du modele de regression.
3. Considérons le modèle suivant : Y = b + aX1 + cX2 + E. estimez les paramètres a, b et c.

Det= 16464 different de 0 donc inversible.

On peut calculer l’inverse de la matrice.

Com(X’X)= com(X’X)=

𝟏𝟒
X’Y = 𝟓
𝟏𝟕

Donc y= 2+0.17b+0.20+E
4. Etablir le tableau d’analyse de la variance et interpréter les informations.
Somme des carrés Somme des carrés Ddl Moyenne des carrés
Regression X 4.333 2 2.167
Résidu y 1.667 4 0.417
Total 6 6 2.2
D’apres le tableau ANOVA on constate que SCE>SCR c’est-à-dire que la variabilité
explique par le modele est superieur a celle non exqplique par le modele, dans ce cas on
peut dire que ce modele est valable.
5. Calculer le coefficient de détermination ajusté et interpréter le résultat.
R² ajusté= 1-[(SCR/n-p-1) / (SCT/n-1)]
=0.722
72.2% du comportement de la variable y est expliqué par les variables X1 et X2 .

6. En utilisant le test de student, la variable X2 explique-t-elle significativement Y ?


Selon le test Student
P(sig) de X2= 0.045
Et α= 0.05
Alors P(sig)<α
Dans ce cas X2 explique significativement la variable Y.
7. La constante est-elle significativement différente de Zéro ? justifier en utilisant l’intervalle
de confiance.

-
D’après la matrice de variance covariances :

On a : et d’après la table student on a :

Donc :

On constate que 0 n’appartient pas à l’intervalle [1,80 ; 2,19], on accepte


donc la constante est significativement différente de 0.

8. En utilisant les trois variables X1, X2 et X3, le logiciel SPSS a donné les résultats
suivants :
ANOVA
Modèle Somme des carrés Degré de liberté Carré moyen
Régression 5,833 3 1.944
Résidu 0.167 3 0.056
TOTAL 6 6

Coefficients
Coefficient Estimation Ecart-type T student de l’échant
(constante) 2 0,089 22,450
X1 0.179 0,045 4,009
X2 0.202 0,026 7,869
X3 -0.500 0,096 -5,196

a. Calculer le coefficient de détermination ajusté et interpréter le résultat.


R² ajusté= 1-[(SCR/n-p-1) / (SCT/n-1)]
=0.944
94.4% du comportement de la variable y est expliqué par les variables X1 et X2 et X3 .

b. Expliquez pourquoi le coefficient de détermination n’est pas significatif dans le cas d’une
régression multiple ?
Dans le cas de la régression multiple, le coefficient de détermination n’est pas significatif
car il est impacté par le nombre de variables explicatives.
c. Compléter le tableau d’analyse de la variance et interpréter les résultats.
D’apres le tableau ANOVA on constate que SCE>SCR c’est-à-dire que la variabilité
explique par le modele est superieur a celle non exqplique par le modele, dans ce cas on
peut dire que ce modele est valable.

d. Les variables X1 et X3, prises simultanément, expliquent –elles significativement la


variable Y ? justifier en utilisant le test par BLOC.
On pose : {𝐻0: â = 0 𝐻1: â≠0

et

On constate que , on rejette et on accepte , X explique donc


significativement Y. (le modèle est valable s’il y a au moins une
variable qui explique Y). Le modèle est donc valable.

e. Les variables explicatives expliquent-elles individuellement la variable Y? justifier tout en


élaborant le modèle final.
Pour la constante
P(sig)=0.000
Et α=0.05
Alors P(sig)>α
Dans ce cas la constante significativement=0.
Pour X1
P(sig)=0.028
Et α=0.05
Alors P(sig)<α
Dans ce cas X1 explique significativement la variable Y.
Pour X2
P(sig)=0.04
Et α=0.05
Alors P(sig)<α
Dans ce cas X2 explique significativement la variable Y.
Pour X3
P(sig)=0.014
Et α=0.05
Alors P(sig)<α
Dans ce cas X3 explique significativement la variable Y.
Le model definitif :
Y = aX1 + cX2 +Dx3 E
Exercice 4
Une entreprise, qui cherche à déterminer les facteurs qui expliquent sa quantité offerte
sur le marché a considéré le modèle de régression multiple suivant :
Y = a + b X1 + cX2 + E
Avec :
Y : la quantité offerte par mois.
X1 :le coût de production.
X2 : le prix de vente.
L’étude a conduit aux résultats suivants (NB : ces deux matrices sont calculées sur des

 280000 7000  16500


XtX    X tY   
 7000 400   600 
données centrées par rapport à la moyenne) :
1) déterminer une estimation des paramètres a, b et c sachant que N = 7 ; ƩY = 60 ;
ƩX1 =400 et ƩX2 =20
=377000000>0 donc est inversible

C(

Matrice adjointe :

Inverse de matrice :
=

2) déterminer une estimation de la variance résiduelle sachant que la variance de Y


est égale à 164.2857.

On sait que Ve+Vr=

RSS= = =2645,0449+164,2857

RSS=2480,75

= V résiduelle

3) calculer le coefficient de détermination ajusté et interpréter le résultat.

²
4) les variables X1 et X2, prises simultanément, expliquent –elle significativement
Y?
Test Fisher : H0 : X1 et X2 n’expliquent pas significativement Y.
H1 : X1 et X2 expliquent significativement Y.

Fe=

On fixe le risque d’erreur α = 5%, d’après la table Fisher F lu=6,94

Donc on accepte H0 : ce qui signifie que X1 et X2 n’expliquent pas


significativement Y.

5) Calculer, pour chaque variable, le T de l’échantillon et interpréter le résultat.

Vous aimerez peut-être aussi