Vous êtes sur la page 1sur 45

22/06/2022

Université Cadi Ayyad Marrakech

Faculté des Sciences Juridiques Economiques


et Sociales

MASTER ECONOMIE APPLIQUEE EN ENVIRONNEMENT ET CHANGEMENT CLIMATIQUE

3ème Semestre (Promotion 3)

ECONOMETRIE
Lahcen AIT DAOUD

Année Universitaire 2021/2022

Université Cadi Ayyad Marrakech

Faculté des Sciences Juridiques Economiques


et Sociales

MASTER ECONOMIE APPLIQUEE EN ENVIRONNEMENT ET CHANGEMENT CLIMATIQUE

3ème Semestre (Promotion 3)

ECONOMETRIE
Chapitre 3 : Régression Linéaire Multiple

Lahcen AIT DAOUD

Année Universitaire 2021/2022

1
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

1. Introduction
Le but premier de ce troisième chapitre est la
modélisation (l’explication) dans un but prédictif,
d’une variable quantitative Y par p variables
quantitatives X1, X2, ..., Xp .

Ces dernières sont liées linéairement avec Y.

Il s’agit là de ce qu’on appelle :


la régression linéaire multiple.

Chapitre 3 : Régression Linéaire Multiple

1. Introduction
• Le modèle de régression linéaire multiple est une généralisation de
la régression simple.

• C’est un outil statistique mis en œuvre pour l’étude de données


multidimensionnelles.

– Estimer les paramètres du modèle avec des estimateurs de meilleur


qualité (BLEUE) : 𝜶𝟎 , 𝜶𝟏 , 𝜶𝟐 … … 𝜶𝒑;

– Mesurer le pouvoir explicatif global du modèle;

– Faire de la prévision en construisant des intervalles de prévision.

2
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

2. Modèle
• Une variable quantitative Y (V. à expliquer ou endogène) est mise en
relation avec p variables quantitatives X1, X2, ..., Xp (V. explicatives ,
exogènes ou régresseurs).

• On mesure sur n individus ces p+1 variables représentées par des


vecteurs de ℛ 𝒏 : Y, X1, X2, ..., Xp

• L’écriture du modèle linéaire est alors comme suit :

𝒚𝒊 = 𝜶𝟎 + 𝜶𝟏 𝒙𝒊𝟏 + 𝜶𝟏 𝒙𝒊𝟐 + ⋯ + 𝜶𝒑 𝒙𝒊𝒑 + 𝜺𝒊 𝒂𝒗𝒆𝒄 𝟏 ≤ 𝒊 ≤ 𝒏

Chapitre 3 : Régression Linéaire Multiple

2. Modèle : Ecriture matricielle

𝒚𝟏 𝟏 𝒙𝟏𝟏 … 𝒙𝟏𝒋 … 𝒙𝟏𝒑 𝜶𝟎 𝜺𝟏


𝒚𝟐 𝟏 𝒙𝟐𝟏 … 𝒙𝟐𝒋 … 𝒙𝟐𝒑 𝜶𝟏 𝜺𝟐
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝒚𝒊 = 𝟏 𝒙𝒊𝟏 … 𝒙𝒊𝒋 … 𝒙𝒊𝒑 𝜶𝒋 + 𝜺𝒊
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝒚𝒏 𝟏 𝒙𝒏𝟏 … 𝒙𝒏𝒋 … 𝒙𝒏𝒑 𝜶𝒑 𝜺𝒏

𝒀 (𝒏, 𝟏) 𝑿 (𝒏, 𝒑 + 𝟏) 𝜶 (𝒑 + 𝟏, 𝟏) 𝜺 (𝒏, 𝟏)

3
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Les hypothèses


On supposera vrai les hypothèses suivantes :
• H1 : Les valeurs de la variable X sont observées sans erreur.
• H2 : E(𝜺𝒊) = 0, l’espérance mathématique de l’erreur est nulle.
• H3 : E(𝜺𝟐𝒊 ) = 𝝈𝟐𝜺 , la variance de l’erreur est constante (∀i) (homoscédasticité).
• H4 : E(𝜺𝒊 𝜺𝒊’) = 0 si i ≠ i’, les erreurs sont non corrélées (ou encore
indépendantes, absence d’autocorrélation des erreurs).
• H5 : 𝑪𝒐𝒗(𝒙𝒊, 𝜺𝒊 ) = 𝟎 , l’erreur est indépendante des variables explicatives.
• H6 : absence de colinéarité entre les variables explicatives, cela implique que
la matrice (𝑿 𝑿) est régulière et que la matrice inverse 𝑿 𝑿 𝟏 existe.
(𝑿 𝑿)
• H7 : tend vers une matrice finie non singulière.
𝒏

• H8 : n > k + 1, le nombre d’observations est supérieur au nombre des séries


7
explicatives.

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Comme vous avez vu dans le chapitre 1, il s’agit , afin d’estimer
α, de minimiser la somme des carrées des résidus (ei) :

𝒏
𝟐
𝒊
𝒊 𝟏

4
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire

Donc,
𝟏
9

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire

𝒏 𝒙𝒊𝟏 … 𝒙𝒊𝒋 … 𝒙𝒊𝒑

𝒙𝒊𝟏 𝒙𝟐𝒊𝟏 … 𝒙𝒊𝟏𝒙𝒊𝒋 … 𝒙𝒊𝟏𝒙𝒊𝒑

𝑿𝑿= ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝒙𝒊𝒋 𝒙𝒊𝒋𝒙𝒊𝟏 … 𝒙𝟐𝒊𝒋 … 𝒙𝒊𝒋𝒙𝒊𝒑

⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝒙𝒊𝒑 𝒙𝒊𝒑𝒙𝒊𝟏 … 𝒙𝒊𝒑 𝒙𝒊𝒋 … 𝒙𝟐𝒊𝒑

(𝒑 + 𝟏, 𝒑 + 𝟏)
10

5
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire

𝒚𝒊

𝒙𝒊𝟏𝒚𝒊

𝑿𝒀= ⋮
𝒙𝒊𝒋 𝒚𝒊


𝒙𝒊𝒑 𝒚𝒊

(𝒑 + 𝟏, 𝟏)
11

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple :
Soit le modèle suivant : 𝒀 = 𝑿𝜶 + 𝜺
Avec :
𝟏 𝟎 𝟐 𝟔
𝑿= 𝟏 𝟏 −𝟏 𝐞𝐭 𝐘 = 𝟐
𝟏 𝟐 𝟏 𝟏
1. Calculer :
𝟏
– 𝑿 𝒀, 𝑿 𝑿 𝒆𝒕 𝑿 𝑿
2. Déduire n et calculer la variance de X et celle de Y
3. Estimer :
– 𝜶
4. Calculer :
– 𝒀 et 𝒆 12

6
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple : 𝒀 = 𝑿𝜶 + 𝜺
𝟏 𝟎 𝟐 𝟔
𝑿= 𝟏 𝟏 −𝟏 𝐞𝐭 𝐘 = 𝟐
𝟏 𝟐 𝟏 𝟏
Calcule de 𝑿 𝒀
𝟏 𝟏 𝟏 𝟔 𝟗
𝑿𝒀= 𝟎 𝟏 𝟐 𝟐 = 𝟒
𝟐 −𝟏 𝟏 𝟏 𝟏𝟏
Calcule de 𝑿 𝑿
𝟏 𝟏 𝟏 𝟏 𝟎 𝟐 𝟑 𝟑 𝟐
𝑿𝑿= 𝟎 𝟏 𝟐 𝟏 𝟏 −𝟏 = 𝟑 𝟓 𝟏
𝟐 −𝟏 𝟏 𝟏 𝟐 𝟏 𝟐 𝟏 𝟔
Calcule de 𝑿 𝑿 𝟏
𝟏
𝟏
𝑿𝑿 = 𝑪𝒐𝒎 𝑿 𝑿 ′ 13
𝒅𝒆𝒕 𝑿 𝑿

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple :
𝟑 𝟑 𝟐
𝑿𝑿= 𝟑 𝟓 𝟏
𝟐 𝟏 𝟔
Calcule de 𝑿 𝑿 𝟏

𝟏
𝟏
𝑿𝑿 = 𝑪𝒐𝒎 𝑿 𝑿 𝒅𝒆𝒕 𝑿 𝑿 = 𝟐𝟓
𝒅𝒆𝒕 𝑿 𝑿
𝟐𝟗 −𝟏𝟔 −𝟕 𝟐𝟗 −𝟏𝟔 −𝟕
𝑪𝒐𝒎 𝑿 𝑿 = −𝟏𝟔 𝟏𝟒 𝟑 et 𝑪𝒐𝒎 𝑿 𝑿 ′ = −𝟏𝟔 𝟏𝟒 𝟑
−𝟕 𝟑 𝟔 −𝟕 𝟑 𝟔
Donc
𝟐𝟗 −𝟏𝟔 −𝟕
𝟐𝟓 𝟐𝟓 𝟐𝟓
𝟏 −𝟏𝟔 𝟏𝟒 𝟑
𝑿𝑿 =
𝟐𝟓 𝟐𝟓 𝟐𝟓
−𝟕 𝟑 𝟔
𝟐𝟓 𝟐𝟓 𝟐𝟓 14

7
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple :
𝟑 𝟑 𝟐
𝑿𝑿= 𝟑 𝟓 𝟏
𝟐 𝟏 𝟔
Taille de l’échantillon n = 3

Calcule de la variance de X :
𝟐
∑ 𝒙𝟐𝟏𝒊 ∑ 𝒙𝟐𝟏𝒊 ∑ 𝒙𝟏𝒊
𝑽 𝒙𝟏 = − 𝒙𝟐 = −
𝒏 𝒏 𝒏
𝟐
𝟓 𝟑 𝟐
𝑽 𝒙 = − =
𝟑 𝟑 𝟑

15

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple :
𝟗 𝟔
𝑿𝒀= 𝟒 et 𝐘 = 𝟐
𝟏𝟏 𝟏
Calcule de la variance de Y :
𝟐
∑ 𝒚𝟐𝒊 ∑ 𝒚𝟐𝒊 ∑ 𝒚𝒊
𝑽 𝒚 = − 𝒚𝟐 = −
𝒏 𝒏 𝒏
𝟐
𝟒𝟏 𝟗 𝟒𝟐
𝑽 𝒚 = − =
𝟑 𝟑 𝟗

16

8
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple :
𝟐𝟗 𝟏𝟔 𝟕
𝟗 𝟐𝟓 𝟐𝟓 𝟐𝟓
𝟏 𝟏𝟔 𝟏𝟒 𝟑
𝑿𝒀= 𝟒 et 𝑿 𝑿 =
𝟐𝟓 𝟐𝟓 𝟐𝟓
𝟏𝟏 𝟕 𝟑 𝟔
𝟐𝟓 𝟐𝟓 𝟐𝟓

Estimation de 𝜶 :
𝟏
𝜶= 𝑿𝑿 𝑿𝒀

𝟐𝟒
𝟓
𝟏 𝟏𝟐𝟎 𝟏𝟏
𝜶= −𝟓𝟓 = −
𝟐𝟓 𝟓
𝟏𝟓
𝟑
17
𝟓

Chapitre 3 : Régression Linéaire Multiple

3. Estimation des paramètres : Méthode des moindres carrés ordinaire


Exemple :
𝟏 𝟏𝟐𝟎 𝟏 𝟎 𝟐 𝟔
𝜶= −𝟓𝟓 , 𝑿= 𝟏 𝟏 −𝟏 𝒆𝒕 𝐘 = 𝟐
𝟐𝟓
𝟏𝟓 𝟏 𝟐 𝟏 𝟏

Calcule de 𝒀:
𝒀 = 𝑿𝜶

𝟏 𝟎 𝟐 𝟏 𝟏𝟐𝟎 𝟔
𝒀= 𝟏 𝟏 −𝟏 −𝟓𝟓 = 𝟐
𝟐𝟓
𝟏 𝟐 𝟏 𝟏𝟓 𝟏
Calcule de 𝒆 :
𝒆 =𝒀−𝒀
𝟔 𝟔 𝟎
𝒆= 𝟐 − 𝟐 = 𝟎
𝟏 𝟏 𝟎 18

9
22/06/2022

Université Cadi Ayyad Marrakech

Faculté des Sciences Juridiques Economiques


et Sociales

MASTER ECONOMIE APPLIQUEE EN ENVIRONNEMENT ET CHANGEMENT CLIMATIQUE

3ème Semestre (Promotion 3)

ECONOMETRIE
Chapitre 3 : Régression Linéaire Multiple

Lahcen AIT DAOUD

Année Universitaire 2021/2022

Chapitre 3 : Régression Linéaire Multiple

4. Propriétés de l’estimateur
L’estimateur obtenu en utilisant le méthode de moindres carrés ordinaires a
deux propriétés importantes :

– Ils est sans biais:


𝑬 𝜶 =𝜶
– Il est convergents :

𝐥𝐢𝐦
𝒏→
𝛀𝜶 =𝟎

Ces types d’estimateurs sont dit ‘BLUE’


best linear unbiased estimators.

20

10
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

4. Propriétés de l’estimateur : Démonstration


Puisque, 𝜶 = 𝑿 𝑿 𝟏𝑿 𝒀 et 𝒀 = 𝑿𝜶 + 𝜺; on obtient l’écriture :

𝜶 = 𝑿 𝑿 𝟏 𝑿 𝑿𝜶 + 𝜺
𝜶 = 𝑿 𝑿 𝟏 𝑿 𝑿𝜶 + 𝑿 𝑿 𝟏 𝑿 𝜺
𝜶 = 𝜶 + 𝑿 𝑿 𝟏𝑿 𝜺

a. Le biais :
𝟏
𝑬 𝜶 =𝜶+ 𝑿 𝑿 𝑿 𝑬(𝜺)

𝑬 𝜶 =𝜶
21

Chapitre 3 : Régression Linéaire Multiple

4. Propriétés de l’estimateur : Démonstration


b. Matrice des variances covariances de l’estimateur :
La matrice des variances covariances de l’estimateur notée 𝛀𝜶 est donnée par
:
𝛀𝜶 = 𝑬 𝜶 − 𝜶 𝜶 − 𝜶 ′
Or, on sait que :
𝜶=𝜶+ 𝑿 𝑿 𝟏𝑿 𝜺
Donc,
𝜶−𝜶 = 𝑿 𝑿 𝟏𝑿 𝜺 𝒆𝒕 𝜶 − 𝜶 ′ = 𝜺 𝑿 𝑿 𝑿 𝟏 ( 𝑿𝑿 𝟏 et symétrique)
Alors,
𝜶−𝜶 𝜶−𝜶 = 𝑿 𝑿 𝟏𝑿 𝜺𝜺 𝑿 𝑿 𝑿 𝟏

D’où;
𝟏 𝟏
𝛀𝜶 = 𝑿 𝑿 𝑿 𝑬 𝜺𝜺 𝑿 𝑿 𝑿
𝑬(𝜺𝜺’) ? 22

11
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

4. Propriétés de l’estimateur : Démonstration


b. Matrice des variances covariances de l’estimateur :

𝑬 𝜺𝟐𝟏 𝑬 𝜺𝟏 𝜺𝟐 … 𝑬 𝜺𝟏 𝜺𝒏
𝑬 𝜺𝟐 𝜺𝟏 𝑬 𝜺𝟐𝟐 … 𝑬 𝜺𝟐 𝜺𝒏
𝑬 𝜺𝜺 = 𝛀𝜺 =
⋮ ⋮ 𝑬 𝜺𝒊 𝜺𝒊 ⋮
𝑬 𝜺𝒏 𝜺𝟏 𝑬 𝜺𝒏 𝜺𝟐 … 𝑬 𝜺𝟐𝒏
D’après les hypothèses H3 et H4 nous avons :

𝝈𝟐𝜺 𝟎 … 𝟎
𝟎 𝝈𝟐𝜺 … 𝟎
𝑬 𝜺𝜺 = 𝛀𝜺 = = 𝝈𝟐𝜺 𝑰𝒏
⋮ ⋮ 𝝈𝟐𝜺 ⋮
𝟎 𝟎 … 𝝈𝟐𝜺

𝑬 𝜺𝜺 = 𝛀𝜺 = 𝝈𝟐𝜺 𝑰𝒏 c’est la matrice des variances et covariances de l’erreur


23
ε

Chapitre 3 : Régression Linéaire Multiple

4. Propriétés de l’estimateur : Démonstration


b. Matrice des variances covariances de l’estimateur :
Finalement,

𝟏 𝟏
𝛀𝜶 = 𝑿 𝑿 𝑿 𝑬 𝜺𝜺 𝑿 𝑿 𝑿

𝛀𝜶 = 𝝈𝟐𝜺 𝑿 𝑿 𝟏
𝑿𝑿 𝑿𝑿 𝟏

𝛀𝜶 = 𝝈𝟐𝜺 𝑿 𝑿 𝟏

𝝈𝟐𝜺 ?
24

12
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

5. Estimateur de la variance
c. Estimation de 𝝈𝟐𝜺 et étude de la convergence de l’estimateur de α :
Après un calcul matriciel, il apparaît que nous pouvons estimer sans biais 𝝈𝟐𝜺
par :

𝟐
𝒆𝒆 ∑ 𝒆𝟐𝒊
𝝈𝜺 = =
𝒏−𝒌−𝟏 𝒏−𝒌−𝟏
En remplaçant la variance de l’erreur par son estimateur, nous obtenons :

𝟐 𝟏
𝜶 𝜺
Donc,
𝟏
𝝈𝟐𝜺 𝑿 𝑿
lim 𝛀𝜶 = lim =𝟎
𝒏→ 𝒏→ 𝒏 𝒏 25

Chapitre 3 : Régression Linéaire Multiple

6. Qualité d’ajustement du modèle


A. Equation d’analyse de la variance :

• Comme pour le modèle de régression simple, l’équation fondamentale


d’analyse de la variance :
𝟐 𝟐 𝟐
𝒚𝒕 − 𝒚 = 𝒚𝒕 − 𝒚 + 𝒚𝒕 − 𝒚𝒕

SCT = SCE + SCR

La variabilité totale = la variabilité expliquée + la variabilité des résidus

Cette équation va nous permettre de juger de la qualité de l’ajustement d’un


modèle.
Plus la variance expliquée est proche de la variance totale, meilleur est
l’ajustement de la nuage de points par la droite de moindres carrés. 26

13
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

6. Qualité d’ajustement du modèle


B. Coefficient de détermination :

SCT = SCE + SCR


𝑆𝐶𝑇 𝑆𝐶𝐸 𝑆𝐶𝑅 𝑆𝐶𝐸 𝑆𝐶𝑅
= + 1= +
𝑆𝐶𝑇 𝑆𝐶𝑇 𝑆𝐶𝑇 𝑆𝐶𝑇 𝑆𝐶𝑇

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇

R² mesure la proportion de la variance de Y expliquée par la régression de Y sur X.


0 ≤ 𝑅 ≤ 1, plus la valeur de R² est proche de 1, plus le modèle est plus significatif27

Chapitre 3 : Régression Linéaire Multiple

6. Qualité d’ajustement du modèle


B. Coefficient de détermination : calcul matriciel

(𝒀 − 𝒀)′(𝒀 − 𝒀) 𝒆𝒆
𝑹𝟐 = = 𝟏−
𝒀−𝒀 𝒀−𝒀 𝒀−𝒀 𝒀−𝒀

Dans le cas de données centrées

𝒀′𝒀 𝒆𝒆
𝑹𝟐 = =𝟏−
𝒀𝒀 𝒀𝒀
28

14
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

6. Qualité d’ajustement du modèle


B. Coefficient de détermination corrigé :
• Cas ou le degré de liberté est faible:
• Exemple : Dans le cas d’un modèle où le nombre d’observations est égal au
nombre de variables explicatives (degré de liberté = 0), le R2 = 1 .
Cependant, le pouvoir explicatif de ce modèle est nul
• Il convient de corriger le R2 afin de tenir compte du relativement faible
nombre d’observations comparé au nombre de facteurs explicatifs par le
calcul d’un R2 « corrigé » noté 𝑅 :

𝑆𝐶𝐸 𝑛−1
𝑅 = =1− 1−𝑅
𝑆𝐶𝑇 𝑛−𝑘−1

Remarque : si n est grand 𝑅 ≅ 𝑅

29

Chapitre 3 : Régression Linéaire Multiple

Exercice
Soit le modèle à trois variables explicatives :

𝒚𝒕 = 𝒂𝟎 + 𝒂𝟏 𝒙𝟏𝒕 + 𝒂𝟐 𝒙𝟐𝒕 + 𝒂𝟑𝒙𝟑𝒕 + 𝜺𝒕

1) Mettre le modèle sous forme matricielle en spécifiant bien les dimensions


de chacune des matrices.

2) Estimer les paramètres du modèle.

3) Calculer l’estimation de la variance de l’erreur ainsi que les écarts types


de chacun des coefficients.

4) Calculer le R2 et le 𝑹𝟐 corrigé

30

15
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
Tableau des valeurs observées de y , x1 , x2 et x3
t y x1 x2 x3
1 12 2 45 121
2 14 1 43 132
3 10 3 43 154
4 16 6 47 145
5 14 7 42 129
6 19 8 41 156
7 21 8 32 132
8 19 5 33 147
9 21 5 41 128
10 16 8 38 163
11 19 4 32 161
12 21 9 31 172
13 25 12 35 174
14 21 7 29 180 31

Chapitre 3 : Régression Linéaire Multiple

Exercice
1. Forme matricielle
Nous disposons de 14 observations et 3 variables explicatives, le modèle peut
donc s’écrire :

𝟏𝟐 𝟏 𝟐 𝟒𝟓 𝟏𝟐𝟏 𝜶𝟎 𝜺𝟏
𝟏𝟒 = 𝟏 𝟏 𝟒𝟑 𝟏𝟑𝟐 𝜶𝟏 𝜺𝟐
⋮ ⋮ ⋮ ⋮ ⋮ 𝜶𝟐 + ⋮
𝟐𝟏 𝟏 𝟕 𝟐𝟗 𝟏𝟖𝟎 𝜶𝟑 𝜺𝟏𝟒
𝒀 (𝟏𝟒, 𝟏) 𝑿 (𝟏𝟒, 𝟒) 𝜶 (𝟒, 𝟏) 𝜺 (𝟏𝟒, 𝟏)

32

16
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
2. Estimation des paramètres du modèle
Nous savons que : 𝜶 = 𝑿 𝑿 𝟏𝑿 𝒀
Pour estimer les paramètres du modèle, on doit calculer : 𝑿 𝑿, 𝑿 𝑿 𝟏 et 𝑿 𝒀
A. 𝑿 𝑿
𝟏 𝟏 … 𝟏 𝟏 𝟐 𝟒𝟓 𝟏𝟐𝟏
𝟐 𝟏 … 𝟕 𝟏 𝟏 𝟒𝟑 𝟏𝟑𝟐 =
𝟒𝟓 𝟒𝟑 … 𝟐𝟗 ⋮ ⋮ ⋮ ⋮
𝟏𝟐𝟏 𝟏𝟑𝟐 … 𝟏𝟖𝟎 𝟏 𝟕 𝟐𝟗 𝟏𝟖𝟎

𝟏𝟒 𝟖𝟓 𝟓𝟑𝟐 𝟐𝟎𝟗𝟒
𝟖𝟓 𝟔𝟑𝟏 𝟑𝟏𝟐𝟔 𝟏𝟑𝟏𝟑𝟐
𝟓𝟑𝟐 𝟑𝟏𝟐𝟔 𝟐𝟎𝟔𝟔𝟔 𝟕𝟖𝟔𝟖𝟑
𝟐𝟎𝟗𝟒 𝟏𝟑𝟏𝟑𝟐 𝟕𝟖𝟔𝟖𝟑 𝟑𝟏𝟕𝟗𝟓𝟎

33

Chapitre 3 : Régression Linéaire Multiple

Exercice
2. Estimation des paramètres du modèle
Nous savons que : 𝜶 = 𝑿 𝑿 𝟏𝑿 𝒀
Pour estimer les paramètres du modèle, on doit calculer : 𝑿 𝑿, 𝑿 𝑿 𝟏 et 𝑿 𝒀
B. 𝑿 𝑿 𝟏

B1. Déterminant de 𝑿 𝑿
𝒅𝒆𝒕 𝑿 𝑿 = 𝟏𝟒𝟐𝟕𝟎𝟔𝟗𝟒𝟖𝟑
B2. Comatrice de 𝑿 𝑿
28782057869 21499749 -330295538 -108706778
21499749 18844306 1704494 -1341716
-330295538 1704494 5187458 821169
-108706778 -1341716 821169 572626
B3. Transposée de la comatrice de 𝑿 𝑿

Puisque 𝑿 𝑿 est symétrique alors 𝑪𝒐𝒎(𝑿 𝑿) = 𝑪𝒐𝒎(𝑿 𝑿)𝒕


34

17
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
2. Estimation des paramètres du modèle
Nous savons que : 𝜶 = 𝑿 𝑿 𝟏𝑿 𝒀
Pour estimer les paramètres du modèle, on doit calculer : 𝑿 𝑿, 𝑿 𝑿 𝟏 et 𝑿 𝒀
B. 𝑿 𝑿 𝟏

B4. Calcul de la matrice inverse


𝟏
𝟏
𝑿𝑿 = 𝒄𝒐𝒎(𝑿 𝑿)𝒕
𝒅𝒆𝒕(𝑿 𝑿)

20,16864505 0,01506566 -0,23145021 -0,07617483

0,015065664 0,0132049 0,0011944 -0,00094019

-0,231450215 0,0011944 0,00363504 0,00057542

-0,076174832 -0,00094019 0,00057542 0,00040126


35

Chapitre 3 : Régression Linéaire Multiple

Exercice
2. Estimation des paramètres du modèle
Nous savons que : 𝜶 = 𝑿 𝑿 𝟏𝑿 𝒀
Pour estimer les paramètres du modèle, on doit calculer : 𝑿 𝑿, 𝑿 𝑿 𝟏 et 𝑿 𝒀
C.𝑿 𝒀
𝟏 𝟏 … 𝟏 𝟏𝟐 𝟐𝟒𝟖
𝟐 𝟏 … 𝟕 𝟏𝟒 = 𝟏𝟔𝟐𝟐
𝟒𝟓 𝟒𝟑 … 𝟐𝟗 ⋮ 𝟗𝟐𝟎𝟐
𝟏𝟐𝟏 𝟏𝟑𝟐 … 𝟏𝟖𝟎 𝟐𝟏 𝟑𝟕𝟓𝟗𝟐

D. Calcul des estimateurs


𝟑𝟐, 𝟖𝟗𝟏𝟑𝟐
𝟏𝑿 𝟎, 𝟖𝟎𝟏𝟗𝟎𝟎
𝜶= 𝑿𝑿 𝒀=
− 𝟎, 𝟑𝟖𝟏𝟑𝟔
− 𝟎, 𝟎𝟑𝟕𝟏𝟑
36

18
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Calcul de 𝝈𝟐𝜺 et de 𝛀𝜶
𝒆 𝒆
Nous savons que : 𝛀𝜶 = 𝝈𝟐𝜺 𝑿 𝑿 𝟏 et 𝝈𝟐𝜺 =
𝒏 𝒌 𝟏
𝒆 𝒆
A.𝝈𝟐𝜺 =
𝒏 𝒌 𝟏
𝒆 = 𝒀 − 𝒀 = 𝒀 − 𝑿𝜶
-0,84119
1,60642
-3,18052
1,60505
-3,69773
1,12152 𝟔𝟕,𝟒𝟒𝟕𝟔𝟔𝟖𝟖
e= -1,20184 𝒆 𝒆 = 𝟔𝟕, 𝟒𝟒𝟕𝟔𝟔𝟖𝟖 𝝈𝟐𝜺 =
𝟏𝟒 𝟑 𝟏
0,14217
4,48758
-2,76265
1,08253
-0,8999
𝝈𝟐𝜺 = 𝟔, 𝟕𝟒𝟓
2,2941
0,23822
37

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Calcul de 𝝈𝟐𝜺 et de 𝛀𝜶
𝒆 𝒆
Nous savons que : 𝛀𝜶 = 𝝈𝟐𝜺 𝑿 𝑿 𝟏 et 𝝈𝟐𝜺 =
𝒏 𝒌 𝟏
B.𝛀𝜶 = 𝝈𝟐𝜺 𝑿 𝑿 𝟏

136,0328092 0,10161439 -1,56107774 -0,51378148


0,10161439 0,08906395 0,00805596 -0,00634136
-1,561077742 0,00805596 0,02451751 0,0038811
-0,513781484 -0,00634136 0,0038811 0,00270641

𝜎 = 136,0328 𝜎 = 11,66331039
𝜎 = 0,0890 𝜎 = 0,29843585
𝜎 = 0,0245 𝜎 = 0,15658069
𝜎 = 0,0027 𝜎 = 0,05202313 38

19
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Calcul du 𝑹𝟐 et 𝑹𝟐 ajusté
(𝒀 − 𝒀)′(𝒀 − 𝒀) 𝒆𝒆
Nous savons que : 𝑹𝟐 = = 𝟏−
𝒀−𝒀 𝒀−𝒀 𝒀−𝒀 𝒀−𝒀

𝒆 𝒆 = 67,4476688

Et
𝟏𝟐 𝟏𝟕, 𝟕𝟏𝟒𝟐𝟖 −𝟓, 𝟕𝟏𝟒𝟐𝟖
𝟏𝟒 𝟏𝟕, 𝟕𝟏𝟒𝟐𝟖 −𝟑, 𝟕𝟏𝟒𝟐𝟖
𝒀−𝒀 = − =
⋮ ⋮ ⋮
𝟐𝟏 𝟏𝟕, 𝟕𝟏𝟒𝟐𝟖 𝟑, 𝟐𝟖𝟓𝟕𝟏

𝒀−𝒀 𝒀 − 𝒀 = 𝟐𝟐𝟔, 𝟖𝟓𝟕𝟏𝟒𝟑


39

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Calcul du 𝑹𝟐 et 𝑹𝟐 ajusté

Alors :

𝒆𝒆 67,4476688
𝑹𝟐 = 𝟏 − =𝟏− = 0,7026866
𝒀−𝒀 𝒀−𝒀 226,857143

𝑺𝑪𝑬 𝒏 𝟏
Nous savons que : 𝑹𝟐 = =𝟏− 𝟏 − 𝑹𝟐
𝑺𝑪𝑻 𝒏 𝒌 𝟏

𝑹𝟐 = 𝟎, 𝟔𝟏𝟑𝟒𝟗𝟐𝟓𝟖

40

20
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
A- Création d'un fichier de travail (Workfile) à partir d’une source de données
externe : EXCEL

 EViews peut créer un nouveau workfile, en ouvrant des données à partir d'une
variété de formats (Excel ®, HTML, CSV, ASCII, RAT, Stata, SPSS, SAS, etc ...).

 EViews reconnaît automatiquement le format et la structure des fichiers.

 Il suffit d'ouvrir le fichier dans EViews et laissez l'application faire le reste.

41

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
A- Création d'un fichier de travail (Workfile) à partir d’une source de données
externe : EXCEL

 Il y a plusieurs façons d'ouvrir un fichier dans EViews:


– Faites glisser / déposer un fichier dans la fenêtre principale de EViews (C’est
la méthode la plus simple).

42

21
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
A- Création d'un fichier de travail (Workfile) à partir d’une source de données
externe : EXCEL

 Il y a plusieurs façons d'ouvrir un fichier


dans EViews:
– Cliquez sur File→ Open → Foreign
Data as Workfile.

43

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
A- Création d'un fichier de travail (Workfile) à partir d’une source de données
externe : EXCEL

 Il y a plusieurs façons d'ouvrir un fichier dans EViews:


– Copier / Coller comme un nouveau Workfile dans le bureau EViews.

44

22
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
A- Création d'un fichier de travail (Workfile) à partir d’une source de données
externe : EXCEL

• Dans tous les cas, la boîte de


dialogue EXCEL apparaît :
• Cliquez sur terminer pour charger
les données.

45

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
B- Estimation et résultats

• L’estimation ou la régression dans EViews est effectuée en utilisant l'objet


Equation.
• Il y a Plusieurs façons pour faire une régression OLS (méthode des moindres
carrés ordinaires) :
1. Dans le menu de la page (Espace de travail), sélectionnez
Object → new object → Equa on
2. Dans le menu principal, sélectionnez
Quick→ Estimate Equation
3. Sur la fenêtre de commande taper :
ls suivie de la variable Y, C (constante) et ensuite les variables X

46

23
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews
B- Estimation et résultats
 Indiquez l’équation à estimer soit par: liste,
Formule

• Pour les deux premier cas, la boîte de


dialogue Equation Estimation apparaît.
• Dans cette boîte de dialogue on doit
déterminer trois choses :
1. La spécification de l'équation.
2. La méthode d'estimation.
3. L'échantillon.

 Spécifier votre méthode d'estimation  Précisez votre échantillon


47

Chapitre 3 : Régression Linéaire Multiple

Exercice
3. Estimation sur Eviews

𝝈 𝜶𝒋

𝒀
𝝈𝜺 𝝈𝒚

𝒆𝟐𝒊 = 𝒆 𝒆

48

24
22/06/2022

Université Cadi Ayyad Marrakech

Faculté des Sciences Juridiques Economiques


et Sociales

MASTER ECONOMIE APPLIQUEE EN ENVIRONNEMENT ET CHANGEMENT CLIMATIQUE

3ème Semestre (Promotion 3)

ECONOMETRIE
Chapitre 3 : Régression Linéaire Multiple

Lahcen AIT DAOUD

Année Universitaire 2021/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


Rappel : lois statistiques
• Loi du χ2 (khi-deux)
Soit Z1, Z2, . . . , Zv une suite de variables aléatoires indépendantes
de même loi N(0, 1). Alors la variable aléatoire ∑𝒗𝒊 𝟏 𝒁𝟐𝒊 suit une loi
appelée loi du Khi-deux à ν degrés de liberté, notée χ2(ν).

• Loi de Student
Soient Z et Q deux variables aléatoires indépendantes telles que Z
𝒁
suit N(0, 1) et Q suit χ2(ν). Alors la variable aléatoire 𝑻 = suit
𝑸
𝒗

une loi appelée loi de Student à ν degrés de liberté, notée St(ν).

Pour ν = 1, la loi de Student s’appelle loi de Cauchy, ou loi de Lorentz. 50

25
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


A- Comparaison d’un paramètre 𝜶𝒊 à une valeur fixée 𝜶 = 𝟎
- Le test d’hypothèses est le suivant :
H0 : 𝜶𝒊 = 𝟎
H1 : 𝜶𝒊 ≠ 𝟎
- Degrés de liberté :
𝒏−𝒌−𝟏
- Sous l’hypothèse H0 :

𝜶𝒊
𝒕𝒄 = suit une loi de Student à n − k − 1 degrés de liberté
𝝈 𝜶𝒊
- Règle de décision :
𝜶/𝟐
Si 𝒕𝒄 > 𝒕𝒏 𝒌 𝟏 alors nous rejetons l’hypothèse H0, 𝜶𝒊 est
significativement différent de 0 au seuil de α. 51

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


B- Intervalle de confiance de la variance de l’erreur

La variance de l’erreur permet de déterminer une fourchette de


variation de l’amplitude de l’erreur. Pour un intervalle à (1 − α)%, il
est donné par :

𝟏 − 𝒌 − 𝒏 𝝈² 𝜺 𝟏 − 𝒌 − 𝒏 𝝈²𝜺
𝑰𝑪 = ;
𝝌𝟐𝟏 𝝌𝟐𝟐
Avec
𝜶
• 𝝌𝟐𝟏 à n − k − 1 degrés de liberté et de probabilité d’être dépassée
𝟐
𝜶
• 𝝌𝟐𝟐 à n − k − 1 degrés de liberté et 𝟏 − de probabilité d’être
𝟐
dépassée.
52

26
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
En reprenant les données du tableau 1 et les résultats de
l’exercice 1, on demande de répondre aux questions suivantes :

1. Les variables explicatives sont-elles significativement


contributives pour expliquer la variable endogène ?

2. Quel est l’intervalle de confiance pour la variance de


l’erreur?

(Les seuils choisis seront de 5 %.)


53

Chapitre 3 : Régression Linéaire Multiple

Exercice
Les résultats de l’exercice 1

54

27
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

Exercice

55

Chapitre 3 : Régression Linéaire Multiple

Exercice

56

28
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?
Il convient de calculer les trois ratios de Student et de les comparer à la valeur
lue dans la table de Student pour un seuil de 5 % :
Pour 𝜶𝟎 :
𝜶𝟎
𝒕𝒄 = suit une loi de Student à 14 − 3 − 1 = 10 degrés de liberté
𝝈𝜶𝟎
𝟑𝟐, 𝟖𝟗
𝒕𝒄 = = 𝟐, 𝟖𝟐
𝟏𝟏, 𝟔𝟔
𝒕𝒄 > 𝒕𝟎,𝟎𝟓
𝟏𝟎 = 𝟐, 𝟐𝟐𝟖

Ce qui signifie que 𝜶𝟎 ≠ 𝟎, la constante est contributive à l’explication de Y


57

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?

𝒕𝒄 = 𝟐, 𝟖𝟐 > 𝒕𝟎,𝟎𝟓
𝟏𝟎 = 𝟐, 𝟐𝟐𝟖

Ce qui signifie que 𝜶𝟎 ≠ 𝟎, la constante est contributive à l’explication de Y

58

29
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?
De même pour les trois autres variables :
Pour 𝜶𝟏 :
𝜶𝟏 𝟎, 𝟖𝟎
𝒕𝒄 = = = 𝟐, 𝟔𝟗
𝝈 𝜶𝟏 𝟎, 𝟐𝟗

𝒕𝒄 > 𝒕𝟎,𝟎𝟓
𝟏𝟎 = 𝟐, 𝟐𝟐𝟖

Ce qui signifie que 𝜶𝟏 ≠ 𝟎, la variable 𝑿𝟏 est contributive à l’explication de Y

59

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?

Pour 𝜶𝟐 :
𝜶𝟐 −𝟎, 𝟑𝟖
𝒕𝒄 = = = 𝟐, 𝟒𝟒
𝝈 𝜶𝟐 𝟎, 𝟏𝟔

𝒕𝒄 > 𝒕𝟎,𝟎𝟓
𝟏𝟎 = 𝟐, 𝟐𝟐𝟖

Ce qui signifie que 𝜶𝟐 ≠ 𝟎, la variable 𝑿𝟐 est contributive à l’explication de Y

60

30
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?

Pour 𝜶𝟑 :
𝜶𝟑 −𝟎, 𝟎𝟒
𝒕𝒄 = = = 𝟎, 𝟕𝟏
𝝈 𝜶𝟑 𝟎, 𝟎𝟓

𝒕𝒄 > 𝒕𝟎,𝟎𝟓
𝟏𝟎 = 𝟐, 𝟐𝟐𝟖

Ce qui signifie que 𝜶𝟑 = 𝟎, la variable 𝑿𝟑 n’est pas contributive à l’explication


de Y
il convient donc de retirer 𝑿𝟑 de ce modèle et de procéder à une nouvelle
estimation. 61

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?

𝑷 𝑿 ≥ 𝒕𝒄 = ? ?
Pour la constante 𝐂, on calcule :

𝑷 𝑿 ≥ 𝟐, 𝟖𝟐 = ? ?
62

31
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?
Pour la constante 𝐂, on calcule :

𝑷 𝑿 ≥ 𝟐, 𝟖𝟐 = ? ?
Sur la table de la loi de Student, avec un degré de liberté v = 10 :
• La valeur 𝟐, 𝟖𝟐 est comprise entre les valeurs 2,7638 et 3,1693 qui
correspondent à α1= 0,02 et α2=0,01.
• L'interpolation linéaire permet de déduire la valeur de α entre α1 et α2

𝟎, 𝟎𝟏 − 𝟎, 𝟎𝟐
𝜶= 2,82 − 2,7638 + 𝟎, 𝟎𝟐 = 𝟎, 𝟎𝟏𝟖𝟔
3,1693 − 2,7638
63

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
1. Les variables explicatives sont-elles significativement
contributives pour expliquer la variable endogène ?
Intervalle de confiance :

𝑰𝑪𝜶𝒊 = 𝜶𝒊 ± 𝒕𝟎,𝟎𝟓
𝒏 𝒌 𝟏 𝝈𝜶𝒊
𝑰𝑪𝜶𝟎 = 𝟔, 𝟗𝟎; 𝟓𝟖, 𝟖𝟖
𝑰𝑪𝜶𝟏 = 𝟎, 𝟏𝟒; 𝟏, 𝟒𝟕
𝑰𝑪𝜶𝟐 = −𝟎, 𝟕𝟑; −𝟎, 𝟎𝟑
𝑰𝑪𝜶𝟑 = −𝟎, 𝟏𝟓; 𝟎, 𝟎𝟖
𝒕𝟎,𝟎𝟓
𝟏𝟎 = 𝟐, 𝟐𝟐𝟖
64

32
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
2. L’intervalle de confiance de la variance de l’erreur à un seuil
(1 − α)% = 95% (α = 0,05) pour 10 degrés de liberté :
Intervalle de confiance :
𝟏 − 𝒌 − 𝒏 𝝈 ²𝜺 𝟏 − 𝒌 − 𝒏 𝝈²𝜺
𝑰𝑪 = ;
𝝌𝟐𝟎,𝟎𝟐𝟓 𝝌𝟐𝟎,𝟗𝟕𝟓

𝟏𝟎 𝟔, 𝟕𝟒𝟓 𝟏𝟎 𝟔, 𝟕𝟒𝟓
𝑰𝑪 = ;
𝟐𝟎, 𝟔𝟗 𝟑, 𝟓𝟓
65

Chapitre 3 : Régression Linéaire Multiple

7. Tests statistiques sur les paramètres estimés


C- Exercice
2. L’intervalle de confiance de la variance de l’erreur à un seuil
(1 − α)% = 95% (α = 0,05) pour 10 degrés de liberté :
Intervalle de confiance :
𝟏 − 𝒌 − 𝒏 𝝈 ²𝜺 𝟏 − 𝒌 − 𝒏 𝝈²𝜺
𝑰𝑪 = ;
𝝌𝟐𝟎,𝟎𝟐𝟓 𝝌𝟐𝟎,𝟗𝟕𝟓

𝟏𝟎 𝟔, 𝟕𝟒𝟓 𝟏𝟎 𝟔, 𝟕𝟒𝟓
𝑰𝑪 = ;
𝟐𝟎, 𝟔𝟗 𝟑, 𝟓𝟓

𝑰𝑪 = 𝟑, 𝟐𝟔; 𝟏𝟗
Soit 𝟑, 𝟐𝟔 ≤ 𝝈²𝜺 ≤ 𝟏𝟗.
La variance de l’erreur 𝝈²𝜺 (inconnue) a 95% de chance de se situer à
l’intérieur de cet intervalle. 66

33
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

8. Analyse de la variance
A. Equation d’analyse de la variance :

• Nous reprenons l’équation fondamentale d’analyse de la variance :

SCT = SCE + SCR


𝒀−𝒀 ′ 𝒀−𝒀 = 𝒀−𝒀 ′ 𝒀−𝒀 +𝒆 𝒆

La variabilité totale = la variabilité expliquée + la variabilité des résidus

La régression est jugée significative si la variabilité expliquée


est significativement différente de 0
67

Chapitre 3 : Régression Linéaire Multiple

8. Analyse de la variance
B. Tableau d’analyse de la variance :

Source de Carrés
Somme des carrés ddl
la variance moyens

Variable 𝑺𝑪𝑬 = 𝒚𝒕 − 𝒚 𝟐 = 𝒀−𝒀 ′ 𝒀−𝒀 𝑆𝐶𝐸


explicative
k
𝑘

𝑆𝐶𝑅
Résidu 𝑺𝑪𝑹 = 𝒆²𝒕 = 𝒆 𝒆 n–k-1
𝑛−𝑘−1

𝑺𝑪𝑻 = 𝒚𝒕 − 𝒚 𝟐 = 𝒀−𝒀 ′ 𝒀−𝒀


Total n-1

68

34
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
Rappel lois statistiques :
• Loi de Fisher-Snedecor

Soient Q1 et Q2 deux variables aléatoires indépendantes telles que Q1 suit χ2(ν1) et


𝑸𝟏
𝒗𝟏
Q2 suit χ2(ν2) alors la variable aléatoire 𝑭 = 𝑸𝟐 suit une loi de Fisher-Snedecor
𝒗𝟏
à (ν1, ν2) degrés de liberté, notée F(ν1, ν2).

69

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
A. Construction du test
Nous allons nous interroger maintenant sur la signification globale
du modèle de la régression (Autrement dit, si l’ensemble des
variables explicatives a une influence sur la variable à expliquer).
Ce test peut être formulé de la manière suivante :
Existe-t-il au moins une variable explicative significative ?
Soit le test d’hypothèses :

𝑯𝟎 ∶ 𝜶𝟏 = 𝜶𝟐 = 𝜶𝟑 … 𝜶𝒌 = 𝟎
𝑯𝟏: 𝒊𝒍 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖 𝒎𝒐𝒊𝒏𝒔 𝒖𝒏 𝒅𝒆𝒔 𝒄𝒐𝒆𝒇𝒇𝒊𝒄𝒊𝒆𝒏𝒕𝒔 𝒏𝒐𝒏 𝒏𝒖𝒍

70

35
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
B. Test de Fisher
L’hypothèse de normalité des erreurs implique que sous l’hypothèse
H0 :
Fc suit une loi de Fisher (rapport de deux loi de chi-deux).

∑ 𝒚𝒕 − 𝒚 𝟐 𝑅
𝐹 = 𝑘 = 𝑘
∑ 𝒆²𝒕 1−𝑅
𝑛−𝑘−1 𝑛−𝑘−1
Nous comparons donc ce F calculé au F théorique à k et (n − k − 1)
degrés de liberté :
Si Fc > F nous rejetons l’hypothèse H0, le modèle est globalement
71
explicatif.

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
En reprenant les données de l’exercice, dont nous rappelons les résultats de
l’estimation du modèle :
𝒚𝒕 = 𝟑𝟐, 𝟖𝟗 + 𝟎, 𝟖𝒙𝟏𝒕 −𝟎, 𝟑𝟖𝒙𝟐𝒕 −𝟎, 𝟎𝟑𝒙𝟑𝒕 +𝒆𝒕

𝑨 (𝟏𝟏, 𝟔𝟔) (𝟎, 𝟐𝟗) (𝟎, 𝟏𝟓) (𝟎, 𝟎𝟓) 𝑨

• 𝑹² = 𝟎, 𝟕𝟎𝟐 , 𝒏 = 𝟏𝟒 𝐞𝐭 . = 𝑬𝒄𝒂𝒓𝒕 − 𝑻𝒚𝒑𝒆


Tester les hypothèses suivantes.
1- L’ajout des variables explicatives X2 et X3 améliore-t-il significativement la
qualité de l’estimation par rapport à X1 seul ?
2- Peut-on considérer le modèle (à trois variables explicatives) comme stable sur
l’ensemble de la période, ou doit-on procéder à deux estimations, l’une de la
période 1 à 7, et l’autre de la période 8 à 14 ?
3- Un économiste suggère que dans ce modèle α1 = 1 et α2 = α3 , qu’en pensez-
72
vous ?

36
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice

73

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
1- L’ajout des variables explicatives X2 et X3 améliore-t-il significativement la
qualité de l’estimation par rapport à x1 seul ?
Effectuons tout d’abord le test de Fisher afin de tester la signification
globale de la régression à trois variables :

𝑅 𝟎, 𝟕𝟎𝟐
𝐹 = 𝑘 = 3 = 7,878 > 𝐹( ,, = 3,71
1−𝑅 1 − 𝟎, 𝟕𝟎𝟐 )
𝑛 − 𝑘 − 1 14 − 3 − 1

Le modèle est globalement significative. 74

37
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
𝑅 𝟎, 𝟕𝟎𝟐
𝐹 = 𝑘 = 3 = 7,878 > 𝐹( ,, = 3,71
1−𝑅 1 − 𝟎, 𝟕𝟎𝟐 )
𝑛 − 𝑘 − 1 14 − 3 − 1

75

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
1- L’ajout des variables explicatives x2 et x3 améliore-t-il significativement la
qualité de l’estimation par rapport à x1 seul ?

a. Calcul de la variabilité totale, expliquée et résiduelle sur le


modèle complet (Calculs précédents).

𝑺𝑪𝑻 = 𝟐𝟐𝟔, 𝟖𝟔, 𝑺𝑪𝑬 = 𝟏𝟓𝟗, 𝟒𝟏, 𝑺𝑪𝑹 = 𝟔𝟕, 𝟒𝟓

b. Calcul de la variabilité totale, expliquée et résiduelle sur le


modèle à une seule variable explicative X1 (Nouvelle régression)

𝑺𝑪𝑻𝟏 = 𝟏𝟏𝟕, 𝟔𝟓, 𝑺𝑪𝑬𝟏 = 𝟏𝟏𝟕, 𝟔𝟓 𝑺𝑪𝑹𝟏 = 𝟏𝟎𝟗, 𝟐𝟎 76

38
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
1- L’ajout des variables explicatives x2 et x3 améliore-t-il significativement la
qualité de l’estimation par rapport à x1 seul ?

Ce test se ramène à un test par analyse de la variance


Le fait d’ajouter des variables explicatives dans un modèle entraîne
automatiquement une augmentation de SCE (et donc une diminution de
SCR).
On souhaite donc
- Tester que la différence entre SCE et SCE1 soit significativement positive
Ou
- Tester que la différence entre SCR1 et SCR soit significativement positive,
Il s’agit du même test 77

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
1- L’ajout des variables explicatives x2 et x3 améliore-t-il significativement la
qualité de l’estimation par rapport à x1 seul ?

c. Tableau d’analyse de la variance


Carrés
Source de la variance Somme des carrés ddl
moyens
X1 𝑺𝑪𝑬𝟏 = 𝟏𝟏𝟕, 𝟔𝟓 1 117,65
X1, X2, X3 𝑺𝑪𝑬 = 𝟏𝟓𝟗, 𝟒𝟏 3 53,14

Résidu (modèle complet) 𝑺𝑪𝑹 = 𝟔𝟕, 𝟒𝟓 10 6,74


Total (modèle complet) 𝑺𝑪𝑻 = 𝟐𝟐𝟔, 𝟖𝟔 13
78

39
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
1- L’ajout des variables explicatives x2 et x3 améliore-t-il significativement la
qualité de l’estimation par rapport à x1 seul ?

d. Calcul du Fisher empirique.


𝑆𝐶𝐸 − 𝑆𝐶𝐸1 159,41 − 117,65
𝐹 = 𝑘 − 𝑘1 = 3−1 = 3,09 < 𝐹 ,
= 4,10
𝑆𝐶𝑅 67,45 ,
𝑛−𝑘−1 14 − 3 − 1
Ou bien,
𝑆𝐶𝑅1 − 𝑆𝐶𝑅 109,2 − 67,45
𝐹 = 𝑘 − 𝑘1 = 3−1 = 3,09 < 𝐹 ,
= 4,10
𝑆𝐶𝑅 67,45 ,
𝑛−𝑘−1 14 − 3 − 1
79

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
1- L’ajout des variables explicatives x2 et x3 améliore-t-il significativement la
qualité de l’estimation par rapport à x1 seul ?

e. Conclusion.

Nous acceptons l’hypothèse H0. Il n’y a donc pas de différence


significative entre les deux variances expliquées.

Au seuil de 5 %, l’ajout des variables explicatives X2 et X3


n’améliore pas de manière significative le pouvoir explicatif du
modèle. 80

40
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
2- Peut-on considérer le modèle (à trois variables explicatives) comme stable
sur l’ensemble de la période, ou doit-on procéder à deux estimations, l’une de
la période 1 à 7, et l’autre de la période 8 à 14 ?
Ce test de stabilité des coefficients (Test de Chow) se ramène à la
question suivante :
Existe-t-il une différence significative entre la somme des carrés
des résidus (SCR) de l’ensemble de la période et l’addition de la
somme des carrés des résidus calculée à partir des deux sous-
périodes (SCR1 + SCR2) ?

Avant d’effectuer ce test on doit tout d’abord calculer SCR1 et SCR2 et


donc estimer deux modèles sur chacune les deux sous-périodes 81

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
2- Peut-on considérer le modèle (à trois variables explicatives) comme stable
sur l’ensemble de la période, ou doit-on procéder à deux estimations, l’une de
la période 1 à 7, et l’autre de la période 8 à 14 ?
a. Estimation des modèles et calcul de SCR1 et SCR2
– L’estimation sur une seule période, nous donne :
𝑺𝑪𝑻 = 𝟐𝟐𝟔, 𝟖𝟔, 𝑺𝑪𝑬 = 𝟏𝟓𝟗, 𝟒𝟏, 𝑺𝑪𝑹 = 𝟔𝟕, 𝟒𝟓

– L’estimation sur la période 1 à 7 , nous donne :


𝑺𝑪𝑻𝟏 = 𝟖𝟖, 𝟖𝟓, 𝑺𝑪𝑬𝟏 = 𝟔𝟏, 𝟓𝟒 𝑺𝑪𝑹𝟏 = 𝟐𝟕, 𝟑𝟏

– L’estimation sur la période 8 à 14, nous donne :


𝑺𝑪𝑻𝟐 = 𝟒𝟓, 𝟒𝟑, 𝑺𝑪𝑬𝟐 = 𝟐𝟒, 𝟕𝟎 𝑺𝑪𝑹𝟐 = 𝟐𝟎, 𝟕𝟑
82

41
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
2- Peut-on considérer le modèle (à trois variables explicatives) comme stable
sur l’ensemble de la période, ou doit-on procéder à deux estimations, l’une de
la période 1 à 7, et l’autre de la période 8 à 14 ?
b. Calcul du Fisher empirique

𝑺𝑪𝑹 − 𝑺𝑪𝑹𝟏 + 𝑺𝑪𝑹𝟐


𝒏 − 𝒌 − 𝟏 − 𝒏𝟏 − 𝒌 − 𝟏 + 𝒏𝟐 − 𝒌 − 𝟏
𝑭𝒄 =
𝑺𝑪𝑹𝟏 + 𝑺𝑪𝑹𝟐
𝒏𝟏 − 𝒌 − 𝟏 + 𝒏𝟐 − 𝒌 − 𝟏

𝟔𝟕, 𝟒𝟓 − 𝟐𝟕, 𝟑𝟏 + 𝟐𝟎, 𝟕𝟑


𝑭𝒄 = 𝟒 = 𝟎, 𝟔𝟎𝟔 < 𝑭𝟎,𝟎𝟓
𝟐𝟕, 𝟑𝟏 + 𝟐𝟎, 𝟕𝟑 𝟒;𝟔 = 𝟒, 𝟓𝟑
𝟔 83

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
2- Peut-on considérer le modèle (à trois variables explicatives) comme stable
sur l’ensemble de la période, ou doit-on procéder à deux estimations, l’une de
la période 1 à 7, et l’autre de la période 8 à 14 ?
c. Conclusion
L’hypothèse H0 est acceptée, les coefficients sont
significativement stables sur l’ensemble de la période.

Attention !
Le test de Chow est biaisé en cas d’hétéroscédasticité
Rappel : H3 : 𝑬 𝜺𝟐𝒕 = 𝝈𝟐𝜺 , la variance de l’erreur est constante
(∀t) (homoscédasticité) 84

42
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
3- Un économiste suggère que dans ce modèle α1 = 1 et α2 = α3 , qu’en pensez-
vous ?
H0 : α1 = 1 et α2 = α3
Si cette hypothèse est vérifiée, le modèle peut s’écrire comme suite :
𝒚𝒕 = 𝒂𝟎 + 𝟏𝒙𝟏𝒕 + 𝒂𝟐 𝒙𝟐𝒕 + 𝒂𝟐 𝒙𝟑𝒕 + 𝜺𝒕
𝒚𝒕 − 𝒙𝟏𝒕 = 𝒂𝟎 + 𝒂𝟐 𝒙𝟐𝒕 + 𝒙𝟑𝒕 + 𝜺𝒕
𝒛𝟏𝒕 = 𝒂𝟎 + 𝒂𝟐 𝒛𝟐𝒕 + 𝜺𝒕

Il convient de constituer la nouvelle variable à expliquer, Z1t , et


la nouvelle variable explicative Z2t , puis d’effectuer la régression
de Z1t sur Z2t. 85

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
3- Un économiste suggère que dans ce modèle α1 = 1 et α2 = α3 , qu’en pensez-
vous ?

a. Estimation du nouveau modèle et calcul de SCR1


– L’estimation initiale, nous donne :

𝑺𝑪𝑻 = 𝟐𝟐𝟔, 𝟖𝟔, 𝑺𝑪𝑬 = 𝟏𝟓𝟗, 𝟒𝟏, 𝑺𝑪𝑹 = 𝟔𝟕, 𝟒𝟓

– L’estimation du nouveau modèle, nous donne :

𝑺𝑪𝑻𝟏 = 𝟏𝟎𝟗, 𝟐𝟏, 𝑺𝑪𝑬𝟏 = 𝟎, 𝟒𝟐𝟓 𝑺𝑪𝑹𝟏 = 𝟏𝟎𝟖, 𝟕𝟖

86

43
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
3- Un économiste suggère que dans ce modèle α1 = 1 et α2 = α3 , qu’en pensez-
vous ?
b. Calcul du Fisher empirique

𝑺𝑪𝑹𝟏 − 𝑺𝑪𝑹
𝒏 − 𝒌𝟏 − 𝟏 − 𝒏 − 𝒌 − 𝟏
𝑭𝒄 =
𝑺𝑪𝑹
𝒏−𝒌−𝟏

𝟏𝟎𝟖, 𝟕𝟖 − 𝟔𝟕, 𝟒𝟓
𝑭𝒄 = 𝟐 = 𝟑, 𝟎𝟔 < 𝑭𝟎,𝟎𝟓
𝟔𝟕, 𝟒𝟓 𝟐;𝟏𝟎 = 𝟒, 𝟏𝟎
𝟏𝟎 87

Chapitre 3 : Régression Linéaire Multiple

9. Tests statistiques sur la signification globale du


modèle
C. Exercice
3- Un économiste suggère que dans ce modèle α1 = 1 et α2 = α3 , qu’en pensez-
vous ?
c. Conclusion
L’hypothèse H0 est acceptée

Les contraintes envisagées sur les coefficients sont compatibles


avec les données.

88

44
22/06/2022

Chapitre 3 : Régression Linéaire Multiple

10. Eviews

89

45

Vous aimerez peut-être aussi