Modèle de régression linéaire simple
Modèle de régression linéaire simple
Exemple
Soient
1) 𝑌 = 𝛼𝑒 𝛽𝑋
𝑙𝑛 𝑌 = ln 𝛼 + 𝑙𝑛𝑒 𝛽𝑋 = ln 𝛼 + 𝛽𝑋𝑙𝑛𝑒 ⇔ 𝑌1 = 𝛼1 + 𝛽𝑋1
𝑌
0
2) 𝑌𝑡 = 1+𝛽𝑋 𝑡
𝑌𝑡 1 𝑌0 𝑌0 𝑌0
= = 𝑡
⇔ = 1 + 𝛽𝑋 𝑡 ⇔ − 1 = 𝛽𝑋 𝑡 ⇔ 𝑙𝑛 ( − 1)
𝑌0 1 + 𝛽𝑋 𝑌𝑡 𝑌𝑡 ⏟ 𝑌𝑡
𝑌1
⏟ 𝑡= ⏟
= 𝑙𝑛𝛽𝑋 𝑙𝑛𝛽 + 𝑡𝑙𝑛𝑋
= 𝛽1 + 𝑡𝑋1
Globalement, soient deux variables X et Y. Nous cherchons une fonction telle
que le plus proche que possible de Y en moyenne quadratique. En effet, la forme
générale du modèle linéaire est donnée comme suit :
𝑌𝑡 = 𝛽0 + 𝛽1 𝑋𝑡
⏟ + 𝜀⏟𝑡
𝑃𝑎𝑟𝑡𝑖𝑒 𝑑é𝑡𝑒𝑟𝑚𝑖𝑛𝑖𝑠𝑡𝑒 𝑃𝑎𝑟𝑡𝑖𝑒 𝑠𝑐𝑡𝑜𝑐ℎ𝑎𝑠𝑡𝑖𝑞𝑢𝑒
Exemple : 𝑆 = 𝑎0 + 𝑠𝑌 + 𝜀
Dans ce modèle simplifié on explique l’évolution du taux d’épargne chez les
ménages en fonction de leur revenu disponible.
S est l’épargne du ménage. 𝑎0 est l’épargne autonome du revenu. 𝑠 représente la
propension marginale à épargner. 𝑌 est le revenu disponible. 𝜀 représente la part de
l’épargne qui est inexpliquée par le revenu disponible.
N’étant pas de même valeur, l’écart de valeur entre 𝑌𝑡 et 𝑌̂𝑡 est appelé écart ou
résidu, notée 𝑒𝑡 .
1.3- Les hypothèses de MRS
H4 : les termes d’erreurs ou simplement les erreurs sont non corrélées entre
eux. 𝐸(𝜀𝑖 , 𝜀𝑘 ) = 0 , pour tout 𝑖 ≠ 𝑘;
Si 0 < 𝑟𝑥𝑦 < 1 relation linéaire positive (relative) X et Y évoluent dans le même
sens.
Si −1 < 𝑟𝑥𝑦 < 0 relation linéaire négative (relative) X et Y évoluent dans deux
sens inverse.
Lorsque |𝑟𝑥𝑦 | > 0,6 , la relation linéaire est considérée comme forte.
Une fois que la relation linéaire entre les deux variables est démontrée, il
convient d’estimer les paramètres du modèle.
𝑖=1 ⏟ 𝑖=1
𝑆
𝑛
𝜕𝑆
= 0 ⇔ −2 ∑(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 ) = 0
𝜕𝛽0
𝑖=1
𝑛
⇔ ∑(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 ) = 0
𝑖=1
𝑛 𝑛 𝑛
⇔ ∑(𝑦𝑖 ) − ∑ 𝛽0 − ∑ 𝛽1 𝑥𝑖 = 0
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛
⇔ ∑(𝑦𝑖 ) − 𝑛𝛽0 − 𝛽1 ∑ 𝑥𝑖 = 0
𝑖=1 𝑖=1
∑𝑛𝑖=1(𝑦𝑖 ) ∑𝑛𝑖=1 𝑥𝑖
⇔ − 𝛽0 − 𝛽1 =0
𝑛 𝑛
⇔ 𝑦̅ − 𝛽0 − 𝛽1 𝑥̅ = 0
⇔ 𝛽0 = 𝑦̅ + 𝛽1 𝑥̅
̂0 = 𝑦̅ + 𝛽
𝛽 ̂1 𝑥̅
𝑛
𝜕𝑆
= 0 ⇔ −2 ∑ 𝑥𝑖 (𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 ) = 0
𝜕𝛽1
𝑖=1
𝑛
̂0 − 𝛽
⇔ ∑ 𝑥𝑖 (𝑦𝑖 − 𝛽 ̂1 𝑥𝑖 ) = 0
𝑖=1
𝑛
̂1 𝑥̅ ) − 𝛽1 𝑥𝑖 ] = 0
⇔ ∑ 𝑥𝑖 [𝑦𝑖 − (𝑦̅ + 𝛽
𝑖=1
𝑛
̂1 + 𝛽
⇔ ∑(𝑥𝑖 𝑦𝑖 − 𝑥𝑖 𝑦̅ + 𝑥𝑖 𝑥̅ 𝛽 ̂1 𝑥𝑖 2 ) = 0
𝑖=1
𝑛 𝑛 𝑛 𝑛
̂1 ∑ 𝑥𝑖 − 𝛽
⇔ ∑ 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑ 𝑥𝑖 + 𝑥̅ 𝛽 ̂1 ∑ 𝑥𝑖 2 = 0
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛
̂1 (∑ 𝑥𝑖 𝑥̅ − ∑ 𝑥𝑖 2 ) = 0
⇔ ∑ 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑ 𝑥𝑖 + 𝛽
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛 𝑛
̂1 (𝑥̅ ∑ 𝑥𝑖 − ∑ 𝑥𝑖 2 ) = 0
⇔ ∑ 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑ 𝑥𝑖 + 𝛽
𝑖=1 𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛
̂1 ∑(𝑥̅ − 𝑥𝑖 )𝑥𝑖 = 0
⇔ ∑ 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑ 𝑥𝑖 + 𝛽
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛
̂1 ∑(𝑥𝑖 − 𝑥̅ )𝑥𝑖 = 0
⇔ ∑ 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑ 𝑥𝑖 − 𝛽
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛
̂1 ∑(𝑥𝑖 − 𝑥̅ )𝑥𝑖 = ∑ 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑ 𝑥𝑖
⇔𝛽
𝑖=1 𝑖=1 𝑖=1
1 𝑛
∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖 − 𝑦̅ ∑𝑛𝑖=1 𝑥𝑖 ∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖 − 𝑛𝑥̅ 𝑦̅ 𝑛 ∑𝑖=1 𝑥𝑖 𝑦𝑖 − 𝑥̅ 𝑦̅
̂1 =
⇔𝛽 = 𝑛 =
∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )𝑥𝑖 ∑𝑖=1 𝑥𝑖 2 − 𝑛𝑥̅ 2 1 𝑛
∑ 2 2
𝑛 𝑖=1 𝑥𝑖 − 𝑥̅
∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) 𝐶𝑜𝑣(𝑥, 𝑦)
= =
∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 𝑉(𝑥)
𝐶𝑜𝑣(𝑥, 𝑦)
̂1 =
𝛽
𝑉(𝑥)
Remarque :
Dans le cas particulier d’un modèle de régression sans constante, Le modèle
de régression est de type 𝑌𝑡 = 𝛽1 𝑋𝑡 + 𝜀𝑡 avec 𝛽0 = 0
̂1 est
L’estimateur 𝛽
∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖
̂1 =
𝛽
∑𝑛𝑖=1 𝑥𝑖 2
Exemple :
̂0 et 𝛽
Soit le modèle 𝑌𝑡 = 𝛽0 + 𝛽1 𝑋𝑡 + 𝜀𝑡 . Déterminer les estimateurs 𝛽 ̂1 et la
somme des écarts au carrée.
Individu Xt Yt XtYt Xt2 ̂𝒕
𝒀 ̂ 𝒕 -Yt
𝒀 𝒆𝒕 𝟐
1 3 10 30 9 11,4 -1,4 1,96
2 4 14 56 16 13,6 0,4 0,16
3 5 16 80 25 15,8 0,2 0,04
4 6 22 132 36 18 0,4 16
5 7 17 114 49 20,2 -3,2 10,24
Total 25 79 417 135 79 0 28,4
𝑥̅ = 5 𝑦̅ = 15,8
∑𝑛𝑖=1 𝑥𝑖 𝑦𝑖 − 𝑛𝑥̅ 𝑦̅ 417 − 5 × 5 × 15,8 22
̂1 =
𝛽 = = = 2,2
∑𝑛𝑖=1 𝑥𝑖 2 − 𝑛𝑥̅ 2 135 − 5 × 32 10
̂0 = 𝑦̅ + 𝛽
𝛽 ̂1 𝑥̅ = 15,8 − (2,2 × 5) = 4,8
̂0 et 𝛽
1°/ - Les estimateurs 𝛽 ̂1 sont linéaires en Yi
̂𝟏 , on a :
Pour 𝜷
𝐶𝑜𝑣(𝑥, 𝑦) 𝑆𝑥𝑦 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)(𝑌𝑖 − 𝑌̅)
̂1 =
𝛽 = =
𝑉(𝑥) 𝑆𝑥𝑥 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
= ∑(𝑎𝑖 𝑌𝑖 − 𝑎𝑖 𝑌̅)
𝑖=1
𝑛 𝑛
= ∑ 𝑎𝑖 𝑌𝑖 − ∑ 𝑎𝑖 𝑌̅
𝑖=1 𝑖=1
𝑛 𝑛
= ∑ 𝑎𝑖 𝑌𝑖 − 𝑌̅ ∑ 𝑎𝑖
𝑖=1 𝑖=1
𝑛 𝑛
= ∑ 𝑎𝑖 𝑌𝑖 − 𝑌̅ ∑(𝑋𝑖 − 𝑋̅)
𝑖=1 𝑖=1
𝑛 𝑛
= ∑ 𝑎𝑖 𝑌𝑖 − 𝑌̅ ∑ 𝑋𝑖 + 𝑌̅𝑛𝑋̅
𝑖=1 𝑖=1
𝑛
𝑛𝑌̅𝑋̅ + 𝑌̅𝑛𝑋̅
= ∑ 𝑎𝑖 𝑌𝑖 − ⏟
𝑖=1 =0
𝑛
= ∑ 𝑎𝑖 𝑌𝑖
𝑖=1
𝑛
= ∑(𝑋𝑖 − 𝑋̅)𝑌𝑖
𝑖=1
Ainsi
𝑛
𝐶𝑜𝑣(𝑥, 𝑦) 𝑆𝑥𝑦 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)(𝑌𝑖 − 𝑌̅) ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)
̂
𝛽1 = = = = 𝑛 . 𝑌 = ∑ 𝑤𝑖 𝑌𝑖
𝑉(𝑥) 𝑆𝑥𝑥 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 ∑𝑖=1(𝑋𝑖 − 𝑋̅)2 𝑖
𝑖=1
𝑋𝑖 − 𝑋̅
avec 𝑤𝑖 =
(𝑋𝑖 − 𝑋̅)2
̂1 est linéaire.
On obtient donc une somme algébrique linéaire, d’où 𝛽
𝑋 −𝑋̅ 2 1
b)- ∑𝑛𝑖=1 𝑤𝑖 2 = ∑𝑛𝑖=1 [(𝑋 𝑖−𝑋̅)2 ] = ∑𝑛 ̅ 2
𝑖 𝑖=1(𝑋𝑖 −𝑋 )
̂𝟎 , on a :
Pour 𝜷
̂0 = 𝑌̅ − 𝛽
𝛽 ̂1 𝑥̅
𝑛 𝑛
1
= ∑ 𝑌𝑖 − ∑ 𝑤𝑖 𝑌𝑖 𝑋̅
𝑛
𝑖=1 𝑖=1
𝑛
1
= ∑ 𝑦𝑖 ( − 𝑤𝑖 𝑋̅)
⏟𝑛
𝑖=1
=𝑚𝑖
𝑛
1
= ∑ 𝑚𝑖 𝑌𝑖 avec 𝑚𝑖 = − 𝑤𝑖 𝑋̅
𝑛
𝑖=1
̂0 est linéaire par rapport 𝑌𝑖
Il convient de dire que 𝛽
̂0 et 𝛽
2°/ - Les estimateurs 𝛽 ̂1 sont sans biais
̂𝟏 , on a :
Pour 𝜷
𝑛
̂1 = ∑ 𝑤𝑖 𝑌𝑖
𝛽 avec ̂0 + 𝛽̂1 𝑋𝑖 + 𝜀𝑖
𝑌𝑖 = 𝛽
𝑖=1
𝑛
̂1 ) = 𝐸 (∑ 𝑤𝑖 𝑌𝑖 )
𝐸(𝛽
𝑖=1
𝑛
̂0 + 𝛽
= 𝐸 [∑ 𝑤𝑖 (𝛽 ̂1 𝑋𝑖 + 𝜀𝑖 ) ]
𝑖=1
𝑛 𝑛 𝑛
̂0 + 𝛽
= 𝐸 (∑ 𝑤𝑖 𝛽 ̂1 ∑ 𝑤𝑖 𝑋𝑖 + ∑ 𝑤𝑖 𝜀𝑖 )
𝑖=1 𝑖=1 𝑖=1
𝑛 𝑛 𝑛
=𝐸 𝛽̂0 ∑ 𝑤𝑖 + 𝛽
̂1 ∑ 𝑤𝑖 𝑋𝑖 + ∑ 𝑤𝑖 𝜀𝑖
⏟
𝑖=1 ⏟
𝑖=1 𝑖=1
( =0 =1 )
𝑛
̂1 + ∑ 𝑤𝑖 𝜀𝑖 )
= 𝐸 (𝛽
𝑖=1
𝑛
̂1 ) + 𝐸 (∑ 𝑤𝑖 𝜀𝑖 )
= 𝐸(𝛽
𝑖=1
𝑛
𝐸(𝜀𝑖 )
= 𝛽1 + ∑ 𝑤𝑖 ⏟
𝑖=1 =0
= 𝛽1
̂1 ) = 𝛽
𝐸(𝛽 ̂1
̂1 est sans biais.
D’où 𝛽
̂𝟎 , on a :
Pour 𝜷
̂0 = 𝑌̅ − 𝛽
𝛽 ̂1 𝑋̅
̂0 ) = 𝐸(𝑌̅ − 𝛽
𝐸(𝛽 ̂1 𝑋̅)
𝑛 𝑛
1
= 𝐸 ( ∑ 𝑌𝑖 − ∑ 𝑤𝑖 𝑌𝑖 𝑋̅)
𝑛
𝑖=1 𝑖=1
𝑛 𝑛
1
= 𝐸 ( ∑ 𝑌𝑖 − 𝑋̅ ∑ 𝑤𝑖 𝑌𝑖 )
𝑛
𝑖=1 𝑖=1
𝑛
1
= 𝐸 [∑ ( + 𝑋̅𝑤𝑖 ) 𝑌𝑖 ]
𝑛
𝑖=1
𝑛
1
̂0 + 𝛽
= 𝐸 [∑ ( + 𝑋̅𝑤𝑖 ) (𝛽 ̂1 𝑋𝑖 + 𝜀𝑖 )]
𝑛
𝑖=1
𝑛
1 1 1
= 𝐸 [∑ ( 𝛽̂0 + 𝛽
̂1 𝑋𝑖 + 𝜀𝑖 − 𝛽
̂0 𝑋̅𝑤𝑖 − 𝛽
̂1 𝑋̅𝑋𝑖 𝑤𝑖 − 𝑋̅𝑤𝑖 𝜀𝑖 )]
𝑛 𝑛 𝑛
𝑖=1
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
1 1 1
=𝐸 ∑ 𝛽̂0 + 𝛽
̂1 ∑ 𝑋𝑖 + ∑ 𝜀𝑖 − 𝛽
̂0 𝑥̅ ∑ 𝑤𝑖 − 𝛽
̂1 𝑋̅ ∑ 𝑋𝑖 𝑤𝑖 − 𝑋̅ ∑ 𝑤𝑖 𝜀𝑖
𝑛 𝑛 𝑛
𝑖=1 𝑖=1 ⏟
𝑖=1 ⏟ 𝑖=1 𝑖=1 𝑖=1
( =0 =1 )
𝑛 𝑛
1
= 𝐸 (∑ 𝛽̂) + 𝐸(𝛽
̂1 𝑋̅) − 𝐸(𝛽
̂1 𝑋̅) − 𝑋̅ ∑ 𝑤𝑖 𝜀𝑖
𝑛 0
𝑖=1 𝑖=1
𝑛 𝑛
𝑛 𝜀
= 𝐸( 𝛽̂0 ) + 𝐸(𝛽 ̂1 𝑋̅) − 𝐸 (∑ 𝑖 − 𝑋̅ ∑ 𝑤𝑖 𝜀𝑖 )
̂1 𝑋̅) − 𝐸(𝛽
𝑛 𝑛
𝑖=1 𝑖=1
𝑛
1
̂0 + ⏟
=𝛽 ̂1 𝑋̅ − 𝛽
𝛽 ̂1 𝑋̅ − ∑ ( − 𝑋̅𝑤𝑖 ) ⏟
𝐸(𝜀𝑖 )
𝑛
=0 𝑖=1 =0
̂0 ) = 𝛽0
𝐸(𝛽
̂0 est sans biais.
D’où 𝛽
̂0 et 𝛽
3°/ - Les estimateurs 𝛽 ̂1 sont à variances minimales de 𝛽0 et 𝛽1. Il s’agit de
déterminer leurs variances et voir si elles sont convergentes.
̂𝟏 , on a :
Pour 𝜷
2 𝑛
̂1 ) = 𝐸 [𝛽
𝑉(𝛽 ̂1 − 𝐸(𝛽
⏟ ̂1 )] avec ̂1 = 𝛽1 + ∑ 𝑤𝑖 𝜀𝑖
𝛽
=𝛽1 𝑖=1
𝑛 2
̂1 ) = 𝐸 (𝛽1 + ∑ 𝑤𝑖 𝜀𝑖 − 𝛽1 )
⇔ 𝑉(𝛽
𝑖=1
𝑛 2
= 𝐸 [(∑ 𝑤𝑖 𝜀𝑖 ) ]
𝑖=1
𝑛 𝑛
= 𝐸 (∑ 𝑤𝑖 2 𝜀𝑖 2 + 2 ∑ 𝑤𝑖 𝑤𝑖 ′ 𝜀𝑖 𝜀𝑖 ′ )
𝑖=1 𝑖<𝑖 ′
𝑛 𝑛
2 2)
= ∑ 𝑤𝑖 𝐸( 𝜀𝑖 + 2 ∑ 𝑤𝑖 𝑤𝑖 ′ 𝐸(𝜀𝑖 𝜀𝑖 ′ )
𝑖=1 𝑖<𝑖 ′
= ∑ 𝑤𝑖 2 𝑉( 𝜀𝑖 )
𝑖=1
𝑛
= ∑ 𝑤𝑖 2 𝜎𝜀2
𝑖=1
𝑛
= 𝜎𝜀2 ∑ 𝑤𝑖 2
𝑖=1
𝑛 2
𝑋𝑖 − 𝑋̅
= 𝜎𝜀2 ∑ [ ]
(𝑋𝑖 − 𝑋̅)2
𝑖=1
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
= 𝜎𝜀2
∑𝑛𝑖=1[(𝑋𝑖 − 𝑋̅)2 ]2
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
= 𝜎𝜀2
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)4
1
= 𝜎𝜀2
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
𝜎𝜀2
̂1 ) =
𝑉(𝛽
∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2
̂𝟎 , on a :
Pour 𝜷
𝑛
2 1
̂0 ) = 𝐸[𝛽
𝑉(𝛽 ̂0 − 𝐸(𝛽
̂0 )] avec ̂0 = 𝛽0 + ∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖
𝛽
𝑛
𝑖=1
𝑛 2 𝑛
1 1
̂0 ) = 𝐸 [𝛽0 + ∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖 − 𝐸(𝛽
𝑉(𝛽 ̂0 )] avec ̂0 = 𝛽0 + ∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖
𝛽
𝑛 𝑛
𝑖=1 𝑖=1
𝑛 2
1
= 𝐸 [𝛽0 + ∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖 − 𝛽0 ]
𝑛
𝑖=1
𝑛 2
1
= 𝐸 [𝛽0 − 𝛽0 + ∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖 ]
𝑛
𝑖=1
𝑛 2
1
= 𝐸 [∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖 ]
𝑛
𝑖=1
2𝑛 𝑛 𝑛
1 1 1
= 𝐸 [∑ ( 𝑋𝑤𝑖 ) 𝜀𝑖 2 + 2 ∑ ∑ ( − 𝑋̅𝑤𝑖 ) 𝜀𝑖 ( − 𝑋̅𝑤𝑖 ′ ) 𝜀𝑖 ′ ]
̅
𝑛 ′
𝑛 𝑛
𝑖=1 𝑖=1 𝑖 =1
𝑛 2 𝑛 𝑛
1 1 1
= ∑ ( − 𝑋̅𝑤𝑖 ) 𝐸(𝜀𝑖 2 ) + 2 ∑ ∑ ( − 𝑋̅𝑤𝑖 ) ( − 𝑋̅𝑤𝑖 ′ ) 𝐸(𝜀
⏟ 𝑖 𝜀𝑖 ′ )
𝑛 ′
𝑛 𝑛
𝑖=1 𝑖=1 𝑖 =1 =0
𝑛 2
1
̅
= ∑ ( − 𝑋𝑤𝑖 ) 𝐸(𝜀𝑖 2 )
𝑛
𝑖=1
𝑛 2
1
= ∑ ( − 𝑋̅𝑤𝑖 ) 𝜎𝜀2
𝑛
𝑖=1
𝑛 2
1
= 𝜎𝜀2 ∑ ( ̅
− 𝑋𝑤𝑖 )
𝑛
𝑖=1
𝑛
1 2𝑋̅𝑤𝑖
= 𝜎𝜀2 ∑ ( 2 − + 𝑋̅ 2 𝑤𝑖 2 )
𝑛 𝑛
𝑖=1
𝑛 𝑛
𝑛 2𝑋̅
= 𝜎𝜀2 − ∑ 𝑤 + 𝑋̅ 2 ∑ 𝑤𝑖 2
𝑛2 𝑛 ⏟ 𝑖
𝑖=1 𝑖=1
( =0 )
𝑛
1
= 𝜎𝜀2 ( + 𝑋̅ 2 ∑ 𝑤𝑖 2 )
𝑛
𝑖=1
2𝑛
1 𝑋𝑖 − 𝑋̅
2 ̅ 2
= 𝜎𝜀 [ + 𝑋 ∑ ( ) ]
𝑛 (𝑋𝑖 − 𝑋̅)2
𝑖=1
𝑛
1 (𝑋𝑖 − 𝑋̅)2
= 𝜎𝜀2 [ + 𝑋̅ 2 ∑ ]
𝑛 (𝑋𝑖 − 𝑋̅)4
𝑖=1
𝑛
1 1
= 𝜎𝜀2 [ + 𝑋̅ 2 ∑ ]
𝑛 (𝑋𝑖 − 𝑋̅)2
𝑖=1
1 𝑋̅ 2
= 𝜎𝜀2 [ + 𝑛 ]
𝑛 ∑𝑖=1(𝑋𝑖 − 𝑋̅)2
1 𝑋̅ 2
̂ 2
𝑉(𝛽0 ) = 𝜎𝜀 [ + 𝑛 ]
𝑛 ∑𝑖=1(𝑋𝑖 − 𝑋̅)2
2
̂0 , 𝛽
4°/ - Les estimateurs 𝐶𝑜𝑣(𝛽 ̂1 ) ≠ 0 ̂1 ) = 𝑛 −𝑛𝜎
̂0 , 𝛽
𝐶𝑜𝑣(𝛽 ∑ (𝑋 −𝑋̅ )2
𝑖=1 𝑖
Après avoir estimé le modèle, l’étape suivante est de valider le modèle avec
l’application d’un ensemble de tests statistiques.
̂𝟎
Test de significativité pour le paramètre 𝜷
𝐻0 ∶ 𝛽0 = 0
𝐻1 ∶ 𝛽0 ≠ 0
̂0 − 𝛽0 |
|𝛽 ̂0 −0|
|𝛽
Il est donnée que ̂ 𝛽0
= 𝑡𝛽∗0 ; sous l’hypothèse 𝐻0 , soit ̂ 𝛽0
= 𝑡𝛽∗0 suit une loi
𝜎 𝜎
̂𝟏
Test de significativité pour le paramètre 𝜷
𝐻0 ∶ 𝛽1 = 0
𝐻1 ∶ 𝛽1 ≠ 0
̂1 − 𝛽1 |
|𝛽 ̂1 −0|
|𝛽
Il est donnée que ̂ 𝛽1
= ̂ 𝛽1
= 𝑡𝛽∗1 ; sous 𝐻0 : 𝑡𝛽∗0 suit une loi de Student à
𝜎 𝜎
Remarque :
Le coefficient de détermination qui est le coefficient de corrélation, élevé au
carré,𝑅 2 indique la fraction de la variance de Y expliquée par l’influence linéaire de la
valeur X. En effet, Le coefficient de détermination mesure la qualité d’ajustement du
modèle, c’est-à-dire le degré d’ajustement des observations sur la droite de
régression.
𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅2 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇
Le coefficient de détermination est compris entre 0 et 1. Plus la variance
expliqué et proche de la variance totale le mieux est l’ajustement par la droite des
moindres carrés (≈ 1) .
Cette valeur estimée est sans biais mais en réalité il est peu pratique de
connaitre la prévision sans connaitre son degré de confiance. Donc il est nécessaire
de calculer la variation de l’erreur de la prévision afin de déterminer un intervalle de
confiance pour cette prévision.
1 𝑥𝑛+1 − 𝑋̅
∗ √(1 + + 𝑛 )]
𝑛 ∑𝑖=1(𝑋𝑖 − 𝑋̅)2
Exemple récapitulatif
Le tableau suivant représente l’évolution du chiffre d’affaires annuelles d’une
entreprise en 2021. Désignant par 𝑌𝑡 le chiffre d’affaires relatif au trimestre t et 𝑋𝑡 le
rang du trimestre t, on fait l’hypothèse que ces données sont liées par un modèle de
̂0 + 𝛽
régression linéaire simple : 𝑌𝑡 = 𝛽 ̂1 𝑋𝑡 + 𝑒𝑡
T X Y
1 3 6
2 2 4
3 1 5
4 2 9
Afin de rendre l’écriture du modèle plus pratique, nous utilisons l’écriture matricielle.
𝑌1 = 𝛽0 + 𝛽1 𝑋1,1 + +𝛽2 𝑋2,1 + ⋯ + 𝛽𝑘 𝑋𝑘,1 + 𝜀1
𝑌2 = 𝛽0 + 𝛽1 𝑋1,2 + +𝛽2 𝑋2,2 + ⋯ + 𝛽𝑘 𝑋𝑘,2 + 𝜀2
𝑌3 = 𝛽0 + 𝛽1 𝑋1,3 + +𝛽2 𝑋2,3 + ⋯ + 𝛽𝑘 𝑋𝑘,3 + 𝜀3
⋮ ⋮ ⋮ ⋮
𝑌𝑛 = 𝛽0 + 𝛽1 𝑋1,𝑛 + 𝛽2 𝑋2,𝑛 + ⋯ + 𝛽𝑘 𝑋𝑘,𝑛 + 𝜀𝑛
Donc
𝑌(𝑛,1) = 𝑋(𝑛,𝑘+1) 𝛽𝑘+1,1 + 𝜀(𝑛,1)
𝑦1
𝑦2
𝑌 = 𝑦3
⋮
𝑦
( 𝑛)
1𝑋11 𝑋21 …𝑋𝑘1
1𝑋12 𝑋22 …𝑋𝑘2
𝑋 = 1𝑋13 𝑋23 …𝑋𝑘3
⋮ ⋮ ⋮ ⋮ ⋮
(1𝑋1𝑛 𝑋2𝑛 …𝑋𝑘𝑛 )
𝛽1
𝛽2
𝛽 = 𝛽3
⋮
(𝛽𝑛 )
𝜀1
𝜀2
𝜀 = 𝜀3
⋮
𝜀
( 𝑛)
La première colonne de la matrice X est constitué de chiffre 1 ce qui correspond
au terme constant 𝛽0 . Puis les autres colonnes sont constituées des variables
explicatives.
Le modèle est linéaire sur ses variables explicatives. Deux types d’hypothèses
émergent : les hypothèses stochastiques, d’une part, et celles dites structurelles,
d’autre part.
1)- Absence de colinéarité entre les variables explicatives, ce qui implique que
la matrice(𝑋 ′ 𝑋) est stable, et qu’elle est inversible.
(𝑋 ′ 𝑋)
2)- tend vers une matrice finie non régulière.
𝑛
∑𝑛𝑖=1 𝑒
2
Le coefficient de détermination 𝑅 2 = 1 − 𝑛
∑𝑖=1(𝑌𝑖 −𝑌̅)2
Remarque :
Si l’hypothèse de non-régression n’est pas satisfaite, la loi de 𝑅 2 n’est pas une
forme simple, ce qui suggère de calculer le coefficient de détermination ajusté.
̅̅̅ 𝑛−1
𝑅 2̅ = 1 − 𝑛−𝑘−1 (1 − 𝑅 2 ) Avec n : nombre d’observation et k : nombre de variables
explicatives.
Si ̅𝑅̅̅2̅ ≈ 𝑅 2 ≈ 1 cela indique l’absence d’erreur liée à l’introduction des variables
explicatives dans le modèle. Donc le modèle est bien spécifié.
Exemple récapitulatif
On suppose qu’une entreprise cherche à déterminer l’impact des ruptures de
production sur la hausse du cout de production, pour cela elle utilise deux variables
explicatives (𝑋1 : la fréquence des coupures d’électricité par mois et 𝑋2 : la fréquence
des pannes de machines par mois). Aussi les fluctuations figurent-elles dans le tableau
ci-après.
Y X X
1 3 4
1 3 2
2 5 2
3 7 1
3 8 1