Académique Documents
Professionnel Documents
Culture Documents
Méthodes Econométries
Module M2:
-Econométrie I
Parcours :
Economie et Gestion
S6 -Section B-
Vol. Horaire : 50h = 34 C + 12.5 Td +3.5 éval
TOUIJAR 1
TOUIJAR 2
La naissance de l'économétrie moderne
TOUIJAR 4
Introduction générale
L’économétrie est la branche des sciences économiques
qui traite des modèles et des méthodes mathématiques
appliquées aux grandeurs et variations économiques.
Le calcul infinitésimal, les probabilités, la statistique, et
la théorie des jeux, ainsi que d’autres domaines des
mathématiques, sont utilisés pour analyser, interpréter
et prévoir divers phénomènes économiques tels que les
variations de prix sur le marché, l’évolution des coûts
de production, le taux de croissance, le niveau du
chômage, les variations du taux de change, les grandes
tendances de l’économie à court et moyen terme qui
permettent d’orienter la conduite d’une politique
économique. TOUIJAR 5
Introduction générale
TOUIJAR 6
PROGRAMME DE CE SEMESTRE
Chapitre 0: Rappel sur les Tests
d’Hypothèses et moments conditionnels
Chapitre 2: Le modèle
de régression linéaire multiple
TOUIJAR 7
BIBLIOGRAPHIE
H1 : « θ ∈ Θ1 »
TOUIJAR 13
H0 : s’appelle l’hypothèse nulle.
H0 devient H0 : « θ = θ0 » et sera
appelée l’hypothèse simple.
TOUIJAR 14
Soit l’hypothèse simple H0 : « θ = θ 0 »
TOUIJAR 18
• On rejette H0 alors que H0 est vraie:
RH0/H0vraie
• On l’appelle « erreur de première
espèce »
• 2)-
Décision
Réalité RH0 NRH0
H 0 :" p = p 0 "
T .U .G . #
H 1 :" p < p 0 "
TOUIJAR 23
Procédure à suivre
1- paramètre p=θ à tester
2- Formulation des deux hypothèses
3- TUG pour la proportion
4- F est un bon estimateur de p
5- si le T.C.L. est vérifié sous H0 alors
F − p0
Z=
p 0q 0
n
TOUIJAR 24
I- Tests Relatifs à Une Proportion
R.D
p 0 q0
Si f < cα = p0 − zα on rejette H 0
n
Si f ≥ c = p − z p 0 q0
α α on ne rejette pas H 0
0
n
En effet :
- Notation : TOUIJAR 25
Courbe de densité où
de la loi normale P ( Z > +z α ) = α
centrée réduite 1 et
F − p0 2π où z α = −z 1−α
Z=
p 0q 0
n
1- α
α
F−p cα − p0
α = P0 (RH 0 ) = P0 (F < cα ) = P0 0
<
p0 q0 p0 q0
n n
cα − p0
⇒ = − zα ⇒ cα = p0 − zα p0 q0
p0 q0 n
TOUIJAR 27
n
Loi de Loi de
F sous α F sous
H1 H0
p1 cα p0 F
TOUIJAR 28
p1 cα p0
• Remarque : Les logiciels utilisent souvent
le niveau de signification α0 ( p-value)
d’une réalisation f de F : c’est le plus
petit α à partir du quel on ne peut plus
P0 (F < f ) = α 0
rejeter H0 :
TOUIJAR 30
• 2- Test Unilatéral à droite pour la
proportion
H 0 :" p = p0 "
• i)-F.H.
T .U .D.#
H1 :" p > p0 "
zα p0 q0
n
F
R0 p0 cα
R0
F − p0 cα − p 0
α = P0 ( RH 0 ) = P0 ( F > cα ) = P0 >
p 0q 0 p 0q 0
n n
cα − p 0 p q
⇒ = + z α ⇒ cα = p 0 + z α 0 0
p 0q 0 n
TOUIJAR 32
n
• Remarque : La p-value ici vaut :
α 0 = P0 (F > f )
Si on teste p = 0,75 # p > 0,75 et si n=100 f = 0,65
Alors :
α 0 = P0 (F > f )
= P0 (Z > −2,309) = 99%
Le test n’est donc pas significatif à 5% ni à
95% TOUIJAR 33
3- Test Bilatéral pour la proportion
F.H
• Ou
Si z > zα /2 on rejette H 0
Si z ≤ zα /2 on ne rejette pas H 0
• avec f − p0
z =
p 0q 0
TOUIJAR 36
n
Remarque Si on teste p = 0,75 # p ≠ 0,75
et si F vaut f = 0,65 , alors la p-value
vaut ici :
F − p f − 0, 75
α0 = P0 0
>
p 0q 0 0, 75 × 0, 25
n 100
= P0 (Z > + 2 , 3 0 9 ) = 2 × P0 ( Z > + 2 , 3 0 9 )
= 2 × 1% = 2%
c − µ0
α = P0 (RH 0 ) = P0 (X > c ) = P0 Z > n ×
σ
c − µ0 σ
⇒ × n = zα ⇒ c = µ 0 + zα
σ TOUIJAR n 40
D’où la règle de décision :
σ
Si x > cα = µ 0 + zα on rejette H0
n
σ
Si x ≤ cα = µ0 + zα on ne rejette pas H0
n
TOUIJAR 41
b)Si σ est inconnu et X est normale; on a
la règle de décision :
s
Si x > cα = µ 0 + t n −1;α on rejette H 0
n
s
Si x ≤ cα = µ 0 + t n −1;α on ne rejette pas H 0
n
c)Si σ est inconnu et n ≥ 50 ; on a la
règle de décision :
s
Si x > cα = µ 0 + zα n on rejette H 0
s
Si x ≤ cα = µ 0 + zα on ne rejette pas H 0
n
TOUIJAR 42
II- Tests Relatifs à Une
Moyenne
• 2- Test Unilatéral à gauche pour
la moyenne
H 0 :" µ = µ 0 "
i)-
T .U .G.#
H1 :" µ < µ 0 "
TOUIJAR 43
•ii)-On adopte ensuite une Règle de
décision basée sur la statistique X et qui
répondra à la question: à partir de quelle
réalisation de X décidera-t-on du rejet de
H0 ?
R0 R0
c1 µ0 c2
TOUIJAR 47
R0
x ∈ [c1 ; c2 ] ⇔ c1 ≤ x ≤ c2 ⇔ µ 0 − c ≤ x ≤ µ 0 + c
⇔ −c ≤ x − µ 0 ≤ + c ⇔ x − µ 0 ≤ c
Si x − µ0 > c on rejette H0
Si x − µ0 ≤ c on ne rejette pas H0
TOUIJAR 48
On a les règles de décision selon les
cas :
σ
Si x − µ 0 > zα /2 on rejette H0
n
σ
Si x − µ0 ≤ zα / 2 on ne rejette pas H0
n
TOUIJAR 49
b)Si σ est inconnu et X est normale
s
Si x − µ 0 > t n −1;α / 2 on rejette H0
n
s
Si x − µ0 ≤ t n−1;α / 2 on ne rejette pas H0
n
c)Si σ est inconnu et n ≥ 50 ; on a
s
Si x − µ 0 > zα /2 on rejette H0
n
s
Si x − µ0 ≤ zα / 2 on ne rejette pas H0
n
TOUIJAR 50
III- Tests Relatifs à Une
Variance
• Dans ce paragraphe on supposera la
normalité de la population
T .U .D.#
H1 :"σ 2 > σ 02 "
TOUIJAR 51
RD.
Si s 2 > cα on rejette H 0
Si s 2
≤ cα on ne rejette pas H 0
χ2 (n-1)
χ 2n−−1;α Y
S2
Y = ( n − 1) χ2 (n-1) sous H0
σ 02
2 σ 02 2 σ 02 2
α = P0 (Y > χ 2 ) = P0 S TOUIJAR
> χ n −1;α ⇒ cα = n − 1 χ52n −1;α
n −1;α
n −1
De la même façon que précédemment, on
a les règles de décision selon les cas :
T .U .G.#
H 1 :"σ 2 < σ 02 "
R.D. (pour µ inconnue)
σ 2
0
T .B.#
H1 :"σ ≠ σ 0 "
2 2
TOUIJAR 55
Si µ est inconnue
2 σ0 2
σ
2
• F.H.
H : σ 2
1 = 1
0
σ 2
H 0 : σ 1 = σ 2
2 2
2
# ⇔ #
H : σ 2 ≠ σ 2
1 1 2
σ12
H
1 : 2 ≠1
σ2
TOUIJAR 57
Cas où µ est inconnue
• Rapport critique (sous H0):
S12 Si s 2 > s 2
Rc = 2 1 2 σ 2
S2 H : 2 =1
2
S22
0
σ1
Sinon Rc = 2 et F.H. devient alors
S1 H1 : σ 2
2 ≠1
2
σ1
• Loi de Rc sous H0 :
Rc ↝ ℱ 1 , 2
TOUIJAR 58
• R.D.
[ ]
Si Rc ∉ F1−α / 2 (ν 1 ;ν 2 ) ; Fα / 2 (ν 1 ;ν 2 )
on rejette H 0
Si Rc ∈ F1[
−α / 2 (
ν 1 ;ν 2 ) ; Fα / 2 (
ν 1 ;ν 2 ]
)
on ne rejette pas H 0
où ν i = ni − 1
TOUIJAR 59
2- Test Bilatéral de comparaison de 2
moyennes
H0 : µ1 = µ2 H0 : µ1 − µ2 = 0
# ⇔ #
H1 : µ1 ≠ µ2 H1 : µ1 − µ2 ≠ 0
• On propose X 1 − X 2 comme estimateur
de µ1−µ2 :
Si x − x ≤ t 1 1
ˆ
α / 2;n1 + n2 −2 s +
1 2
n1 n 2
on ne rejette pas H0TOUIJAR 62
•Où
Sˆ 2
=
(n1 − 1)S + (n2 − 1)S
1
2 2
2
(n1 − 1) + (n2 − 1)
•c)Si σ1 et σ2 inconnus et n1 ≥ 50 , n2 ≥ 50
alors la R.D. est la suivante :
TOUIJAR 63
s2
s 2
Si x1 − x2 > zα / 2 1
+ 2
on rejette H0
n1 n 2
s2
s 2
Si x1 − x2 ≤ zα / 2 1
+ 2
on ne rejette
n1 n 2
pas H
0
TOUIJAR 64
CH 0
Rappels
II
Moments
Conditionnels
TOUIJAR 65
• RAPPELS
• Moments Conditionnels :
• On suppose que Y est une V.A.R. mais que X
peut être qualitative;
• L’Espérance conditionnelle :
• On appelle espérance de Y sachant X=x;
notée E (Y X = x ) ; la quantité définie par
E (Y X = x ) = ∑ y P (Y = y / X = x )
y
• Rem : E(Y/X=x)=ϕ(x) est une fonction de x
appelée fonction de régression de Y en X
TOUIJAR 66
• Définition :
• On appelle espérance conditionnelle de Y
sachant X; notée E (Y X ) ; la variable
aléatoire définie par :
E(Y/X)=ϕ(X)
• Propriétés :
• 1) Linéarité: E (Y 1 + Y 2 X ) = E (Y 1 X ) + E (Y 2 X )
• 2) Théorème de l’espérance Totale :
E E (Y TOUIJAR
X ) = E (Y ) 67
• La Variance conditionnelle :
• Définition :
• On appelle Variance conditionnelle de Y
sachant X=x; notée V (Y X = x ) ; la quantité
V (Y X = x ) = E (Y − E (Y X = x ) ) / X = x
2
• De là on peut définir la V.A. variance
conditionnelle :
V (Y X ) = E (Y − E (Y X )) /X
2
• Théorème de la variance Totale :
V (Y ) = E V (Y / X ) +V E (Y X ) 68
TOUIJAR
• Approche géométrique :
• Soit le produit scalaire de 2 V.A. X et Y, noté
<X , Y>, définie comme suit
<X , Y>= E(XY)
Et soit ||.|| la norme associée à ce produit
X ,X = E (X )
scalaire :
X = 2
X
Lx TOUIJAR 70
TOUIJAR 71
Introduction :
• La RLS (régression linéaire simple)
permet d’étudier la liaison (supposée
linéaire) entre deux variables quantitatives
X et Y; où Y (variable endogène) sera
expliquée par X (variable exogène).
• Autrement, on cherche à prévoir le
comportement moyen de Y en fonction de
la V.A. X : Y= ϕ (X) tel que cet estimateur
soit sans biais : E(Y)=E(Y), et à mesurer
l’erreur de prévision : V(Y-Y)
TOUIJAR 72
• Nous allons nous intéressé à l’aspect
inférentiel de cette régression.
• On supposera, dorénavant, que la
fonction ϕ de la V.A. X est linéaire
(Régression Linéaire) et on traitera alors
cette régression sous deux volets; le
volet théorique ensuite le volet où on ne
travaillera qu’avec les réalisations de X
et Y sur un échantillon.
TOUIJAR 73
• Modèle théorique de la régression simple
• On mesure la qualité de cette approximation
par le rapport
η
2
=
( ( X )) = V ariance exp liquée = Cos
V E Y
2
(θ )
Y
X V (Y ) V arianceTotale
E (Y ) = E E (Y / X ) + E (W ) ⇒ E (W ) = 0
= E (Y ) TOUIJAR 74
et d’après le graphique ci-dessus W est non
corrélée ni avec X ni avec E(Y/X) (car ) d’où
V (Y ) =V E (Y / X ) +V (W )
V (Y ) −V (W ) V (W )
⇒η Y =
2
= 1−
X V (Y ) V (Y )
⇒V (W ) = σ (W ) = 1 −η Y
V (Y )
2 2
X
TOUIJAR 75
• Cas où la régression est Linéaire
• C’est le cas où E(Y/X)=α0+α1X ; on a alors
Y = α 0 + α1X +W
(
E Y
X ) =α 0 + α 1X
E (Y ) = α 0 + α 1E ( X )
⇒Y − E (Y ) = α 1 ( X − E ( X ) ) +W
⇒ E (Y − E (Y ) ) ( X − E ( X ) ) = α 1 E ( X − E ( X ))
2
+ E W ( X − E ( X ) )
=0
Cov ( X ,Y ) = ρ σY
⇒ Cov ( X ,Y ) = α 1V ( X )TOUIJAR
⇒ α1 =
V (X ) σ X76
• Cas où la régression est Linéaire et simple
• L’équation de la droite s’écrit alors
Cov ( X ,Y )
(
E Y
X )
− E (Y ) =
V (X )
(X − E (X ))
σY
⇒ Y = E (Y ) + ρ
σX ( X − E (X ) ) +W
σ 2
⇒ V (Y ) = ρ 2 Y 2 V ( X ) +V (W )
σX
= ρ 2V (Y ) +V (W )
⇒ ρ =η Y
2 2
TOUIJAR 77
• Modèle de la régression linéaire avec
données Expérimentales
• Il y a trois types différents de données :
Données en coupes instantanées ( ou transversales :
Cross-sections)
• Exemple :
Ct = α0 + α1Rt +W t ∀t = 1,… ,T
• Ct et Rt observés pour t = 1, ...,T
TOUIJAR 80
• Modèle de la régression linéaire avec
données Expérimentales : 1er type
• Soient les données (xi , yi) un échantillon de
taille n , relatif à (X ,Y).
• Régression linéaire ⇒ E Y ( )
= α 0 + α 1X
X
• Le modèle s’écrit alors :
y i = α0 + α1x i +w i ∀i = 1,…, n
l’échantillon.
TOUIJAR 83
• Exemples de Modèles linéaires et non
Linéaires:
1)- Soit la fonction keynésienne :
Ct = α0 + α1Rt +W t ∀t = 1,… , n
Où C : consommation
R : le revenu
α1: propension marginale à consommer
α0: consommation incompressible.
w : l’erreur (bruit)
β
• 2)- y =α x un modèle non-linéaire mais
qu’on peut rendre linéaire en composant par le
logarithme :
Ln ( y ) = Ln (α ) + β Ln ( x )
TOUIJAR 85
• Exemples de Modèles linéaires et non
Linéaires:
y ′ = Ln ( y ) ⇒ y ′ = α ′ + β x
• Modèle à croissance exponentielle
TOUIJAR 86
• Exemples de Modèles linéaires et non
Linéaires:
exp (α + β x )
• 4)- y = un modèle non-linéaire
1 + exp (α + β x )
mais qu’on peut rendre linéaire en posant :
y
y ′ = Ln ⇒ y ′ =α + βx
1− y
• Modèle logistique qui étudie les variations d’un
taux de réponse y en fonction d’une excitation
x
TOUIJAR 87
• Exemples de Modèles linéaires et non
Linéaires:
• 5)- y = α + exp ( β x )
est un modèle non-linéarisable
TOUIJAR 88
• Estimations des paramètres α , β et σ 2:
• Exemple Introductif
• Exemple Introductif
TOUIJAR 91
Hypothèses
• H1: Le modèle est linéaire en X
N (α0 +α1xi ; σ )
N (0,σ Yi
• Wi 2)
⇒ 2
X i = xi
• Graphiquement :
TOUIJAR 93
f (Y/X)
σ
Y
x1
σ
x2
σ
x3
X
E (Y / X = x ) = α0 + α1x
TOUIJAR 94
Remarques
• 2)- E(Wi /X)=0 E(Wi)=0 et cov(Wi ,X)=0
xi
TOUIJAR
x X 96
• Notons par l’équation de la
droite de régression recherchée
• Et la valeur résiduelle.
⇔ y = α0 + α1x
• Donc la droite passe par le point moyen G ( x ; y )
∂F (α0 , α1 ) n
= 0 ⇔ −2∑ x i ( y i − α0 − α1x i ) = 0 ( 2)
∂α1 i =1
n n n
⇔ ∑ x i y i − α0 ∑ x i − α1 ∑ x i2 = 0
i =1 i =1 i =1
⇔ xy − α0 x − α1 x = 0 2
xy − x y Cov ( x , y )
⇔ α1 =TOUIJAR =
x −x
2 2 V (x ) 98
• (1) et (2) nous donnent les équations :
n n
∑e
i =1
i = 0 et ∑x e
i =1
i i =0
• Et d’autre part :
∑ ( x − x )( y − y )
αˆ1 = i i
et αˆ0 = y − αˆ1x
∑(x − x )
2
i
• α̂ 1 s’écrit aussi
n ∑(xi yi ) − ∑ xi ∑ yi
αˆ1 =
n ∑ (xi ) − (∑ xi )
2 2
TOUIJAR 99
Les Données centrées
• En utilisant les données centrées:
0 = − 0 = −
d’où A1 s’écrit
∑=1 0 0
1 =
∑=1 02
TOUIJAR 100
X Y X0 X02 Y0 X0 Y0 Y^ ei ei xi ei2
A1 =
∑ ( X − X )(Y − Y )
i i
∑(X − X )
2
i
Où E x (Y ) désignera E (Y X =x)
• Remarque :
En effet E E ( ( A )) = E ( A ) = α
xi
1 1 1
∑ (x − x )E xi
( (Y − Y) )
E xi
(A ) =
i i
∑(x −x )
1 2
i
Or E x i (Y i ) = α0 + α1x i
d’où
E x i ( Y ) = α0 + α1x ⇒ E x i (Y i − Y ) = α1 ( x i − x )
⇒E xi
( A1 ) = α1 TOUIJAR 105
• De même puisque :
α1
= α0 + α1x − x 1α1 = α0
⇒E E ( xi
( A0 ) ) = E ( A0 ) = α0
TOUIJAR 106
• Pour la troisième estimation :
E (Y
x
) = α0 + α1x ⇒ αˆ0 + αˆ1x = yˆ
est une estimation sans Biais de α0 + α1x = E (Y
x
)
⇒ Ŷ = A0 + A1X est un estimateur sans
Biais de E (Y
x
)
• On montre de plus que A1 et Y sont non
corrélés; pour ce, on commence par
montrer qu’elles le sont
conditionnellementTOUIJAR
à xi : 107
• En utilisant les données centrées:
x 0i = x i − x et Y 0i =Y i − Y d’où A1 s’écrit
A =
∑ x Y
=
0i ∑ x Y
0i
= ∑ ωY 0i i
où ωi =
x 0i
∑(x ) ∑(x ) ∑(x )
1 2 2 i i 2
0i 0i 0i
n
σ2
=
n
∑ω i =0
=0
Par conséquent elles sont non corrélées marginalement
TOUIJAR 108
Propriétés et Distributions des
Estimateurs A1 et A0
• Théorème 2 (GAUSS-MARKOV) :
A0 et A1 sont des estimateurs BLUE de α0 et α1
+ 2σ ∑ ω ( k − ω )
2
i i i
= σ ∑ ( k − ω ) + σ ∑ (ω ) − 2σ ∑ (ω )
2 2 2 2 2 2
i i i i
+ 2σ ∑ ω k
2
i i
2σ 2
2σ 2
= σ 2 ∑ ( k i − ωi ) − σ 2 ∑ (ωi ) + 2 ∑ i i ∑k
2 2
x k − x
∑ x 0i ∑ x 0i2 i
V ( A1 ) =1 =0
2V ( A1 )
=σ ∑ ( k − ω ) + 2V ( A ) −V ( A )
2 2
i i 1 1
= σ ∑ ( k − ω ) +V ( A ) ≥V ( A )
2 2
i i 1 1
TOUIJAR 111
≥0
De même pour A0; on a vu que :
1 ∑ X (Y − Y)
A0 = Y − X A1 = ∑Y − X
0i i
∑X
i 2
N 0i
∑X Y − Y∑
0i iX
0i
1 1
= ∑Y −X =0
= ∑ − X Ωi Y i
∑ 0i
i 2
N X N
une réalisation de A0 est :
1
αˆ0 = ∑ − x ωi yi
N
On vient de voir que A0; est une
combinaison linéaire des Yi et qu’il est sans
Biais de α0 reste à montrer
TOUIJAR
qu’il est de variance
112
minimale :
On calcule maintenant la variance de A0:
(désormais, on travaille avec les xi fixées et V au lieu de Vxi)
2 2
1 1
V ( A 0 ) = ∑ − x ωi V (Y i ) = σ ∑ − x ωi
2
N N
2
=σ ∑
2 1
+ x 2 x 0i
− 2
x
ω
N 2
2 i
2
N N
∑ x oi
i =1
∑
x
0i
2
2 1 1 x 2 1 x
=σ +x 2
− 2 =0
= σ +
N N
N N
N N
2
∑ x 0i
2
∑ 2
x 0i ∑ x 0i
i =1 i =1
TOUIJAR i =1 113
• Considérons un autre estimateur linéaire sans biais
A’ de α0, d’où
A ′ = ∑ k iY i et E ( A ′ ) = α0 ⇒ ∑ k i E (Y i ) = α0
⇒ ∑ k i (α0 + α1x i ) = α0
⇒ α0 ∑ k i + α1 ∑ k i x i = α0
⇒ ∑ k i = 1 et ∑k x i i =0
TOUIJAR 114
1
• Or posons f i = − x ωi
N
V ( A ′ ) = ∑ k i2V (Y i ) = σ 2 ∑ k i2
=σ ∑ (k − f + f ) = σ ∑ (k − f ) + σ ∑ (f )
2 2 2 2 2 2
i i i i i i
+ 2σ ∑ f ( k − f )
2
i i i
= σ ∑ ( k − f ) −V ( A ) + 2σ ∑ f k
2 2 2
i i 0 i i
2σ 2 2σ 2
= σ 2 ∑ ( ki − f i ) −V ( A0 ) + ∑ ki − x 2 x ∑
2
x i ki
N
=1
∑ 0i
=0
2σ 2 x 2
= σ ∑ ( k i − f i ) −V ( A0 ) + 2V ( A0 )
2
+ 2
∑ x 0i2
= σ ∑ ( k i − f i ) +V ( A0 ) ≥V ( A0 )
2 2
∑( y − yˆi )
2
i
σˆ 2 = i =1 est une estimation sans Biais de σ2
n −2
∑ (Y ) = ∑ (Y )
n 2 n 2
i −Y
ˆ
i i −Y+Y−Y
ˆ ;
i
i =1 i =1
et puisque Y = Y
ˆ d'où :
( ) ( )
n n n
= ∑ (Y i − Y ) + ∑ Y ˆ − 2∑ (Y − Y ) Y
2
2
ˆ −Y ˆ −Y
ˆ
i i i
i =1 i =1
i =1
(1) ( 2 ) TOUIJAR ( 3) 116
Dém : (suite)
( ) ( )
n 2 n 2
∑ i i ∑ i
Y
i =1
− ˆ
Y = Y − Y + Y − ˆ
Y
i =1
i
( ) ( )
n n n
= ∑ (Y i − Y ) + ∑ Y ˆ − 2∑ (Y − Y ) Y
2
2
ˆ −Y ˆ −Y
ˆ
i i i
i =1 i =1
i =1
(1) ( 2) ( 3)
y i = α0 + α1x i +w i
⇒ y i − y = (w i −w ) + α1 ( x i − x )
y = α0 + α1x +w
TOUIJAR 117
Dém : (suite)
D’où :
n n n
∑ (Y − Y ) = ∑ (W i − W ) + α ∑ (x )
2 2
−x
2 2
i 1 i
i =1 i =1 i =1
n
+2 ∑ (W i − W ) ( x i − x )
i =1
n n n
⇒ ∑ E (Y i − Y ) = ∑ E (W i − W ) + α12 ∑ ( x 0 i )
2 2 2
i =1
i =1 i =1
n
+2 ∑ ( x i − x ) E (W i − W )
i =1
=0
n n n
= ∑ E W i + n E W − 2 ∑ E W i W + α ∑ (x )
2 2 2 2
1 0i
i =1 TOUIJAR i =1 i =1 118
Dém : (suite)
σ2
n
1 n
= nσ + n − 2∑ E W i W i + ∑W j + α1 ∑ ( x 0i )
2 2 2
n i =1 n j ≠i i =1
n
2
= nσ 2 + σ 2 − ∑ E W i 2 + E ∑W iW j
n i =1 j ≠i
=σ 2
=0
n
+α ∑( x )
2 2
1 0i
i =1
n n
= nσ + σ − 2σ + α ∑ ( x ) = ( n −1) σ +α ∑( x )
2 2 2 2 2 2 2 2
1 0i 1 0i
i =1 TOUIJAR i =1 119
Dém : (suite) Pour ce qui est de (2) :
∑
n
ˆ
Yi
i =1
− Y(
ˆ) ( ) = A ∑ (x − x )
2 n
= ∑ Yˆi − Yˆ
i =1
2
1
2
n
i =1
i
2
⇒ E ∑ (Y − Y ) = ∑ ( x − x ) E (A )
ˆ
n
ˆ 2 n
2 2
i i 1
i =1 i =1
n 2
(( )
= ∑ ( x0i ) × V A1 + α12 )
i =1
n
σ 2
n
2
= ∑ ( x0i ) × n
+ α1 = σ + α1 ∑ ( x0i )
2
2 2 2
i =1 ( x )2 i =1
∑ 0i
i =1 TOUIJAR 120
Dém : (suite) Pour ce qui est de (3) :
∑
n
(Y
i =1
− Y
i )(Yˆ −iYˆ ) = ∑
n
Y
i =1
(
Y ˆ − ˆ
Yi) − Y ∑i(
Y ˆ
n
− Y
i =1
ˆ )i
n n
= A1 ∑ Yi ( xi − x ) − A1 Y ∑ ( xi − x )
i =1 i =1
n =0
= ∑ ( x0 i )2 ∑ ωiYi
i =1
i =1
(
ˆ ˆ
) n
i =1
2
⇒ E ∑ (Yi − Y ) Yi − Y = E A1 ∑ ( x0i ) A1
n
n
(( ) ) 2
n
= ∑ ( x0i ) × V A1 + α1 = σ + α1 ∑ ( x0i )
2 2 2 2
i =1 TOUIJAR
i =1 121
Dém : (suite)
Pour ce qui est de (1)+(2)-2*(3) :
n
( ) 2
E ∑ Yi − Yi = ( n − 2)σ
ˆ 2
i =1
⇒ E
1 n
n − 2
∑ (
Y i − Y)
ˆ 2
i = σ 2
i =1
CQFD
On pose donc :
1
Sσ =
2
n−2
∑ ei ESB de σ
2
TOUIJAR
2
122
Distributions des estimateurs ˆ
A0 , A1 et Y
Puisque Wi est normale, on a
Yi/Xi=xi N (α 1 xi + α 0 , σ2)
Par conséquent A0 , A1 et Y ˆ suivent aussi, pour des x
i
fixées, des lois Normales :
A1 N ( α1 , σ2 )
∑(x )
2
0i
N (α
2
A0 0 , σ
2 1
+
x
)
N ∑ ( x 0i )
2
N (α α
1 x i + 0 TOUIJAR
2
1 x
Ŷi ,σ +
2
N ∑(x )
0i
2
)
123
0i
• Remarques :
• 1- Les lois des estimateurs vont nous servir
pour la construction des intervalles de
confiance et pour les Tests.
• 2- On démontre que :
( n − 2) S σ2
=
∑ e i
2
χ ( n − 2)
2
σ 2
σ 2
est indépendante de A 0 , A1 et Y
TOUIJAR 124
II- Tests sur les coefficients du MRLS
Yi = α 0 + Wi ∀i = 1, … , n
et Y ne dépend plus alors de X.
TOUIJAR 125
i)- Formulation des Hypothèses :
H 0 : α1 = 0
#
H : α1 ≠ 0
1
TOUIJAR 126
A1
N (0 , 1 ) sous H0
σ
∑x 0i
2
n n
• Sinon, En remplaçant α0 et α1 par A 0 et A1, on
obtient une bonne estimation
TOUIJAR de σ2 : 127
σˆ =
2 1
∑ ( yi − αˆ 0 − αˆ1 xi ) =
2 1
∑ 2
ei
n−2 n−2
• Le n-2 vient du nombre de paramètres estimés
• D’où, la statistique du test sera, sous H0
TA1 =
A1
;où sA1 =
σˆ
=
∑i
e 2
S A1
∑(x ) n −2 ∑(x )
2 2
0i 0i
Exercice :
#
H : α ≠ 0
1 1
A1
Estimateur et sa loi TA1 = t(10)
S A1
R.D.
Si tαˆ > t10 ;0,025 on rejette H0
1
Si tαˆ1 ≤ t10 ; 0,025 on ne rejette pas H0
TOUIJAR 130
•A.N.
αˆ1 n − 2 ∑(x )
2
αˆ1
tαˆ1 = =
0i
sαˆ1 ∑i
e 2
0, 2074 10 752
= ≈ 4, 06 et t10;0,025 = 2, 23
19, 638
∑ (Y −
i Y ) =
2
∑ (Y
ˆ − Yi) + ∑ (2
Y − Yˆ )i i
2
SCT SCE
TOUIJAR SCR = ∑ 2
e134
i
en effet :
∑ (Y (
− Y) = ∑ Y − Y )
2 2
ˆ +Y
ˆ −Y
i i i
( ) + ∑ ( Yˆ − Y ) + 2∑ (Y − Yˆ )( Yˆ − Y )
2 2
= ∑ Y −Y
ˆ
i i i i
= ∑ (Y ˆ ) + ∑(Y ˆ − Y ) + 2∑ e ( Y
ˆ − Y)
2 2
−Y i i i i
= ∑ (Y ˆ ) + ∑(Y
−Y i
2
i ( )
ˆ − Y ) + 2∑ e Y
2
ˆ −Y ˆ
i i
= ∑ (Y ˆ ) + ∑(Y ˆ − Y ) + 2A ∑ e ( x − x )
2 2
−Y i i 1 i i
( ) + ∑( )
2 2
= ∑ Y −Y
ˆ
i
ˆ − Y + 2A ∑ e x − x ∑ e
Yi 1 i i i
=0
= 0
=0
( ) + ∑ ( Yˆ − Y )
2 2
= ∑ Y −Y
ˆ
i
TOUIJAR
i
135
• La variabilité totale(SCT)est égale à la
variabilité expliquée(SCE) augmentée de la
variabilité résiduelle(SCR).
• Cette décomposition va nous permettre de
décider de la qualité de l’ajustement du modèle.
• Remarque : si la variance expliquée tend
vers la variance totale (SCR faible), la
qualité de l’ajustement tend à être
meilleure.
• Ceci nous donne une idée de tester,
d’une autre façon, la signification de la
régression: un test équivalent au T-test
α
sur 1 TOUIJAR 136
• La variabilité expliquée SCE n’est autre qu’un
estimateur de E(SCE/1) et SCR estimateur de
E(SCR/n-2); on a :
SCE
E
1
= E ( A1 ∑ 0i )
2
x 2
= σ 2
+ α 1 ∑ 0i
2
x 2
SCR
E = E
∑ e i
2
= σ 2
n −2 n −2
•De là, on peut affirmer que si la régression est
significative(α 1 ≠ 0 ) alors:E(SCE /1) > E(SCR/n-2)
•Par contre, si la régression n’est pas significative
(α 1 = 0) alors: E(SCE/1) = E(SCR/n-2)
TOUIJAR 137
• D’où
H 0 : α1 = 0
# ⇔
H : α1 ≠ 0
1
H
0 : E (S C E 1 ) = E (S C R n − 2 ) ( ré g n o n s ig n .)
#
H
1 : E (S C E 1 ) > E (S C R n − 2 ) ( ré g s ig n .)
(T )
2
= = SCE =F
A1
SA SCR n − 2
1
TOUIJAR 139
Tableau de l’ ANOVA
Source Somme Carrés
d.d.l Fisher
de varθ des carrés moyens
x SCE= ∑ (
Yˆi − Y )
2
1 SCE/1F=
SCE/
Résidu SCR= ∑ i
2
e n-2 SCR/(n-2) (SCR/(n-2))
SCT=∑ (Yi − Y )
2
Totale n-1
H : ρ = 0
F.H.
0
#
H : ρ ≠ 0
1
σ XσY
∑ x ∑Y
2
0i
2
0i
⇒R 2
=
(∑ x Y )
0i 0i
2
= αˆ 2 ∑x 2
0i
∑ x ∑Y ∑Y
2 2 1 2
0i 0i 0i
α1 ∑ x0i SCE
α̂
ˆ 2 2
= =
• Car SCT SCT
( ) = ∑ (Yˆ − Yˆ )
2
SCE = ∑ Yˆi − Y
2
i
• Remarques:
• - On peut tester H0 en utilisant le rapport
R n − 2
critique T = , on lit alors t dans la
(1 − R 2
)
table de student à n-2 ddl
• le r-test sur le coefficient de corrélation ρ est
équivalent au T-test sur la pente(α 1 ) équivalent
au F-test sur les variances.
TOUIJAR 145
IV- PREVISION Sur Un MRLS
• À l’instant k=n+1, on a :
Ŷk = αˆ 0 + αˆ 1 x k = Y + αˆ 1 ( x k − x )
Intervalle de confiance autour de E(Y)
TOUIJAR 146
• Propriétés de Ŷk : la loi de Ŷk est normale
car combinaison des Yi
( )
E Yˆk = E (Y ) + (x k − x ) E (αˆ1 )
= (α 0 + α 1 x ) + (x k − x )α 1 = E (Yk )
ˆ( )
V Yk = V(Y ) + ( xk − x ) V(αˆ1 ) =
2
σ 2
+
σ 2
( xk − x )
2
=σ
2 1
+
( x k − x )2
n ∑x 2 n ∑ 0i
x 2
0i
• Or σ2est inconnue, on l’estime par
σ̂ 2
=
∑ e 2
i
n−2
TOUIJAR 147
on a alors :
Yˆk − E (Y k )
TYˆ = tα /2 ( n − 2 )
1 ( xk − x )
k 2
σˆ +
n ∑(x − x ) 2
i
D’où
+ (xk − x )
1 2
I C (E (Yk )) = Ŷk − σˆ tα / 2 (n − 2 ) ;
n ∑ ( x − x )2
i
1 ( xk − x )
2
Ŷk + σˆ tα / 2 (n − 2) +
( xi − x )
n ∑TOUIJAR 2
148
Si n → ∞ :
+ (xk − x )
1 2
I C (E (Yk )) = Ŷk − σˆ zα / 2 ;
n ∑ ( x − x )2
i
+ (xk − x )
1 2
Ŷk + σˆ zα / 2
n ∑ ( x − x )2
i
TOUIJAR 149
Intervalle de confiance pour E(Yk)
y
b.sup Ŷ = A0 + A1X
Y
b.inf
x
TOUIJAR
X
150
Exercice: on reprend toujours le même exo.
• Estimer à l’aide d’un intervalle de confiance la
moyenne des Y pour un x = 78.
Solution : on a d’abord Yˆ78 = −2,862 + 0, 2074 × 78 = 13,319
1 ( 78 − 62 )2
I C ( E (Y 78 ) ) = 13,319 − 2, 23 1,964 + ;
10 752
1 ( 78 − 62 )2
13,319 + 2, 23 1,964 +
10 752
= [11, 287 ;15,352] TOUIJAR 152
Régression de Y par X (R²=0,622)
18
16
14
12
Y
10
2
50 55 60 65 70 75 80
TOUIJAR
X 153
Actives Modèle Int. de conf. (Moyenne 95%) Int. de conf. (Obs. 95%)
V- PREVISION Sur Un MRLS
ˆ() 2
⇒ V (e k ) = V (Yk ( p ) ) + V Y = σ 1 + +
1 (x k − x )
2
∑ (xi − x )
2
n
⇒ σˆ (e k ) = S σ
1 + 1 + (x k − x ) 2
∑ (xi − x )
2
n
Yk ( p )− Yˆ
⇒ ֏ tα / 2 (n − 2 ) )
Sσ
1 + 1 + (x k − x )
2
n ∑ (xi − x )
2
TOUIJAR 155
IV- PREVISION Sur Un MRLS
Intervalle de prévision autour de Y k ( p )
1 + + ( xk − x ) ;
1 2
( )
I p Yk ( p ) = Yˆk − σˆ tα / 2 (n − 2)
n
∑ (xi − x )
2
2
1
Yk + σˆ tα / 2 (n − 2) 1 + +
ˆ ( xk − x )
n
∑ (xi − x )
2
I p (Y 78 ) = [9,568 ;17, 07 ]
TOUIJAR 156
IV- PREVISION Sur Un MRLS
Remarque :
Cet intervalle de prévision permet de
détecter les points aberrants( ou
extrêmes) afin de les écarter pour refaire
une nouvelle régression sans leurs
influence.
TOUIJAR 157
Chapitre 2
Régression Multiple
TOUIJAR 158
Introduction :
TOUIJAR 159
Le modèle :
TOUIJAR 161
Le modèle : (aspect empirique)
• Une variable quantitative Y (V. à expliquer ou
endogène) est mise en relation avec p variables
quantitatives X1, X2, …, Xp (V. explicatives , exogènes
ou régresseurs).
• On mesure sur n individus ces p+1 variables
représentées par des vecteurs de Rn: y, x1, x2, …, xp
(où n > p+1).
y i = α 0 + α1x i 1 + α 2 x i 2 + ⋯ + α p x ip + w i 1≤ i ≤ n
TOUIJAR 162
Le modèle : Ecriture matricielle
y 1 1 x 11 x 12 ⋯ x 1 p α 0 w 1
x
α
y 2 1 x 21 x 22 ⋯ 2 p 1 w
2
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
= +
y i 1 x i 1 x i 2 ⋯ x ip α i w i
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
α p w
y
n 1 x x ⋯ x
np n
n1
n2
Y ( n ,1) X ( n , p +1) α ( p +1,1) W ( n ,1)
α +W
Y = XTOUIJAR 163
Le modèle : Les Hypothèses
On supposera vrai les hypothèses suivantes :
n
min ∑ e i
2
i =1
ˆ =Y − X αˆ
où e =Y − Y
TOUIJAR 167
Le modèle : Méthode des
Moindres Carrés
• Autrement :
n
F (α ) = ∑e i
2
= e ′e
i =1
∑ (y )
2
= i − α 0 − α 1 x i 1 − α 2 x i 2 + ⋯ − α p x ip
= (Y − X α )′ (Y − X α ) = Y ′Y − 2α' X ′Y + α' X ′X α
∂F
= 0 ⇔ − 2X ′Y + 2 X ′X α = 0
∂α
⇔ α = ( X ′X )
−1
X ′Y
168
Le modèle : Méthode des
Moindres Carrés
• Où:
n ∑ x i1 ∑ xi2 ⋯ ∑ x ip
∑ x i1 ∑ x i 1 ∑ x i 1 x i 2 ⋯ ∑ x i 1 x ip
2
X ′X = ⋮ ⋮ ⋮ ⋮ ⋮
∑ x ip ∑ x ip x i 1 ⋯ ∑ x 2
ip
( p +1, p +1 )
∑ yi
X ′Y = ∑ x i1y i
⋮
∑ x ip y i TOUIJAR 169
Le modèle : Méthode des Moindres Carrés
• Exemple : (Modèle avec constante)
1 1 1.5
X= Y = ⇒ 2observations :(1,1.5) et ( 2,2)
1 2 2
3.5 2 3 5 −3
⇒ ( X′X ) =
−1
X′Y = X′X =
5.5 3 5 −3 2
1 1.5
αˆ = ( X′X )
−1
X′Y = Y = X αˆ =
ˆ
0.5 2
yˆi =1+0.5x i
1.5 1.5 0
e = − =
2 2 0
• e=0R2 : signifie que la droite estimée passe par les
TOUIJAR 170
deux points (1 , 1.5) et (2 , 2).
Le modèle : Méthode des Moindres Carrés
• Exemple : (Modèle sans constante)
1 1.5
X = Y = ⇒ 2observations :(1,1.5) et ( 2,2)
2 2
1
X′Y = 5.5 X′X = 5 ⇒ ( X′X ) =
−1
5
5.5 1.1
αˆ = ( X′X ) X′Y = = 1.1 Y
−1
ˆ
=
X
αˆ =
5 yˆi =1.1x i 2.2
1.5 1.1 0.4
e = − =
2 2.2 − 0.2
n
• On remarque que ∑ e i ≠ 0 car le modèle est sans cste.
i =1
TOUIJAR 171
PROPRIETES ET DISTRIBUTION DE
L’ESTIMATEUR
• Théorème (GAUSS-MARKOV) :
αˆ est BLUE de α
• Remarque :
αˆ ; αˆ ; αˆ ;⋯ ; αˆ sont des fonctions linéaires des Y
0 1 2 p i
La matrice Var-Cov (variance-covariance) de αˆ ,
( X′X )
−1
notée Ωαˆ , s'écrit : Ωαˆ =σ 2
TOUIJAR 172
• Quelques éléments de démonstration :
Puisque, αˆ = ( X′X ) X′Y et en posant k = ( X′X ) X′ ;
−1 −1
E (αˆ ) = kE (Y ) = k ( X α ) = (
X′X ) X′X α = α
−1
Ωαˆ = kV (Y ) k ′ = k (σ I n ) k ′ = σ kk ′
I
2 2
( X′X ) X′ X ( X′X )
−1 −1
=σ 2
( X′X ) [ X′X ] ( X′X ) ( X′X )
−1 −1 −1
=σ 2
=σ 2
Γ
⇒ ∑ e i2 = e ' e = W ' Γ W ⇒ E (e ' e ) = σ 2T r ( Γ ) (à développer )
= σ 2 ( n − ( p + 1) ) ⇒σ2 =
E ( e ' e ) ⇒ σˆ 2 =
∑ ie 2
n − p −1 n − p −1
S CR
= est donc un estimateur san s Biais de σ 2
n − p −1 TOUIJAR 175
PROPRIETES ET DISTRIBUTION DE
L’ESTIMATEUR
• On a déjà vu que :
TOUIJAR 176
Tableau d’Analyse de la Variance
(ANOVA) d’un MRLM
∑ (Y −
i Y ) =
2
∑ (Y
ˆ − Yi) + ∑ (Y
2
− Yˆ ) i i
2
SCT SCE
TOUIJAR SCR = ∑ ei2177
Tableau de l’ ANOVA
Source Somme Carrés
d.d.l Fisher
de varθ des carrés moyens
x SCE=∑ (
Yˆi − Y )
2
p SCE/p F=
(SCE/ p)/
Résidu SCR= ∑e 2
i n-p-1 SCR/(n-p-1) (SCR/(n-p-1))
TOUIJAR 178
• Mesure de la Qualité de l’ajustement
• L’évaluation globale de la régression est
donnée parR 2 le coefficient de détermination,
qui exprime la part de variabilité totale
expliquée par le modèle:
SCE SCR
R =
2
= 1−
SCT SCT
• Remarque:
• R2 doit être utilisé avec précaution.
• On ne peut utiliser R2 dans un modèle sans constante.
• Si p augmente, R2 augmente aussi, même s’il y a des
variables qui n’ont rien à voir avec le phénomène; pour
ce on corrige R2 : SCR
( n − 1) n − p −1
R = 1−
2
( n − p − 1)
(1 −2
R
TOUIJAR
) = 1 −
SCT
< R
179
2
n −1
Tests et Intervalles de Confiance des
Coefficients du Modèle
• Test de Significativité Globale de la
Régression
• On vient d’évaluer la qualité d’un ajustement
par le calcul de R2 (où R est appelé coefficient
de corrélation multiple), mais sur un
échantillon; pour que ça soit sur toute la
population; on doit procéder à une inférence
statistique sur le ρ2 paramètre théorique:
H 0 : ρ 2
= 0
• C’est un F-Test :
#
TOUIJAR
H 1 : ρ ≠ 0
2 180
• 1- Test de Significativité Globale de la
Régression
• D’une façon analogue au MRLS, a statistique du
test est , sous H0
2
SCE R
p p
F=
SCR
=
1− R 2 Y ( p ; n − p − 1)
n − p −1 n − p −1
TOUIJAR 181
• 1- Test de Significativité Globale de la
Régression
• F.H.
H 0 : α1 = α 2 = ⋯ = α p = 0
# ∀α 0
H : ∃ j tq α ≠ 0
1 j
TOUIJAR 182
2- Test de Significativité individuel des
coefficients
Est-ce que la Variable Xi joue significativement
dans l’explication de Y ? On effectue alors un
T-test
F.H. H : α = 0
0 i
#
H : α ≠ 0
1 i
• S.U.
αˆi
• Tαˆ = t(n-p-1)
i
σˆαˆ i
TOUIJAR 183
• Calcul de σˆαˆ : i
On a vu que
σˆ α2ˆ
0
σˆ α2ˆ
( X ′X )
−1
Ωˆ αˆ = 1
= σˆ 2
⋱
σˆ α2ˆ
p
=
∑ e i2
( X ′X )
−1
n − p −1
( X ′X )
−1
s i o n p o s e d ii le s é lé m e n t d ia g o n a u x d e
a lo rs : σˆ 2
=
∑e i
2
× d ii
αˆ i
n − p −1 TOUIJAR 184
Tests et Intervalles de Confiance des
Coefficients du Modèle
VOIR TD
TOUIJAR 185
PREVISION ET INTERVALLE DE
PREVISION
• Si on ajoute une observation k =n+1 pour
chacune des variables explicatives, on obtient
une prévision ponctuelle :
yˆ k = αˆ 0 + αˆ1x k 1 + αˆ 2 x k 2 + ⋯ + αˆ p x kp
= X k αˆ ; où X k = (1 x k 1 ⋯ x kp )
• Et on montre que :
σˆ = σˆ 1 + X k ( X′X )
−1
2 2
X k′
ek
ek yˆ k − y k
• ⇒ = t(n-p-1)
σˆe k σˆe k TOUIJAR 186
• INTERVALLE DE PREVISION de yk
TOUIJAR 187