Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Présentation du modèle
Méthode des moindres carrés
Propriétés des moindres carrés
Hypothèses et estimation
Analyse de la variance : Test de Fisher
Autres tests et IC
Frédéric Bertrand1
1 IRMA, Université de Strasbourg
Strasbourg, France
Y = β0 + β1 X + ε.
Affiner le modèle
Souvent la régression linéaire est trop simpliste. Il faut alors
utiliser d’autres modèles plus réalistes mais parfois plus
complexes :
Utiliser d’autres fonctions que les fonctions affines comme
les fonctions polynômiales, exponentielles,
logarithmiques. . .
Considérer plusieurs variables explicatives.
Exemple : La température et la vitesse du vent
Y = β0 + β1 X1 + · · · + βp−1 Xp−1 + ε.
Observations Y X1 . . . Xp−1
1 y1 x1,1 . . . x1,p−1
2 y2 x2,1 . . . x2,p−1
.. .. .. .. ..
. . . . .
n yn xn,1 . . . xn,p−1
Remarque
Les variables xi,j sont fixes tandis que les variables Yi sont
aléatoires.
Problème
Il faut estimer les paramètres β0 , . . ., βp−1 du modèle de
régression et ce de manière optimale.
Solution
Utiliser la méthode des moindres carrés. Cette méthode revient
à minimiser la quantité suivante :
n
X 2
min yi − β0 + β1 xi,1 + · · · + βp−1 xi,p−1 .
β0 ,...,βp−1
i=1
Remarque
Les variables y et X sont mesurées tandis que l’estimateur βb
est à déterminer.
La méthode des moindres carrés consiste à trouver le vecteur
βb qui minimise kεk2 = t εε.
Les calculs
kεk2 = t
y − Xβb y − Xβb
= t yy − t βbt Xy − t yXβb + t βbt XXβb
= t yy − 2t βbt Xy + t βbt XXβb
−2t Xy + 2t XXβ.
b
Problème
Nous cherchons βb qui annule cette dérivée. Donc nous devons
résoudre l’équation suivante :
t
XXβb = t Xy.
Solution
Nous trouvons après avoir inversé la matrice t XX (il faut
naturellement vérifier que t XX est carrée et inversible
c’est-à-dire qu’aucune des colonnes qui compose cette matrice
ne soit proportionnelle aux autres colonnes)
βb = (t XX)−1t Xy.
Remarque
Retrouvons les résultats de la régression linéaire simple (p = 2)
P P
t n xi t y i
XX = P P 2 ; Xy = P .
xi xi xi yi
Donc :
P 2 P
t −1 1 xi − xi
( XX) = P
n xi2 − ( xi )2 − xi n
P P
P 2
1 xi /n −x̄
= .
2 −
P
(xi − x̄) x̄ 1
Call:
lm(formula = max03 T12 + VX)
Residuals:
Min 1Q Median 3Q Max
-47.860 -10.561 5.119 10.645 26.506
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 36.6520 26.5324 1.381 0.210
T12 2.6623 1.4202 1.875 0.103
VX 0.5431 0.7775 0.699 0.507
Residual standard error: 24.78 on 7 degrees of freedom
Multiple R-Squared: 0.3351, Adjusted R-squared: 0.1452
F-statistic: 1.764 on 2 and 7 DF, p-value: 0.2396
Résultats préliminaires
P 2 P
1 ŷ = ŷi yi ou (forme matricielle) t ŷŷ = t yŷ
P i P
2 ŷi = yi
SCreg
R2 = ·
SCtot
Intuitivement ce coefficient de détermination quantifie la
capacité du modèle à expliquer les variations de Y .
Si R 2 est proche de 1 alors le modèle est proche de la
réalité.
Si R 2 est proche de 0 alors le modèle explique très mal la
réalité. Il faut alors trouver un meilleur modèle.
y = Xβ + ε
Conséquences
Les hypothèses précédentes impliquent
E [y] = Xβ
Var [y] = σ 2 In .
Nous pouvons alors démontrer, sous ces hypothèses :
h i
E βb = β. Ce qui signifie que le vecteur βb est un
estimateur sans biais de β.
h i
Var βb = σ 2 (t XX)−1 .
Problème
La variance σ 2 est inconnue. Donc il faut estimer σ 2 !
Frédéric Bertrand Régression linéaire multiple
Introduction
Présentation du modèle
Méthode des moindres carrés
Hypothèses pour les tests
Propriétés des moindres carrés
Estimation de σ 2
Hypothèses et estimation
Analyse de la variance : Test de Fisher
Autres tests et IC
(yi − ŷi )2
P
2 SCres SCtot − SCreg
s = = =
n−p n−p n−p
où
n est le nombre d’individus/d’observations,
p est le nombre de variables explicatives.
Test de Fisher
Tester l’hypothèse nulle :
H0 : β1 = β2 = · · · = βp−1 = 0
Remarque
Si l’hypothèse nulle H0 est vérifiée alors le modèle s’écrit :
Yi = β0 + εi .
Méthode
1 Calculer la statistique
CMreg
Fobs = ·
CMres
2 Lire la valeur critique F1−α,p−1,n−p où F1−α,p−1,n−p est le
(1 − α)-quantile d’une loi de Fisher avec (p − 1) et (n − p)
degrés de liberté, car si l’hypothèse nulle H0 est vraie,
alors Fobs suit une loi de Fisher avec (p − 1) et (n − p)
degrés de liberté.
3 Comparer la valeur observée et la valeur critique.
Règle de décision
Nous décidons de rejeter l’hypothèse nulle H0 et
d’accepter l’hypothèse alternative H1 , au seuil α = 5%, si
Tests de Student
Tester l’hypothèse nulle
H0 : βj = bj pour j = 0, . . . , p − 1
Méthode
1 Calculer la statistique
βbj − bj
tobs =
s(βbj )
Règle de décision
Nous décidons de rejeter l’hypothèse nulle H0 et
d’accepter l’hypothèse alternative H1 , au seuil α = 5%, si
Cas particulier
Tester l’hypothèse nulle
H0 : β j = 0 pour j = 0, . . . , p − 1
Méthode
1 Calculer la statistique
β̂j
tobs = ·
s(β̂j )
Règle de décision
Nous décidons de rejeter l’hypothèse nulle H0 et
d’accepter l’hypothèse alternative H1 , au seuil α = 5%, si
IC pour βj
Un intervalle de confiance au niveau (1 − α) où α est la
probabilité d’erreur pour βj est défini par
h i
βbj − t1−α/2,n−p × s(βbj ); βbj + t1−α/2,n−p × s(βbj ) .
Remarque
Cet intervalle de confiance est construit de telle sorte qu’il
contienne le paramètre inconnu βj avec une probabilité de
(1 − α).
Exemples
Tester la nullité d’un paramètre, par exemple : β1 .
H0 : Yi = β0 + β2 xi2 + · · · + βp xip + εi contre
H1 : Yi = β0 + β1 xi1 + β2 xi2 + · · · + βp xip + εi .
Tester la nullité de plusieurs paramètres, par exemple les
pairs : β2j .
H0 : Yi = β1 xi1 + β3 xi3 + · · · + βp−1 xip−1 + εi contre
H1 : Yi = β0 + β1 xi1 + β2 xi2 + · · · + βp xip + εi avec p pair.
Méthode
1 Calculer les valeurs estimées ŷi en utilisant la méthode
des moindres carrés pour chacun des 2 modèles définis
par H0 et H1 , notées : ŷi (H0 ) et ŷi (H1 ).
2 Calculer ensuite SCres (H0 ) et SCres (H1 ).
3 Calculer la statistique
Règle de décision
Nous décidons de rejeter l’hypothèse nulle H0 et par
conséquent d’accepter l’hypothèse alternative H1 , au seuil
α = 5%, si
Fobs > F1−α,r ,n−p .
Nous décidons de ne pas rejeter l’hypothèse nulle H0 et
donc de l’accepter si