Vous êtes sur la page 1sur 1

Régression Linéaire Simple Propriétés de β̂0 et β̂1 Intervalles ET Région de confiance

E(β̂1 ) = β1 , E(β̂0 ) = β0 1. IC(βi ) : [β̂i ± t1− α × σ̂i ].


2
σ2 1 x̄2
Problème mathématique V(β̂1 ) = (n−1)SXX
, V(β̂0 ) = ( n + (n−1)SXX
)σ 2 2. Une région de confiance simultanée des deux
paramètres inconnus βi est donnée par l’équation :
n
X Estimation des erreurs (par les résidus)
argmin = l(yi − f (xi )) (1)
P
ε̂i = yi − ŷi , ε̂i = 0 (propriété)
f ∈G 1
i=1
Estimation de σ 2 [n(β̂0 − β0 )2 + 2nx̄(β̂0 − β0 )(β̂1 − β1 )+
où : 2σˆ2
ε̂2
— l(.) une fonction de coût et G un ensemble de σ̂ 2 = n−2i
, X
x2i (β̂1 − β1 )2 ] ≤ f1−α
fonctions données. Pratiquement, on utilise la fonction n − 2 est le nombre de ddl
de coût quadratique l(u) = u2 . (2)
E(σ̂ 2 ) = σ(n − 2) ?
— Dans le cas de la modélisation par une droite
(régression linéaire simple) nous prenons la classe de Le coefficient de détermination R2 où : f1−α représente le fractile de niveau (1 − α) d’une
fonctions : G = {f : f (x) = ax + b, (a, b) ∈ R2 } loi de Fisher à (2, n − 2) ddl.
Le coefficient de détermination R2 est défini par :
3. IC(σ 2 ) : [ cn−2α σ̂ 2 , n−2 2

σ̂ ].
Modélisation statistique R2 =
SCE
=
k Ŷ − ȳ1 k 1−
2 2

Y1 , ..., Y1 échantillon avec Yi observé sous certain condition X. SCT k Y − ȳ1 k où : c1− α (resp. c α ) représente le fractile de niveau
2 2
α
Le modèle : avec : (1 − 2
) (de niveau ( α
2
)) d’une loi du χ2 à (n − 2) ddl.
Y = β0 + β1 X + ε 4. IC(E(yi ) = β0 +
SCT = SCE + SCR rβ1 xi ) :
X ∈ R non aléatoire, par contre Y est aléatoire et dépend de n n n (xj −x̄)2
1
[yˆj ± t1− α × σ̂ + ]
X X X
X. (yi − ȳ)2 = (ŷi − ȳ)2 + ε̂2i 2 n (n−1)SXX
i=1 i=1 i=1
Hypothèses du modèle 5. IC(yn+1 prévue) :r
1. E(ε) = 0 càd E(Y ) = β0 + β1 X. Inférence statistique p
[ŷn+1 ± t1− α × σ̂ 1+ 1
+
(xj −x̄)2
]
n (n−1)SXX
2. V(ε) = σ 2 = cste. Lois des estimateurs des MC : variance connue 2

ε ∼ N (0, σ 2 ). 1 x̄2
3. 1. β̂0 ∼ N (β0 , ( n + (n−1)SXX
)σ 2 ) Code R
4. εi ⊥εj (cov(εi , εj = 0). σ 2 Pour une régresssion, nous commençons toujours par
2. β̂1 ∼ N (β1 , (n−1)S
)
XX représenter les données, pour repérer ce que nous semble une
Estimation des paramètres de modèle  
β̂0
 
β0 tendance linéaire :
Trouver β0 et β1 qui minimisent la quantité : 3. β̂ = ∼ N (β = , σ 2 V),
β̂1 β1 plot(X,Y) représenter les données Y=f(X)
n
x̄2
!
X 1 −x̄
I(β0 , β1 ) = (yi − β0 − β1 xi )2 = kY − β0 1 − β1 Xk2 n
+ (n−1)SXX (n−1)SXX reg < − lm(Y ∼ X, data) effectuer la régression linéaire
avec : V = −x̄ 1
i=1
(n−1)SXX (n−1)SXX summary(reg) obtenir un résumé des résultat de la RL
. Les βˆ0 , βˆ1 sont appelés des estimateurs ; 4. n−2 2
σ̂ ∼ χ2n−2 predict(reg,...) prédire avec le modèle de RL
σ2
Sous H1, H2, H3 et H4, ces estimateurs obtenus par la confint(parameter) IC de paramètres
méthode de maximum de vraissemblance ⇐⇒ à ceux obtenus 5. (β̂0 ,β̂1 ) et σ̂ 2 sont indépendants
par la méthode des moindres carrés. df.residual(reg) ddl des résidus
Même si les H3 et H4, ne sont pas vérifiées, la MC consiste à
Les lois des estimateurs des MC : variance coef(reg) capturer les coefficients du modèle
trouver β0 et β1 tq S est minimale :
∂I(β̂0 ,β̂1 )
=
∂I(β̂0 ,β̂1 )
=0
estimée residuals(reg) capturer les résidus du modèle
∂β0 ∂β1
Lorsque σ 2 est estimée par σ̂ 2 nous avons :
Formules des estimateurs q deviance(reg) capturer l’écart du modèle
x̄2
SXY 1. β̂0σ̂−β2
0
∼ Tn−2 , σˆ0 = σ̂ n1
+ (n−1)S fitted(reg) les valeurs ajustés par le modèle
β̂1 = SXX
, β̂0 = Ȳ − β̂1 X̄ 0 XX
q
β̂1 −β1 1
où : 2. σ̂ 2
∼ Tn−2 , σ̂1 = σ̂ (n−1)S
1 XX
n
SXY =
1 X
(Xi − X̄)(Yi − Ȳ ) 3. 1
(β̂ − β)0 V−1 (β̂ − β) ∼ F2,n−2
Références
n − 1 i=1 2σˆ2 [1] MATZNER-LOBER, Éric. Régression : Théorie et
Ces propriétés nous permettent de donner des intervalles de applications. Springer Science and Business Media, 2007.
n
1 X confiance (IC) ou des régions de confiance (RC) des
SXX = (Xi − X̄)2 Mohamed Ali Khouaja, PhD Student in applied mathematics and
n − 1 i=1 paramètres inconnus. financial engineering

Vous aimerez peut-être aussi