Académique Documents
Professionnel Documents
Culture Documents
Erreurs de mesures
Autres variables non
prises en considération
…
L’objectif de la régression linéaire simple est d’estimer
les valeurs de w0 et w1 en essayant de trouver la
meilleure droite qui minimise les erreurs commises par
le modèle. Ce qui servira par la suite pour la prédiction
de nouveaux exemples.
Apprentissage et estimation
Valeur prédite
xi
Hypothèses
• X est une variable explicative (exogène) non aléatoire .
Y est aléatoire.
• l’espérance de l’erreur est nulle.
• la variance de l'erreur est constante et ne
dépend pas de l'observation. (hypothèse
d'homoscédasticité)
• l'erreur de la variable explicative est
indépendante.
• Les erreurs relatives à deux observations
sont indépendantes.
• Les erreurs suivent une loi normale
Quel critère doit on adopter pour
choisir la meilleure ligne?
K représente l’itération
est le pas d’apprentissage qui peut être soit une constante ou bien une
valeur calculée en fonction de nombre des itérations ( )
L’algorithme converge (s’arrête) lorsque le module
du gradient de l’erreur est proche de 0.
Régression linéaire
multiple
Régression linéaire multiple
La régression linéaire multiple est une
généralisation de la régression linéaire simple. Elle
consiste à expliquer une variable dépendante Y en
utilisant P variables explicatives indépendantes.
avec xi,0=1
Régression linéaire multiple
La régression linéaire multiple peut être
formulée sous la forme matricielle suivante:
= +
L’objectif de la régression linéaire multiple est
d’estimer le vecteur des paramètres W en
minimisant la somme des carrées des résidus.
Somme des carrées des erreurs
Le critère des moindres carrées consiste à
trouver la solution du problème
d’optimisation suivant :
Première approche
SCR SCE =0
le coefficient de détermination
Inconvénient
Si on ajoute des variables à notre modèle la
valeur de R2 augmente même si les variables
qu’on a ajoutées ne sont pas significatives.
R2 ajusté
le coefficient de détermination ajusté