Académique Documents
Professionnel Documents
Culture Documents
abdessamad.youssfialaoui@gmail.com
Régression linéaire
Un modèle de régression linéaire simple est un modèle où on représente une variable
expliquée Y en fonction d'une variable explicative X en supposant que la fonction qui
relie les deux variables est linéaire.
Données 𝑋 = 𝑥 (1) , … , 𝑥 (𝑛) 𝑎𝑣𝑒𝑐 𝑥 (𝑖) 𝜖ℝ𝑑
Les classes correspondantes Y = 𝑦 (1) , … , 𝑦 (𝑛) 𝑎𝑣𝑒𝑐 𝑦 (𝑖) 𝜖ℝ
Régression linéaire
𝑑
𝑦 = 𝜃0 + 𝜃1 𝑥1 + 𝜃2 𝑥2 + ⋯ + 𝜃𝑑 𝑥𝑑 = 𝜃𝑖 𝑥𝑖
𝑖=0
Avec 𝑥0 = 1
Soient 𝑥𝜖ℝ 𝑒𝑡 𝜃 = 𝜃0 , 𝜃1
Régression linéaire
Fonction erreur
1 𝑛 2
𝐽 𝜃 = 𝑖=0 ℎ𝜃 𝑥 (𝑖) −𝑦 (𝑖)
2𝑛
Soient 𝑥𝜖ℝ 𝑒𝑡 𝜃 = 𝜃0 , 𝜃1
Régression linéaire
Fonction erreur
1 𝑛 2
𝐽 𝜃 = 𝑖=0 ℎ𝜃 𝑥 (𝑖) −𝑦 (𝑖)
2𝑛
Soient 𝑥𝜖ℝ 𝑒𝑡 𝜃 = 𝜃0 , 𝜃1
Régression linéaire
Régression linéaire
Régression linéaire
Régression linéaire
Régression linéaire
Régression linéaire
Initialiser les valeurs de 𝜃
Choisir des nouvelles valeurs de 𝜃 en minimisant 𝐽(𝜃)
Régression linéaire
Initialiser les valeurs de 𝜃
Choisir des nouvelles valeurs de 𝜃 en minimisant 𝐽(𝜃)
Régression linéaire
Initialiser les valeurs de 𝜃
Choisir des nouvelles valeurs de 𝜃 en minimisant 𝐽(𝜃)
Régression linéaire
Initialiser 𝜃
Répéter jusqu’à la convergence
𝜕𝐽(𝜃)
𝜃𝑗 ← 𝜃𝑗 − 𝛼 pour j=0,…,n et 𝛼 le taux d’apprentissage
𝜕𝜃𝑗
Régression linéaire
𝑛
𝜕𝐽(𝜃) 𝜕 1 𝑖 (𝑖) 2
= ℎ𝜃 (𝑥 ) − 𝑦
𝜕𝜃𝑗 𝜕𝜃𝑗 2𝑛
𝑖=1
𝜕 1 (𝑖) 2
𝑛 𝑑
= 𝑖=1 𝜃 𝑥
𝑘=0 𝑘 𝜃 − 𝑦 (𝑖)
𝜕𝜃𝑗 2𝑛
1 𝑛 𝑑 (𝑖) 𝜕 𝑑 (𝑖)
= 𝑖=1 𝜃 𝑥
𝑘=0 𝑘 𝜃 − 𝑦 (𝑖) 𝜃 𝑥
𝑘=0 𝑘 𝑘 − 𝑦 (𝑖)
𝑛 𝜕𝜃𝑗
1 𝑛 𝑑 (𝑖) (𝑖)
= 𝑖=1 𝑘=0 𝜃𝑘 𝑥𝜃 − 𝑦 (𝑖) 𝑥𝑗
𝑛
Régression linéaire
Initialiser 𝜃
Répéter jusqu’à la convergence
1 𝑛 (𝑖)
𝜃𝑗 ← 𝜃𝑗 − 𝛼 𝑖=1 ℎ𝜃 (𝑥 𝑖 ) − 𝑦 (𝑖) 𝑥𝑗 pour j=0,…,n et 𝛼 le taux d’apprentissage
𝑛
Pour la mise à jour
À chaque itération de GD, en calcule ℎ𝜃 (𝑥 𝑖 )
Utiliser cette valeur pour la modification de 𝜃𝑗
𝜙0 𝑥 = 1
Pour le cas linéaire 𝜙𝑗 𝑥 = 𝑥𝑗
Modèles de fonction de base linéaire
Fonction polynomiale
Fonction Gaussienne
Modèles de fonction de base linéaire
Fonction sigmoïdale
Vectorisation
ET
Donc
Vectorisation
La fonction de l’erreur
Vectorisation
La fonction de l’erreur
Overfiting: 𝐽(𝜃) ≈ 0
Régularisation
Une méthode pour contrôler automatiquement la complexité de l'hypothèse apprise
En peut écrire
Régularisation
Pour incorporer la régularisation
𝜕
Peut dériver de la même manière, en résolvant 𝐽 𝜃 =0
𝜕𝜃
Peut prouver que pour λ> 0, l'inverse existe dans cette équation