Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
1) Choisir les k instances les plus proches du point étudié selon une distance à définir afin d’en
prédire sa classe.
2) Le K-NN nécessite seulement :
Un entier k
Une base d’apprentissage
Une métrique pour la proximité (la distance Euclidienne)
L’idée : Affecter à une instance X la classe C telle que p(C|X) est maximale.
2) Exemple :
X’= (La météo=Ensoleillée, la température=froide, l’humidité=haute, le vent=fort)
Prédire son étiquette ?
Prise de décision avec la règle à posteriori :
P(Oui|X’) =[P(Ensoleillée|Oui)*P(froide|Oui)*P(haute|Oui)*P(fort|Oui)]*P(Jouer=Oui)=…
P(Non|X’) =[P(Ensoleillée|Non)*P(froide|Non)*P(haute|Non)*P(fort|Non)]*P(Jouer=Non)=…
Nous étiquetons X’ par la valeur (Oui ou Non) qu’a la probabilité plus élevée.
3) Dans le cas des variables numériques (ou continues), on doit calculer la fonction de densité
de probabilité de la valeur en question.
1
Average : m = 𝑛 ∑𝑛𝑖=1 𝑋𝑖
1
Standard Deviation : σ = ∑𝑛 (𝑋𝑖 − 𝑚)2
𝑛−1 𝑖=1
2
(𝑥−𝑚)
1 −
Probability Density Function : f(X) = 𝑒 2𝜎2
√2𝜋𝜎
4) Exemple :
X’= (La météo=pluie, la température=22, l’humidité=79, le vent=fort)
Prédire son étiquette ?
Prise de décision avec la règle à posteriori :
P(Oui|X’)=[P(pluie|Oui)*f:températureoui(22)*f:humiditéoui(79) *P(fort|Oui)]*P(Jouer=Oui)=…
P(Non|X’)=[P(pluie|N)*f:températurenon(22)*f:humiditénon(79)*P(fort|N)]*P(Jouer=Non)=…
Nous étiquetons X’ par la valeur (Oui ou Non) qu’a la probabilité plus élevée.
6) Dans la régression linéaire simple nous avons une seule variable indépendante.
7) La solution des moindres carrés consiste à choisir b0 et b1 pour rendre la somme des
carrés résiduels (Error Sum of Squares) le plus petit possible.
SCRes = ∑𝑁 ̂𝑖)2
𝑖=1(𝑦𝑖 − 𝑦
8) Le coefficient de détermination R2
Plus le nombre est élevé, meilleure est la correspondance entre notre modèle et les
données.
𝑆𝐶𝑅𝑒𝑔 𝑆𝐶𝑅𝑒𝑠 ∑𝑛 ̂ 𝑖 )2
𝑖=1(𝑦𝑖 −𝑦
R2 = 𝑆𝐶𝑇
ou R2 = 1 − 𝑆𝐶𝑇
=1− ∑𝑛 ̅)2
R2 ∈ [0; 1]
𝑖=1(𝑦𝑖−𝑦
SCReg = ∑𝑁𝑖=1(𝑦 ̂𝑖 − 𝑦̅)2 : Somme des carrés de la regression (sum of Squares due to
Regression) : la variance expliquée par la régression.
SCT = ∑𝑁 ̅)2 : Somme des carrés totale (Total Sum of Squares) : la variance
𝑖=1(𝑦𝑖 − 𝑦
totale. On peut alors écrire : SCT = SCReg + SCRes
1) Il consiste à étudier les liens entre une variable dépendante et des variables indépendantes.
2) L’estimation des paramètres de ce modèle se fait par l’estimateur des moindres carrés et la
qualité d’explication est généralement évalué par le R2.
3) Rappel (Types de variables) :
Catégorique (Discrète ou Binaire)
Catégorique non ordonnées (nominale)
Catégorique ordonnées (ordinale)
Continues
4) Elimination (backward elimination) :
L’algo démarre du modèle complet, puis commence à éliminer progressivement les
variables les moins explicatives.
Exemple RFE (Recursive Feature Elimination-Elimination récursive des attributs).
L’objectif de la sélection automatique des variables explicatives est de réduire le
modèle aux variables explicatives les plus pertinentes.
Pratique
Régression Logistique
1) La régression logistique (ou logit) est souvent utilisée pour estimer la probabilité qu’une
observation appartienne à une classe particulière (l’exemple typique est la détection de
spam).
1
2) Sigmoid Function : p = 1+𝑒 −𝑦
𝑝
3) Fonction logistique : y = b0 + b1 * x = ln(1−𝑝)