Académique Documents
Professionnel Documents
Culture Documents
Exercice 1: Classification Avec L'algorithme Des K Plus Proches Voisins (K-NN)
Exercice 1: Classification Avec L'algorithme Des K Plus Proches Voisins (K-NN)
Solution:
Calculez la distance euclidienne entre le point donné (3.0, 4.5) et chaque point du jeu de
données. La distance euclidienne entre deux points (x1, y1) et (x2, y2) est donnée par la formule
: distance = √((x2 - x1)^2 + (y2 - y1)^2).
Distance entre (3.0, 4.5) et (2.0, 3.5) = √((2.0 - 3.0)^2 + (3.5 - 4.5)^2) ≈ 1.41
Distance entre (3.0, 4.5) et (4.5, 6.0) = √((4.5 - 3.0)^2 + (6.0 - 4.5)^2) ≈ 1.58
Distance entre (3.0, 4.5) et (1.5, 4.0) = √((1.5 - 3.0)^2 + (4.0 - 4.5)^2) ≈ 1.58
Distance entre (3.0, 4.5) et (3.5, 5.0) = √((3.5 - 3.0)^2 + (5.0 - 4.5)^2) ≈ 0.71
Distance entre (3.0, 4.5) et (2.5, 5.5) = √((2.5 - 3.0)^2 + (5.5 - 4.5)^2) ≈ 1.12
Distance entre (3.0, 4.5) et (4.0, 2.5) = √((4.0 - 3.0)^2 + (2.5 - 4.5)^2) ≈ 2.83
Sélectionnez les k points les plus proches du point donné, en utilisant la distance euclidienne
calculée précédemment. Dans ce cas, avec k=3, les trois points les plus proches sont :
Cela conclut la résolution de l'exercice en utilisant l'algorithme des k plus proches voisins avec
k=3 et la distance euclidienne comme mesure de similarité.
Caractéristique Sortie
2.0 4.5
4.0 9.1
3.0 7.2
1.0 3.5
5.0 11.0
Appliquez la régression linéaire pour prédire la sortie pour une nouvelle valeur de
caractéristique x=6.0.
Solution:
Les données suivantes montrent les derniers jeux Dallas Mavericks ci-dessus :
1. Quelle est l'entropie de l'ensemble de données (Arbre de décision)?
2. Quel est le gain d'information si vous divisez l'ensemble de données en fonction de l’attribut
"Fouls"?
3. Supposant que le Gain (S, Opponent) = Gain (S, PointGuard) = 0.05. Sur la base de votre
Réponse dans (2) et cette information, quel attribut choisissez-vous comme nœud racine pour
l'arbre de décision ? Entourez l'option appropriée ci-dessous.
• Opponent • PointGuard • Fouls
4. Prédire la classe de (Weak, Weak , No ) en utilisant
a. Le Naïve Bayes classification.
b. Le 3-NN. On suppose que La similarité est calculer comme suit : distance(ai,bi) = 1 si ai=bi
sinon dist(no,few)=0,5, dist(many,few) = 0,5 , dist(many,no)=0.
Corriger :
b) 3-NN
E= (Opponent = Weak, PointGuard= Weak, Fouls= No )
Exemple (Weak, Weak , No )
Exercice 4 : Classification avec les arbres de décision
Solution :
Dans notre cas, nous avons 3 instances de classe A et 3 instances de classe B, donc :
p(A) = 3/6 = 0.5, p(B) = 3/6 = 0.5
Calcul de l'entropie :
H = - (0.5 * log2(0.5) + 0.5 * log2(0.5)) ≈ 1.0
Pour chaque caractéristique, calculez l'entropie après avoir divisé le jeu de données en fonction
de cette caractéristique.
a. Caractéristique 1 :
b. Caractéristique 2 :
La valeur de la caractéristique 2 (4.5) est supérieure à 4.0, donc la classe prédite est B.