Vous êtes sur la page 1sur 2

DATA SCIENCE - TD N° 2 - PERCEPTRON

1. PERCEPTRON
1.a
Nombre d'erreurs du Perceptron si l'algorithme commence par x(1): 2.

Progression de l'hyperplan de séparation du Perceptron si l'algorithme commence avec x(1): [[−1, −1], [−2, 0.5]]

Nombre d'erreurs du Perceptron si l'algorithme commence par x(2): 1

Progression de l'hyperplan de séparation du Perceptron si l'algorithme commence avec x(2): [−1, 0]

1.b
Ordre d'itération
1.c

[[−1, −1] , [−2, 9] , [−3, 8] , [−4, 7] , [−5, 6] , [−6, 5]]

Nombre d'erreurs du Perceptron si l'algorithme commence par x(2): 1

Progression de l'hyperplan de séparation du Perceptron si l'algorithme commence avec x(2): [−1, 0]

1.d
Norme maximale des points de données
1.e

θ= [−4, 2]

θ0 = −2

1.f

θ= [−1, 1]

θ0 = −1

2. LIMITES DE DECISIONS
2.a

si θ0 = 0 (sans décalage), serait-il possible d'apprendre un tel θ ? Non

Serait-il possible d'apprendre la paire θ et θ0 ? Oui

2.b Considérons les données étiquetées suivantes :


− A l'intérieur (positif) ou à l'extérieur (négatif) d'un cercle centré sur l'origine de rayon r. donner un scalaire pour r (0 si
ce r n'existe pas).
r= 0
− A l'intérieur (positif) ou à l'extérieur (négatif) d'un cercle de centre [x, y] et de rayon r.

[x, y] = [−0.5, −0.5]

r= 1. 6
− Strictement au-dessus (positif) ou au-dessous (négatif) d'une ligne passant par l'origine avec θ normal. Ici, nous
définissons "au-dessus" comme θ ⋅ x > 0, et définissons "au-dessous" de la même manière. Note : Veuillez donner
θ = [θ1 , θ2]. S'il n'y a pas de solution, entrez [0, 0].
θ= [0, 0]
3. LINEAR SUPPORT VECTOR MACHINE (SVM)
3.1 Minimisation de la perte

θˆ = xy/λ

3.2 Minimisation de la perte : exemple numérique 1


1 
λ = 0.5 ; y = 1 ; x =  
0
 

[ ]
θˆ = θˆ1,θˆ2 = [1, 0]

3.2 Minimisation de la perte : exemple numérique 2


Maintenant, supposons que θˆ = θˆ(λ ) soit la solution en fonction de λ. Pour quelle valeur de ∥x∥2, l'exemple d'apprentissage
(x, y) sera mal classé par θˆ(λ ) ?

∥x∥2 = 0

Vous aimerez peut-être aussi