Académique Documents
Professionnel Documents
Culture Documents
Elaboré par :
Yesmine Abdennadher
Groupe :
INDP2E
Année universitaire :
2021/2022
1
Bibliographie
1. Introduction
Parmi les méthodes à noyaux, inspirées de la théorie statistique de l’apprentissage de
Vladimir Vapnik, les Machines à Vecteurs de Support (SVM) constituent la forme la plus
connue. SVM est une méthode de classification binaire par apprentissage supervisé, elle fut
introduite par Vapnik en 1995.
Cette méthode est donc une alternative récente pour la classification. Elle repose sur
l’existence d’un classificateur linéaire dans un espace approprié. Puisque c’est un problème
de classification à deux classes, cette méthode fait appel à un jeu de données
d'apprentissage pour apprendre les paramètres du modèle. Elle est basée sur l'utilisation de
fonctions dites noyau (kernel) qui permettent une séparation optimale des données. Dans la
présentation des principes de fonctionnements, nous schématiserons les données par des «
points » dans un plan.
2
• Détection de repli protéique et d’homologie à distance :
Appliquez des algorithmes SVM pour la détection d’homologie à distance de protéines.
• Reconnaissance de l’écriture manuscrite :
Nous utilisons des SVM pour reconnaître les caractères manuscrits largement utilisés.
Pour séparer les deux classes de points de données, il existe de nombreux hyperplans
possibles qui pourraient être choisis. Notre objectif est de trouver un plan qui a la marge
3
maximale, c'est-à-dire la distance maximale entre les points de données des deux classes.
Maximiser la distance de la marge fournit un certain renforcement afin que les futurs points
de données puissent être classés avec plus de confiance.
- Hyperplans et vecteurs de support
Les hyperplans sont des limites de décision qui aident à classer les points de données. Les points de
données tombant de chaque côté de l'hyperplan peuvent être attribués à différentes classes. De
plus, la dimension de l'hyperplan dépend du nombre de caractéristiques. Si le nombre d'entités en
entrée est de 2, alors l'hyperplan n'est qu'une droite. Si le nombre d'entités en entrée est de 3,
l'hyperplan devient un plan à deux dimensions. Il devient difficile d'imaginer lorsque le nombre de
fonctionnalités dépasse 3.
Les vecteurs de support sont des points de données plus proches de l'hyperplan et qui
influencent la position et l'orientation de l'hyperplan. En utilisant ces vecteurs de support,
4
nous maximisons la marge du classifieur. La suppression des vecteurs de support modifiera
la position de l'hyperplan. Ce sont les points qui nous aident à construire notre SVM.
- Intuition à grande marge
Dans la régression logistique, nous prenons la sortie de la fonction linéaire et écrasons la
valeur dans la plage de [0,1] à l'aide de la fonction sigmoïde. Si la valeur écrasée est
supérieure à une valeur seuil (0,5) nous lui attribuons une étiquette 1, sinon nous lui
attribuons une étiquette 0.
Dans SVM, nous prenons la sortie de la fonction linéaire et si cette sortie est supérieure à 1,
nous l'identifions avec une classe et si la sortie est -1, nous l'identifions avec une autre
classe. Puisque les valeurs de seuil sont changées en 1 et -1 dans SVM, nous obtenons cette
plage de valeurs de renforcement ([-1,1]) qui sert de marge.
Le coût est de 0 si la valeur prédite et la valeur réelle sont de même signe. S'ils ne le sont
pas, nous calculons alors la valeur de la perte. Nous ajoutons également un paramètre de
régularisation à la fonction de coût. L'objectif du paramètre de régularisation est
d'équilibrer la maximisation de la marge et la perte. Après avoir ajouté le paramètre de
régularisation, les fonctions de coût se présentent comme ci-dessous.
Maintenant que nous avons la fonction de perte, nous prenons des dérivées partielles par
rapport aux poids pour trouver les gradients. En utilisant les gradients, nous pouvons mettre
à jour nos poids.
5
Lorsqu'il n'y a pas de mauvaise classification, c'est-à-dire que notre modèle prédit
correctement la classe de notre point de données, nous n'avons qu'à mettre à jour le
gradient à partir du paramètre de régularisation.
Lorsqu'il y a une erreur de classification, c'est-à-dire que notre modèle se trompe sur la
prédiction de la classe de notre point de données, nous incluons la perte avec le paramètre
de régularisation pour effectuer la mise à jour du gradient.
La classe SVM
6
Le programme principal
- En 2 dimensions :
- En 3 Dimensions
7
- En 3 dimensions
8
Conclusion
Dans la méthode SVM, avoir des dimensions a 2 ou 3 est assez simple. Plus le nombre de
dimensions augmente plus que la visualisation devient difficile.
Ajoutant que pour la méthode SVM non linéaire on doit travailler avec la fonction noyau.
Cette fct exige une grande précision, en fait le choix de cette fonction doit être bon sinon on
tombe dans des erreurs.