November 8, 2021
Contents
1 C'est quoi un problème de classication ? 2
1
1 C'est quoi un problème de classication ?
Un problème de classication formellement est-un problème que pour de nombreux objets et systèmes du monde réel :
faut déterminer si un objet est membre ou appartient à un ensemble ou non, ou lequel appartient à plusieurs ensembles.
En statistique la classication est le problème qui consiste à identier à quelle catégorie(sous-population) d'un
ensemble de catégories(sous-populations) appartient une observation(ou des observations).Il s'agit aussi de déterminer
à quel groupe de catégories une nouvelle observation appartient.
Du point de vue informatique un problème de classication est-un problème pour lequel la variable à prédire prend
une valeur discrète.
i=0
sera de complexité exponentielle,donc le problème de décision qui est associer à notre problème d'optimisation est
NP-Complet par conséquent notre problème de classication est NP-Dicile(théorie de la complexité).
2
du temps dans le modèle avant de pouvoir commencer à l'utiliser. De plus, sa vitesse est fortement aectée si vous
utilisez le modèle avec plus de deux classes. L'algorithme SVM est un classicateur dit linéaire, ça veut dire que, dans
le cas parfait,les données doivent être linéairement séparables. Il permet de trouver le meilleur séparateur(ligne, plan
ou hyperplan) qui sépare le mieux les deux classes[6].
Notion de base :
1. Hyperplan: pour deux classes d'exemples donnés, le but de SVM est de trouver un classicateur qui va séparer les
données et maximiser la distance entre les deux classes, Ce classicateur est un classicateur appelé hyperplan.Il
existe une multitude d'hyperplan valide mais la propriété des SVM est que l'hyperplan doit être optimal.
2. Marge: La marge est la distance entre l'hyperplan et les exemples et cette distance doit être maximale.
3. Support Vecteur: Les points les plus proches, qui seuls sont utilisés pour la détermination de l'hyperplan, sont
appelés Vecteurs de Support.
3
arbre de décision est caractérisé aussi par sa profondeur et sa largeur[6]. Le premier indicateur correspond au nombre
moyen des niveaux de l'arbre tandis que la largeur ou le degré désigne le nombre moyen de n÷uds interne à chaque
niveau. Ces deux indicateurs reètent la complexité de l'arbre ; plus les valeurs sont élevées plus l'arbre est
complexe.Ainsi, le but est de générer un arbre de décision aussi petit que possible. Pour y parvenir,l'idée intuitive est
de chercher les attributs (tests) qui font progresser rapidement la classication des exemples d'entraînement[6]. Ceci
revient à mesurer la pertinence des variables et de choisir celle qui permet de mieux partitionner une proportion de
données associée à une position déterminée de l'arbre. Les critères les plus populaires dans ce contexte sont le taux
d'erreurs, le critère de Gini utilisé par la méthode CLART (Olshen et Stone, 1984; Timofeev, 2004) et l'entropie qui
est l'élément clés C4.5 (Ruggieri, 2002)..La construction de l'arbre de décision consiste à utiliser les descripteurs, pour
subdiviser progressivement l'ensemble en sous-ensembles de plus en plus ns.L'algorithmePestime la probabilité
qu'une observation se trouve dans le n÷ud t en utilisant la formule : P (T ) = j∈T wj [6]
où :
Les arbres de décision sont des algorithmes de classication de données reposant sur un apprentissage supervisé.La
structure de ces algorithmes ressemble à des arbres constitués de n÷uds, de branches et de feuilles.La construction de
ces arbres est réalisée à l'aide d'une base de données brute (vecteur des caractéristiques et classes) et de lois qui
permettent de déterminer les variables discriminantes pour la classication ecace des futures données. Chacun des
n÷uds constituant l'arbre représente une règle de classication préalablement déterminée de manière récursive.
Ce type d'algorithmes est très utilisé, car ils permettent de construire automatiquement des classications et leur
vitesse d'exécution surpasse tous les autres types des algorithmes.Cependant, ils ne permettent pas d'obtenir de bons
résultats quand les données sont complexes[6].
[6]Pour voir comment un arbre de décision prédit une réponse, il faut suivre les décisions dans l'arbre du n÷ud racine
(début) jusqu'au n÷ud feuille qui contient la réponse.Les arbres de classication donnent des réponses nominales, tel
que vrai ou faux.Les arbres de décision sont relativement rapides et faciles à suivre dans leur résolution; vous pouvez
voir une représentation complète du chemin parcouru de la racine à la feuille.Cela est particulièrement utile si vous
devez partager les résultats avec des personnes intéressées par la manière dont une conclusion a été tirée[6].
4
gure: exemple de classication avec kNN[6].
La méthode k-NN est une méthode d'apprentissage supervisé, elle permet de classier une nouvelle observation en
calculant la distance avec les données d'entrainement, et de prendre les k plus proches voisins(en termes de
distance).Puis observé la classe qui est majoritairement représentée parmi les k-plus proches voisins et d'assigner
cette classe à la nouvelle observation. Le temps d'apprentissage de la méthode k-NN est court, mais le temps de la
requête réel (et l'espace de stockage) peut être plus long que celui des autres modèles.Mais son plus grand
inconvénient est qu'elle peut être erronée par des attributs non pertinents qui masquent les attributs importants[6].
1. soient A1 ,A2 ,...,AL des événements mutuellement exclusifs dont l'union à une probabilité égale à 1: P (Ai )=1
PL
i=1
Dans le cadre d'un problème de classication, les événements A1 ,A2 ,...,AL correspondent aux classes
C1 ,C2 ,...,CL .L'événement B correspond à un vecteur de caractéristiques, c'est-à-dire l'union X d'événements
(X1 =x1 ,X2 =x2 ,...,Xm =xm ).Xi et xi représentent respectivement les variables et les valeurs. On peut réécrire la
formule de Bayes pour le contexte: P(Ci /X)= P(X/Ci )P(Ci )/P(X) Une fois les probabilités estimées, il s'agit de
classier chaque nouvelle instance X en identiant la classe la plus probable selon la fonction:
f(X) = argmaxi∈[1,L] P(Ci /X)[11].
5
3.5 RÉSEAUX NEURONES
Les réseaux de neurones proposent une simulation du fonctionnement de la cellule nerveuse à l'aide d'un automate :
le neurone formel. Les réseaux neuronaux sont constitués d'un ensemble de neurones (n÷uds) connectés entre eux
par des liens qui permettent de propager les signaux de neurone à neurone[14]. L'apprentissage d'un réseau de
neurones est le processus d'ajustement de ces paramètres de telle sorte que le réseau soit en mesure d'approcher la
relation fonctionnelle sous-jacente entre les entrées x et les cibles t,sachant qu'un réseau de neurones est constituer
d'un couple entrée-cible.L'apprentissage passe par :
i=1
pour réaliser une véritable classication par le réseau de neurones il faut utiliser une autre fonction d'erreur que Esc
N
qui est la fonction d'erreur de l'entropie croisée dénie par : Eec =- ti ln(yi /ti ) [14].
X
i=1
6
de façon très simpliée, reçoit des signaux électriques par ses dendrites, les transforme dans ses synapses et s'active
ou non en fonction des signaux reçus. Si un neurone biologique s'active, cela signie qu'il transmet le signal électrique
reçu à d'autres neurones.L'idée du neurone articiel (ou neurone formel) fut appliquée à un problème de classication
binaire : l'algorithme obtenu se nomme le perceptron[14].
k=0
que les récompenses futures[8].La politique optimale π ∗ conduit au rendement maximal.
La valeur de l'action Q d'un état s ∈ S subordonnée à une action a est déni comme le retour que l'agent peut
espérer obtenir en sélectionnant l'action a dans l'état s en suivant la politique π :
∞
Qπ (s, a)=Eπ [ γ k rt+k |st =a,at =a][8].
X
k=0
La fonction de valeur d'action optimale dénie par:
7
Q∗ (s,a)=maxπ Qπ (s,a)permet de dénir la politique optimale
π∗ (s)=argmaxa Q∗ (s,a)[8].
• On désire trouver la partition de l'ensemble E en k classes disjointes C1 ,C2 ,...,Ck ; soit Pk l'ensemble de toutes
ces partitions en k classes.
• Pour que le problème soit bien déni mathèmatiquement, on associe à tout p dans Pk , la valeur d'un critère de
classication W qui mesure la qualité de chaque partition p.
• Le problème : est de trouver la partition qui minimise la valeur du critère parmi l'ensemble des partitions en k
classes.
Le nouveau critère de classication considéré est le suivant: les enveloppes convexes des k classes obtenues sont
disjointes et la somme des mesures de ces enveloppe est minimale[12].
On peut donc ainsi écrire le problème :
W:PK →R+
K
P={C1 ,C2 ,...,CK } → W (P ) = m(Ci )
X
i=1
i=1
8
3.10 Problème de classication du trac dans les SDWN
La classication du trac consiste à associer chaque ux à une application l'ayant généré sur la base des
caractéristiques (come la taille moyenne des paquets par exemple)qui ont été extraites pour ce ux[5].Soit X la
varaible aléatoire à n dimensions correspondant aux caractéristiques du ux.Un vecteur x=(x1 ,...,xn ) composé de n
caractéristiques mesurées et associées à chaque ux[5].
Supposons qu'il y ait c applications.On dénit la variable aléatoire Y qui indique l'application qui a généré un ux.
Elle prend des valeurs dans l'ensemble {1, 2, ..., c + 1}[5].Y=c+1 Signie que le ux n'est associé à aucune
classe,c'est-à-dire qu'il est inconnu.Le problème de la classication du trac consiste à associer un ux donné x à une
application y [5].Un ux étant un 5-tuple {adresse IP source, adresse IP destination, port source, port destination,
protocole} [5].
References
[1] Al Khater, N., Overill, R. E. (2015, October). Network trac classication techniques and challenges. In 2015
Tenth international conference on digital information management (ICDIM) (pp. 43-48). IEEE.
[2] Raikar, M. M., Meena, S. M., Mulla, M. M., Shetti, N. S., Karanandi, M. (2020). Data trac classication in
software dened networks (SDN) using supervised-learning. Procedia Computer Science, 171, 2750-2759.
[3] AlZoman, R. M., Alenazi, M. J. (2021). A comparative study of trac classication techniques for smart city
networks. Sensors, 21(14), 4677.
[4] Latah, M., Toker, L. (2019). Articial intelligence enabled software-dened networking: a comprehensive overview.
IET networks, 8(2), 79-99.
[5] Pietrzyk, M. (2011). Methods and Algorithms for Network Trac Classication (Doctoral dissertation, PhD thesis,
Telecom Paris Tech, 2011. 77, 87).
[6] Zoungrana, W. B. A. B. (2020). Application des algorithmes d'apprentissage automatique pour la détection de
défauts de roulements sur les machines tournantes dans le cadre de l'Industrie 4.0 (Doctoral dissertation, Université
du Québec à Chicoutimi).
[7] Zaiz, F. (2010). Les Supports Vecteurs Machines (SVM) pour la reconnaissance des caractères manuscrits arabes
(Doctoral dissertation, Université Mohamed Khider Biskra).
[8] Martinez, C., Ramasso, E., Perrin, G., Rombaut, M. (2019, August). Apprentissage par renforcement profond
pour la classication précoce de séquences temporelles. In XXVIIème colloque GRETSI (GRETSI 2019).
[9] Rademacher, M., Jonas, K., Siebertz, F., Rzyska, A., Schlebusch, M., Kessel, M. (2017). Software-dened wireless
mesh networking: Current status and challenges. The Computer Journal, 60(10), 1520-1535.
[10] Gu, C., Zhang, S., Xue, X., Huang, H. (2011). Online wireless mesh network trac classication using machine
learning. Journal of Computational Information Systems, 7(5), 1524-1532.
[11] Bouaziz, M. (2017). Réseaux de neurones récurrents pour la classication de séquences dans des ux audiovisuels
parallèles (Doctoral dissertation, Université d'Avignon).
[12] Hardy, A., Rasson, J. P. (1982). Une nouvelle approche des problèmes de classication automatique. Statistique
et Analyse des données, 7(2), 41-56.
[13] https://www.techno-science.net/glossaire-denition/Nombre-de-Stirling.html
[14] http://www.statsoft.fr/concepts-statistiques/reseaux-de-neurones-automatises/reseaux-de-neurones-
automatises.htm.YYbvmzdKjM1