Vous êtes sur la page 1sur 10

Qualication intelligente du trac dans un

réseau maillé sans l programmable contraint

BESSALA André Cédric

Supervision : Pr DJOTIO Thomas

November 8, 2021
Contents
1 C'est quoi un problème de classication ? 2

2 En quoi la classication est-un problème dicile ? 2

3 Modèles mathématiques ou informatiques formelle qui permettent de résoudre un problème de


classication 2
3.1 Les Machines à Vecteurs de Support(SVM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3.2 Les Arbres de décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3.3 LES k-PLUS PROCHES VOISINS (k-NN) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.4 Le modèle de classication naïve bayésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3.5 RÉSEAUX NEURONES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.1 Fonction d'activation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.5.2 Fonction d'erreur d'un réseau de neurones . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.6 Deep learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.6.1 Le neurone formel ou neurone articiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.6.2 Le réseau de neurones multi-couches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.7 Apprentissage par renforcement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.8 Description formelle du problème de classication . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.9 C'est quoi le SDWN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.10 Problème de classication du trac dans les SDWN . . . . . . . . . . . . . . . . . . . . . . . . . 9

1
1 C'est quoi un problème de classication ?
Un problème de classication formellement est-un problème que pour de nombreux objets et systèmes du monde réel :
faut déterminer si un objet est membre ou appartient à un ensemble ou non, ou lequel appartient à plusieurs ensembles.
En statistique la classication est le problème qui consiste à identier à quelle catégorie(sous-population) d'un
ensemble de catégories(sous-populations) appartient une observation(ou des observations).Il s'agit aussi de déterminer
à quel groupe de catégories une nouvelle observation appartient.
Du point de vue informatique un problème de classication est-un problème pour lequel la variable à prédire prend
une valeur discrète.

2 En quoi la classication est-un problème dicile ?


Formellement la classication est-un problème dicile car il s'agit de trouver un système de classication infaillible qui
détermine pour un objet donné l'ensemble auquel il appartient.
En informatique un problème de classication est-un problème dicile car l'objectif est de minimiser une fonction
d'erreur et cette tâche est approximative: les algorithmes pour le faire sont approximatifs et s'exécutent en un nombre
de temps elévé.Autrement il s'agit de minimiser l'erreur de prediction trouver un classieur qui minimise le risque de
prédiction.
La classication comme problème NP-Dicile
La diculté d'un problème de classication vient du fait que l'on est en présence d'un problème à "explosion combi-
natoire" c'est-à-dire un problème d'optimisation.Le nombre de partitions de n individus en K classes est donné par le
nombre de Stirling d'ordre 2,Les nombres de Stirling d'ordre 2 comptent le nombre de relations d'équivalence ayant
k classes d'équivalence dénies sur un ensemble de n éléments, c'est-à-dire aussi le nombre de partitions en k sous-
ensembles d'un ensemble de n objets[13].déni comme:
K
PK =1/K! (−1)K−i (k, i)K n [12] Un algorithme passant en revue toutes les partitions de n individus en K classes
X

i=0
sera de complexité exponentielle,donc le problème de décision qui est associer à notre problème d'optimisation est
NP-Complet par conséquent notre problème de classication est NP-Dicile(théorie de la complexité).

3 Modèles mathématiques ou informatiques formelle qui permettent de


résoudre un problème de classication
Les modèles de classication sont utilisées pour aecter des éléments à un groupe ou une classe discrète en fonction d'un
ensemble spécique de fonctionnalités.Chaque modèle a ses propres forces et faiblesses dans un scénario donné.Le choix
d'un modéle de classication des données est étroitement lié à l'analyse de rentabilisation et à une solide compréhension
de ce qu'on veut accomplir.Le choix de la bonne approche nécessite souvent des essais et des erreurs pour atteindre le
bon équilibre entre compléxité, performances et précision.

3.1 Les Machines à Vecteurs de Support(SVM)


Les machines à vecteur de support (SVM) sont utilisées lorsque les données ont exactement deux classes.[6] L'algorithme
SVM classe les données en trouvant le meilleur hyperplan qui sépare tous les points de données d'une classe de ceux de
l'autre classe (le meilleur hyperplan pour un SVM est celui avec la plus grande marge entre les deux classes).L'algorithme
SVM peut aussi être utilisé avec plus de deux classes, auquel cas le modèle créera un ensemble de sous-ensembles
de classication binaire.[6]Il y a quelques avantages importants à utiliser l'algorithme SVM. Tout d'abord, il est
extrêmement précis et n'a pas tendance à suradapter les données. Deuxièmement, les machines à vecteurs de support
linéaire sont relativement faciles à interpréter[6]. Parce que les modèles SVM sont très rapides, une fois que le modèle
a été formé, on peut supprimer les données de formation si l'on a une capacité de mémoire disponible limitée. Il a
également tendance à très bien gérer les classications complexes et non linéaires en utilisant une technique appelée "
astuce du noyau". Cependant, les algorithmes SVM doivent être formés et réglés à l'avance, vous devez donc investir

2
du temps dans le modèle avant de pouvoir commencer à l'utiliser. De plus, sa vitesse est fortement aectée si vous
utilisez le modèle avec plus de deux classes. L'algorithme SVM est un classicateur dit linéaire, ça veut dire que, dans
le cas parfait,les données doivent être linéairement séparables. Il permet de trouver le meilleur séparateur(ligne, plan
ou hyperplan) qui sépare le mieux les deux classes[6].

gure:Exemple de marge et d'hyperplan optimal avec SVM[6].


Fonction d'erreur pour le SVM:
[11]Les SVM linéaires sont la forme la plus simple de cet algorithme. Ils sont applicables dans le cas où les données
sont linéairement séparables.[11] Ils essayent de trouver un hyperplan d'équation : wT x+b=0
qui sépare deux classes entre elles en satisfaisant aux contraintes suivantes : wT xi +b ≥ 1, itelque yi =1
et wT xi +b ≤ −1, itelque yi =-1.
La distance entre les deux hyperplans d'équation wT x+b=1 et wT x+b=-1 est kwk 2
et représente la marge du
classieur. L'hyperplan optimal peut être trouvé en maximisant la marge,c'est-à-dire, en minimisant la norme de
l'hyperplan séparateur. Le problème est donc exprimé comme suit :
M inwb 1/2kwk2 sous la contrainte:yi (wT xi +b)≥ 1, pouri ≤ n,La fonction de décision est exprimée par :
f (x)=wT x + b qui attribue la classe 1 à x si h(x) ≥ 0 et à -1 sinon[11].

Notion de base :

1. Hyperplan: pour deux classes d'exemples donnés, le but de SVM est de trouver un classicateur qui va séparer les
données et maximiser la distance entre les deux classes, Ce classicateur est un classicateur appelé hyperplan.Il
existe une multitude d'hyperplan valide mais la propriété des SVM est que l'hyperplan doit être optimal.
2. Marge: La marge est la distance entre l'hyperplan et les exemples et cette distance doit être maximale.
3. Support Vecteur: Les points les plus proches, qui seuls sont utilisés pour la détermination de l'hyperplan, sont
appelés Vecteurs de Support.

gure: organigramme de l'algorithme SVM[6].

3.2 Les Arbres de décision


Un arbre de décision est une structure hiérarchique qui permet de partitionner un ensemble d'individus en groupes
homogènes et disjoints selon un ensemble d'attributs discriminants et de variables d'intérêt ou variables de sorties.Un

3
arbre de décision est caractérisé aussi par sa profondeur et sa largeur[6]. Le premier indicateur correspond au nombre
moyen des niveaux de l'arbre tandis que la largeur ou le degré désigne le nombre moyen de n÷uds interne à chaque
niveau. Ces deux indicateurs reètent la complexité de l'arbre ; plus les valeurs sont élevées plus l'arbre est
complexe.Ainsi, le but est de générer un arbre de décision aussi petit que possible. Pour y parvenir,l'idée intuitive est
de chercher les attributs (tests) qui font progresser rapidement la classication des exemples d'entraînement[6]. Ceci
revient à mesurer la pertinence des variables et de choisir celle qui permet de mieux partitionner une proportion de
données associée à une position déterminée de l'arbre. Les critères les plus populaires dans ce contexte sont le taux
d'erreurs, le critère de Gini utilisé par la méthode CLART (Olshen et Stone, 1984; Timofeev, 2004) et l'entropie qui
est l'élément clés C4.5 (Ruggieri, 2002)..La construction de l'arbre de décision consiste à utiliser les descripteurs, pour
subdiviser progressivement l'ensemble en sous-ensembles de plus en plus ns.L'algorithmePestime la probabilité
qu'une observation se trouve dans le n÷ud t en utilisant la formule : P (T ) = j∈T wj [6]
où :

• wj = Poids des observations,


• T = Ensemble de tous les indices d'observation du noeud t
• n = Égale au nombre d'observations.

Les arbres de décision sont des algorithmes de classication de données reposant sur un apprentissage supervisé.La
structure de ces algorithmes ressemble à des arbres constitués de n÷uds, de branches et de feuilles.La construction de
ces arbres est réalisée à l'aide d'une base de données brute (vecteur des caractéristiques et classes) et de lois qui
permettent de déterminer les variables discriminantes pour la classication ecace des futures données. Chacun des
n÷uds constituant l'arbre représente une règle de classication préalablement déterminée de manière récursive.
Ce type d'algorithmes est très utilisé, car ils permettent de construire automatiquement des classications et leur
vitesse d'exécution surpasse tous les autres types des algorithmes.Cependant, ils ne permettent pas d'obtenir de bons
résultats quand les données sont complexes[6].
[6]Pour voir comment un arbre de décision prédit une réponse, il faut suivre les décisions dans l'arbre du n÷ud racine
(début) jusqu'au n÷ud feuille qui contient la réponse.Les arbres de classication donnent des réponses nominales, tel
que vrai ou faux.Les arbres de décision sont relativement rapides et faciles à suivre dans leur résolution; vous pouvez
voir une représentation complète du chemin parcouru de la racine à la feuille.Cela est particulièrement utile si vous
devez partager les résultats avec des personnes intéressées par la manière dont une conclusion a été tirée[6].

gure: arbre de décision[6].

3.3 LES k-PLUS PROCHES VOISINS (k-NN)


Le modèle de classication des k-plus proches voisins (K-NN) se base sur les données en entier[6].En eet, pour une
observation, qui ne fait pas partie des données, qu'on souhaite prédire, l'algorithme va chercher les k instances les plus
proches de notre observation et choisir pour chaque observation la classe majoritaire parmi ses k plus proches voisins.

4
gure: exemple de classication avec kNN[6].
La méthode k-NN est une méthode d'apprentissage supervisé, elle permet de classier une nouvelle observation en
calculant la distance avec les données d'entrainement, et de prendre les k plus proches voisins(en termes de
distance).Puis observé la classe qui est majoritairement représentée parmi les k-plus proches voisins et d'assigner
cette classe à la nouvelle observation. Le temps d'apprentissage de la méthode k-NN est court, mais le temps de la
requête réel (et l'espace de stockage) peut être plus long que celui des autres modèles.Mais son plus grand
inconvénient est qu'elle peut être erronée par des attributs non pertinents qui masquent les attributs importants[6].

gure:organigramme de l'algorithme kNN[6].

3.4 Le modèle de classication naïve bayésien


Le classicateur naïf bayésien est un algorithme d'apprentissage génératif.Les modèles génératifs supposent que, pour
une certaine classe, les séquences ou données en entrée sont générées selon une loi de probabilité.
[11]Il se base donc sur le théorème de Bayes déni comme suit:

1. soient A1 ,A2 ,...,AL des événements mutuellement exclusifs dont l'union à une probabilité égale à 1: P (Ai )=1
PL
i=1

2. considérons que les probabilités P(Ai ) sont connues


3. soit B un événement telque la probabilité conditionnelle de B sachant Ai , c'est-à-dire P(B/Ai ), est connue pour tout
événement Ai .
Donc : P(Ai /B)= P(B/Ai )P(Ai )/P(B)

Dans le cadre d'un problème de classication, les événements A1 ,A2 ,...,AL correspondent aux classes
C1 ,C2 ,...,CL .L'événement B correspond à un vecteur de caractéristiques, c'est-à-dire l'union X d'événements
(X1 =x1 ,X2 =x2 ,...,Xm =xm ).Xi et xi représentent respectivement les variables et les valeurs. On peut réécrire la
formule de Bayes pour le contexte: P(Ci /X)= P(X/Ci )P(Ci )/P(X) Une fois les probabilités estimées, il s'agit de
classier chaque nouvelle instance X en identiant la classe la plus probable selon la fonction:
f(X) = argmaxi∈[1,L] P(Ci /X)[11].

5
3.5 RÉSEAUX NEURONES
Les réseaux de neurones proposent une simulation du fonctionnement de la cellule nerveuse à l'aide d'un automate :
le neurone formel. Les réseaux neuronaux sont constitués d'un ensemble de neurones (n÷uds) connectés entre eux
par des liens qui permettent de propager les signaux de neurone à neurone[14]. L'apprentissage d'un réseau de
neurones est le processus d'ajustement de ces paramètres de telle sorte que le réseau soit en mesure d'approcher la
relation fonctionnelle sous-jacente entre les entrées x et les cibles t,sachant qu'un réseau de neurones est constituer
d'un couple entrée-cible.L'apprentissage passe par :

1. Présenter un couple entrée-cible.


2. Calculer les prévisions du réseau pour les cibles.
3. Utiliser la fonction d'erreur pour calculer la diérence entre les prévisions(sorties) du réseau et les valeurs
cible.reprendre les étapes 1 et 2 jusqu'à ce que tous les couples entrées-cible aient été présentés au réseau.
4. Utiliser l'algorithme d'apprentissage an d'ajuster le poids du réseau pour qu'il puisse produire de meilleures
prévisions à chaque couple entrée-cible.
5. Répéter les étapes 1 à 5 pendant un certain nombre de cycles d'apprentissage jusqu'à ce que le réseau commence
à produire des resultats susament ables.

3.5.1 Fonction d'activation


C'est la fonction qui permet de construire des réseaux de neurones avec plusieurs sorties normalisées ce qui le rend
adapté à la création de classications par réseaux de neurones avec P
des sorties probabilistes,elle se note Softmax
dénie comme: Sof tmax = exp(αi ) / exp(αi )[14].

3.5.2 Fonction d'erreur d'un réseau de neurones


Elle permet d'évaluer la performance d'un réseau de neurones au cours de l'apprentissage,[14]l'approche courante
consiste à utiliser la fonction d'erreur dite "somme des carrés" qui la somme des diérences entre les valeurs cibles et
N
les sorties prévues dénies pour l'ensemble de l'apprentissage Esc = (yi -ti )2 avec :
X

i=1

• N nombre d'observations d'apprentissage


• yi la prévision(sortie du résau)
• ti la valeur cible pour la i-ième observation

pour réaliser une véritable classication par le réseau de neurones il faut utiliser une autre fonction d'erreur que Esc
N
qui est la fonction d'erreur de l'entropie croisée dénie par : Eec =- ti ln(yi /ti ) [14].
X

i=1

3.6 Deep learning


Le Deep learning ou l'apprentissage profond est un maillage de couches de neurones articiels qui peuvent être
constituées de plusieurs milliers, voire de millions de neurones connectés entre eux et simulant le fonctionnement des
neurones biologiques. C'est un champ d'étude de l'apprentissage automatique.[11]Il varie suivant le type de réseau de
neurones, ainsi on peut avoir:

3.6.1 Le neurone formel ou neurone articiel


Un neurone articiel est un outil mathématique qui reçoit des valeurs en entrée, pondère ces valeurs avec des poids
(ou coecients) et retourne une valeur en sortie, en fonction de la somme des valeurs pondérées. La valeur renvoyée
par le neurone s'appelle alors une activation. C'est donc une abstraction mathématique d'un neurone biologique qui,

6
de façon très simpliée, reçoit des signaux électriques par ses dendrites, les transforme dans ses synapses et s'active
ou non en fonction des signaux reçus. Si un neurone biologique s'active, cela signie qu'il transmet le signal électrique
reçu à d'autres neurones.L'idée du neurone articiel (ou neurone formel) fut appliquée à un problème de classication
binaire : l'algorithme obtenu se nomme le perceptron[14].

gure du neurone formel[14].

3.6.2 Le réseau de neurones multi-couches


Les perceptrons permettaient de résoudre des problèmes de classication binaire simples mais étaient limités par leur
incapabilité à résoudre certains types de problèmes (comme la fonction XOR).Pour résoudre ce problème, il est
nécessaire de passer d'un perceptron ayant une couche de neurones, à un réseau de neurones avec plusieurs couches ;
le perceptron multi-couches. Cependant, le fait d'ajouter des couches à un perceptron rend l'apprentissage de celui-ci
plus dicile[14].
Le perceptron multicouche est un type de réseau neuronal articiel organisé en plusieurs couches au sein desquelles
une information circule de la couche d'entrée vers la couche de sortie uniquement ; il s'agit donc d'un réseau à
propagation directe[14].

gure : perceptron multi-couches[14].

3.7 Apprentissage par renforcement


L'apprentissage par renforcement est basé sur l'interaction d'un agent dans un environnement inconnu. La décision se
fait par un processus d'essais et d'erreurs. Dans chaque état s de l'espace d'état S, l'agent sélectionne une action a
dans l'ensemble des actions possibles A[8]. Le choix de l'action a est dicté par sa politique π telle que a = π(s).En
réponse, l'agent reçoit une récompense r = R(s, a) et passe à l'état suivant s0 = T (s, a).[8]Les interactions
< s, a, r, s0 > entre l'agent et l'environnement se poursuivent jusqu'à ce que l'agent atteigne un état terminal menant
à la n de l'épisode.
A tout instant t ∈N+ ,l'agent cherche à choisir les actions générant le rendement maximal déni comme la somme des

récompenses γ k rt+k .γ ∈ [0, 1] le coecient est conguré de façon à privilégier les récompenses immédiates plutôt
X

k=0
que les récompenses futures[8].La politique optimale π ∗ conduit au rendement maximal.
La valeur de l'action Q d'un état s ∈ S subordonnée à une action a est déni comme le retour que l'agent peut
espérer obtenir en sélectionnant l'action a dans l'état s en suivant la politique π :


Qπ (s, a)=Eπ [ γ k rt+k |st =a,at =a][8].
X

k=0
La fonction de valeur d'action optimale dénie par:

7
Q∗ (s,a)=maxπ Qπ (s,a)permet de dénir la politique optimale

π∗ (s)=argmaxa Q∗ (s,a)[8].

3.8 Description formelle du problème de classication


Soit E={X1 ,...,Xn } l'ensemble des individus à classer.On suppose #E < ∞.Sur chaque individu, on observe la
valeur de m variables,chaque individu pourra être considéré comme un point dans un espace m-dimensionnel[12].
Le problème de classication abordé est le suivant:

• On désire trouver la partition de l'ensemble E en k classes disjointes C1 ,C2 ,...,Ck ; soit Pk l'ensemble de toutes
ces partitions en k classes.
• Pour que le problème soit bien déni mathèmatiquement, on associe à tout p dans Pk , la valeur d'un critère de
classication W qui mesure la qualité de chaque partition p.
• Le problème : est de trouver la partition qui minimise la valeur du critère parmi l'ensemble des partitions en k
classes.

Le nouveau critère de classication considéré est le suivant: les enveloppes convexes des k classes obtenues sont
disjointes et la somme des mesures de ces enveloppe est minimale[12].
On peut donc ainsi écrire le problème :
W:PK →R+
K
P={C1 ,C2 ,...,CK } → W (P ) = m(Ci )
X

i=1

où m(Ci ) est la mesure de Lebesque de l'enveloppe convexe de la classe Ci .


On recherche la partition
P∗
k
telle que: W (P ∗ ) = minp∈ P k m(Ci )[12].
X

i=1

3.9 C'est quoi le SDWN


SDN ou Software-Dened Network est déni comme un cadre conceptuel dans lequel les réseaux sont traités comme
des abstractions et sont contrôlés par programme,avec un minimum de contact direct avec les composants de réseau
individuels[9].Il essaie de répondre à un besoin de congurer les périphériques réseau de manière plus exible et
dynamique[9].
Un réseau maillé sans l(WMN) est considéré comme un réseau multi-sauts sans l,dans lequel les noeuds maillés
relaient le trac pour d'autres noeuds maillés ou de clients(et réseaux) connectés et formant ainsi une dorsale sans
l.Le WMN se caractérise par un contrôle de réseau dynamique et distribué[9].
Le SDWN(wnSDN) ou Software-Dened Wirelless Mesh Network est donc la combinaison du SDN et du WMN tous
deux associés pour la dimunition des coûts d'exploitation des réseaux de communication,ce qui est particulièrement
bénéque pour l'approvisionnement Internet dans les zones rurales[9].
Les aspects fondamentaux du SDWN sont[9]:

• Les interfaces sans l en SDN


• La connexion au plan de contrôle et de découverte de la topologie
• Le routage et l'équilibrage de charge
• La Modulation et le codage
• La Gestion des clients

8
3.10 Problème de classication du trac dans les SDWN
La classication du trac consiste à associer chaque ux à une application l'ayant généré sur la base des
caractéristiques (come la taille moyenne des paquets par exemple)qui ont été extraites pour ce ux[5].Soit X la
varaible aléatoire à n dimensions correspondant aux caractéristiques du ux.Un vecteur x=(x1 ,...,xn ) composé de n
caractéristiques mesurées et associées à chaque ux[5].
Supposons qu'il y ait c applications.On dénit la variable aléatoire Y qui indique l'application qui a généré un ux.
Elle prend des valeurs dans l'ensemble {1, 2, ..., c + 1}[5].Y=c+1 Signie que le ux n'est associé à aucune
classe,c'est-à-dire qu'il est inconnu.Le problème de la classication du trac consiste à associer un ux donné x à une
application y [5].Un ux étant un 5-tuple {adresse IP source, adresse IP destination, port source, port destination,
protocole} [5].

References
[1] Al Khater, N., Overill, R. E. (2015, October). Network trac classication techniques and challenges. In 2015
Tenth international conference on digital information management (ICDIM) (pp. 43-48). IEEE.
[2] Raikar, M. M., Meena, S. M., Mulla, M. M., Shetti, N. S., Karanandi, M. (2020). Data trac classication in
software dened networks (SDN) using supervised-learning. Procedia Computer Science, 171, 2750-2759.
[3] AlZoman, R. M., Alenazi, M. J. (2021). A comparative study of trac classication techniques for smart city
networks. Sensors, 21(14), 4677.
[4] Latah, M., Toker, L. (2019). Articial intelligence enabled software-dened networking: a comprehensive overview.
IET networks, 8(2), 79-99.
[5] Pietrzyk, M. (2011). Methods and Algorithms for Network Trac Classication (Doctoral dissertation, PhD thesis,
Telecom Paris Tech, 2011. 77, 87).
[6] Zoungrana, W. B. A. B. (2020). Application des algorithmes d'apprentissage automatique pour la détection de
défauts de roulements sur les machines tournantes dans le cadre de l'Industrie 4.0 (Doctoral dissertation, Université
du Québec à Chicoutimi).
[7] Zaiz, F. (2010). Les Supports Vecteurs Machines (SVM) pour la reconnaissance des caractères manuscrits arabes
(Doctoral dissertation, Université Mohamed Khider Biskra).
[8] Martinez, C., Ramasso, E., Perrin, G., Rombaut, M. (2019, August). Apprentissage par renforcement profond
pour la classication précoce de séquences temporelles. In XXVIIème colloque GRETSI (GRETSI 2019).
[9] Rademacher, M., Jonas, K., Siebertz, F., Rzyska, A., Schlebusch, M., Kessel, M. (2017). Software-dened wireless
mesh networking: Current status and challenges. The Computer Journal, 60(10), 1520-1535.
[10] Gu, C., Zhang, S., Xue, X., Huang, H. (2011). Online wireless mesh network trac classication using machine
learning. Journal of Computational Information Systems, 7(5), 1524-1532.
[11] Bouaziz, M. (2017). Réseaux de neurones récurrents pour la classication de séquences dans des ux audiovisuels
parallèles (Doctoral dissertation, Université d'Avignon).
[12] Hardy, A., Rasson, J. P. (1982). Une nouvelle approche des problèmes de classication automatique. Statistique
et Analyse des données, 7(2), 41-56.
[13] https://www.techno-science.net/glossaire-denition/Nombre-de-Stirling.html
[14] http://www.statsoft.fr/concepts-statistiques/reseaux-de-neurones-automatises/reseaux-de-neurones-
automatises.htm.YYbvmzdKjM1

Vous aimerez peut-être aussi