Académique Documents
Professionnel Documents
Culture Documents
Marko Ristin1 Matthieu Guillaumin 1 Juergen Gall 2 Luc Van Gool 1,3
123
#comparaison
Figure 2 : Illustration de nos approches incrémentales : a) 0. 4
moyenne
Précision
400
Update leaf statistics (ULS), b) Incrementally grow tree
0. 3 200
(IGT), c) Re-train subtree (RTST), d) Re-use subtree
s
0.2
(RUST). Les couleurs des centroïdes (jaune, cyan)
5010020050 100200
indiquent les directions associées aux cellules de
classes# classes
Voronoï. Les éléments marqués en rouge sont des
modifications de la structure de l'arbre. Dans c), les a) performancesb ) temps d'essai
centroïdes de l'enfant droit de la racine sont recalculés, Figure 3 : Comparaison de a) l'exactitude moyenne de
tandis que dans d), seul un nouveau centroïde est ajouté. la classification et b) le temps de test pour différentes
tailles de K n ⊂ K. Alors que le fait de fixer |Kn |
les échantillons d'apprentissage des classes K dans le linéaire au nombre de classes donne de meilleurs
sous-arbre du nœud, les échantillons avec f0n (~x) 6= fn résultats qu'une racine carrée ou une croissance
(~x) sont retirés des feuilles et repassés dans le sous- logarithmique, cela prend beaucoup plus de temps au
arbre. Comme cela pourrait créer des feuilles sans temps de test.
échantillons, les arbres sont coupés de telle sorte que
chaque feuille contienne un nombre minimum µ
d'échantillons. L'impact de π et µ est évalué dans la 0. 5 0. 5
moyenne
moyenne
Précision
Précision
section 5. 0. 45 0. 45
µ =5 0. 4 0. 4
Alors que ULS, IGT et RTST sont des approches µ =10 0. 35 0. 35
générales qui fonctionnent avec n'importe quel type de µ =20 30 40 50 30 40 50
µ =30 # classes # classes
fonctions de fractionnement, RUST utilise l'avantage de
NCM pour l'apprentissage incrémental. La figure 2
#comparaisons
#comparaisons
5. Expériences 30 40 50 30 40 50
# classes # classes
Pour l'évaluation, nous utilisons le difficile réseau
ImageNet a) NCM Forestb ) RUST
Le défi de la reconnaissance visuelle à grande échelle Figure 4 : L'influence des µ échantillons minimums à
2010 (ILSVRC10) [3]. Il y a 1k catégories (entre 660 et une feuille pour a) la forêt NCM et b) RUST avec 3
3047 images d'entraînement par classe, 1.2M au total ; classes initiales.
150 images de test par catégorie) organisées dans une
hiérarchie de classe basée sur WordNet. La performance
est mesurée en utilisant la précision moyenne, c'est-à-
5.1. Paramètres de la forêt NCM 5.3. Apprentissage progressif
Pour évaluer les approches d'apprentissage
Nous évaluons d'abord l'impact de certains des
incrémental présentées à la Sec. 4, nous entraînons
paramètres des forêts de MR. Sauf indication contraire,
un NCMF sur un nombre prédéfini k de classes
nous avons utilisé 50 arbres, échantillonné 1024
initiales, puis nous ajoutons les autres classes de
fonctions à chaque nœud sans remplacement (c'est-à-
façon incrémentale, une par une. La performance est
dire |F n| = 1024) et imposé au moins µ=10 échantillons
mesurée lorsque la méthode a appris à reconnaître un
d'entraînement à une feuille. Un paramètre de f n, cf. Eq.
certain nombre de classes. Puisque le but est d'égaler
(6), est la taille des classes échantillonnées K n sur
la performance du NCMF ré-entraîné à chaque
l'ensemble des classes K. Nous
nouvelle classe, nous mesurons la performance par
rapport à cette ligne de base. Le temps
n p o
Nous avons comparé |Kn | ∈ log|K|, |K|,0.2|K| et d'apprentissage est mesuré en secondes de temps de
présentons les résultats sur la figure 3. L'écart-type du mur.
temps de test était < 10% de la moyenne et a été omis Comparaison des stratégies de mise à jour. La
p figure 5 illustre la précision, le temps de test et le
pour plus de clarté. Les résultats montrent que |Kn | = |
temps de formation pour la ligne de base et nos
K| donne un bon compromis entre la précision et le approches "Update leaf statistics" (ULS),
temps de test et est utilisé pour le reste du document. "Incrementally grow tree" (IGT), "Re-train subtree"
Le nombre minimum d'échantillons à une feuille µ (RTST avec π = 0.8) et "Re-use subtree" (RUST avec π
définit le critère d'arrêt de la croissance des arbres. Plus = 0.8) formées à partir de k = 3 classes initiales
le nombre est petit, plus les arbres croissent en jusqu'à 50 classes. Comme ULS ne fait pas croître les
profondeur. La figure 4a) montre qu'un petit nombre arbres, son temps de test est constant et son temps
augmente la précision, mais induit plus de comparaisons d'apprentissage très faible, mais la performance
au moment du test. Pour les expériences suivantes, nous relative finale à 50 classes est faible (26,7 %). IGT
avons contraint les feuilles à contenir au moins 10 étend les arbres, ce qui entraîne des temps de test et
échantillons. de formation plus élevés, mais permet d'obtenir une
performance relative de 80,7 % tout en réduisant le
5.2. Comparaison avec d'autres méthodes temps de formation de la base de référence par un
Nous avons comparé les forêts de NCM avec d'autres facteur de 25 et le temps de test par 3. IGT obtient
classificateurs multi-classes utilisant les mêmes une précision moyenne de 34,9 %, surpassant NCM,
caractéristiques. Pour la comparaison, nous avons utilisé KNN et RF (cf. Fig. 10a). RTST réintroduit les nœuds et
le classificateur moyen de la classe la plus proche (NCM), obtient la meilleure performance relative (91,2%),
le NCM avec apprentissage métrique [14] (MET+NCM), le mais prend plus de temps à former. RUST surpasse
SVM multi-classes à sortie structurée [1] (MC SVM), les k- IGT (88,1% de performance relative), ce qui suggère
voisins les plus proches (KNN), et les forêts aléatoires que la réutilisation des sous-arbres est effectivement
avec fonctions de division alignées sur l'axe [5] (RF), qui bénéfique. Elle accélère également l'apprentissage de
ont donné de meilleurs résultats que les RF avec la ligne de base par un facteur de 5 et est 2 fois plus
fonctions de division linéaires aléatoires dans notre cas. rapide que RTST. L'écart entre les temps
Pour chaque approche, les paramètres ont été optimisés d'apprentissage de RTST et de RUST se creuse avec le
par validation croisée pour les 50 premières classes. Les nombre de classes.
résultats de la figure 10a) montrent que les forêts de
MNC ont des performances comparables à celles des
MNC avec apprentissage métrique [14] et qu'elles
surpassent les autres méthodes. En particulier, la NCMF
surpasse la NCM (Sec. 3.1) et les forêts aléatoires
conventionnelles (Sec. 3.2), avec une marge d'au moins
10 points. La baisse de performance de MC SVM pour
plus de 200 classes est probablement due à la sensibilité
des paramètres optimisés pour 50 classes.
Impact de π. RTST et RUST dépendent du paramètre dans la Sec. 5.1, nous avons évalué l'impact du critère
π, dont l'impact est illustré à la figure 6. Si π = 0, RTST et d'arrêt donné par le nombre minimum d'échantillons
RUST sont les mêmes que IGT. Lorsque π augmente, à une feuille. La figure 4b) montre que l'impact est
#comparaison
Ligne de
Performance1 d'autres approches dans la Fig. 10a), nous comparons
k =3 0. 95 80
base maintenant les approches d'apprentissage
relative
k =10 0. 9
k =20 0. 85 60 incrémental sur l'ensemble des 1k classes dans les Fig.
s
0. 8
30 40 50 30 40 50 10b) et c). Puisque IGT surpasse déjà NCM, KNN et RF,
# classes # classes
nous nous concentrons sur NCM avec apprentissage
a) performance relativeb) temps d'essai métrique [14], qui est légèrement plus performant
Figure 7 : Comparaison de a) la performance relative et que NCM Forests, cf. Fig. 10a). Nous commençons
b) le temps de test de RUST avec π = 0.8 en partant de k avec k =10 et k=20 classes initiales. Le paramètre
classes initiales mesurées à 30, 40 et 50 classes. pour les approches basées sur NCM Forests reste le
L'augmentation du nombre de classes initiales est même, c'est-à-dire que le blanchiment est estimé sur
bénéfique, mais a un impact limité. les k classes initiales. Pour MET k+NCM, la métrique
est seulement apprise sur les classes initiales, et le
modèle est mis à jour avec les centroïdes projetés des
évaluation. L'écart-type n'a jamais dépassé 10% des
nouvelles classes. Dans la figure 10, RUST surpasse
valeurs moyennes des mesures (cf. Fig. 8), ce qui indique
IGT, montrant que la mise à jour des arbres est
un faible impact de l'ordre des classes, ce qui est
bénéfique. Bien qu'il ait été démontré dans [14]
souhaitable pour un apprentissage incrémental.
qu'une métrique apprise sur 800 classes est
En pratique, plusieurs classes peuvent apparaître par
applicable aux 200 autres classes, la métrique apprise
lots, le nombre de classes simultanées à ajouter est donc
sur un maximum de 20 classes ne se généralise pas
un paramètre intéressant à étudier. Nous avons initialisé
bien, ce qui rend la méthode inadaptée à un petit
avec 10 classes et expérimenté avec des pas de 1, 5, 10
ensemble d'apprentissage initial. Dans ce cas, les trois
ou toutes les classes (40). Bien que seuls les gros
approches IGT, RUST et RTST sont plus performantes
morceaux augmentent la précision, le temps de
que MET k+NCM. Dans différents scénarios, une
formation est déjà réduit en formant 5 classes à la fois,
comme le montre la figure 9.
1
#comparaisons
formation [s]
20
Performance
0. 95
80
Temps de
0. 9
relative
10
0. 85 60
0. 80
31020310201020304050
classes initiales# classes initiales# classes
1
#comparaisons
15
formation [s]
Performance
0. 95
80 10
Temps de
0. 9
relative
0. 85 5
60
0. 80
30405030405020304050
classes# classes# classes