Académique Documents
Professionnel Documents
Culture Documents
DES FORMES
Catherine ACHARD
Institut des Systèmes Intelligents et de
Robotique
catherine.achard@upmc.fr
Reconnaissance de texte
Visage
Empreinte
vocale
Empreinte
digitale
http://www.biometrie-online.net/techno/empreintes/empreintes-
digitales.php
Cours de Reconnaissance des Formes– Catherine Achard 8
Applications
Imagerie
médicale satellitaire
200
800
800
1000
1000
1200
1200
1400
1400
200
200 400
400 600
600 800
800 1000
1000 1200
1200 1400
1400 1600
1600 1800
1800 2000
2000
Véhicules intelligents
Reconnaissance de locuteurs
• Parmi 10 personnes, qui parle ?
Reconnaissance de parole
• Parmi ces 20 mots, lequel la personne a dit ?
Contrôle de qualité
Champignon Champignon
fermé véreux
Champignon Champignon
taché terreux
Problème de
résolution
Problème de
pose
Distance entre
visage?
Problème:
Comment savoir où rechercher dans l’image ?
Comment détecter à plusieurs échelles ?
Pré-traitement
Extraire l’objet de l’image
Taille des
poissons
Seuil de décision
Truite
Saumon
Teinte
Seuil de décision
Longueur
Truite Saumon
Teinte
frontière de décision
Longueur
Truite Saumon
Teinte
frontière de décision
Longueur
Truite Saumon
Teinte
frontière de décision
Codage Classification
- DUDA Richard, HART Peter STORK David, "Pattern Classification ". Wiley Sciences, 2nd
edition.
- CHRISTOPHER M. BISHOP, “Pattern Recognition and machine learning”, springer, 2006
- BELAID Abdel, BELAID Yolande, "Reconnaissance des formes : Méthodes et
applications". InterEditions, 1992.
- DEVIJVER Pierre, KITTLER J., "Pattern Recognition: a statistical approach". Prentice Hall,
1982.
- DUBUISSON Bernard, "Diagnostic et reconnaissance des formes". Hermes, 1990.
- FU King-Sun, "Syntactic Methods in Pattern Recognition". Academic Press, 1974.
- GAILLAT Gérard, "Méthodes statistiques de reconnaissance des formes". Publication
ENSTA, 1983.
- MICLET Laurent, "Méthodes structurelles pour la reconnaissance des formes". Eyrolles
et CNET - ENST, 1984.
- MILGRAM Maurice,"Reconnaissance des formes : Méthodes numériques et
connexionnistes". Armand Colin, 1993.
- PAVLIDIS T., "Structural Pattern Recognition". Springer Verlag, 1982.
- SIMON Jean-Claude, "La reconnaissance des formes par algorithmes". Masson, 1984.
- WATANABE Satosi, "Knowing and Guessing". John Wiley, 1969.
ESPACE DE ESPACE DE
MESURE REPRESENTATION
Codage
Paradoxe
Il faut segmenter pour reconnaître et … reconnaître pour segmenter
Codage global
On code toute la forme sans en extraire d’éléments spécifiques. La
forme peut être représentée par un vecteur de paramètres
Exemple pour une personne : le poids et la taille
Codage structurel
On extrait des éléments spécifiques de la forme et leur relation.
Exemple :
pour la personne 1 : pull rouge au dessus d’un pantalon bleu au
dessus de chaussures noires
Pour reconnaitre un ‘L’ : contour d’abord vertical puis horizontal
Problème :
-La lettre n’est pas toujours à la même position
-La résolution de l’image n’est pas toujours la même
Rétine 10x10
après centrage
et réduction
Vecteur de
caractéristique
s de dimension
100
M pq x y I ( x , y )
p q
x y
Aire : M 00 I ( x , y )
x y
Centre de masse :
M 01 y I ( x , y ) M10 x I ( x , y )
q p
x y x y
M10 M 01
x et y
M 00 M 00
Orientation:
1 2 M11
arctan( )
2 M 20 M 02
pq ( x x ) p ( y y )q I ( x , y )
x y
1 20 02
5 (30 312 )(30 12 ) (30 12 )2 3(21 03 )2 (321 03 )(21 03 ) 3(30 12 )2 (21 03 )2
6 (20 02 ) (30 12 )2 (21 03 )2 411 (30 12 )(21 03 )
7 (321 303 )(30 12 ) (30 12 )2 3(21 03 )2 (30 312 )(21 03 ) 3(30 12 )2 (21 03 )2
moyenne pour
plusieurs images
On en déduit, sur une grande base de données (apprentissage) quels sont les
filtres à utiliser et où.
Exemple
Une portion d’image :
un pixel et ses 8 voisins Le résultat de comparaison Le code binaire
1*20+
26
2+ 1*21 +
25 1*22 +
1*23 +
24 20 0*24 + = 15
0*25 +
0*26 +
23 21 0*27 +
22
234456670012
2
3 1
4 0
5 7
6
I |Ix| |Iy|
Plusieurs étapes:
- Calcul des gradients horizontaux et verticaux Gx et Gy avec
atan Gy Gx 0,
Le contour est décrit par la liste chaînée des points qui le constitue. Les
coordonnées {xi,yi} des points de cette liste sont transformées en un
complexe ui=xi+jyi
u0=x0+jy0
j 2 ni
an ui e N
Propriétés:
Translation : modification de a0 seulement
Rotation : modification de la phase
Changement d’échelle : multiplication des an par une constante
Méthodes empiriques
Choix des caractéristiques pertinentes
Méthodes exploratoires
Algorithmes génétiques
Rétine 10 X 10:
(après centrage
et réduction)
Plus la dimension n est grande, plus la base de données devra être de grande
dimension
1
Σ= 𝑁−1
𝑖=1 𝑋𝑖 − 𝜇 𝑋𝑖 − 𝜇 𝑇
où 𝜇 est le vecteur moyen des données Xi
𝑁−1
Exemple en dimension 2
On peut représenter chaque point Xi dans le plan.
𝜎𝑥𝑥 𝜎𝑥𝑦
Σ= 𝜎 𝜎𝑦𝑦
𝑥𝑦
1.01 -0.01
-0.01 0.99
1 -0.02
-0.02 9.46
Démo
Bayes 2D
1 3
3 9
Comment faire ?
Donnée 1
Donnée 2
Donnée 3
Donnée 4
i2 u1
u2 Axe principal
i1
𝜎 = 𝑢1 𝑇 Σ 𝑢1 et 𝑢1 𝑇 𝑢1 = 1
1 𝑇
Où Σ est la matrice de covariance des données tq Σ = 𝑁
𝑖=1 𝑋𝑖 𝑋𝑖
𝑁
Rmq:
La matrice de covariance est par construction symétrique et au moins
positive semi-définie. Ceci implique que les valeurs propres et les vecteurs
propres seront réels, que les valeurs propres seront positives ou nulles et que
les vecteurs propres seront orthogonaux entre eux.
1 2 ... d
avec d n
1 2 3 ... n
Ainsi, tous les exemples ne seront plus représentés que par un vecteur de
dimension 5.
Démo
Acp_visage \ACP_VISAGE\ACP_face
Eigen_image
Démo
acp
𝜕𝐿 −1
=0 Σ𝑖𝑛𝑡𝑒𝑟 𝑢1 = 𝜆Σ𝑖𝑛𝑡𝑟𝑎 𝑢1 Σ𝑖𝑛𝑡𝑟𝑎 Σ𝑖𝑛𝑡𝑒𝑟 𝑢1 = 𝜆𝑢1
𝜕𝑢1
Démo
lda
x1
x2
x3
x3
x5
⁞
Filter x9 classifieur
⁞
⁞
⁞
x40
⁞
xn
d caractéristiques
d<<n
n caractéristiques
x2
Wrapper x3
x3
Algo de x5
⁞
recherche x9 classifieur
⁞
⁞
⁞
classification x40
⁞
xn
d caractéristiques
d<<n
n caractéristiques
Exemple :
on commence par un ensemble vide de caractéristiques.
A chaque itération, la meilleure caractéristique parmi celles qui restent
est sélectionnée
ESPACE DE ESPACE DE
REPRESENTATION DECISION
Classifier - Estimer
=
Connaissances disponibles
Condition requise
Bonne généralisation :
Probabilités jointes
x
-3
x 10
x y 1.5
1
y x 0.5
0
60
50
40 40
30
20 20
x
110
10
0 0
Marginalisation
Probabilités Conditionnelles
y2
P(x/y=y1)
P(x/y=y2)
Probabilités Conditionnelles
Indépendance
Pb:
- le choix de l’origine peut changer l’estimation de 𝑝(𝑥)
- Comment choisir ℎ ?
𝒑(𝒙) réel
𝒑(𝒙) estimé
En deux dimensions
On peut reprendre la même formulation que précédemment
étendue à une dimension 2 puis 𝑛 dans le cas général,
Problème de l’origine
𝑁
1 𝑥 − 𝑥𝑖
𝑝 𝑥 = 𝐾
𝑁2ℎ ℎ
𝑖=1
1 𝑠𝑖 𝑢 < 1
Avec 𝐾 𝑢 =
0 𝑠𝑖𝑛𝑜𝑛
𝑁 2
1 1 𝑥 − 𝑥𝑖
𝑝 𝑥 = 𝑒𝑥𝑝 −
𝑁 2𝜋 1/2 ℎ 2ℎ2
𝑖=1
𝒑(𝒙) réel
𝒑(𝒙) estimé
Démo
Parzen.m
𝐿 𝜃 𝑥 = 𝑝(𝑥𝑖 ) = 𝑓(𝑥𝑖 , 𝜃)
𝑖=1 𝑖=1
T
Si 𝜃 = 𝜃1 , 𝜃2 , … , 𝜃𝑝 est un vecteur de dimension p et que △𝜃 =
𝑇
𝜕 𝜕
,…, est l’opérateur gradient, l’estimation de 𝜃 est telle
𝜕𝜃1 𝜕𝜃𝑝
que:
△𝜃 𝑙 = 0
- Définir la vraisemblance : 𝐿 𝜃 𝑥 = 𝑁
𝑖=1 𝑓(𝑥𝑖 , 𝜃)
- Estimer 𝜃 tq : 𝜃 = max 𝐿 𝜃 𝑥
𝜃
𝐵𝑒𝑟𝑛 𝑥 = 1 = 𝜇 et 𝐵𝑒𝑟𝑛 𝑥 = 0 = 1 − 𝜇
Ou encore
𝐵𝑒𝑟𝑛 𝑥 = 𝜇 𝑥 (1 − 𝜇) 1−𝑥
On montre que :
𝔼𝑥 =𝜇 et 𝑣𝑎𝑟 𝑥 = 𝜇(1 − 𝜇)
𝑁
1
𝜇= 𝑥𝑖
𝑁
𝑖=1
Ces résultats peuvent être retrouvés par le calcul
𝑁!
𝑝 𝑥 = 𝜆𝑥 (1 − 𝜆)𝑛−𝑥
𝑁 − 𝑥 ! 𝑥!
𝔼 𝑥 = Nλ et 𝑣𝑎𝑟 𝑥 = 𝑁𝜆 1 − 𝜆
On a alors
𝑏−𝑎 𝑏−𝑎 2
𝔼𝑥 = et 𝑣𝑎𝑟 𝑥 =
2 12
Et : 𝔼𝑥 =𝜇 et 𝑣𝑎𝑟 𝑥 = 𝜎 2
1 12
− 𝑥−𝜇 𝑇 Σ−1 𝑥−𝜇
𝑝 𝑥 = 𝒩(𝑥 𝜇, Σ) = 𝑒 2
2𝜋 𝑛/2 Σ 1/2
Où 𝜇 est un vecteur de dimension 𝑛 et Σ une matrice de
dimension 𝑛x 𝑛.
On a alors :
𝑇
𝔼𝑥 =𝜇 et cov 𝑥 = 𝔼 𝑥 − 𝔼 𝑥 𝑥−𝔼 𝑥 =Σ
1 𝑁 1 𝑁 𝑇
𝜇= 𝑖=1 𝑥𝑖 et Σ = 𝑖=1 𝑥𝑖 − 𝜇 𝑥𝑖 − 𝜇
𝑁 𝑁
𝐾
𝑝 𝑥 = 𝑘=1 𝜋𝑘 𝒩(𝑥 𝜇𝑘 , Σ𝑘 )
Avec 0 ≤ 𝜋𝑘 ≤ 1 et 𝐾
𝑘=1 𝜋𝑘 =1
Démo
Itérer E+M jusqu’à convergence
EMclassique.m
𝐿 𝜃 𝑥 = 𝑝(𝑥𝑖 ) = 𝜋𝑘 𝒩(𝑥 𝜇𝑘 , Σ𝑘 )
𝑖=1 𝑖=1 𝑘=1
Problème :
Plus il y aura de gaussiennes, plus la vraisemblance sera grande
Pénalisation par la complexité (nombre de gaussiennes 𝑲)
Plus il y aura de données ( 𝑵 ), plus on peut se permettre de
gaussiennes
Bayesian Information Criterion (BIC) à minimiser :
𝐾
𝐵𝐼𝐶 𝐾 = − ln 𝐿 𝜃 𝑥 + ln(N)
2
Critère BIC
Nombre de lois
Données inadaptées
Données manquantes
Classe A
Classe B
Données aberrantes
Classe A
Classe B
Données à classer
En RdF, 3 bases :
Pourquoi ?
facteur de
qualité
% formes bien classées
% formes mal classées étude des
% formes non classées confusions
critères de rejet
Matrice de confusion :
décision
étiquette 1 2
décision 1 2
étiquette
1 90 6
2 20 104
Exercice
Quel est le nombre d’exemples de la base de test ?
Que représente le chiffre 20 ?
Que représente le chiffre 104 ?
Quel est le taux de bonne reconnaissance?
Sans rejet
Avec rejet
Nb d'exemples non classés
Taux de rejet Tr
Nb d'exemples
Taux d’erreur
Tea 1 Tba Tr
Problème :
Il s’agit d’une mesure faible qui ne tient pas compte de
la distribution des classes
Exemple :
En diagnostic médical, très peu de personnes sont
malades (5%?). On a donc des taux très bons en disant
que la personne est saine. Or, ce que l’on souhaite, c’est
ne pas rater ces 5% et donc, associer un mauvais taux
au classificateur qui dirait toujours ‘personne saine’.
Exemple sur 100 personnes
malade sain
malade 0 5
Tbs=95%
sain 0 95
Solution :
On tient compte de la répartition des classes et on construit une
matrice de confusion normalisée
décision 1 2
étiquette
1 e11/N1 e12/N1
2 e21/N2 e22/N2
Exemple du médecin :
Matrice de confusion normalisée
e12/N1
malade sain tb=0.5
malade 0 1 e22/N2 te=0.5
sain 0 1
décision 1 2
étiquette
1 Coût 1,1 Coût 1,2
tb i j
/ Nc
i 1 Ni
On définit les :
Vrai Positif (True Positive)
Vrai Négatif (True Négatif)
Faux Négatif (False Négatif)
Faux Positif (False Positif)
+ -
réel + TP FN
- FP TN
Négatifs
Positifs
TN
TP
FN FP
- FP TN
TP
Sensibilité Parmi les positifs de la base, % de corrects
TP FN
TN
Spécificité parmi les négatifs de la base, % de corrects
FP TN
Un bon classificateur devra être
sensible : détecter les positifs
spécifique : ne pas détecter aussi les négatifs
Sensibilité = f(1-spécificité)
TP
Sensibilité Parmi les positifs de la base, % de corrects
TP FN
TN
Spécificité parmi les négatifs de la base, % de corrects
FP TN
1-spécificité
Cours de Reconnaissance des Formes– Catherine Achard 173
Performances d’un classificateur
Cas multi-classes
Matrice de confusion:
réel C0 C1 C2
C0 70 11 35
C1 17 73 8
C2 45 5 53
• Approche générative
• Approche discriminative
• Fonction discriminante
Introduction
Approche générative
• 𝑝(𝑥) est estimée. On peut considéré 𝑝(𝑥) comme la probabilité que 𝑥
soit bien modélisé par le modèle. Ceci permet de faire du rejet.
• 𝑝(𝑥|𝐶𝑘 ) peut être utilisée pour générer des données
• Permet à un système d’utiliser une seule classe. Ex : la teinte chaire
• Trouver 𝑝(𝑥|𝐶𝑘 ) pour chaque classe est très couteux en temps de calcul,
surtout quand 𝑥 est de grande dimension
• Nécessite une grande base de données, surtout quand 𝑥 est de grande
dimension
Approche discriminative
• Il est beaucoup plus rapide de déterminer 𝑝(𝐶𝑘 |𝑥) car la dimension de
𝐶𝑘 est bien souvent beaucoup plus faible que celle de x
Fonction discriminante
• Modélisation et décision sont combinées dans un seul apprentissage
• 𝑝(𝐶𝑘 |𝑥) n’est pas estimé. On ne pourra donc (i) ni faire du rejet; (ii) ni
combiner plusieurs classificateurs; (iii) ni compenser différentes
probabilités a priori des classes
Approche générative :
• On modélise 𝑝(𝑥|𝐶0 ) et 𝑝(𝑥|𝐶1 ) par des gaussiennes (𝜇0 , 𝜎0 , 𝜇1 , 𝜎1 )
• On modélise 𝑝(𝑥|𝐶0 ) par une loi de Bernouilli de paramètre 𝜆
• On utilise les données d’apprentissage ( 𝑥𝑖 , 𝐶𝑖 ) pour estimer les
paramètres (𝜇0 , 𝜎0 , 𝜇1 , 𝜎1 , 𝜆)
• On estime 𝑝(𝐶0 |𝑥) et 𝑝(𝐶1 |𝑥) en utilisant Bayes
Approche discriminative:
• On modélise 𝑝(C|𝑥) par une loi de Bernouilli dont le paramètre 𝜆
1
dépend de x. Comme 0 < 𝜆 < 1 , on pose 𝜆 = et donc,
1+exp(−Φ0 −Φ1 𝑥)
1
𝑝 C 𝑥 = Bern
1+exp (−Φ0 −Φ1 𝑥)
• On utilise les données d’apprentissage ( 𝑥𝑖 , 𝐶𝑖 ) pour estimer les
paramètres (Φ0 , Φ1 ) de 𝑝(𝐶0 |𝑥) et 𝑝(𝐶1 |𝑥) (4 paramètres)
• Pour un 𝑥 donné, on estime directement 𝑝(𝐶0 |𝑥) et 𝑝(𝐶1 |𝑥)
Données de départ :
Base de référence : ensemble de vecteurs de caractéristiques Xi et leur
classe Ci
Objectif :
Base de test : pour un nouveau vecteur X, trouver sa classe
Méthode :
Calculer la distance entre X et tous les exemples de la base de
référence
Déterminer le vecteur le plus proche.
Affecter à X la classe de ce vecteur
Calcul de distance
En dimension 2, chaque exemple 𝑥𝑖 est caractérisé par un
vecteur de dimension 2 [𝑥 𝑦]𝑇 et est donc représenté dans le
plan :
Vecteurs de la
𝑥? classe C2
Vecteurs de la
classe C1
𝑥
Calcul de distance
𝑥?
Vecteurs de la
classe C2
Vecteurs de la
classe C1
Forme
Vecteur de
caractéristiques
de dimension 𝑛
Avantages :
Pas d’hypothèses
Simple à mettre en œuvre
Incrémental
tend vers l’erreur optimale
Inconvénients :
Quantité de calculs quasi-proportionnelle au
nombre d’exemples
Pas d’extraction d’information utile
7 7
6 6
5 5
4 4
3 3
2 2
1 1
0 0
-1 -1
-1 0 1 2 3 4 5 6 7 -1 0 1 2 3 4 5 6 7
7 7
6 6
5 5
4 4
3 3
2 2
1 1
0 0
-1 -1
-1 0 1 2 3 4 5 6 7 -1 0 1 2 3 4 5 6 7
k = 11 k= 21
disp = 0.7 disp = 0.7
k faible k grand
Comment choisir k ?
3 bases :
Démo
D\Donnees\Doc-word\Enseignement\Rdf\codes
rdf\codes\demo_ecrit
ppv_char.m
Démo
Ppv.m
Lorsque les exemples sont codés de manière structurelle, par une suite
de symbole, la distance euclidienne n’a aucun sens.
2
3 1
4 0
3
5 7
23445667001 234 5667 01 6
Supprimer un symbole
Insérer un symbole
Changer un symbole ( S + I)
aabcb C
S poids de l’arc
aabab
I
abcb I
aabcbd C
C
aababd
I
I
abab
ababd
arcs sommets
- Changement
Matrice des coûts : C(u,u) = 0 et C(u,v) > 0
(permet de corriger les problèmes de segmentation si la
différence de coût est faible pour une erreur donnée)
X = a1a2a3…an
Y = b1b2b3…bm
X(i) = a1a2a3…ai
Y(j) = b1b2b3…bj
x(0) = y(0) = $
D(0,0) = d($,$) = 0
D(i-1,j) + C(ai,$)
D(i,j) = min D(i,j-1) + C($,bj)
D(i-1,j-1) + C(ai,bj)
programmation dynamique
D(i-1, j) + C(ai,bj)
D(i,j) = min D(i, j-1) + C(ai,bj) C(ai,bj) = || bj – ai ||
D(i-1, j-1) + 2C(ai,bj)
semaine ?
Drmain demain ?
Quelle matrice de
cout ?
demains ?
2 solutions
Dilemme robustesse/accélération
2 solutions :
𝒅𝑴 𝒙𝒊 , 𝒄 = (𝒙𝒊 − 𝝁𝒄 )𝑻 𝜮−𝟏
𝒄 (𝒙𝒊 − 𝝁𝒄 )
Démo
mahal.M
http://www.aiaccess.net/French/Glossaires
Cours de Reconnaissance des Formes– Catherine Achard 208
Introduction
Prétraitements et Codage
Classification
Introduction
Rappel sur les probabilités
Estimation des probabilités
Qualité de la base de données
Performance d’un classificateur
Méthodes de classification génératives/discriminatives
Introduction
Méthode discriminative (K-ppv)
1ppv
Kppv
Kppv et distance d’édition
Distance euclidienne et distance de Mahalanobis au centre
des classes
LVQ
K-moyennes
Dendrogramme
Méthode discriminative (arbre de décision)
Méthode générative : classification bayésienne
Introduction
Théorie de la décision
Estimation des probabilités
Méthode de régression
LVQ, Itération 10
LVQ, Itération 10
Initialisation aléatoire :
Pb n°1 : Nombre de prototypes
performances
it=0 it=1
it=2 it=3
Dendrogramme
Méthode non supervisée.
Travaille indépendamment sur chaque classe
3 prototypes
7 prototypes
Quel temps ?
couvert soleil
pluie
TV Promenade TV Promenade
Problème :
Trouver l’ordre le plus cohérent dans l’agencement des
questions: il n’y a pas forcement besoin de tester tous les
paramètres à chaque fois
Sinon
o Choisir la meilleure question et partitionner X en X1 et X2 Pb3
o Construit_arbre(X1)
o Construit_arbre(X2)
Fin si
Problème 1:
On décide qu’un nœud constitue une feuille :
Quand tous les exemples du nœud appartiennent à la
même classe
Problème 2:
On affecte au nœud la classe majoritaire de ses exemples
Problème 3:
On dispose d’un exemple 𝑥 que l’on souhaite classer dans une des classes 𝐶𝑘
𝑃 𝑥|𝐶𝑘 𝑃(𝐶𝑘 )
𝑝 𝐶𝑘 𝑥 =
𝑃(𝑥)
𝑃𝑒𝑟𝑟𝑒𝑢𝑟 = 1 − 𝐾
𝑘=1 𝑝(𝑑é𝑐𝑖𝑑𝑒𝑟 𝑥 ∈ 𝐶𝑘 , 𝑥 ∈ 𝐶𝑘 )dx
=1- 𝑘=1 𝑥 𝑎𝑓𝑓𝑒𝑐𝑡é à𝐶𝑘 𝑝(𝑥, 𝐶𝑘 )dx
𝐾
Classification
1
𝑝 𝐶𝑘 = où 𝐾 est le nombre de classes
𝐾
𝑁𝑘
𝑝 𝐶𝑘 = où 𝑁𝑘 est le nombre d’exemples de la classe 𝑘
𝑁
Estimation de la vraisemblance
Reconnaissance vs estimation
Exemples
ESPACE DE
REPRESENTATION ESPACE DE DECISION
OU CONTINU
ESPACE DES PARAMETRES
Estimation
Entrée :
Une base de référence (vecteur de codage) associé à une variable
continue e (décision)
Sortie :
Pour un exemple X inconnu, estimer la variable e.
On peut aussi choisir de garder les K exemples les plus proches, puis
interpoler avec une moyenne ou une médiane des valeurs de e de
ces exemples
e=0.9 e=???
e=1.0
e=1.3
e=1.3
e=1.6
e=1.4
e=1.3
e=1.6
e=1.7
Orientation
indésirable Orientation
gardée
Ligne de fuite
26 mètres
Bande utile
10 mètres
Ligne de fuite
26 mètres
10 mètres
Angle au volant
Numéro d’image
Pour chaque image test codage recherche des K codes les plus proches
dans la base de références K angles au volant
Taille du codage
Cours de Reconnaissance des Formes– Catherine Achard 255
Méthode de régression
Numéro d’image
Pour les modèles linéaires, la fonction est modélisée par une combinaison de
fonctions de base, et l’apprentissage sert à déterminer les coefficients de cette
combinaison.
2
X Xi
i ( X ) e 2 2
L’apprentissage consiste à rechercher les poids (ω) qui minimisent l’erreur au sens
des moindres carrés sur les données d’apprentissage :
N K
E ( w) e j wk k ( X j )
j 1 k 0
0 ( X 1 ) 1 ( X 1 ) K ( X1)
et (X ) (X ) K ( X 2 )
Φ 0 2 1 2
0 ( X N ) 1 ( X N ) K ( X N )