Académique Documents
Professionnel Documents
Culture Documents
Détection et Reconnaissance 2D et 3D
(première partie)
3
Apparence globale
Les méthodes les plus classiques pour reconnaître un
objet se basent sur l’apparence globale de cet objet
mesurée à l’aide de caractéristiques
Approche classique
(1) Segmentation de l’image
(2) Caractéristiques des objets segmentés
(3) Reconnaissance des objets de l’image
4
Exemple de reconnaissance
le type d'objets
Primitives élémentaires :
segments de droite, arcs de cercle
regroupements perceptuels
construire un graphe
---> approches structurelles
9
Caractéristiques d’une forme
Centre de gravité Cx et Cy.
Surface [S] (en pixels)
Périmètre [P] : mesuré comme la somme des distances
entre pixels (somme de 1 et 2 )
Histogramme des niveaux de gris (ou couleurs)
Conseil : utiliser un autre espace couleur que RVB pour coder
les couleurs (par exemple TSV ou LAB), cela peut donner de
meilleurs résultats
Axes d’inertie
Profil angulaire
Concavités
11
Méthodes de classification
12
Discrimination des classes
p zèbre∣image
p non−zèbre∣image
Frontière Zèbre
de décision
Non-zèbre
Source : Jana Kosecka, CS 682 Computer Vision, George Mason University (USA) 13
Classificateur bayésien
Classificateur basé sur la loi de Bayes :
P (caractéristiques | classei ) P (classei )
P (classei | caractéristiques ) =
P (caractéristiques )
P (classei | caractéristiques ) ∝ P (caractéristiques | classei ) P (classei )
Connaissant les caractéristiques d’une forme, quelle est la probabilité
qu’elle appartienne à la classe i [P(classei|caractéristiques)] ?
Pour cela, nous devons connaître
la fonction de probabilité des caractéristiques pour la classe i
[P(caractéristiques|classei)]
la probabilité de la classe i [P(classei)] : permet de donner une probabilité
différente selon les classe (sinon par défaut même probabilité pour toutes)
la probabilité du vecteur de caractéristiques [P(caractéristiques)] est la même
pour toutes les classes : on peut l’éliminer du problème
14
Fonction gaussienne de probabilité
Fonction de probabilité des caractéristiques = Gaussienne
1 − x− m j 2 / 2σ2j
P classei∣caractéristique= e P classei
2 πσ j
On doit définir les moyennes, tel m1 et m2, ainsi que les écart-types,
tel σ1 et σ2, pour chaque classe
Source : Gonzalez and Woods. Digital Image Processing. chap. 12, Prentice-Hall, 2002. 15
Classificateurs statistiques - Bayes
Frontière de décision
16
Risque de la classification
Frontière de décision Frontière de décision
Risque bayésien
[]
x1
X=
x2
Il y a des différences entre les longueurs et largeurs des
pétales des différentes variétés d'Iris
Il y a aussi de la variabilité dans une même variété d'Iris
Source : Gonzalez and Woods. Digital Image Processing. chap. 12, Prentice-Hall, 2002. 20
Reconnaissance des formes
Importance de la sélection de
descripteurs "descriptifs" !
1
m j =
N
∑
x ∈ω
x j j = 1, 2 ,...,W
j j
22
Classification par distance minimale
d1 m1 = (4.3, 1.3)T
?
d2
m2 = (1.5, 0.3)T
Source : Gonzalez and Woods. Digital Image Processing. chap. 12, Prentice-Hall, 2002. 23
Classification par distance minimale
On peut aussi définir une frontière
de décision entre les classes
ω1
m1 = (4.3, 1.3)T
m2 = (1.5, 0.3)T
Problème de la
dispersion des axes
ω2
Source : Gonzalez and Woods. Digital Image Processing. chap. 12, Prentice-Hall, 2002. 24
Distance de Mahalanobis
Mieux que la distance euclidienne, il est préférable
d’utiliser la distance de Mahalanobis :
T −1
D Mahalanobis = x− x Ψ x−x
Tient compte de la variance propre à chaque
caractéristique
Ψ est la matrice de covariance des caractéristiques
1 N
Ψ= ∑ k
N i − 1 k =1
( x − x )( x k − x ) T
25
Distance de Mahalanobis
La distance est la
même sur les
contours elliptiques
P caractéristiques∣classe i =
1
n/ 2
2π det Ψ
exp −
[1
2
x− μ T −1
Ψ x− μ
]
µ=x
Gaussienne multi-dimensionnelle de dimension n
1 N
Ψ= ∑
N i − 1 k =1
( x k − x )( x k − x ) T
← Matrice de covariance
27
Choix des caractéristiques
28
Analyse en Composantes Principales
29
Analyse en Composantes Principales
Etape 1
Calculer la moyenne de chaque vecteur de caractéristiques
Etape 2
Soustraire la moyenne de chaque vecteur de caractéristiques
Etape 3
Calculer la matrice des covariances
Etape 4
Calculer les valeurs et vecteurs propres de la matrice de covariance
Etape 5
Ne conserver que les valeurs propres (+ vecteurs) les plus grandes
Etape 6
Projeter les données dans ce nouvel espace propre
30
Analyse en Composantes Principales
Etape 1
Calculer la moyenne de chaque vecteur de caractéristiques
Source : cis.poly.edu/cs664 31
Analyse en Composantes Principales
Etape 2
Soustraire la moyenne de chaque vecteur de caractéristiques
Etape 3
Calculer la matrice des covariances
1 N
Ψ= ∑ k
N i − 1 k =1
( x − x )( x k − x ) T
32
Analyse en Composantes Principales
Etape 4
Calculer les valeurs et vecteurs propres de la matrice de covariance
Etape 5
Ne conserver que les valeurs propres (+ vecteurs) les plus grandes
Etape 6
Projetter les données dans ce nouvel espace propre
34
Analyse en Composantes Principales
35
Exemples de reconnaissance
36
Reconnaissance basée sur l’apparence
(appearance-based)
La valeur de chaque pixel peut être considéré comme une
caractéristique d’un vecteur.
Pour une taille d’image NxM :
X = { img(0,0), img(0,1), … img(0,M), img(1,0), … img(N,M) }
Source : David Kriegman, CSE152 Introduction to Computer Vision, UC San Diego (USA), 2005. 37
Vecteurs de pixels (comparaison)
Source : David Kriegman, CSE152 Introduction to Computer Vision, UC San Diego (USA), 2005. 38
Autre exemple en
reconnaissance de visages
39
Exemple : Reconnaissance de visages
43
Problèmes de la reconnaissance
Michel-Ange 1475-1564
Source : Jana Kosecka, CS 682 Computer Vision, George Mason University (USA) 45
(2) Problème d’éclairage
Source : Jana Kosecka, CS 682 Computer Vision, George Mason University (USA) 46
slide credit: S. Ullman
(3) Problème d’occlusion
Magritte, 1957
Source : Jana Kosecka, CS 682 Computer Vision, George Mason University (USA) 47
(4) Variabilité dans une classe
Source : Jana Kosecka, CS 682 Computer Vision, George Mason University (USA) 48
(5) Problème de déformation
Source : Jana Kosecka, CS 682 Computer Vision, George Mason University (USA) 49
C’est fini pour le traitement d’images…
50
Références
(voir aussi la page web du cours)
51