Vous êtes sur la page 1sur 15

Exemple: Reconnaissance automatique de cibles

Données brutes Images ISAR (Inverse Synthetic Apperature Radar)

 Cibles : Avions, Bateaux, …(Mig25, B727, Avions civils, …)


Données brutes

Images ISAR Matrice d’intensités

De taille: 96 × 96 pixels.
Réduction

9216-pixels (vecteur des lignes de l’image)

K images
Images
ISAR
Extraction de caractéristiques
• Pour tenir compte de la rotation possible des cibles
appliquer la Transformée de Radon (RT) : elle est
invariante à la rotation.

Transformée de Radon
• Calcul les projections de l’image originale suivant
une direction.
• Si l’image contient un segment de droite, un pic étroit
apparaît dans sa transformée de Radon.
• Invariante à l’orientation des objets.
• Dans notre cas, des projections suivant des angles
allant de 1° à 360° avec un pas de 1° sont effectuées.
Extraction de caractéristiques

Transformée
de radon

96×96 136×360

70×360
Réduction par l’ACP
Effectuer la TR pour une image de chaque cible (suivant une orientation quelconque).
Transposer la matrice résultante après la troncature des lignes non significatives.
Appliquer l’ACP à la matrice résultante.
Retenir n vecteurs propres correspondants aux premières plus grandes valeurs propres
épuisant 85% de l’information. Dans notre cas, nous avons retenu n = 9.

70×360
70×70
9×70=630
ACP

Vecteurs propres
Analyse en composantes principales
• Appelée aussi la transformée de Karhunen-Loeve
• Permet la réduction de dimension de l’espace de travail en
préservant un bon pourcentage d’information pertinente.
• Considérer comme technique de compression avec perte.
• Invariante à la permutation des lignes à un signe prés.

Le nombre de caractéristique reste élevé même après application de


l’ACP.

Sélection de caractéristiques
Réduction
9216-pixels (vecteur des lignes de l’image)

K images
Images
ISAR

Extraction de 630 caractéristiques


caractéristiques
RT - PCA Classe

K instances

Dataset
Apprentissage
Off-line
Evaluation On-line

Cibles Classification
de la cible

Réduction

Sélection de Sélection de
Caractéristiques Classifieurs Caractéristiques

Base de
données Réduction

Décision
Apprentissage
et validation
Sélection de caractéristiques

• Son objectif est de réduire la dimension de


l’espace des caractéristiques de M à N, (N<M).
• Eviter le problème du sur-apprentissage.
• Il peut être décrit comme étant un problème
d’optimisation combinatoire :

  arg min J ( )
*
 Θ

: 1 1 0 0 1 0 0 0 1 0 0 1
M bits
(630caractéristiques)
Sélection de caractéristiques
Difficultés
Ensemble original Sous-ensemble de

Génération Evaluation
caractéristiques Validation
des caractéristiques

Qualité du

sélectionné
sous-ensemble

non oui
Critère
d’arrêt
Sélection de caractéristiques
Difficultés
• Pour une évaluation exhaustive des combinaisons
possibles, le nombre de possibilités explose.

Exemple: Si l’on veut sélectionner un sous ensemble de 24


caractéristiques parmi un total de 599, on aura:

 
599 42
C24 10 , possibilités à explorer
5.8

 Recherche aléatoire
Recherche heuristique
Sélection de caractéristiques
Difficultés
• Évaluation de la qualité d’un sous-ensemble, à
savoir J( ), peut coûter cher et être sujette à des
bruits.

Sélection basée sur une recherche heuristique ayant


comme critère la mesure de corrélation entre les
caractéristiques.
Apprentissage et validation
Vérification Qualitative des caractéristiques sélectionnées

Test de la démarche sur les empreintes digitales

1ère classe 2ème classe 3ème classe 4ème classe

Utilitaire d’analyse discriminante du logiciel STATISTICA


Les caractéristiques : 2 à 32.

(b) Les caractéristiques : 33 à 59.

(c) Les caractéristiques : 2 à 11, 23 à 33 et 45 à 55. (d) Les caractéristiques : 23 à 55.

Vous aimerez peut-être aussi