Vous êtes sur la page 1sur 167

Ministère de l’enseignement supérieur et de la recherche

scientifique
Ecole nationale Supérieure d’Informatique (ESI)
Oued-Smar, Alger

Mémoire de fin d’études


Pour l’obtention du diplôme d’ingénieur
d’état en informatique
Option : Systèmes d’information
Systèmes Informatiques

Thème
Système d’identification biométrique de
personnes par reconnaissance de l’iris

Réalisé par : Encadré par :


M. Nassim HAMITOUCHE M. Abdenour SEHAD
M. Zakaria SALMI Mme Naima BESSAH

Promotion : 2008/2009
Ecole national Supérieure d’Informatique (ESI)

Système d’identification biométrique de


personnes par reconnaissance de l’iris

Nassim HAMITOUCHE
Zakaria SALMI
ESI

MEMOIRE PRÉSENTÉ EN VUE DE L'OBTENTION


DU DIPLÔME D’INGENIEUR D’ETAT EN INFORMATIQUE
SYSTEMES D’INFORMATION
SYSTEMES INFORMATIQUES

SEPTEMBRE 2009

© Nassim HAMITOUCHE, Zakaria SALMI, 2009. 


Dédicaces

Je manquerai terriblement d’originalité en commençant par dédier ce


travail à mes parents, mais j’ai une bonne excuse à cela : sans eux, mon
existence n’aurait pas grand sens. Les mots me manquent pour les remercier
comme il se doit. Qu’ils sachent juste que je leur serai éternellement
reconnaissant d’avoir été les meilleurs parents que l’on puisse espérer. Je leur
dois tout. Merci.

A mes frères et sœurs dont le soutien sans failles m’a aidé à surmonter
toutes les difficultés.

A ma grande famille, à mes amis et à tous mes enseignants.

Nassim HAMITOUCHE

A mes chers parents, qui sont la cause de mon existence dans cette vie,
pour leur soutient, leur patience et leur amour.

A mes frères et sœurs.

A mes amis d’enfance et à tous ceux qui me connaissent.

Zakaria Salmi

III 
 
Remerciements

Voilà. C’est fini. Et déjà, au doux sentiment d’accomplissement se mêlent


les premiers élans de mélancolie. Afin de conjurer la nostalgie qui menace, nous
déposons aux pieds de toutes celles et de toux ceux qui ont croisé notre route à
l’ESI (pour le meilleur et pour le meilleur) un hommage en bonheur massif.

Nous tenons en premier lieu à remercier Monsieur Abdennour SEHAD et


Madame Naima BESSAH qui ont encadré avec disponibilité et rigueur ce
travail. Ils ont su nous apporter un soutien constant, et leur compétence a été
d’une aide précieuse pour la concrétisation de ce travail.

Nous remercions vivement Monsieur Mohammed BOULAKRADECHE de


nous avoir fait l’honneur de présider le jury de soutenance de ce mémoire.

Nous adressons également nos remerciements à Monsieur Abdennour


SEHAD, Mademoiselle Rima BELGUECHI et Madame Chafia YAHIAOUI
pour avoir consacré une partie de leur temps afin de juger notre travail.

Enfin, un grand merci pour ceux que nous n’avons pu désignés et qui nous
ont aidé de près ou de loin à parcourir ce chemin.

Nassim HAMITOUCHE & Zakaria Salmi

IV 
 
Résumé
Un système biométrique permet l’identification automatique d’un individu basée sur
une représentation unique des caractéristiques possédées par l’individu. La reconnaissance par
iris est considérée comme le système d’identification biométrique le plus fiable et le plus
efficace qui soit disponible. La plupart des systèmes commerciaux de reconnaissance par iris
utilisent l’algorithme breveté de Daugman. Cet algorithme est capable de donner des taux de
reconnaissance parfaits. Cependant, les résultats publiés ont souvent été obtenus sous des
conditions de capture favorables, et il n’y a jamais eu pour cette technologie des tests
indépendants.

Le travail présenté dans ce mémoire implique le développement d’un système de


reconnaissance par iris dans le but de vérifier en même temps l’unicité de l’iris humain et ses
performances en tant que technologie biométrique. Il vise également à tester de nouvelles
techniques de codage basées sur la texture. Afin de déterminer les taux de reconnaissance de
notre système, deux bases d’images d’iris prises sous lumière proche infrarouge ont été
utilisées.

Le système de reconnaissance par iris consiste en un système de segmentation


automatique basé sur la transformée de Hough, il est capable de localiser les régions de l’iris
et de la pupille tout en évitant les cils, les paupières et les reflets. La région de l’iris ainsi
extraite est ensuite normalisée en un bloc rectangulaire dont les dimensions sont constantes,
prenant ainsi en compte les inconvénients de capture d’images. Enfin, l’iris normalisé subira
des opérations de filtrage grâce aux filtres de Log-Gabor 1D (la deuxième technique de
codage) afin d’en extraire des paramètres statistiques et d’en faire un gabarit biométrique.

La distance de Mahalanobis ainsi qu’une nouvelle distance "D" ont été utilisées pour
l’affectation des gabarits biométriques. Les performances en identification du système sur la
base CASIA V1.0 de 108 individus (7 images par individu) et la base CASIA-IrisV3-Interval
de 249 individus sont respectivement 94% et 91%. Les performances en vérification sont
respectivement FAR=1.29% , FRR=7,75% et FAR=3.80%, FRR=12.27. Ces résultats sont
bien évidemment loin d’être parfaits, mais restent très bons et satisfaisants. Cela explique
d’abord l’engouement et l’intérêt des entreprises commerciales œuvrant dans le domaine de la
biométrie pour cette technologie. Ils montrent également le bien fondé du recours des
chercheurs à l’utilisation des approches basées sur la texture pour la résolution de problèmes
récents tels que ceux de la reconnaissance des formes pour la classification ou la segmentation
d’objets.

Mots clés : biométrie, iris, identification, vérification, reconnaissance des formes.


 
Abstract
A biometric system provides automatic identification of an individual based on a
unique feature or characteristic possessed by the individual. Iris recognition is regarded as the
most reliable and accurate biometric identification system available. Most commercial iris
recognition systems use patented algorithm developed by Daugman. This algorithm is able to
produce perfect recognition rates. However, published results have usually been produced
under favourable conditions, and there have been no independent trials of the technology.

The work presented in this memoir involved developing an iris recognition system in
order to verify both the uniqueness of the human iris and also its performance as a biometric.
It also aims to test new techniques of coding based texture. For determining the recognition
performances of the system, two databases of digitised grey scale eye images were used.

The iris recognition system consists of an automatic segmentation system that is based
on the Hough transform, and it is able to localise the circular iris and pupil region, occluding
eyelids and eyelashes, and reflections. The extracted iris region was then normalised into a
rectangular block with constant dimensions to account for imaging inconsistencies. Finally,
the texture data filtered by 1D Log-Gabor filter was extracted and quantised by statistical
parameters to encode the unique pattern of the iris into a biometric template.

The Mahalanobis and new distance "D" were employed for classification of iris
templates. The identification system performance on base CASIA V1.0 with 108 individuals
and base CASIA-IrisV3-Interval with 249 individuals are respectively 94% et 91%. The
verification system performance are respectively FAR=1.29% , FRR=7.75% and
FAR=3.80%, FRR=12.27%. These results are of course far from to be perfect, but they are
good and satisfactory. That explains first, the infatuation and the interest of the commercial
companies working on biometric domain for this technology. They also show the reasons of
the recourse of researchers to use methods based texture for resolution of recent problems
such as those of patterns recognition for classification or objects segmentation.

Keywords : biometric, iris, identification, verification, patterns recognition. 

VI 
 
Table des matières
INTRODUCTION………………………………………………………………………….....1

CHAPITRE I : INTRODUCTION A LA BIOMETRIE

Introduction.................................................................................................................................1
1. La biométrie………………………………………………………………………………………4
1.1 Définition…………………………………………………………..……….…………………4
1.2 Le marché mondial de la biométrie…………………………………………..……………...4
1.3 Les parts de marché par technologie…………………………..…………………………….5
1.4 Les modes opératoires d’un système biométrique……………….…………………………6
1.5 Les différentes techniques biométriques……………………………………...……………..6
1.5.1 L’analyse morphologique……………………………………………………………...6
1.5.2 L’analyse comportementale………………………………………………………..….6
1.6 Présentation des techniques biométriques……………………………………………….6
1.6.1 L’empreinte digitale……………………………………………………………….6
1.6.2 L’iris…………………………………………………………………………………….7
1.6.3 La géométrie de la main…………………………………………………………...7
1.6.4 Le visage………………………………………………………………………………..8
1.6.5 La rétine………………………………………………………………………………...8
1.6.6 Les veines de la main…………………………………………………………….........9
1.6.7 La reconnaissance vocale………………………………………………………….9
1.6.8 La dynamique de frappe au clavier .......................................................................10
1.6.9 La dynamique du tracé de la signature ...................................................................... 10
1.6.10 L’analyse de la démarche ....................................................................................10
1.7 Applications de la biométrie ................................................................................................... 10
1.7.1 Service public…………………………………………………………………………10
1.7.2 Application de la loi ..............................................................................................11
1.7.3 Transaction commerciale et bancaire ......................................................................... 11
1.7.4 Accès physique et logique ........................................................................................... 11
2. Architecture d’un système biométrique ...........................................................................11
2.1 Module d’apprentissage……………………………………………………………………..11
2.2 Module de reconnaissance .............................................................................................12
2.3 Module d’adaptation ......................................................................................................13
3. Evaluation d’un système biométrique…………………………...…………………………..13
3.1 Evaluation de l’identification .........................................................................................13
3.2 Evaluation de la vérification…………………………………………………………...14
4. Comparaison des différentes techniques biométriques ..................................................16
5. La multi modalité dans la biométrie…………………………………………………………18
5.1 Systèmes multiples biométriques……………...…………………………………………...18

VII 
 
5.2 Systèmes multiples d’acquisition ...................................................................................18
5.3 Mesures multiples d’une même unité biométrique………….……………………………18
5.4 Instances multiples d’une même mesure…………………………………..……………...18
5.5 Algorithmes précis .........................................................................................................18
Conclusion ................................................................................................................................18

CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE

Introduction ..............................................................................................................................20
1. Analyse de texture……………………………………………………………………………..20
1.1 Définition .......................................................................................................................20
1.2 Besoin d’analyse de texture............................................................................................21
2. Méthodes d’analyse de texture ..........................................................................................22
2.1 Méthodes statistiques .....................................................................................................22
2.1.1 Méthode de premier ordre .....................................................................................22
2.1.2 Méthode de second ordre ...................................................................................... 23
2.1.2.1 Méthode de matrice de cooccurrence ........................................................23
2.1.2.2 Méthode des différences des niveaux de gris ............................................26
2.1.2.3 Méthode des matrices de caractéristiques statistiques ..............................26
2.1.2.4 Méthode des gradients ...............................................................................26
2.1.3 Méthodes d’ordre supérieur .................................................................................26
2.2 Méthodes structurelles……………………………………………………………………...28
2.3 Méthodes basées sur les modèles……………………………..…………………………...28
2.4 Méthodes basées sur le traitement du signal ..................................................................28
Conclusion ................................................................................................................................28

CHAPITRE III : RECONNAISSANCE PAR IRIS

1. L’iris ....................................................................................................................................30
1.1 Rappel anatomique ......................................................................................................30
1.2 Avantages ....................................................................................................................31
1.3 Inconvénients ..............................................................................................................31
1.4 Historique ....................................................................................................................31
1.5 Schéma général ...........................................................................................................32
1.5.1 Système d’acquisition ........................................................................................33
1.5.2 Traitement des données : état de l’art.................................................................34
2. Techniques de reconnaissance par iris .............................................................................34
2.1 Techniques basées sur l’apparence .............................................................................35
2.2 Techniques basées sur la texture .................................................................................35
2.3 Techniques basées sur les caractéristiques ..................................................................36
3. Quelques méthodes connues de reconnaissance par iris.................................................36
3.1 Méthode de John Daugman ........................................................................................36
3.2 Méthode de Wildes ......................................................................................................37
3.3 Méthode de Boles ........................................................................................................37

VIII 
 
3.4 Méthode de Sanchez-Reillo & Al ................................................................................38
3.5 Méthode de Y. Wang & Al ...........................................................................................38
3.6 Méthode de S. Lim & Al ..............................................................................................38
4. Standards ............................................................................................................................39
5. Chalenges dans les systèmes de reconnaissance par iris .................................................40
Conclusion ................................................................................................................................41

CHAPITRE IV : ONDELETTES

Introduction ..............................................................................................................................42
1. Historique du traitement du signal et de l’image ............................................................42
1.1 Transformée de Fourier .............................................................................................42
1.2 Transformée de Fourier rapide ...................................................................................43
1.3 Transformée de Fourier à fenêtre ...............................................................................43
1.4 Ondelettes et analyse multi-résolution ........................................................................44
2. Introduction à la transformée en ondelettes et à l’analyse multi-résolution ................45
2.1 Transformée en ondelettes continue ............................................................................45
2.2 Transformée en ondelettes discrète .............................................................................46
2.3 Analyse multi-résolution .............................................................................................46
3. Ondelettes orthogonales .....................................................................................................47
4. Avantages de la transformée en ondelettes ......................................................................48
4.1 Généralités ...................................................................................................................48
4.2 Intérêt en traitement d’image ......................................................................................48
4.2.1 Compression .............................................................................................................48
4.2.2 Détection de contours ...............................................................................................48
4.2.3 Détection / reconnaissance de texture ......................................................................49
5. Filtrage des signaux ............................................................................................................49
6. Transformée en ondelettes : analyse multi-résolution et bancs de filtres .....................49
Conclusion……………………………………………………………….…………………………50
CHAPITRE V : CONCEPTION DU SYSTEME

Introduction ..............................................................................................................................51
1. Conception globale du système .........................................................................................51
2. Fonctionnement du système ..............................................................................................52
2.1 Processus d’identification ..............................................................................................52
2.1.1 Phase d’apprentissage ...........................................................................................52
2.1.2 Phase d’identification ............................................................................................55
2.2 Processus de vérification ................................................................................................56
2.2.1 Phase d’apprentissage ...........................................................................................56
2.2.2 Phase de vérification .............................................................................................57
3. Structure modulaire du système .......................................................................................57
3.1 Modules du processus d’apprentissage ..........................................................................58
3.1.1 Module d’acquisition des images d’iris ................................................................58
3.1.2 Module de prétraitement des images .....................................................................58

IX 
 
3.1.3 Modules de détection des coordonnées de la pupille et de l’iris............................. 58
3.1.3.1 Module de détection de la pupille .............................................................58
3.1.3.2 Module de détection de l’iris .......................................................................... 59
3.1.4 Module de normalisation de l’iris………………………………………..……...…..59
3.1.5 Module d’extraction des caractéristiques...............................................................61
3.1.6 Module de calcul du modèle de chaque classe………………………………….. 67
3.1.6.1 Modèle moyen…………………………………………..……………….......67
3.1.6.2 Modèle intégral .........................................................................................67
3.2 Modules du processus d’identification ...........................................................................67
3.2.1 Module de calcul des distances ............................................................................67
3.2.2 Module d’identification .........................................................................................68
3.3 Modules du processus de vérification…………………………………………………..…68
3.3.1 Module de détermination du seuil de décision optimal.........................................68
3.3.2 Module de prise de décision ..................................................................................69
3.3.3 Module de test .......................................................................................................69
4. Performances du système en identification ......................................................................70
5. Performances du système en vérification .........................................................................72
Conclusion ................................................................................................................................74

CHAPITRE VI : IMPLEMENTATION ET REALISATION

Introduction ..............................................................................................................................75
1. Outils de développement ....................................................................................................75
1.1 Microsoft Visual Studio 2005 ...........................................................................................75
1.2 Matlab 7.0.0.19920 (R14) .................................................................................................75
2. Structure de données et implémentation ..........................................................................76
2.1 Classe Normalisation .........................................................................................................76
2.2 Classe ClasseId ...................................................................................................................81
2.3 Classe ClasseVe ................................................................................................................84
2.4 Classe ClasseTo..................................................................................................................85
3. Présentation de l’application .............................................................................................86
3.1 Interface Présentation………………………………………………………………….86
3.2 Interface Chargement et Normalisation .........................................................................90
3.3 Interface Identification ...................................................................................................91
3.4 Interface Vérification .....................................................................................................92
3.5 Interface Statistiques ......................................................................................................94
3.6 Interface Taux d’identification .......................................................................................96
4. Avantages et inconvénients du système ...............................................................................97
Conclusion ................................................................................................................................98

CHAPITRE VII : TESTS ET RESULTATS

Introduction ..............................................................................................................................99
1. Présentation des bases d’images .......................................................................................99


 
1.1 Base de données CASIA V1.0 ………………………………………………………..99
1.2 Base de données CASIA-IrisV3-Interval .......................................................................99
2. Tests……………………………………………………………………………………………100
2.1 Paramètres pertinents du système…………………………………………………….100
2.2 Taux d’identification (performances en identification)………………………………102
2.2.1 Evolution du taux d’identification suivant Napp et Tapp utilisés……………...103
2.2.2 Evolution du taux d’identification suivant les catégories d’individus…………104
2.2.3 Evolution du taux d’identification suivant le niveau de segmentation………...105
2.2.4 Evolution du taux d’identification suivant la distance utilisée…………............108
2.2.5 Evolution du taux d’identification suivant le type de modèle utilisé…………..108
2.3 Distributions des distances intra classes et interclasses………………………………109
2.4 Taux FAR et FRR (Performances en vérification)…………………………………..112
2.5 Temps d’exécution…………………………………………………………...…………...113
2.5.1 Estimation du temps d’exécution en fonction du zoom de la phase de
segmentation et de normalisation………………………….………………………113
2.5.2 Estimation du temps d’exécution de la phase de filtrage et celle d’extraction des
Caractéristiques………………………………………………...…………………...113
2.5.3 Estimation du temps d’exécution de la phase de vérification………..………….113
2.5.4 Estimation du temps d’exécution de la phase d’identification………..………...114

CONCLUSION GENERALE………………………………….…………………………….115

BIBLIOGRAPHIE………………………………………………………………………...116

ANNEXE A : Reconnaissance des formes………………………………………………....125


ANNEXE B : Bases des images d’iris standards…………………………………………..134
ANNEXE C : Utilisation des fonctions Matlab dans C#......................................................139
ANNEXE D : Taux FAR et FRR individuels………………………………...……………140

XI 
 
Liste des tableaux
CHAPITRE I : INTRODUCTION A LA BIOMETRIE

Tableau I.1 : Comparaison de technologies biométriques …………………………………..17


Tableau I.2 : Comparaison des 4 grandes techniques morphologiques en usage …………...17

CHAPITRE V : CONCEPTION DU SYSTEME

Tableau V.1 : Distances calculées lors de l’identification des individus 2 et 12……………..71


Tableau V.2 : Distances calculées lors de l’opération de calcul du seuil optimal …………. 73
Tableau V.3 : Distances calculées lors de l’opération de calcul des taux FAR et FRR de
l’individu 1 ………………….………………………………………………………………..74

CHAPITRE VI : IMPLEMENTATION ET REALISATION DU SYSTEME

Tableau VI.1 : Les différentes classes composant le système IrisSystem Tool …………….76

CHAPITRE VII : TESTS ET RESULTATS

Tableau VII.1 : Statistiques de CASIA V1.0 et CASIA-IrisV3-Interval ………………….100


Tableau VII.2 : Valeurs par défaut des paramètres pertinents du système ………………..102
Tableau VII.3 : Taux d’identification des deux techniques de codage ……………………102
Tableau VII.4 : Evolution du taux d’identification suivant le nombre d’images (Napp)
utilisées (CASIA V1.0)…..………………………………………………..103
Tableau VII.5 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp)
utilisé (CASIA-IrisV3-Interval) .………………………………………….103
Tableau VII.6 : Evolution du taux d’identification suivant les catégories d’individus .…..104
Tableau VII.7 : Evolution du taux d’identification suivant le niveau de segmentation
(CASIA V1.0) …………………………………………………………….106
Tableau VII.8 : Evolution du taux d’identification suivant le niveau de segmentation
(CASIA-IrisV3-Interval) ………………………………………………….107
Tableau VII.9 : Evolution du taux d’identification suivant la distance utilisée
CASIA V1.0) …………………………………………………………..…..108
Tableau VII.10 : Evolution du taux d’identification suivant la distance utilisée
(CASIA-IrisV3-Interval)……………………………………………...…108
Tableau VII.11 : Evolution du taux d’identification suivant le type de modèle utilisé…....108
Tableau VII.12 : Evolution du taux d’identification suivant le type de modèle utilisé…....108
Tableau VII.13 : Taux FAR et FRR du système…….……………………………………..112
Tableau VII.14 : Taux FAR et FRR avec des taux d’apprentissage et de test différents
(CASIA V1.0) ………………………………………………….……….112
Tableau VII.15 : Temps d’exécution en fonction du zoom de la phase de segmentation et de

XII 
 
normalisation……………………………………………………….…….113
Tableau VII.16 : Temps d’exécution de la phase de filtrage et celle d’extraction des
caractéristiques …………………………………………………….…….113
Tableau VII.17 : Temps d’exécution de la phase de vérification …………………….…....113
Tableau VII.18 : Temps d’exécution de la phase d’identification ……………………...…114

ANNEXE B : BASES DES IMAGES D’IRIS STANDARDS

Tableau B.1 : Vue d’ensemble des facteurs de bruit des bases de données standards .........139
Tableau B.2 : Quantité moyenne des pixels affectés par le bruit dans les régions d’iris des
images de bases de données …..…………………………………………….139

ANNEXE D : TAUX FAR ET FRR INDIVIDUELS

Tableau D.1 : Taux FAR et FRR individuels (CASIA V1.0) ……………………...………141


Tableau D.2 : Taux FAR et FRR individuels (CASIA-IrisV3-Interval)……………...……...144

XIII 
 
Liste des figures
CHAPITRE I : INTRODUCTION A LA BIOMETRIE ET A L’IRIS

Figure I.1 : Evolution du marché international de la biométrie……….………………………5


Figure I.2 : Parts de marché des différentes méthodes biométriques…….……………………...5
Figure I.3 : Capture de l’image d’une empreinte digitale…….…………………………….....7
Figure I.4 : Capture de l’image d’un iris…………………………………………………………...7
Figure I.5 : Scan de la forme de la main....................................................................................8
Figure I.6 : Capture de l’image d’un visage…………………………...…………………………..8
Figure I.7 : Rétine de l’œil …………………………………………………………………....9
Figure I.8 : Scan des veines de la main…….……………………………………………………....9
Figure I.9 : Capture de la voix….……………………………………………………………..9
Figure I.10 : Capture d’une signature……….……………………………………………….10
Figure I.11 : Architecture d’un système de reconnaissance biométrique.…………………...12
Figure I.12 : Distributions des taux de vraisemblance des utilisateurs légitimes et des
imposteurs d’un système biométrique……………………………...……………………………...14
Figure I.13 : Courbe ROC…….……………………………….…………………………………..15

CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE

Figure II.1 : Exemples de textures périodiques……….……………………………………..21


Figure II.2 : Exemples de textures aléatoires……….……………………………………….21

CHAPITRE III : RECONNAISSANCE PAR IRIS

Figure III.1 : Structure d’un œil humain…….…………………………...………………………30


Figure III.2 : Images de 4 différents types de texture d’iris…….……………………………...31
Figure III.3 : FRR = (FAR) de différents systèmes…………………………………..……….32
Figure III.4 : Schéma général d’un système de reconnaissance par iris…………………….33
Figure III.5 : Image d’un iris capturé (a) dans le visible, (b) dans le proche infrarouge…....34
Figure III.6 : Illustration du relief de l’iris…….…………………………………………….35

CHAPITRE IV : ONDELETTES

Figure IV.1 : La transformée en ondelettes agit comme un zoom mathématique …………..44


Figure IV.2 : Ondelette Chapeau Mexicain pour plusieurs facteurs d’échelle ……………...45
Figure IV.3 : (a) Transformée de Fourier et (b) Transformée en ondelettes …………….…48
Figure IV.4 : Décomposition 1D à l’aide de bancs de filtres ……………………………….50

CHAPITRE V : CONCEPTION DU SYSTEME

XIV 
 
Figure V.1 : Phase d’apprentissage ……………………………………………………….…54
Figure V.2 : Phase d’identification ……………………………………………………….…56
Figure V.3 : Phase de vérification ……………………………………………………….…..57
Figure V.4 : Transformation en niveaux de gris ………………………………………….…58
Figure V.5 : Détection des coordonnées de l’iris et de la pupille ………………………..….59
Figure V.6 : Modèle de transformation polaire rectangulaire de John Daugman ……….….60
Figure V.7 : Résultat du processus de normalisation de l’iris avec une résolution
angulaire de 40 pixels et une résolution radiale de 10 pixels….……………….………...………61
Figure V.8 : Illustration du procédé de normalisation de l’image d’un iris après localisation
de l’iris et de la pupille….………………………………………………………….…………61
Figure V.9 : Illustration du principe de l’approche basée sur la texture ………….…………62
Figure V.10 : Iris normalisé et son masque de bruit ……………………………….………..62
Figure V.11 : Matrice de cooccurrence d’une portion d’image …………………….……….63
Figure V.12 : Matrice de LPNG d’une portion d’image …………………………….……...64
Figure V.13 : Réponse fréquentielle du filtre de Log-Gabor avec une FFT de 121 points....66
Figure V.14 : FFT de 1000 points de la moyenne des signaux angulaires (anneaux
circulaires) de l’iris.……….………………………………………….……….66
Figure V.15 : FFT de la moyenne de l’iris normalisé ……………………………….………67
Figure V.16 : Division de la base pour le calcul du taux d’identification …………….…….70
Figure V.17 : Division de la base pour le calcul des taux FAR et FRR …………………….72

CHAPITRE VI : IMPLEMENTATION ET REALISATION DU SYSTEME

Figure VI.1 : Aperçu de l’interconnexion entre les sous modules de segmentation et de


normalisation .………………………………………………………………...80
Figure VI.2 : Aperçu de l’interconnexion entre les sous modules de IdentificationIndividu.84
Figure VI.3 : Aperçu de l’interconnexion entre les sous modules de VérificationIndividu...85
Figure VI.4 : Aperçu de l’interconnexion entre les sous modules de TauxIndividu ……….86
Figure VI.5 : Interface Présentation ………………………………………………………...87
Figure VI.6 : Interface Chargement et Normalisation ……………………………………....90
Figure VI.7 : Interface Identification ………………………………………………………..91
Figure VI.8 : Interface Vérification ……………………………………………………….. .92
Figure VI.9 : Interface Statistiques ………………………………………………………….94
Figure VI.10 : Interface Taux d’identification ……………………………………………...96

CHAPITRE VII : TESTS ET RESULTATS

Figure VII.1 : Exemples d’images d’iris de la base de données CASIA …………………...99


Figure VII.2 : Evolution du taux d’identification suivant le nombre d’images (Napp)
utilisées ……………………………………………………………………………………...103
Figure VII.3 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp)
utilisé ………………………………………………………………………………………..104
Figure VII.4 : Evolution du taux d’identification suivant les catégories d’individus
(CASIA IrisV3-Interval) ……………………………………………………………………105

XV 
 
Figure VII.5 : Evolution du taux d’identification suivant le niveau de segmentation
(CASIA V1.0) ……………………………………………………………………….……...106
Figure VII.6 : Evolution du taux d’identification suivant le niveau de segmentation
(CASIA IrisV3-Interval) ……………………………………………………………...…….107
Figure VII.7 : Distributions des distances intra classes et interclasses de la base CASIA V1.0
en utilisant la méthode de filtrage ………………………………………..…………………110
Figure VII.8 : Distributions des distances intra classes et interclasses de la base CASIA V1.0
en utilisant la méthode directe …………………………………………………………...…110
Figure VII.9 : Distributions des distances intra classes et interclasses de la base CASIA
IrisV3-Interval en utilisant la méthode de filtrage ………………………………………….111
Figure VII.10 : Distributions des distances intra classes et interclasses de la base CASIA
IrisV3-Interval en utilisant la méthode directe ………………………………………….…111

ANNEXE A : RECONNAISSANCE DES FORMES

Figure A.1 : Représentation d’un objet dans l’espace de dimension d …………………….125


Figure A.2 : Notions de classes en reconnaissance des formes ……………………………126
Figure A.3 : Cheminement pour le calcul des paramètres constituant le vecteur forme …..127
Figure A.4 : Représentation d’un arbre de décision ……………………………………….131
Figure A.5 : Schéma du principe d’un système par RDF ………………………………….133

ANNEXE B : BASES DES IMAGES D’IRIS STANDARDS

Figure B.1 : Exemples d’images d’iris de la base de données BATH…….……..…………..136


Figure B.2 : Exemples d’images d’iris de la base de données ICE….……………...…….….136
Figure B.3 : Exemples d’images d’iris de la base de données MMU….……………...….….137
Figure B.4 : Exemples d’images d’iris de la base de données UPOL….……...……….....….137
Figure B.5 : Exemples d’images d’iris de la base de données WVU….…...………………...138
Figure B.6 : Exemples d’images d’iris de la base de données UBIRIS….………………......138

XVI 
 
Liste des sigles et abréviations
ACI : Analyse en Composantes Indépendantes
ACP : Analyse en Composantes Principales
ADN : Acide DésoxyriboNucléique
AFIS : Automatic Fingerprint Identification System
AlGaAs : Aluminium Gallium Arsenide
BATH : University of Bath Iris Image Database
CASIA : Institute of Automation Chinese Academy of Sciences Iris Image Database
CCD : Charge-Coupled Device Camera
CMOS : Complementary Metal-Oxide Semiconductor
DLL : Dynamic Link Library
EEG : ElectroEncéphaloGramme
EER : Equal Error Rate
FA : Fausse Acceptation (False Acceptance)
FAR : False Acceptance Rate
FFT : Fast Fourier Transform
FR : Faux Rejet (False Rejection)
FRR : False Rejection Rate
GMM : Gaussian Mixture Models
HCM : Hard C-Means
HTER : Half Total Error Rate
IBG :International Biometric Group
ICE : Iris Challenge Evaluation Iris Database Image
ID : Identification
INCITS : InterNational Committee for Information Technology Standards
IRIS : Iris Recognition Immigration System
IRM : Imagerie par Résonance Magnétique
ISO : International Standards Organization
JPEG : Joint Photographic Expert Group
LVQ : Learning Vector Quantization
LDA : Linear Discriminant Analysis
LED: Light Emitting Diodes
LPNG : Méthode des Longueurs de Plages de Niveaux de Gris
MMU : Multimedia University Iris Image Database
MRF : Markov Random Fields
NEO : Iris Noisy Factor (eyelids obstruction)
NLO : Iris Noisy Factor (eyelash obstruction)
NLR : Iris Noisy Factor (lighting reflections)
NMB : Iris Noisy Factor (motion blurred)
NOA : Iris Noisy Factor (off-angle)

XVII 
 
NOI : Iris Noisy Factor (out-of-iris)
NPF : Iris Noisy Factor (poor focused)
NPS : Iris Noisy Factor (inaccurate segmentation of inner iris border)
NPI: Iris Noisy Factor (partial iris)
NSS : Iris Noisy factor (inaccurate segmentation of inner iris border)
NSR : Iris Noisy Factor (specular reflections)
PC : Personal Computer
PIN : Personal Identification Number
RDF : Reconnaissance Des Formes
ROC : Receiver Operating Characteristics
ROI : Region Of Interest
SVM : Support Vector Machines
TER : Total Error Rate
UBIRIS : University of Beira Interior Iris Image Database
UPOL : University of Palacki. Olomuc Iris Image Database
UV : UltraViolet
VGA : Video Graphics Array
WVU : West Virginia University Iris Image Database
 

XVIII 
 
INTRODUCTION GENERALE
 
 
Tous les systèmes de reconnaissance biométrique existants reposent sur l’étude des
différences aléatoires de certaines formes entre des personnes distinctes. La précision des
résultats biométriques est d’autant plus grande que cette dimension aléatoire présente dans les
domaines analysés est importante. Toutefois, l’aléa nécessairement présent dans l’analyse
biométrique engendre un problème de taille : les formes biométriques étudiées dans les
systèmes de reconnaissance d’identité doivent garantir des signatures "quasiment" identiques
pour une même personne quelles que soient les conditions physiques extérieures lors du test.
Prenons par exemple la reconnaissance faciale. Les visages sont des objets en trois
dimensions très dynamiques : leurs images de projection sur des plans peuvent varier en
fonction de l’angle de vue, de l’éclairage, de l’âge, etc. Les expressions du visage sont
susceptibles de modifier considérablement les signatures biométriques d’une même personne.

Pour des images prises à une année d’intervalle, on a constaté que les meilleurs
algorithmes de reconnaissance faciale présentent des taux d’erreurs élevés. De même, la
reconnaissance vocale, souvent utilisée en recherche criminelle, ne semble pas encore
constituer un moyen fiable de reconnaissance biométrique. C’est pourquoi la recherche
scientifique en reconnaissance vocale se concentre surtout sur la compréhension et
l’interprétation de la parole, souvent utilisées dans les différents services téléphoniques
automatiques.

Au contraire, l’étude de l’iris semble être une alternative de reconnaissance des


personnes très performante et sûre à des distances de l’ordre du mètre.
En effet, même s’il est petit (10 mm) et par conséquent parfois difficile à photographier, l’iris
a l’avantage de présenter une très grande marge de profils possibles (un grand nombre de
degrés de libertés), dont la variation entre les personnes est très importante. De plus, étant un
organe interne de l’œil, l’iris est très bien protégé du milieu extérieur et sa modification
chirurgicale présente de très grands risques.
Grâce à sa forme circulaire et surtout planaire, la signature reste insensible à un changement
d’angle d’éclairage et une variation de l’angle de vue entraîne seulement une transformation
affine de la signature. De plus, la facilité de trouver l’œil dans le visage et la forme
particulièrement annulaire de l’iris améliore grandement la précision des résultats. Mais plus
spectaculairement, l’iris, contrairement aux autres organes de l’œil tels que la rétine, ne
change pas avec l’âge. En effet, l’iris se forme définitivement dès le troisième mois de la
gestation et les structures constituant son profil sont achevées au huitième mois (même si la
pigmentation peut parfois continuer jusqu’à la première année post-natale).

Le profil d’un iris contient beaucoup de ligaments courbés, de sillons, de stries,


d’auréoles, de tâches, etc. Des études biologiques ont montré que la diversité de ces traits
garantit l’unicité d’un iris humain : les deux iris (droit et gauche) d’une même personne ne
sont jamais identiques, de même que les iris de jumeaux.

Un système de reconnaissance utilisant l’iris peut difficilement être trompé à partir


d'une photo ou d'une lentille de contact reproduisant l'iris de la personne dont on souhaite
usurper l'identité car la résolution demandée est très importante (distance iris / caméra faible,

 
INTRODUCTION GENERALE
 
 
évolution rapide de la technologie des capteurs). De plus il est possible de repérer, par
filtrage, si l'iris présenté est constitué d'une suite régulière de points et non d'un motif varié.
Enfin, il existe de nombreuses techniques qui permettent de s'assurer que l'iris présenté est
humain (ou très ressemblant) : si l'on fait varier l'éclairage, le diamètre de la pupille varie. Les
temps de latence et vitesse de variation sont mesurables (il est possible d'éclairer à l'infrarouge
et d'observer les images obtenues). L'œil est opaque dans l'infrarouge lointain (proche du
thermique) ainsi qu'aux ultraviolets (UV).

Les premières traces d’une proposition d’utilisation du motif de l’iris comme moyen de
reconnaissance des individus remontent à un manuel d’ophtalmologie écrit par James
Doggarts datant de 1949. On dit même que l’ophtalmologiste Frank Burch en avait émis
l’idée dès 1936. Durant les années 80, l’idée reparut dans le cinéma, mais elle restait du
domaine de la science fiction. Ce n’est donc qu’en 1986 que deux ophtalmologistes (Aran
Safir et Leonard Flom) déposèrent un brevet sur cette idée et demandèrent à John Daugman
(enseignant à cette époque à l’université de Harvard et inventeur de la reconnaissance
biométrique par iris) d’essayer de trouver un algorithme d’identification basé sur le motif de
l’iris. Cet algorithme a été breveté en 1994. Il est la base de tous les systèmes de
reconnaissance d’iris actuels.

Les systèmes de reconnaissances sont devenus très rapidement indispensables à notre


société moderne qui est en recherche permanente de solutions efficaces aux problèmes de
sécurité. C’est pourquoi beaucoup de systèmes de reconnaissance par l’iris ont été développés
depuis quelques décennies et sont actuellement utilisés. Aujourd’hui, leurs applications sont
nombreuses : remplacer progressivement les passeports et les cartes d’identités lors de l’accès
aux aéroports, contrôler l’accès à des zones restreintes ou sécurisées et même aux maisons,
contrôler l’immigration (en Grande Bretagne par exemple, le programme I.R.I.S. (Iris
Recognition Immigration System) contrôlant l’accès des immigrés sans papiers aux
principaux aéroports du pays a été mis en place en 2004), l’accès aux bases de données, etc.

Nous présentons dans ce mémoire, un système d’identification biométrique de


personnes par reconnaissance de l’iris que nous baptisons Iris System Tool. Ce système
permet d’illustrer le processus d’identification (reconnaissance des individus) et celui de
vérification (contrôle d’accès). Lors de la phase d’identification, un individu possédant un
modèle dans la base de données peut s’identifier grâce aux images prises par un capteur, qui
comparées à tous les modèles de la base, détermineront son identité. Lors de la phase de
vérification, à défaut d’une carte à puce, un individu possédant un modèle dans la base de
données peut effectuer un test de vérification grâce aux seuils individuels sauvegardés dans la
base, permettant ainsi au système de se prononcer sur la véracité de son identité. Nous avons
choisi comme méthode l’analyse du contenu spatial des images d’iris (technique basée sur la
texture). Cette méthode est largement utilisée dans l’imagerie médicale et dans d’autres
domaines de l’imagerie telle que la reconnaissance automatique de texture (segmentation des
objets). Nous avons également testé cette méthode sur le contenu spatial filtré d’une image
d’iris.
Le mémoire s’organise de la manière suivante :

 
INTRODUCTION GENERALE
 
 
Dans le chapitre I, nous commencerons par faire un état de l’art des principales
techniques biométriques physiologiques et comportementales, et donner un aperçu sur
l’apparition et le développement de nouvelles technologies. Nous présenterons ensuite
quelques exemples d’application de la biométrie dans la vie courante, ainsi que l’architecture
d’un système biométrique. Enfin, les critères d’évaluation des performances d’un système
biométrique seront introduits, et une comparaison des différentes technologies sera proposée.

Dans le chapitre II, nous présenterons l’analyse de texture. Nous commencerons par
introduire la notion de texture. Nous verrons ensuite le besoin d’analyse de texture. Enfin,
nous décrirons les méthodes d’analyse de texture en se basant sur les méthodes statistiques.

Le chapitre III sera consacré aux algorithmes de reconnaissance d’iris. Nous exposerons
les contraintes liées à l’acquisition d’une image d’iris par un système vidéo. Nous verrons
ensuite les différentes techniques de reconnaissance d’iris trouvées dans la littérature, et
présenterons quelques méthodes connues de reconnaissance d’iris. Nous conclurons ce
chapitre par une présentation des standards et les chalenges dans les systèmes de
reconnaissance d’iris.

Dans le chapitre IV, nous ferons une rapide introduction sur le traitement du signal et
l’apparition de la transformée en ondelettes comme outil présentant de nombreux avantages et
qui tend à s’imposer en remplacement de la transformée de Fourier et de ses dérivées. Nous
décrirons ensuite plus précisément les bases théoriques de la transformée en ondelettes et
introduirons les notions d’ondelettes orthogonales. Nous verrons également l’analyse multi-
résolution qui permet le traitement des signaux à différentes échelles (ou niveaux de
résolution) et qui, alliée à la transformée en ondelettes, constitue une méthode puissante
d’analyse du signal, et notamment des images. Nous conclurons ce chapitre par la
comparaison entre la transformée de Fourier et la transformée en ondelettes, et insisterons sur
les avantages de cette dernière en terme de représentation de l’information.

Dans le chapitre V, nous présenterons la conception globale du système Iris System


Tool. Nous étudierons le fonctionnement de ce système à savoir le processus d’identification
et celui de vérification. Nous verrons ensuite la structure modulaire du système. Enfin, nous
présenterons les performances du système en identification et en vérification.

Le chapitre VI sera consacré à l’implémentation et réalisation du système, Nous


présenterons les outils de développement. Nous verrons ensuite la structure de données et
l’implémentation. Nous conclurons ce chapitre par la présentation de l’application à savoir ses
différentes interfaces.

Dans le dernier chapitre, nous commencerons par une présentation des deux bases de
données sur lesquelles nous avons effectué nos tests. Nous décrirons ensuite les paramètres
pertinents du système. Nous conclurons ce chapitre par les différents tests et résultats obtenus
sur ces deux bases.
 


 
CHAPITRE I Introduction à la biométrie
 
 
Introduction :
Depuis quelques décennies, l’explosion de l’informatique et des réseaux de communication a
fait augmenter de manière significative le besoin d’identification des personnes. Jusqu’à
présent les méthodes usuelles d’identification sont basées sur ce que l’on possède (carte
d’identité, carte à puce, badge magnétique…) ou sur ce que l’on sait (mot de passe, code
PIN…) mais ces méthodes posent de gros problèmes de fiabilités (falsification de document,
oubli de son code, décryptage du mot de passe via des logiciels spécifiques…). Une
identification fiable des personnes est devenue un problème majeur pour des raisons de
sécurité (contrôle aux frontières, accès aux lieus publiques, transport…). Tous ces problèmes
ont ainsi provoqué un développement accru des techniques biométriques d’identification [1]
[2].
Dans ce chapitre, nous commençons par présenter la biométrie de manière générale ainsi que
les diverses applications qui en découlent, en insistant plus particulièrement sur l’utilisation
de l’iris pour la reconnaissance d’individus.

1. La biométrie :
1.1 Définition :
Le mot anglais « Biometric », utilisé pour définir « La mesure des éléments morphologiques
des humains », est fréquemment traduit en français par « Biométrie ».
La définition de « Biométrie » donnée par le Petit Robert est une « science qui étudie à l'aide
de mathématiques (statistiques, probabilités) les variations biologiques à l'intérieur d'un
groupe déterminé ».

La biométrie consiste en l’analyse mathématique des caractéristiques biologiques d’une


personne et a pour objectif de déterminer son identité de manière irréfutable. Contrairement à
ce que l’on sait ou ce que l’on possède la biométrie est basée sur ce que l’on est et permet
ainsi d’éviter la duplication, le vol, l’oubli ou la perte. Les caractéristiques utilisées doivent
être universelles (c'est-à-dire communes à tous les individus), uniques (pour pouvoir
différencier deux individus) et permanentes (c'est-à-dire invariantes dans le temps pour
chaque individu).

1.2 Le marché mondial de la biométrie :


Régulièrement, un rapport sur le marché de la biométrie est édité par IBG (International
Biometric Group). Cette étude est une analyse complète des chiffres d'affaires, des tendances
de croissance, et des développements industriels pour le marché de la biométrie actuel et
futur. La lecture de ce rapport est essentielle pour des établissements déployant la technologie
biométrique, les investisseurs dans les entreprises biométriques, ou les développeurs de
solutions biométriques.

Le chiffre d'affaires de l'industrie biométrique incluant les applications judiciaires et celles du


secteur public, se développe rapidement. Une grande partie de la croissance sera attribuable
au contrôle d'accès aux systèmes d'information (ordinateur / réseau) et au commerce
électronique, bien que les applications du secteur public continuent à être une partie
essentielle de l'industrie.

 
CHAPITRE I Introduction à la biométrie
 
 
On prévoit que le chiffre d'affaires des marchés émergents (accès aux systèmes d'information,
commerce électronique et téléphonie, accès physique, et surveillance) dépasse le chiffre
d'affaires des secteurs plus matures (identification criminelle et identification des citoyens).

Figure I.1 : Evolution du marché international de la biométrie [3].

1.3 Les parts de marché par technologie :


Les empreintes digitales continuent à être la principale technologie biométrique en termes de
part de marché, près de 50% du chiffre d’affaires total (hors applications judiciaires). La
reconnaissance du visage, avec 12% du marché (hors applications judiciaires), dépasse la
reconnaissance de la main, qui avait avant la deuxième place en termes de source de revenus
après les empreintes digitales.

Figure I.2 : Parts de marché des différentes méthodes biométriques [3].


 
CHAPITRE I Introduction à la biométrie
 
 
1.4 Les modes opératoires d’un système biométrique :
Un système biométrique peut avoir deux modes opératoires [4] : la vérification et
l’identification.
La vérification, également appelée authentification, consiste à confirmer ou infirmer l’identité
d’une personne (suis-je celui que je prétends être ?). Il s’agit d’une comparaison du type un
contre un ; les caractéristiques de l’individu sont comparées à celles présentes dans un
enregistrement de référence.
Quant à l’identification, elle permet d’établir l’identité d’une personne (qui suis-je ?) à partir
d’une base de données, il s’agit d’une comparaison du type un contre plusieurs.

1.5 Les techniques biométriques :


Parmi les différentes techniques biométriques existantes, on distingue deux grandes
catégories :
1.5.1 L’analyse morphologique (physiologique) :
Elle est basée sur l'identification de traits physiques particuliers qui, pour toute personne, sont
uniques et permanents. Cette catégorie regroupe les empreintes digitales, l’iris de l’œil, la forme
de la main, les traits du visage, le réseau veineux de la rétine, les veines de la main, etc.

1.5.2 L’analyse comportementale :


Elle se base sur l'analyse de certains comportements d'une personne. Cette catégorie regroupe
la reconnaissance vocale, la dynamique de frappe au clavier, la dynamique de la signature,
l’analyse de la démarche, etc.

Il existe, par ailleurs, une autre catégorie qui est l’étude des traces biologiques telles que :
l’ADN, le sang, la salive, l’urine, l’odeur, etc.

1.6 Présentation des techniques biométriques :


1.6.1 L’empreinte digitale [5] :
Une empreinte digitale est constituée d’un ensemble de lignes localement parallèles formant
un motif unique pour chaque individu. On distingue les stries (ou crêtes, ce sont les lignes en
contact avec une surface au toucher) et les sillons (ce sont les creux entre deux stries). Les
stries contiennent en leur centre un ensemble de pores régulièrement espacés.
Chaque empreinte possède un ensemble de points singuliers globaux (les centres et les deltas)
et locaux (les minuties). Les centres correspondent à des lieux de convergence des stries
tandis que les deltas correspondent à des lieux de divergence. L'acquisition des données est
faite par un capteur électronique de type optique, thermique, capacitif ou à ultrasons.


 
CHAPITRE I Introduction à la biométrie
 
 

Figure I.3 : Capture de l’image d’une empreinte digitale.

1.6.2 L’iris [6] [7] :


L’iris est une technique extrêmement fiable car il contient une infinité de points
caractéristiques (ensemble fractal), la fraude étant néanmoins possible en utilisant des
lentilles. L’acquisition de l’iris est effectuée au moyen d’une caméra pour pallier aux
mouvements inévitables de la pupille. Elle est très sensible (précision, reflet…) et
relativement désagréable pour l’utilisateur car l’œil doit rester grand ouvert et il est éclairé par
une source lumineuse pour assurer un contraste correct.

Figure I.4 : Capture de l’image d’un iris.

1.6.3 La géométrie de la main [8] :


Jusqu’à 90 caractéristiques de la main sont mesurées (forme de la main et des articulations,
longueur et largeur des doits, longueur inter articulations…). Le taux d’erreurs dans la
reconnaissance est assez élevé, en particulier pour des personnes appartenant à une même
famille en raison d’une forte ressemblance. De plus, la forme de la main évolue beaucoup
avec l’âge.


 
CHAPITRE I Introduction à la biométrie
 
 

Figure I.5 : Scan de la forme de la main.

1.6.4 Le visage [9] [10] :


Plusieurs parties du visage (joues, yeux, nez, bouche…) sont extraites d’une photo ou d’une
vidéo et analysées géométriquement (distance entre différents points, positions, formes…). Le
problème de cette méthode vient des possibles perturbations pouvant transformer le visage
(maquillage, faible luminosité, présence d’une barbe ou d’une lunette, expression faciale
inhabituelle, changement avec l’âge, etc.).

Figure I.6 : Capture de l’image d’un visage.

1.6.5 La rétine [11] :


Cette technique se base sur le fait que les vaisseaux sanguins d’une rétine sont uniques pour
chaque personne. L’utilisateur doit placer son œil face à un orifice de capture situé sur le
dispositif d’acquisition. Un faisceau lumineux traverse l’œil jusqu’aux vaisseaux sanguins
capillaires de la rétine. Le système localise et capture ainsi environ 400 points de référence.
Cette technique requiert une collaboration étroite de la part de l’utilisateur, car il doit placer
son œil extrêmement près de la caméra.


 
CHAPITRE I Introduction à la biométrie
 
 

Figure I.7 : Rétine de l’œil.

1.6.6 Les veines de la main [12] :


L’utilisateur place sa main dans une chambre ou un gabarit de lecture. Les caractéristiques des
veines sont lues par une caméra infrarouge qui en tire une image en deux dimensions. Cette
image est ensuite digitalisée et enregistrée pour comparaison future.

Figure I.8 : Scan des veines de la main.

1.6.7 La reconnaissance vocale [13] [14] :


Les caractéristiques du timbre de la voix et de la prononciation sont analysées. La qualité de
l’enregistrement peut poser problème et il est possible de frauder avec un échantillon vocal
préenregistré.

Figure I.9 : Capture de la voix.


 
CHAPITRE I Introduction à la biométrie
 
 
1.6.8 La dynamique de frappe au clavier [15] :
Un système basé sur la dynamique de frappe au clavier ne nécessite aucun équipement
particulier, chaque ordinateur disposant d’un clavier. Il s’agit d’un dispositif logiciel qui
calcule le temps où un doigt effectue une pression sur une touche et le temps où un doigt est
dans les airs (entre les frappes). Cette mesure est capturée environ mille fois par seconde. La
séquence de frappe est prédéterminée sous la forme d’un mot de passe. Initialement
l’utilisateur doit composer son mot de passe à quelques reprises afin que soit constitué un
gabarit de référence.
Ce dispositif biométrique est utilisé comme méthode de vérification pour le commerce
électronique et comme mécanisme de contrôle d’accès à des bases de données.

1.6.9 La dynamique du tracé de la signature [16] :


Il s’agit d’une analyse comportementale où différents éléments (mesure da la vitesse, ordre
d’écriture, pression exercée, accélération…) sont mesurés lors de la signature. La falsification
est possible en passant par une phase d’apprentissage, la signature peut carier selon le stress
de l’utilisateur.

Figure I.10 : Capture d’une signature.

1.6.10 L’analyse de la démarche [17] :


Il s'agit de reconnaître un individu par sa façon de marcher et de bouger (vitesse, accélération,
mouvements du corps…), en analysant des séquences d'images. La démarche serait en effet
étroitement associée à la musculature naturelle et donc très personnelle. Son inconvénient
majeur est qu’elle est sensible aux changements d’habits, chaussures et surface. Ceci rend
cette approche limitée au monde de la recherche seulement.

1.7 Applications de la biométrie :


Les applications de la biométrie peuvent être divisées selon quatre groupes : service public,
application de la loi, transaction commerciale et bancaire, accès physique et logique.

1.7.1 Service public :


- La biométrie est fréquemment utilisée par les services d’immigration pour contrôler
automatiquement l’identité des personnes entrantes ou sortantes d’un territoire, ainsi l’iris, le
visage et l’empreinte digitale sont à l’essai dans de nombreux aéroports.
10 
 
CHAPITRE I Introduction à la biométrie
 
 
- De même en santé publique, la biométrie serait utile pour supprimer les cartes d’assurance
sociale, ou du moins vérifier l’identité de leur propriétaire.

1.7.2 Application de la loi :


- L’authentification de criminels par reconnaissance automatique de leurs empreintes digitales
a montré son efficacité, cette pratique se mondialise, et la réalisation d’une base données
internationale est en cours de réflexion.
- Le suivi de prisonniers à domicile est déjà assuré par des systèmes de vérification de la voix
dans certains états des Etats-Unis.
- Le vote électoral par internet.
- L’identification d’enfants kidnappés ou disparus, dont la véritable identité a été masquée.
- Protection électronique de documents.

1.7.3 Transaction commerciale et bancaire :


- Transaction de commerce électronique sécurisée visant à l’achat d’un bien ou d’un service à
distance.
- Apparition de machines de retrait automatique d’argents disposant d’un système de
vérification d’individu basé sur l’iris.

1.7.4 Accès physique et logique :


On parle de contrôle d’accès physique lorsqu’on cherche à sécuriser l’accès à un lieu (entrée
d’un bâtiment), alors que le contrôle d’accès logique concerne l’accès informatique à un
terminal, serveur et réseau informatique ou de télécommunication (ex : ordinateur, téléphone
portable, base de données privée).

2. Architecture d’un système biométrique :


Il existe toujours au moins deux modules dans un système biométrique: le module
d’apprentissage et celui de reconnaissance [18] [19]. Le troisième module (facultatif) est le
module d’adaptation. Pendant l’apprentissage, le système va acquérir une ou plusieurs
mesures biométriques qui serviront à construire un modèle de l’individu. Ce modèle de
référence servira de point de comparaison lors de la reconnaissance. Le modèle pourra être
réévalué après chaque utilisation grâce au module d’adaptation.

2.1 Module d’apprentissage :


Au cours de l’apprentissage, la caractéristique biométrique est tout d’abord mesurée grâce à
un capteur; on parle d’acquisition ou de capture. En général, cette capture n’est pas
directement stockée et des transformations lui sont appliquées. En effet, le signal contient de
l’information inutile à la reconnaissance et seuls les paramètres pertinents sont extraits. Le
modèle est une représentation compacte du signal qui permet de faciliter la phase de
reconnaissance, mais aussi de diminuer la quantité de données à stocker. Il est à noter que la
qualité du capteur peut grandement influencer les performances du système. Meilleure est la
qualité du système d’acquisition, moins il y aura de prétraitements à effectuer pour extraire les
paramètres du signal.

11 
 
CHAPITRE I Introduction à la biométrie
 
 
 
Apprentissage
     
Mesure de la Extraction des
      de données
Base
caractéristique paramètres
                                                          . . . 

                                                                                                                        

    Adaptation   

    Reconnaissance  

     
Mesure de la Extraction des Comparaison et
                                                                                                                                                            ID
caractéristique paramètres décision

Figure I.11 : Architecture d’un système de reconnaissance biométrique. 

Cependant, les capteurs de qualité sont en général coûteux et leur utilisation est donc limitée à
des applications de haute sécurité pour un public restreint. Le modèle peut être stocké dans
une base de données comme représenté sur la figure I.4 ou sur une carte de type carte à puce.

2.2 Module de reconnaissance :


Au cours de la reconnaissance, la caractéristique biométrique est mesurée et un ensemble de
paramètres est extrait comme lors de l’apprentissage. Le capteur utilisé doit avoir des
propriétés aussi proches que possibles du capteur utilisé durant la phase d’apprentissage.
Si les deux capteurs ont des propriétés trop différentes, il faudra en général appliquer une
série de prétraitements supplémentaires pour limiter la dégradation des performances.
La suite de la reconnaissance sera différente suivant le mode opératoire du système :
identification ou vérification.
En mode identification, le système doit deviner l’identité de la personne. Il répond donc à une
question de type : « Qui suis-je ? ». Dans ce mode, le système compare le signal mesuré avec
les différents modèles contenus dans la base de données (problème de type 1 : N). En général,
lorsque l’on parle d’identification, on suppose que le problème est fermé, c’est-à-dire que
toute personne qui utilise le système possède un modèle dans la base de données.
En mode vérification, le système doit répondre à une question de type : « Suis-je bien la
personne que je prétends être ? ». L’utilisateur propose une identité au système et le système
doit vérifier que l’identité de l’individu est bien celle proposée. Il suffit donc de comparer le
signal avec un seul des modèles présents dans la base de données (problème de type 1 : 1). En
mode vérification, on parle de problème ouvert puisque l’on suppose qu’un individu qui n’a
pas de modèle dans la base de données (imposteur) peut chercher à être reconnu.
Identification et vérification sont donc deux problèmes différents.

12 
 
CHAPITRE I Introduction à la biométrie
 
 
L’identification peut-être une tâche redoutable lorsque la base de données contient des
milliers, voire des millions d’identités, tout particulièrement lorsqu’il existe des contraintes de
type « temps réel » sur le système. Ces difficultés sont analogues à celles que connaissent par
exemple les systèmes d’indexation de documents multimédia.

2.3 Module d’adaptation :


Pendant la phase d’apprentissage, le système biométrique ne capture souvent que quelques
instances d’un même attribut afin de limiter la gêne pour l’utilisateur. Il est donc difficile de
construire un modèle assez général capable de décrire toutes les variations possibles de cet
attribut. De plus, les caractéristiques de cette biométrie ainsi que ses conditions d’acquisition
peuvent varier. L’adaptation est donc nécessaire pour maintenir voire améliorer la
performance d’un système utilisation après utilisation.
L’adaptation peut se faire en mode supervisé ou non-supervisé mais le second mode est de
loin le plus utile en pratique. Si un utilisateur est identifié par le module de reconnaissance,
les paramètres extraits du signal serviront alors à ré-estimer son modèle. En général, le taux
d’adaptation dépend du degré de confiance du module de reconnaissance dans l’identité de
l’utilisateur. Bien entendu, l’adaptation non-supervisée peut poser problème en cas d’erreurs
du module de reconnaissance. L’adaptation est quasi indispensable pour les caractéristiques
non permanentes comme la voix [20] [21].

3. Evaluation d’un système biométrique :


La performance d’un système d’identification peut se mesurer principalement à l’aide de trois
critères : sa précision, son efficacité (vitesse d’exécution) et le volume de données qui doit
être stocké pour chaque locuteur. Nous nous concentrerons au premier aspect qui est la
précision. L’identification et la vérification sont des modes opératoires différents. Elles
nécessitent donc des mesures de précision différentes.

3.1 Evaluation de l’identification :


Le taux d’identification est la mesure la plus couramment utilisée mais il n’est pas toujours
suffisant. En effet, en cas d’erreur, il peut être utile de savoir si le bon choix se trouve dans les
N premiers. On trace alors le score cumulé (cumulative match score) qui représente la
probabilité que le bon choix se trouve parmi les N premiers [22].
Dans le cas où il existe plusieurs modèles pour chaque individu dans la base de données, les
mesures classiques des systèmes de recherche dans une base de données (database retrieval
system) peuvent être utilisées. La précision (precision) est le rapport entre le nombre de
modèles correctement retrouvés par le système dans la base de données et le nombre total de
modèles retrouvés. Le rappel (recall) est le rapport entre le nombre de modèles correctement
retrouvés dans la base de données et le nombre total de modèles qui auraient dû être retrouvés.

Le type d’erreurs commises par ce genre de système est d’attribuer à l’individu présenté une
identité autre que la sienne.
Les performances de ce système sont mesurées à l’aide du taux d’identification [23].

13 
 
CHAPITRE I Introduction à la biométrie
 
 

Ce paramètre dépend du nombre de personnes contenues dans la base de données. En effet,


plus la base est volumineuse (nombre de tests important), plus le taux d’erreurs risque d’être
grand.

3.2 Evaluation de la vérification :


La vérification est un problème de décision qui peut être formulé de la manière suivante :
Soient l’hypothèse : « La capture C provient d’un imposteur » et l’hypothèse : « La
capture C provient de l’utilisateur légitime ».
Il faut donc choisir l’hypothèse la plus probable. On considère que la capture C provient d’un
utilisateur légitime si . En appliquant la loi de Bayes [4], on obtient :

Et donc :

Le taux de vraisemblance (likelihood ratio) est comparé à un seuil appelé seuil


de décision.
Les valeurs et qui représentent respectivement la probabilité pour qu’un
imposteur ou un utilisateur légitime essayent d’accéder au système sont des valeurs difficiles
à estimer.
La figure I.5 représente la distribution hypothétique des scores de vraisemblance
qu’obtiendraient les utilisateurs.

14 
 
CHAPITRE I Introduction à la biométrie
 
 
Figure I.12 : Distributions des taux de vraisemblance des utilisateurs légitimes et des
imposteurs d’un système biométrique.

Lors de la vérification, le taux est comparé au seuil de décision , si est inférieur à alors
l’individu est accepté sinon celui-ci est rejeté. Le système peut faire deux types d’erreurs :
¾ FA (False Acceptance) :
La fausse acceptation correspond au cas où le système accepte un individu qui a proclamé une
identité qui n’est pas la sienne.

¾ FR (False Rejection) :
Le faux rejet correspond au cas où le système rejette un client légitime.

Les performances de ce type de système se basent principalement sur le taux de faux rejet et
le taux de fausse acceptation.

On remarque à travers la figure I.5 que plus le seuil de décision est petit, plus le système
acceptera de clients légitimes mais aussi des imposteurs, plus est grand, plus le système
rejettera d’imposteurs mais aussi des utilisateurs légitimes. Le paramétrage d’un système
consiste à trouver le bon équilibre entre ces deux taux.
Les performances d’un système biométrique peuvent être présentées graphiquement à l’aide
de la courbe ROC (Receiver Operating Characteristics) sur laquelle les FRRs sont données en
fonction des FAR (voir Figure I.6). Cette courbe est obtenue en calculant un couple (FAR,
FRR) pour chaque valeur du seuil de décision, ce dernier varie de la plus petite valeur des
taux obtenus en phase de test à la plus grande valeur.

Figure I.13 : Courbe ROC.


15 
 
CHAPITRE I Introduction à la biométrie
 
 

Il existe d’autres critères fréquemment utilisés pour donner un aperçu des performances des
systèmes de vérification :
¾ EER (Equal Error Rate) :
Le taux d’erreur égale correspond à l’intersection de la courbe ROC avec la première
bissectrice, en d’autres termes, EER correspond au point de fonctionnement pour lequel le
taux de faux rejet est égal au taux de fausse acceptation.

¾ HTER (Half Total Error Rate) : représente la moyenne du FAR et FRR.

¾ TER (Total Error Rate) :


Le taux d’erreur globale correspond au taux d’erreur totale (faux rejet et fausse acceptation)
obtenu lors du test.

4. Comparaison des différentes techniques biométriques :


En théorie on dit qu’un critère physiologique (ou biométrie) est exploitable pour la
reconnaissance d’individus s’il satisfait les conditions suivantes :
- Universalité, qui signifie que chaque personne possède des caractéristiques comparables.
- Unicité, qui spécifie que 2 personnes ne possèdent jamais 2 signatures semblables.
- Permanence, qui assure sa durabilité tout au long d’une vie humaine.
- Mesurabilité, qui justifie de la possibilité de le quantifier.

De plus, on caractérise un système de reconnaissance biométrique par :


- Sa performance, en d’autres termes sa capacité à identifier un individu compte tenu de
certaines perturbations externes au système.
- Son acceptabilité, qui traduit la confiance et la coopération observées des individus.
- Sa circonvention, qui réfère à la facilité de le pirater.

16 
 
CHAPITRE I Introduction à la biométrie
 
 

Biométrie Universalité Unicité Permanence Mesurabilité Performance Acceptabilité Circonvention


DNA Haute Haute Haute Faible Haute Faible Faible
Oreille Moyenne Moyenne Haute Moyenne Moyenne Haute Moyenne
Visage Haute Faible Moyenne Haute Faible Haute Haute
Thermo
Haute Haute Faible Haute Moyenne Haute Haute
Visage
Empreinte Moyenne Haute Haute Moyenne Haute Moyenne Moyenne
Démarche Moyenne Faible Faible Haute Faible Haute Moyenne
Géométrie
Moyenne Moyenne Moyenne Haute Moyenne Moyenne Moyenne
Main
Veines
Moyenne Moyenne Moyenne Moyenne Moyenne Moyenne Faible
Main
Iris Haute Haute Haute Moyenne Haute Faible Faible
Frappe
Faible Faible Faible Moyenne Faible Moyenne Moyenne
Clavier
Odeur Haute Haute Haute Faible Faible Moyenne Faible
Rétine Haute Haute Moyenne Faible Haute Faible Faible
Signature Faible Faible Faible Haute Faible Haute Haute
Voix Moyenne Faible Faible Moyenne Faible Haute Haute

Tableau I.1 : Comparaison de technologies biométriques [24].

A partir de ces sept critères, une première comparaison des principales technologies
biométriques est proposée sur le Tableau I.1. Parmi les techniques les plus matures, on
distingue le visage, l’empreinte digitale, la géométrie de la main, l’iris et la rétine, qui
présentent des bonnes caractéristiques. Mais aucune d’entre elles n’est parfaite. Chaque
technique possède des avantages et des inconvénients, acceptables ou inacceptables suivant
les applications en termes de niveau de sécurité et/ou de facilité d’emploi, etc. Aussi nous
sommes tentés de dire que ces cinq solutions biométriques ne sont pas systématiquement en
concurrence. Cela dit, pour des applications grand public, la reconnaissance rétinienne, qui
nécessite un appareillage d’acquisition sophistiqué et coûteux, peut être d’ores et déjà écartée
car trop intrusive. Parmi les facteurs de performances, on se doit aussi de prendre en compte
certains paramètres d’usage tels que les taux de FAR et FRR.

Technique biométrique FAR (%) FRR (%)


Iris 0.00129 0.583
Empreinte digitale 0.01 2.54
Géométrie de la main 0.05 7,29
Visage 1 10

Tableau I.2 : Comparaison des 4 grandes techniques morphologiques en usage [25].

En regardant le Tableau I.2, on voit que l’iris est tout particulièrement prometteur, et on
comprend mieux le vif intérêt et la convoitise des industriels que l’iris a suscités depuis 2000.
Sa stabilité au cours du temps (car protégé derrière les paupières et l’humeur aqueuse de la
cornée), sa précision, sa faible complexité algorithmique (temps d’exécution d’une
identification sur une large base de données relativement court), la compacité des gabarits
extraits de sa texture, sont autant de points forts qui laissent penser que l’iris a un bel avenir
en reconnaissance biométrique d’individus.

17 
 
CHAPITRE I Introduction à la biométrie
 
 
Toutefois, les deux problèmes majeurs de l’analyse par l’iris sont : sa faible capacité
d’intégration (portabilité sur systèmes embarqués) et le fait qu’elle soit perçue comme
intrusive ou contraignante par l’utilisateur car l’acquisition d’une image d’iris exige un certain
apprentissage et une complète coopération.
On notera que les capteurs intégrés d’empreintes digitales posent d’autres problèmes : les
variations du taux d’hygrométrie, les poussières, la graisse, les cicatrices et l’usure des doigts
sont autant de paramètres qui altèrent l’information biométrique. Les systèmes de
reconnaissance de visage sont eux extrêmement sensibles à l’environnement (éclairage,
lunettes, etc.).

Une comparaison des méthodes biométriques nous a montré que l’iris semble plus fiable que
l’empreinte digitale, le visage, la géométrie de la main et la rétine. Ses performances sont
liées à l’unicité des caractéristiques contenues dans la texture de l’iris humaine. Par contre la
mesurabilité de cette texture est comparativement faible, et limite l’utilisation de l’iris dans
des applications sur systèmes embarqués.

5. La multi modalité dans la biométrie :


Il existe différentes formes de multi modalités :
5.1 Systèmes multiples biométriques :
Utiliser en même temps plusieurs modalités biométrique du corps humain, par exemple,
combiner le visage, les empreintes digitales ainsi que la voix.

5.2 Systèmes multiples d’acquisition :


Utiliser plusieurs techniques d’acquisition sur la même modalité biométrique, par exemple,
utiliser des scanners différents (l’un optique, l’autre thermique) pour la reconnaissance
d’empreintes digitales.

5.3 Mesures multiples d’une même unité biométrique :


Par exemple, faire la reconnaissance sur les deux iris au lieu d’un seul, ou bien faire la
reconnaissance sur les dix doits d’un même individu.

5.4 Instances multiples d’une même mesure :


Faire une capture répétée du même attribut biométrique avec le même système d’acquisition.
Par exemple effectuer une authentification pour plusieurs images faciales d’un même individu
à partir d’une vidéo à des intervalles précis.

5.5 Algorithmes précis :


Utiliser différents algorithmes de reconnaissance sur le même signal d’entrée. Par exemple,
combiner les deux méthodes GMM (Gaussian Mixture Models) et SVM (Support Vector
Machines) pour la reconnaissance du locuteur.

Conclusion :
Dans ce chapitre, nous avons présenté une vue générale de la biométrie, un survol sur
quelques techniques biométriques ainsi que l’architecture d’un système biométrique. La

18 
 
CHAPITRE I Introduction à la biométrie
 
 
performance et la fiabilité d’un système biométrique s’expriment par le taux d’identification
et les taux d’erreurs commises. Dans le but d’obtenir de meilleures performances, les
chercheurs ont recours à la combinaison de deux ou plusieurs modalités différentes. Le fait
que l’iris soit texturé nous conduit à introduire dans le chapitre suivant les différents concepts
de base de l’analyse de la texture d’une image.
 

19 
 
CHAPITRE II Analyse de la texture d’une image
 
 
Introduction :
L'analyse est un domaine très important du traitement de l'image. L'analyse de l'image
consiste souvent à extraire un certain nombre de propriétés caractéristiques et à les exprimer
sous forme paramétrique. L'étape d'extraction des paramètres précède souvent une étape de
décision de manière à pouvoir répondre à des questions telles que : matériau normal ou
défectueux ? Tissu biologique sain ou pathologique ? Types de défauts ? Les paramètres
calculés permettent donc de décrire, de caractériser, de segmenter et d'analyser les images en
question. Selon le cas, l'analyse peut être globale ou locale, la notion de localité prenant toute
son importance avec la complexité de l'image. Il est évident que le choix des paramètres
dépend surtout de l'application considérée, par exemple de lier ces paramètres avec les
propriétés physiques et biologiques réelles afin de les quantifier ou alors de trouver des
similitudes avec des textures de référence afin de les identifier. L'interprétation des
informations dans un environnement naturel n'est pas un problème simple. En effet, les
textures naturelles sont très irrégulières et ne peuvent être modélisées précisément par les
techniques mathématiques actuelles.

1. Analyse de texture :
1.1 Définition :
La définition littéraire de la texture est la suivante : " répétition spatiale d'un même motif dans
différentes directions de l'espace ". Cette définition est limitative car elle caractérise l'objet
indépendamment d'un observateur humain. La notion de texture est utilisée pour traduire un
aspect homogène de la surface d'un objet sur une image. La texture se manifeste donc par une
information visuelle qui permet de la décrire qualitativement à l'aide des adjectifs suivants:
grossière, fine, lisse, tachetée, granuleuse, marbrée, régulière ou irrégulière. De nombreuses
études psycho visuelles ont été faites sur la discrimination de texture par le système visuel
humain. Une conjecture importante et valide dans beaucoup de cas est que l'œil humain ne
peut discerner instantanément deux textures dont les statistiques du second ordre sont
identiques. Cependant, il existe des cas où des textures ayant les mêmes statistiques du second
ordre sont néanmoins discriminables sur la base de propriétés locales.

Haralick [1] élargit la définition en décrivant une texture comme un phénomène à deux
dimensions : la première concernant la description d'éléments de base ou primitives (le motif)
à partir desquels est formée la texture; la deuxième dimension est relative à la description de
l'organisation spatiale de ces primitives.
Unser [2] présente la texture comme une structure disposant de certaines propriétés spatiales
homogènes et invariantes par translation. Une autre approche serait encore de définir la
texture à partir de deux types d'informations essentielles que comporte l'image :
- Les contours, de type monodimensionnel, qui marquent les frontières entre régions
homogènes.
- L'aspect de surface, de type bidimensionnel, qui définit les régions homogènes. Cependant,
la description d'une texture peut s'avérer erronée à une autre échelle d'observation, c'est à dire
en changeant la résolution.
Il existe deux grands types de textures : les textures aléatoires et les textures dites périodiques
ou structurées.
20 
 
CHAPITRE II Analyse de la texture d’une image
 
 
- Une texture périodique est formée de primitives arrangées d'une façon particulière, rangée.
Le motif de base se répète alors de manière régulière. On parle de texture ordonnée.

Figure II.1 : Exemples de textures périodiques.

- Une texture aléatoire semble totalement désordonnée. Il est alors impossible d'isoler un
motif de base.

Figure II.2 : Exemples de textures aléatoires.

Gagalowicz [3] propose une synthèse des deux approches en considérant la texture comme
"une structure spatiale constituée de l'organisation de primitives ayant chacune un aspect
aléatoire, donc une structure hiérarchique à deux niveaux".

1.2 Besoin d’analyse de texture :


L’analyse de texture d’une image donnée peut être essentielle pour plus d’une raison. Nous
pouvons avoir besoin de trouver différentes régions dans une image, qui sont séparées par leur
texture distinctive. Une telle sorte de segmentation de texture est importante dans l’analyse
des images aériennes et des images obtenues par satellite. La segmentation peut aussi être
utilisée dans d’autres applications comme la séparation du texte à partir d’une partie restante
d’une image. On peut utiliser l’analyse de texture pour déterminer si une texture particulière,
connue à priori, est présente ou non dans une image donnée. Ceci est connu comme la
classification de texture. Une telle classification a des applications où il est souvent besoin
d’égaliser ou de comparer deux textures différentes et d’identifier le degré de similarité,
comme pour la biométrie.
L’identification de texture est utilisée en premier lieu dans la reconnaissance biométrique
utilisant l’iris. Un autre usage de la classification de texture est dans l’analyse d’images

21 
 
CHAPITRE II Analyse de la texture d’une image
 
 
médicales, où le critère de classification aura pour objectif de différencier entre la texture du
tissu normal et la structure du tissu anormal dans les images médicales.

Une autre application peut être l’extraction ou la construction de surface 3D à partir des
variations dans les propriétés texturales dans une image. Une telle application nous aide à
recréer la surface 3D, dont la projection sur une image 2D est la texture donnée. Comme la
texture ne peut être complètement décrite en une définition particulière, nous ne pouvons pas
non plus trouver juste une seule manière qui nous permettra de caractériser complètement une
texture donnée et d’extraire ses traits caractéristiques avec succès pour toutes les différentes
applications. En conséquence, il y a différentes approches pour analyser la texture par
beaucoup de gens, selon le genre d’application et aussi selon le type de texture qui doit être
analysée.

2. Méthodes d’analyse de texture :


2.1 Méthodes statistiques :
Elles étudient les relations entre un pixel et ses voisins. Elles sont utilisées pour caractériser
des structures fines et sans régularité apparente. Plus l'ordre de la statistique est élevé, plus le
nombre de pixels (1 à N) mis en jeu est important.
En imagerie médicale, l'étude se fait surtout sur des tissus mous ayant des structures tout à fait
aléatoires et le plus souvent non homogènes, c'est pourquoi ce type de méthode sera
préférentiellement utilisé. Dans ce cas, la texture est décrite par les statistiques de la
distribution de ces niveaux de gris (ou intensité).

2.1.1 Méthode du premier ordre :


L'analyse par la méthode du premier ordre se fait au niveau des pixels individuels d'une
région de l'image (ROI). Les paramètres sont calculés à partir de l'histogramme des intensités
(ou histogramme du premier ordre). Celui-ci décrit, au niveau de la ROI choisie, la fréquence
d'apparition de chaque niveau sur l'échelle des gris.
La moyenne, la variance, le "skewness" et le "kurtosis" sont les paramètres les plus souvent
utilisés pour caractériser une texture.

1. Moyenne : donne la valeur moyenne (ou intensité moyenne) des niveaux de gris
appartenant à tous les pixels de la ROI. Ce paramètre représente l'emplacement de
l'histogramme sur l'échelle des niveaux de gris.

Où représente la valeur du niveau de gris du pixel .


est un facteur de normalisation qui correspond au nombre total de pixels.

2. Variance : correspond au moment d'ordre 2. Elle mesure la répartition des niveaux de gris
autour de la valeur moyenne.

 
22 
 
CHAPITRE II Analyse de la texture d’une image
 
 
3. "Skewness" : correspond au moment d'ordre 3 centré autour de la moyenne. Ce paramètre
mesure la déviation de la distribution des niveaux de gris par rapport à une distribution
symétrique.

Pour une déviation par les valeurs élevées, le skewness est positif ; alors que pour une
déviation vers les basses valeurs, il est négatif.

4. "Kurtosis" : correspond au moment d'ordre 4 centré autour de la moyenne.

5. Le rapport "signal-sur-bruit" :
En imagerie le SNR peut être défini de la façon suivante :

 
Il correspond au rapport de la moyenne sur l’écart type. Ce paramètre permet de rendre
compte de l'hétérogénéité d'une texture. Une texture hétérogène possèdera un signal sur bruit
faible car la variance sera élevée.

6. Les percentiles :
Ils sont déterminés par extrapolation sur l’histogramme cumulé. Celui-ci correspond à la
fréquence cumulée d’apparition d’un niveau de gris.
correspond à la proportion (en %) de pixels ayant une valeur de niveaux de gris inférieure à
la valeur correspondant à .

2.1.2 Méthode du second ordre :


Dans la méthode du premier ordre, qui correspond à une description de l'histogramme des
niveaux de gris, il n'y a pas d'informations sur la localisation du pixel. Il est donc nécessaire
d'utiliser des méthodes d'ordre supérieur pour une analyse plus précise.
L'ordre des méthodes est donné par le nombre de pixels mis en jeu dans le calcul des
paramètres.
On retiendra, en particulier, la méthode des matrices de gradient, des caractéristiques
statistiques, de cooccurrence et celle des différences de niveaux de gris [4] [5] [6].

2.1.2.1 Méthode de matrice de cooccurrence :


Elle permet de déterminer la fréquence d'apparition d'un "motif" formé de deux pixels séparés
par une certaine distance dans une direction particulière par rapport à l'horizontale. Afin
de limiter le nombre de calculs, on prend généralement comme valeurs 0°, 45°, 90°, 135°,
180° et 1 pour la valeur de .

23 
 
CHAPITRE II Analyse de la texture d’une image
 
 
La taille de la matrice est x , où correspond au maximum des niveaux de gris de
l'image. A chaque direction et pour chaque valeur de correspond une matrice de
cooccurrence .

On définit généralement les matrices symétriques de cooccurrence. Elles sont construites à


partir des constatations suivantes :

Par exemple, la matrice symétrique associée à la direction sera de la forme :

Une fois la matrice symétrique réalisée, il est possible d'en extraire une quinzaine de
paramètres.
Ils contiennent des informations sur la finesse, la direction et la granularité de la texture.
Pour une texture grossière, les valeurs de la matrice sont concentrées sur la diagonale
principale. Au contraire, pour une texture fine, les valeurs de la matrice seront dispersées : en
effet, pour une telle texture il existe beaucoup de transitions de niveaux de gris.

1. La moyenne :

Où correspond aux éléments de la matrice de cooccurrence ; c'est à dire à la probabilité


de passer d'un pixel de niveau de gris à un pixel de niveau de gris .

2. La variance :

Elle caractérise la distribution des niveaux de gris autour de la valeur moyenne calculée
précédemment.

3. L’énergie, moment angulaire d'ordre deux ou uniformité : Ce paramètre mesure


l'homogénéité de l'image. L'énergie a une valeur d'autant plus faible qu'il y a peu de zones
homogènes : dans ce cas, il existe beaucoup de transitions de niveaux de gris.

Les quatre paramètres suivants sont les plus souvent utilisés :

24 
 
CHAPITRE II Analyse de la texture d’une image
 
 
4. Le contraste (inertie) : mesure les variations locales des niveaux de gris. Si elles sont
importantes (c'est à dire s'il existe peu de régions homogènes), alors le contraste sera élevé.
Ce paramètre permet aussi de caractériser la dispersion des valeurs de la matrice par rapport à
sa diagonale principale.

Une texture apparaît plus nette lorsque le contraste est plus élevé, les transitions entre niveaux
de gris sont alors plus visibles.

5. La corrélation :

où et représentent les moyennes respectivement des lignes et des colonnes de la


matrice.

6. La corrélation normalisée : permet de déterminer si certaines colonnes de la matrice sont


égales. Plus les valeurs sont uniformément distribuées dans la matrice, plus la corrélation est
importante.

Oiu et représentent les écarts types respectivement des lignes et des colonnes de la
matrice.

7. L'entropie : mesure la complexité de l'image. Lorsque les valeurs de la matrice sont


presque toutes égales, l'entropie est élevée.

Elle permet de caractériser le degré de granulation de l'image. Plus l'entropie est élevée, plus
la granulation est grossière.

8. L'homogénéité ou moment différentiel inverse :

Ce paramètre a un comportement inverse du contraste. Plus la texture possède de régions


homogènes, plus le paramètre est élevé.

On peut aussi définir les paramètres suivants qui sont cependant moins utilisés :
9. Le moment diagonal :

25 
 
CHAPITRE II Analyse de la texture d’une image
 
 
10. Le "cluster shade" :

11. Le "cluster prominence" :

Cette méthode qui prend en compte seulement des relations entre pixels n'est cependant pas
adaptée pour étudier la forme détaillée d'éléments de texture.
De plus, il n'existe pas de méthodes pour sélectionner le vecteur déplacement. Les calculs sont
alors très longs si on veut utiliser plusieurs déplacements.

2.1.2.2 Méthode des différences des niveaux de gris :


Comme nous l'avons précisé ci-dessus, le temps de calcul par la matrice de cooccurrence est
long si on utilise plusieurs valeurs de d. C'est pourquoi on introduit parfois la méthode des
différences de niveaux de gris.
Cette méthode permet de calculer le nombre d'apparitions d'une différence de niveaux de gris
donnée. Cela revient à calculer des paramètres sur une image de différence entre une image
initiale et une image translatée de .
Cinq paramètres peuvent alors être définis: la moyenne, le contraste, Le moment angulaire
d'ordre deux ou uniformité, l’entropie et Le paramètre "Inverse Difference Moment".
2.1.2.3 Méthode des matrices de caractéristiques statistiques :
Il s'agit d'une variante de la méthode précédente qui permet d'évaluer directement trois
paramètres (le contraste, la covariance et la dissimilitude) pour plusieurs distances , au lieu
de les estimer indirectement à partir de la matrice de cooccurrence.

2.1.2.4 Méthode des gradients :


Cette méthode permet de caractériser la distribution de différences de niveaux de gris. L'étude
se fait généralement sur des voisinages 3x3 ou 5x5.

2.1.3 Méthode d’ordre supérieur :


Elles étudient les interactions entre plusieurs pixels. Le voisinage est de type mono ou
bidimensionnel.
La méthode des longueurs de plages de niveaux de gris est la plus souvent utilisée [4] [7].
Une plage de niveaux de gris correspond à l'ensemble des pixels d'une image ayant la même
valeur de niveau de gris.
La longueur de la plage correspond au nombre de pixels appartenant à la plage ; ainsi on peut
dire qu'une texture fine possède peu de pixels dans une plage. Cette technique consiste donc à
compter le nombre de plages d'une certaine longueur , de niveau de gris dans une direction
donnée (on prendra généralement comme valeurs 0°, 45°, 90°, 135°). A chaque direction
correspondra donc une matrice.
Une matrice est associée à une direction d’angle : avec le
nombre de plage de niveau de gris , de longueur et direction de la plage de niveau de gris.

26 
 
CHAPITRE II Analyse de la texture d’une image
 
 

Les principaux paramètres issus de la matrice des longueurs de plages sont les suivants :
1. Le "poids" des plages courtes :

Où   représente le nombre total de plages de l’image.


correspond au nombre de niveaux de gris dans l'image et à la longueur de la plage
maximale.

2. Le "poids" des plages longues :

L’image qui possède un LRE plus grand possède plus de plages, c'est à dire plus de zones
étendues ayant le même niveau de gris.

3. La distribution des niveaux de gris :

Ce paramètre mesure l'uniformité de la distribution des plages.

4. La distribution des longueurs de plages :

Ce paramètre augmente si le nombre de plages de même longueur augmente.

5. Le pourcentage de plages :
ou la constante np correspond au nombre de pixels de l’image. Plus la texture est
homogène, plus ce paramètre est élevé.

Deux autres paramètres ont été introduits par la suite :


6. Le "poids" des longueurs de plage de faible niveau de gris (LGRE) :

7. Le "poids" des longueurs de plage de fort niveau de gris :

27 
 
CHAPITRE II Analyse de la texture d’une image
 
 

Ce paramètre mesure la fréquence des plages.

Les paramètres suivants tiennent compte à la fois de la distribution des niveaux de gris et des
longueurs de plage :
8. Le poids des petites plages de faible niveau de gris :

9. Le poids des petites plages de fort niveau de gris :

10. Le poids des longues plages de faible niveau de gris :

11. Le poids des longues plages de fort niveau de gris :

2.2 Méthodes structurelles :


Elles permettent de décrire la texture en définissant les primitives et les "règles"
d'arrangement qui les relient. En effet, les textures ordonnées possèdent des primitives qui se
répètent dans les images en des positions suivant une certaine loi.
A la différence des méthodes précédentes, les méthodes structurelles permettent de synthétiser
des textures en modifiant ces règles d’arrangement. De telles méthodes semblent plus
adaptées à l'étude de textures périodiques ou régulières.

2.3 Méthodes basées sur les modèles :


Elles caractérisent l’image à ajuster en un modèle spécifique qui décrit les relations internes
entre les différents pixels de l’image. La caractérisation peut non seulement être utilisée pour
décrire la texture, mais peut également agir comme un guide de synthèse d’images texturales
similaires. La plupart des algorithmes modélisent les textures en utilisant le MRF (Markov
Random Fields). Les MRFs ont été connus grâce à leur capacité à caractériser une large
variété de textures et en conséquence peuvent être généralisés facilement.

2.4 Méthodes basées sur le traitement du signal :


Dans cette approche utilisant les techniques de traitement du signal pour l’analyse de textures,
la plupart des méthodes font usage de technique de filtrage et ensuite extraire les traits
caractéristiques de la réponse du filtre et les utilisent pour la classification ou la segmentation.

28 
 
CHAPITRE II Analyse de la texture d’une image
 
 
Les filtres de domaine spatial et fréquentiel peuvent être utilisés pour l’extraction des
caractéristiques. Un travail large a été fait concernant l’utilisation des filtres de Gabor et
d’ondelette pour l’analyse des textures ayant montré d’ailleurs d’excellents résultats.

Conclusion :
Ce chapitre avait pour intérêt de présenter le besoin d’analyse de texture, ainsi que les
différentes méthodes utilisées pour la caractérisation d’une texture. Les méthodes statistiques
s’avèrent les plus appropriées pour l’analyse d’une texture aléatoire et sans régularité
apparente telle que celle de l’iris.
Dans le chapitre suivant, nous nous intéresserons à la reconnaissance de l’iris en se focalisant
sur les différents algorithmes de reconnaissance de l’iris dont quelques uns utilisant des
méthodes basées texture.
 

29 
 
CHAPITRE III Reconnaissance par iris
 
 
1. L’iris :
1.1 Rappel anatomique :
L’iris est la zone colorée visible entre le blanc de l’œil et la pupille. Il s’agit d’un réseau de
tubes fins dont le diamètre est inférieur à celui d'un cheveu. L'iris commence à se former
quelques mois avant la naissance jusqu’à quelques mois après, et l'enchevêtrement des tubes
qui le constituent est fixe et ne varie que très peu durant la vie de l'individu. Par contre la
couleur des tubes peut varier avec le temps (période de quelques années) et pour certaines
maladies. L'iris contient une quantité d'informations particulièrement importante, comparable
à la quantité d'informations contenue dans l'ADN. Mais l'iris n'occupant qu'une surface très
faible, son observation pratique à travers un système optique spécifique (éclairage artificiel
pour éviter les reflets sur la cornée), placé entre 10 à 30 cm de l’œil, ne permet de déceler que
certains contours macroscopiques. Toutefois, cette approximation de l'information est
suffisante pour certifier l'identité d'un individu avec une grande précision.

L'iris placé derrière la cornée de l’œil (Figure III.1) est un diaphragme variable percé d'un trou
circulaire, la pupille (diamètre de 2.5 à 4.5 mm), régie par un sphincter et par un dilatateur
formé de fibres musculaires antagonistes, lisses, rayonnantes et circulaires. La pupille
s'agrandit quand les fibres musculaires sympathiques se contractent ; elle se rétrécit quand les
fibres circulaires parasympathiques agissent. Cette ouverture de la pupille permet de modifier
la quantité de lumière qui pénètre dans l’œil pour éviter l’aveuglement en plein soleil ou
capter le peu de rayons lumineux la nuit.

Figure III.1 : Structure d’un œil humain.

La couleur des tubes qui le constituent varie avec le temps (du gris bleu au brun en passant
par le bleu et le vert) et pour certaines maladies. Elle résulte de la combinaison de la
transparence des fibres iridiennes et des pigments (mélanine) qui s'y fixent progressivement.
Bleu à la naissance, elle varie jusqu'à la puberté.
L’observation pratique à travers un système optique permet uniquement de déceler les
contours macroscopiques, et pas de descendre au niveau des tubes élémentaires. Ces motifs
aléatoires de l’iris sont uniques à chaque individu : ils constituent en quelque sorte un code
barres humain à partir des filaments, creux et stries dans les cercles colorés qui entourent la
pupille de chaque œil (exemples sur la figure III.2). De plus, s’agissant d’un tissu interne, ces
empreintes iridiennes sont relativement à l’abri des lésions, protégées par la cornée et
l’humeur aqueuse.
30 
 
CHAPITRE III Reconnaissance par iris
 
 

Figure III.2 : Images de 4 différents types de texture d’iris.

1.2 Avantages :
- L’iris est un organe interne et donc bien protégé de tout dommage contrairement aux autres
outils biométriques, en l’occurrence les empreintes digitales [1].
- L’iris présente l’avantage d’être de caractéristiques hautement aléatoires et assure presque
l’unicité de non pas chaque paire d’iris d’une personne mais entre les iris de la même
personne [2].
- Il n’y aucunement de relation ou d’impact génétique sur sa structure interne [3].

1.3 Inconvénients :
- L’image d’iris est difficile à acquérir car sa taille est très petite, comparé par exemple au
visage. L’acquisition d’une image d’iris nécessite un appareil spécial.
- Puisque l’mage d’iris est difficile à acquérir, le processus d’enrôlement prend beaucoup de
temps, ce qui n’est pas acceptable pour tous les utilisateurs. Aussi, Le taux d’échec de
l’enrôlement de l’iris est d’environ 7 % [4].
- L’image d’iris peut gravement être affectée par l’ombre (reflet) des cils et des paupières
causé par la qualité de la source lumineuse.

1.4 Historique :
L’iris, qui veut dire arc-en-ciel en grec, est historiquement utilisé en Iridologie pour
diagnostiquer l’état de santé ou la maladie d’une personne à partir de la couleur ou de la
location de tâches de pigment, selon l’hypothèse étrange que chaque partie du corps est
représentée par une zone correspondante dans l’iris de l’œil. Mais aucun iridologue n’a
réussi jusqu’à ce jour d’examen scientifique prouvant la fiabilité de cette théorie. L’iris est
retenu pour la première fois pour des fins d’identification personnelle par l’ophtalmologiste
américain Frank Burch en 1936. En 1986, les deux ophtalmologistes Aran Safir et Leonard
Flom brevètent cette idée (Brevet N° WO8605018A1), mais il faudra attendre 1991 pour que
le professeur John Daugman de l’Université d’Harvard développe le premier système
biométrique d’identification de personnes basé sur l’iris (Brevet N° WO09409446).
Aujourd’hui ce procédé a la réputation d’être le plus sûr parmi les méthodes d’identification
biométrique, puisqu’on considère que chaque iris est unique avec une probabilité d’en
trouver deux identiques inférieures à . Une récente évaluation de différents systèmes
biométriques [5] (résultats sur la figure III.2), effectuée par le laboratoire
national de physique en Angleterre, a récemment confirmé la fiabilité d’un système
d’identification d’iris conçu par la société Iridian Technologies. De plus la technologie de

31 
 
CHAPITRE III Reconnaissance par iris
 
 
l’iris présente les avantages suivants : stable au cours du temps car protégé derrière la cornée,
non-intrusive car image acquise à distance et sans contact, signature de petite taille, difficile à
pirater grâce à une détection des variations d’ouverture de la pupille.

Figure III.3 : FRR = (FAR) de différents systèmes [5].

1.5 Schéma général :


Un système de reconnaissance par iris peut se décomposer en deux unités principales (Figure
III.4) :
(1) Une unité optique de capture de l’image de l’iris (dispositif de vision),
(2) Une unité de traitement des données (extraction et comparaison des informations
discriminantes avec celles stockées préalablement lors de l’enrôlement).

32 
 
CHAPITRE III Reconnaissance par iris
 
 

Figure III.4 : Schéma général d’un système de reconnaissance par iris.

Le terminal biométrique (1) qui permet la saisie des images d’iris a fait l’objet de nombreux
développements et recherches [6] [7] [8] [9] [10] [11]. La partie algorithmique de traitement
des données (2) est constituée des processus suivants :
d’enrôlement (21) par lequel l’identité d’une personne et son image biométrique (image de
l’iris) sont utilisées pour constituer une base de données (23), de matching (22) qui quantifie
la ressemblance entre deux gabarits (signatures numériques dont l’une provient de la base de
données et l’autre créée au cours de l’enrôlement présent).

1.5.1 Système d’acquisition :


L’iris humain commence à se former à partir du troisième mois de gestation. Dès la naissance
la texture de l’iris constitue un motif stable jusqu’à la mort. Seule sa couleur change durant les
premières années avec l’évolution de densité de mélanine génétiquement déterminée. Les
yeux bleus résultent de l’absence de pigmentation. L’acquisition d’une image d’iris peut donc
s’effectuer avec une caméra monochrome. Mais comme nous pouvons le constater sur le
figure III.5.a, du fait de la réflexion spectaculaire des sources lumineuses environnantes sur la
cornée, la capture d’image d’un iris s’effectue généralement dans le domaine du proche
infrarouge (non visible, donc non éblouissant pour l’utilisateur). De plus dans ce domaine de
longueur d’ondes (entre 650 nm et 900 nm), l’absorption par les pigments de mélanine est
pratiquement inexistante. Pour cela il convient d’utiliser une caméra sensible dans le proche
infrarouge (CMOS/CCD), ainsi qu’une illumination artificielle réalisée par une diode AlGaAs
(Aluminium Gallium Arsenide) placée à proximité de l’objectif. Ces contraintes sur
l’éclairage demandent souvent que le capteur soit relativement proche de l’œil, car le nombre
de problèmes à résoudre augmente presque proportionnellement avec la distance œil-caméra.
Enfin pour améliorer " l’effet " infrarouge et réduire la lumière visible parasite sur l’image, on
introduit un filtre optique passe-haut entre la lentille et le capteur (résultat final sur la figure
III.5.b).

33 
 
CHAPITRE III Reconnaissance par iris
 
 

Figure III.5 : Image d’un iris capturé (a) dans le visible, (b) dans le proche infrarouge.

Idéalement, le diamètre de l’iris au sein de l’image acquise doit être approximativement


compris entre 200 et 300 pixels pour s’assurer d’un minimum de détail au cœur même de
l’iris. A une distance de travail de 40 cm, la capture d’une image VGA (résolution 640 x 480
pixels) de l’œil (paupières comprises) est possible avec une lentille de longueur de focale de
50 mm environ.

1.5.2 Traitement des données : état de l’art


Contrairement à l’empreinte digitale, l’utilisation de l’iris en reconnaissance d’individus est
relativement récente. Ceci explique sûrement le faible nombre de publications de recherche
dans le domaine. Entre 1992 et 2003, on dénombre environ 9 groupes de recherche ayant
contribués au développement d’algorithmes de vérification ou d’identification de personnes
par reconnaissance de l’iris. Toutes les méthodes proposées reposent sur le même principe qui
se décompose en 4 étapes : localisation de l’iris au sein de l’image, normalisation des
dimensions des données, extraction de caractéristiques discriminantes, et enfin comparaison
des informations. On constate que l’étape d’extraction des caractéristiques est un élément clef
du traitement, dans la mesure où le choix des procédés à employer pour les autres étapes est
souvent fixé par la manière de coder l’information.

2. Techniques de reconnaissance par iris :


Le caractère exceptionnel de la texture de l’iris réside dans le fait que les processus de
génération de ces textures sont complètement aléatoires mais stable. En conséquence, dans le
but d’utiliser l’iris comme un outil biométrique, l’extraction des caractéristiques doit être
capable de capturer et d’encoder cette particularité aléatoire présente dans la texture de l’ris.
Les méthodes de traitement algorithmique reposent donc sur une analyse du relief et de strie
de l’iris (Figure III.6).

34 
 
CHAPITRE III Reconnaissance par iris
 
 

Figure III.6 : Illustration du relief de l’iris.

Nous avons classifié les systèmes de reconnaissance par iris en trois catégories selon la
technique par laquelle les caractéristiques sont extraites de la texture de l’iris pour des buts de
comparaisons. Ces trois catégories sont : les techniques basées sur l’apparence, les techniques
basées sur la texture et les techniques basées sur l’extraction des caractéristiques.

- Les techniques basées sur l’apparence [12] [13] font usage d’approches statistiques
classiques telles que l’analyse en composantes principales (ACP) ou l’analyse en composantes
indépendantes (ACI) pour représenter les images d’iris.

- Les techniques basées sur la texture [2] [14] [15] [16] [17] [18] font quant à elles usage de
filtres pour le traitement des images et l’extraction de quelques propriétés des images filtrées
afin de quantifier les images d’iris données.

- Les techniques basées sur l’extraction des caractéristiques [19] font usage des
caractéristiques locales présentes dans l’image (blocs ou taches) et enregistrent leurs
localisations et caractéristiques (propriétés) pour distinguer les différentes images. Les
différentes approches de reconnaissance par iris sont détaillées ci-dessous.

2.1 Techniques basées sur l’apparence :


Noh et Al. ont proposé un système de reconnaissance par iris qui fait usage de techniques
statistiques à savoir l’analyse par composantes indépendante pour générer des vecteurs de
base optimaux, qui sont ensuite utilisés pour extraire les vecteurs de caractéristiques efficaces
représentant les signaux de l’iris [12]. Chacun de ses vecteurs est par la suite converti en un
code d’iris par sa quantification afin qu’il soit enregistré plus efficacement.
Cette méthode a montré d’aussi bons résultats que le système de John Daugmann basé sur le
filtre de Gabor [2], et présente même d’autres avantages. Elle utilise une base de
caractéristiques nettement plus concise et il est possible d’extraire la transformée linéaire pour
l’extraction des caractéristiques à partir de l’image d’iris elle-même.

2.2 Techniques basées sur la texture :


Le premier système efficace de reconnaissance par iris a été proposé par John Daugman [2]
en 1993. Il a utilisé une transformé complète de Gabor 2D [20] pour générer un " iris code "
binaire de 256 octets. Ce " code d’iris " est généré en prenant le signe des portions réelles et

35 
 
CHAPITRE III Reconnaissance par iris
 
 
imaginaires de l’image transformée. Une distance de Hamming qui est une mesure est utilisée
pour déterminer si les images sont de la même personne ou pas. Dans une autre approche,
Wilds [14] utilise le Laplacien du filtre gaussien pour extraire les traits dans la partie texture.
Cela est relativement une simple technique qui compte sur les traits des contours dans le motif
de texture. La comparaison est faite grâce au calcul des corrélations normalisées entre l’image
acquise et les représentations de la base de données. Comme les intensités moyennes sont
soustraites pendant le calcul des corrélations normalisées, cette technique est robuste et peut
tenir compte des variations locales dans l’intensité de l’image. Plus récemment, Wang & Al.
[15][16] ont proposé des techniques de reconnaissance utilisant des filtres de Gabor multiples.
Des filtres de Gabor 8-directionnel avec des fréquences multiples sont utilisés et la moyenne
et la variance de ces images filtrées par Gabor sont utilisées comme une un moyen de
comparaisons de caractéristiques. Aussi une autre méthode existe qui n’extrait pas tout trait
explicite, mais utilise directement les sorties du filtre de corrélation pour l’alignement et la
comparaison des images d’iris [17].
Boles et Al. ont proposé une technique basée sur la transformée par ondelettes générant une
représentation zero-crossing [18]. La transformée par ondelette « dyadique » est utilisée pour
décomposer l’image à différentes résolutions. Comme les niveaux élevés sont hautement
exécutés par le bruit, seulement quelques résolutions basses sont utilisées. La représentation
zero-crossing de chaque image est générée en enregistrant le zero-crossing de ces coefficients
d’ondelettes. Cette technique offre plus de liberté quant à la méthode de capture de l’image
puisque elle est une variante translation et rotation.

2.3 Techniques basées sur les caractéristiques :


Wang et Al. ont proposé une technique qui fait usage des variations locales le long de la
texture de l’iris avec une transformée par ondelette [16]. Les variations locales sont
caractérisées par l’apparition et la disparition d’une importante structure de l’image. L’image
2D dimensions est convertie en un signal 1D et le " dyadique " (puissance de 2) de la
transformée par ondelette est utilisé pour générer une séquence de positions qui caractérise les
points de variation aigu locales. Ces séquences de variation sont ensuite utilisées pour la
phase de comparaison des objectifs.

3. Quelques méthodes connues de reconnaissance par iris :


3.1 Méthode de John Daugman :
En 1992, J. Daugman [21] fut le premier à publier ses recherches sur la mise au point d’un
procédé d’analyse de texture de l’iris. Il repose sur la détection précise des centres et rayons
respectifs de l’iris et de la pupille par des opérateurs intégro-différentiels sur des arcs de
cercle, exploitant le fort contraste aux frontières de la pupille et de l’iris, une conversion de
l’image circulaire de l’iris en un équivalent rectangulaire (conversion polaire à angle
constant), le codage binaire de la phase locale extraite par un banc de filtres passe-bande en
quadratures (filtres de Gabor), dont certaines zones où se situent le reflet de la diode et la
paupière sont supprimées et le calcul du taux de similarité entre deux codes d’iris par
comptage de la proportion de bits qui diffèrent (opération du type XOR).
L’implémentation de l’algorithme sur SUN Sparc-Station en code entier optimisé requiert 100
ms pour déterminer un iris-code de 256 octets [22]. A partir d’une base de données d’environ

36 
 
CHAPITRE III Reconnaissance par iris
 
 
1770 images (3 images de 592 yeux) fournie par l’Ophtalmology Associates of Connecticut,
le taux EER est estimé à 1/128 000 par extrapolation des distributions des imposteurs et
authentiques relevées. Cependant lors de l’évaluation des algorithmes de J. Daugman dans
des conditions réelles d’utilisation pour leur commercialisation par la société IriScan, The
Sandia National Laboratories [23] présentait des résultats beaucoup plus modestes : avec 199
yeux enrôlés provenant de 122 personnes, on enregistrait un FRR de 10% (878 essais
d’identification en groupe fermé) et un temps moyen d’identification de 14 secondes.

3.2 Méthode de Wildes :


Près de 2 ans plus tard, R.P.Wildes [24] propose un système concurrent. Les pourtours de
l’iris sont extraits par transformée de Hough, appliquée à la détection de cercle sur les
contours de l’image, et les paupières sont modélisées par des arcs paraboliques. L’alignement
spatial entre deux images d’iris à comparer (rotation et adaptation d’échelle) est réalisé par
une technique de registration d’image (résolution par une procédure de minimisation
itérative). Ensuite la texture de l’iris est représentée par une pyramide Laplacienne,
comparable à une décomposition en ondelettes (4 bandes) par des filtres passe-bande
isotropes (filtres gaussiens). L’étape de comparaison est basée sur le calcul d’un facteur
normalisé de corrélation par sous-bloc de 8 x 8 pixels. Pour chaque bande fréquentielle on
conserve une seule valeur via la médiane : le score est donc représenté par une série de 4
indices de similitudes.
La décision finale est prise par un classificateur du type discriminant linéaire de Fisher. La
vérification d’un individu prend approximativement 10 secondes [25] sur SUN Sparc-Station
20, avec un code C non-optimisé. Le test du système proposé par R.P.Wildes n’a produit
aucune erreur de faux rejet ou de fausse acceptation sur une base de données comprenant 60
iris de 40 personnes.

3.3 Méthode de Boles :


En 1996, W.W.Boles [26] introduit une nouvelle technique basée sur une transformée en
ondelettes monodimensionnelles. Le traitement commence par localiser le centre de la pupille
par détection des contours circulaires, puis de la même manière le diamètre extérieur de l’iris.
En fonction du ratio entre le diamètre de l’iris de référence et celui de l’iris à identifier, on
définit un ensemble de n cercles virtuels de centre celui de la pupille, sur lesquels on extrait n
signaux caractéristiques du relief de l’iris (signaux normalisés à 256 points par sous-
échantillonnage). Une représentation zero-crossing est alors générée par une transformée en
ondelettes (décomposition sur 8 niveaux, mais on conserve uniquement les 4 ème, 5 ème et 6
ème
). Il s’agit en fait d’un codage des points d’inflexion des n signatures de l’iris pour
différents niveaux de résolution ; ce codage est obtenu en utilisant une onde mère spécifique
du type dérivée seconde d’une fonction de lissage [27]. Enfin la comparaison est traitée par
quatre fonctions de dissimilitude (par exemple : mesure de différence d’énergie, coefficient
normalisé de corrélation croisée) entre 2 représentations zero-crossing. Le score final est la
moyenne des résultats fournis par ces fonctions de dissimilitude. Mais l’efficacité de cette
technique n’a toujours pas été démontrée sur plus de 2 iris différents [28].

37 
 
CHAPITRE III Reconnaissance par iris
 
 
3.4 Méthode de Sanchez-Reillo & Al. :
En 1999, l’approche de Sanchez-Reillo & Al. [29] reprend dans l’ensemble celle de J.
Daugman. La texture de l’iris est partiellement transformée en un équivalent rectangulaire,
puis codée en rendant binaires les résultats de filtrage avec la partie imaginaire de filtres
complexes de Gabor. La comparaison consiste à calculer la distance de Hamming entre deux
codes. A partir d’une base de données de plus de 200 images (au moins 10 images de 20
yeux), l’étude de Sanchez-Reillo & Al. montre que leur système atteint un EER de 3.6% pour
une taille de code d’iris de 1860 bits.

3.5 Méthode de Y. Wang & Al. :


La même année, Y. Wang & Al. [30] [31] brevètent une nouvelle méthode d’extraction de
caractéristiques à partir de la représentation rectangulaire de l’iris (proposée par J. Daugman).
On commence par filtrer l’image rectangulaire d’iris soit par filtrage de Gabor suivant 4
directions et pour 6 fréquences différentes, soit par transformée en ondelettes 2D (ondelettes
de Daubechies du 4ème ordre) sur 5 niveaux de faible résolution uniquement. On obtient alors
n images résultats (n = 24 pour le cas, et n = 13 pour le cas). La signature d’un iris est alors
constituée de la série de n vecteurs [moyenne écart type], extraits de ces n images. Pour
effectuer la comparaison, Y. Wang & Al. suggèrent la distance euclidienne pondérée. Sur 160
images (10 images de 16 yeux), le meilleur taux de classification (identification en groupe
fermé) est de 93.8%. En 2002, une amélioration [32] au système est apportée : le vecteur
caractéristique comprend 384 valeurs, qui correspondent à l’écart absolu moyen (somme sur
l’image des différences entre l’intensité des pixels et la moyenne de l’image) de 384 blocs de
8x8 pixels appartenant à la texture de l’iris (texture préalablement filtrée par un filtre passe-
bande symétrique circulaire) ; un classificateur plus avancé (Nearest Feature Line [33]) est
utilisé pour la comparaison. Lors de nouvelles expérimentations sur une population de 134 iris
(de 7 à 25 images par œil), le taux de classification atteint 99,85% (ou FAR=0.1% et
FRR=0.83% en mode vérification).

3.6 Méthode de S. Lim & Al. :


Toujours à partir d’une représentation rectangulaire de l’iris, S. Lim & Al. [34] proposent en
2001 d’analyser les motifs de l’iris humaine par une transformée en ondelettes (ondelette
mère de Haar). La texture de l’iris est décomposée sur 4 niveaux, et le vecteur de 87
caractéristiques d’un iris est construit en combinant la sous-image HH4 (4 ème niveau) avec
l’intensité moyenne des 3 autres sous-images HH1, HH2 et HH3. L’étape d’identification est
réalisée par un classificateur basé sur un réseau par quantification vectorielle d’apprentissage
(cf. LVQ : Learning Vector Quantization). Sur une base de données de 2500 images (100 iris,
25 échantillons par iris, dont 5 pour l’apprentissage du classificateur), la courbe ROC relevée
indique un FRR de 1.65% pour un FAR de 2.90%.

Pour finir ce tour d’horizon des méthodes de reconnaissance de l’iris, on note plus récemment
l’apparition d’approches moins " séduisantes " ou jugées " exotiques ". Par exemples : S. Noh
& Al. [35] appliquent sans succès un algorithme d’apprentissage non -supervisé utilisant des
statistiques d’ordre supérieur pour l’extraction de caractéristiques, A. Muron & Al. [36]
évoquent la possibilité d’identifier un iris par son spectre de puissance optique de Fourier, ou
38 
 
CHAPITRE III Reconnaissance par iris
 
 
encore M. Dobes & Al. [37] proposent l’utilisation de l’information mutuelle moyenne pour
aligner les motifs de deux iris et mesurer leur similarité.

Au vu de cet état de l’art, une analyse comparée des différents algorithmes de reconnaissance
d’iris s’avère particulièrement difficile pour diverses raisons. D’une part, les performances
mesurées ne sont pas établies sur des bases de données communes, et les protocoles et
scénarios de test ne sont pas homogènes. D’autre part, tous les travaux ne prennent pas en
compte les mêmes critères de performances. Néanmoins cette brève description des
algorithmes fait apparaître certains avantages et inconvénients inhérents à chacune des
méthodes. Le procédé implémenté par J. Daugman jouit aujourd’hui d’une notoriété
grandissante, et plus particulièrement l’idée de convertir l’image circulaire de l’iris dans un
système pseudo-polaire sans dimension. En effet, l’approche de J. Daugman (reprise par la
suite par Y. Wang et S. Lim) permet, grâce à une représentation rectangulaire de l’iris dans un
repère de taille fixe, de s’affranchir des constrictions pupillaires et des variations d’échelles
lors de l’acquisition, contrairement à celles de R.P.Wildes et W.W.Boles qui tiennent compte
uniquement du diamètre extérieur de l’iris pour effectuer un alignement spatial entre deux
images d’iris à comparer. De plus, l’intérêt de ces deux dernières solutions est respectivement
limité par : pour la première son temps de calcul prohibitif pour effectuer la localisation et la
vérification d’une image d’iris, et pour la seconde le manque d’expérimentations sur sa
fiabilité et sa robustesse avec des images réelles bruitées (problème de singularité et de
reproductibilité de la représentation zero-crossing issue d’une transformée en ondelettes 1D).
Quant aux méthodes introduites par Y. Wang & Al. et S. Lim & Al., elles reposent toutes deux
sur l’extraction de caractéristiques statistiques issues soit de sous-blocs de l’image d’iris après
filtrage, soit des coefficients de sa décomposition en ondelettes 2D.

4. Standards :
Comme nous l’avons vu précédemment, on dénombre un grand nombre de solutions pour
l’acquisition des images d’iris, et les algorithmes de reconnaissance d’iris sont très variables
et utilisent parfois des données très différentes. Cette diversité rend la standardisation des
systèmes biométriques basés sur l’iris délicate. Certaines tentatives de spécifications de
format standard d’images d’iris ont été très controversées [38]. Nous présentons
sommairement ici les dernières principales propositions du comité Biométrie de l’INCITS,
conseiller de l’ISO aux Etats-Unis, à propos de la capture d’images d’iris, le format de
sauvegarde des images et le format des images polaires d’iris.
1. La résolution du système d’acquisition doit être d’au moins 15 pixels/mm dans la zone de
l’iris. Facteur de compression JPEG inférieure à 6:1.
2. Densité de niveaux de gris supérieure à 256.
3. Illumination dans la gamme de longueurs d’ondes 700 à 900 nm, et un axe optique
d’éclairement de plus de 5 degrés (pour éviter l’effet yeux rouges).
4. Contraste : un minimum de 90 niveaux de gris entre l’iris et la sclérotique et un minimum
de 50 niveaux de gris entre l’iris et la pupille.
5. Zone de l’iris visible : au moins 70% de l’iris ne doit pas être caché par une réflexion
spéculaire, les cils, les paupières, etc.

39 
 
CHAPITRE III Reconnaissance par iris
 
 
6. L’iris doit apparaître avec un diamètre compris entre 160 et 300 pixels, et doit être centré
dans l’image (distance entre les contours de l’iris et les bords de l’image supérieure à 70
pixels).
7. La tête de l’opérateur lors de l’acquisition doit être verticale (rotation tolérée de +/-10°).
8. Le format du stockage des images peut être l’un des suivants : Format Ligne – l’image est
représentée par une aire de m colonnes par n lignes, où chaque pixel (noir et blanc) est codé
par un octet – les données peuvent être compressées par l’algorithme sans perte JPEG-LS
conformément à la norme ISO/IEC 14495, Format JPEG - l’image est sauvegardée selon le
format défini par la norme ISO/IEC 10918, Format Polaire – l’image est sauvegardée en
coordonnées polaires par une aire de m colonnes par n lignes, où n est le nombre
d’échantillons radiaux et m le nombre d’échantillons angulaires – la valeur angulaire de degré
zéro se trouve à 6 heures.

5. Chalenges dans les systèmes de reconnaissance par iris :


Bien qu’il y ait des systèmes de reconnaissance qui peuvent opérer avec succès à 0% comme
taux de faux rejet et de fausse acceptation sous d’idéales conditions [2] [19], il y une large
perspective pour les recherches ultérieures dans ce domaine. Quelques uns de ces chalenges
qui restent à traiter sont énumérés dans cette partie.
- Malgré la disponibilité de beaucoup de systèmes de reconnaissance par iris dont les
performances sont honorables et assez satisfaisantes, aucune des méthodes existantes ne
discute et traite des processus réels définissant la texture de l’iris. Il y a bel et bien besoin de
plus d’analyse de la texture de l’iris comme tel. Si la texture peut être explicitement
caractérisée, alors un moyen d’égalisation spécifique d’utilisateur peut être utilisé pour la
reconnaissance, où l’égaliseur est en accord avec les caractéristiques de chaque utilisateur.

- La plupart des techniques actuelles de reconnaissance par iris n’ont pas été testées sur une
base de données de grande échelle, due aux difficultés de rassembler un grand nombre
d’individus pour l’acquisition d’images à grande échelle.

- Il n’y a pas de combinaisons de classification pour les images d’iris comme celles qui
existent pour les empreintes digitales. Bien que les images d’iris apparaissent aléatoires et
confuses, elles possèdent une structure globale qui peut être perçue. Comme tous les systèmes
commerciaux peuvent exécuter des comparaisons 1 à N en deux secondes, une telle
combinaison peut ne pas être d’un vrai grand intérêt commercial, mais de très grande
importance pour un point de vue académique. Une telle technique fournira plus d’aperçu de la
structure de la texture de l’iris et peut apporter aussi plus d’informations sur l’individualité de
l’image de l’iris.

- Aucune des documentations sur la reconnaissance d’iris aujourd’hui ne suggère un


développement d’une mesure de qualité de l’image d’iris. Il n’y a pas de série de standards
pour la méthode de capture de l’image d’iris, résultant en une variété d’image d’iris,
différente l’une de l’autre dans plusieurs aspects. Bien sûr, chaque algorithme a ses propres
besoins et spécifications pour la capture d’image, mais le manque de vrais standards le rend
difficile à comparer les différentes techniques sur une plateforme commune.

40 
 
CHAPITRE III Reconnaissance par iris
 
 
- Toutes les documentations actuelles se focalisent sur le traitement avec des images d’iris qui
ont été obtenues par la coopération totale de l’utilisateur. Les techniques qui peuvent utiliser
des images d’iris partielles (problèmes de rotation…) ont besoin d’être explorées et traitées
afin de réduire les exigences strictes de capture d’images d’iris.

Conclusion :
Dans ce chapitre, nous nous sommes intéressés au fonctionnement des systèmes
d’identification par reconnaissance de l’iris. Cet engouement pour ces systèmes est justifié par
les nombreux avantages de cette technologie, à savoir sa précision et ses performances. Notre
choix s’est porté sur les méthodes basées sur la texture qui sont très utilisées dans la
littérature.
Dans le chapitre qui suit, nous introduirons la notion d’ondelettes, une des méthodes de
traitement du signal.
 

41 
 
CHAPITRE IV Ondelettes
 
 
Introduction :
La théorie des ondelettes est récente : elle est née au milieu des années 80. Et pourtant, elle est
déjà utilisée dans de nombreux domaines qu’ils soient théoriques ou pratiques : analyse
harmonique, vision par ordinateur, traitement du signal, compression d’images, analyse de
turbulences, etc. Son succès est dû à son adaptabilité aux données et à sa facilité
d’implémentation.
Une ondelette est une onde " localisée ". Lorsqu’on décompose une fonction en séries de
Fourier, on la décompose en fait en fréquence. La décomposition en ondelettes ajoute une
dimension, la décomposition est double : en fréquence mais aussi en espace. Une fonction est
ainsi représentée comme une somme d’oscillations de fréquences précises se produisant à un
endroit précis, c’est-à-dire une somme d’ondelettes. C’est pour cela que cette théorie
représente "bien" les données.

1. Historique du traitement du signal et de l’image :


1.1 Transformée de Fourier :
L’analyse de Fourier est une des bases majeures de la physique et des mathématiques. Elle est
indissociable du traitement du signal, et ce pour l’universalité du concept de fréquence sur
lequel elle repose.
Si le signal n’est pas périodique, alors par un procédé intuitif de passage à la limite, on
analyse le signal de manière continue avec une transformée de Fourier. Celle-ci s’´ecrit
comme suit :

Où est la fréquence (exprimée en Hertz ( ).

Cependant, l’analyse de Fourier, de par sa nature, montre assez vite ses limitations : son
calcul nécessite la connaissance de toute l’histoire temporelle du signal (la transformée de
Fourier et la transformée inverse). De plus, dans une transformée de Fourier, l’information
sur le temps est présente (la transformée inverse est donc possible), mais elle est cachée dans
les phases : elle est en pratique impossible à extraire. On en est donc réduit à étudier un signal
soit en fonction du temps, soit en fonction des fréquences qu’il contient, sans possibilité de
conjuguer les deux analyses. La transformée de Fourier inverse s’écrit comme suit :

Convolution :
Soit et deux fonctions de dans ; la convolution de par , quand elle existe, est
définie par :

En pratique, si l’on prend et dans ou dans , la convolution est définie.

42 
 
CHAPITRE IV Ondelettes
 
 

1.2 Transformée de Fourier rapide :


L’information que nous avons d’un signal est nécessairement discrète, on ne peut en effet
enregistrer celui-ci avec une fréquence infinie, en prenant tous les points. C’est cette
discrétisation qui va permettre l’utilisation de la transformée de Fourier rapide (Fast Fourier
Transform ou FFT). Cette transformée de Fourier rapide est un algorithme de calcul, une
recette qui va permettre de minimiser le nombre d’opérations nécessaires pour l’établissement
de la transformée de Fourier d’un signal discret.

L’analyse de Fourier, malgré l’introduction et le succès de la transformée de Fourier rapide


(FFT), est donc par définition peu adaptée à l’étude des signaux non-stationnaires. Hors, ces
signaux se rencontrent beaucoup plus souvent que les signaux stationnaires. Pour leur étude, il
faudra donc employer une autre méthode d’analyse qui tienne compte de l’information
temporelle du signal.

1.3 Transformée de Fourier à fenêtre :


Principe d’incertitude de Heisenberg :
Le principe d’incertitude vient de la mécanique quantique, mais il joue un grand rôle dans le
traitement du signal. Il stipule que l’on ne peut localiser aussi précisément que l’on veut en
temps et en fréquence un signal. Mathématiquement, on écrit que la moyenne des fluctuations
en temps et en fréquence est bornée inférieurement :

Où désigne la variance, c’est à dire la moyenne des carrés des écarts par rapport à la
moyenne.

Pour pallier le manque d’informations sur le temps dans la transformée de Fourier, une
nouvelle méthode d’analyse est donc introduite : elle utilise une « fenêtre glissante ». Cette
méthode, pouvant être adaptée aux signaux non-stationnaires, est très proche de l’analyse
spectrale : on définit une fenêtre qui sera utilisée comme masque sur le signal, et dans laquelle
on considère que le signal est localement stationnaire, puis on décale cette fenêtre le long du
signal afin de l’analyser entièrement.
Gabor reprendra cette méthode dans les années 40 : sa fenêtre est représentée par une fonction
gaussienne [1] :

Avec , où représente le facteur d’échelle, et le facteur de translation. On constate


que le membre de l’équation ci-dessus est indépendant de , ce qui signifie que
l’enveloppe de la fenêtre glissante sera constante : on aura donc une résolution fixe sur toute
la durée du signal. Ainsi, l’étude d’un signal avec la transformée de Gabor permet d’obtenir à
la fois une information sur le temps et sur la fréquence, mais la résolution d’analyse est fixée
par le choix de la taille de l’enveloppe [1] : si la fenêtre est trop petite, les basses fréquences
43 
 
CHAPITRE IV Ondelettes
 
 
n’y seront pas contenues, et si la fenêtre est trop grande, l’information sur les hautes
fréquences est noyée dans l’information concernant la totalité de l’intervalle contenu dans la
fenêtre.

1.4 Ondelettes et analyse multi-résolution :


La méthode de Gabor permet donc de décomposer un signal donné en une combinaison
linéaire temps-fréquence judicieusement choisie. Mais l’on aimerait pouvoir faire varier la
résolution d’analyse en fonction du signal afin de s’adapter à celui-ci : on n’a pas besoin d’un
très haut niveau de résolution lorsque le signal est constitué uniquement de basses fréquences,
et il serait dommage d’étudier un signal comportant beaucoup de hautes fréquences avec une
résolution trop basse.
Ainsi, plutôt que de choisir à l’avance une résolution adaptée à un type de signal donné, il
serait préférable de disposer d’une méthode d’analyse dont la résolution, aussi bien en temps
qu’en fréquence, s’adapte au signal en fonction de ses caractéristiques. Pour ce faire, plutôt
que de conserver une enveloppe fixe dans laquelle le nombre d’oscillations varie, on conserve
un nombre d’oscillations constant dans une enveloppe que l’on peut contracter et dilater à
volonté : c’est l’analyse multi-résolution, dont la figure IV.1 décrit le principe.

Figure IV.1 : La transformée en ondelettes agit comme un zoom mathématique [2].

Le signal d’origine (a) est décomposé en un ensemble de sous-signaux (b) selon la procédure
suivante :
La fonction est décomposée en un signal de détail et un signal d’approximation
(qui n’est pas représenté ici). Ce signal est à son tour décomposé en un détail
et une approximation , et ainsi de suite jusqu’à obtenir les cinq signaux de
détails à correspondant aux détails des 5 premières résolutions, et le signal
d’approximation à la résolution 5 .
Ainsi, l’analyse multi-résolution agit comme un zoom mathématique sur le signal à analyser :
on peut en faisant varier l’échelle d’analyse du signal extraire les détails présents à telle ou
telle résolution.

44 
 
CHAPITRE IV Ondelettes
 
 

2. Introduction à la transformée en ondelettes et à l’analyse multi-résolution :


La transformée de Fourier ainsi que ses dérivées (transformée de Fourier à fenêtre,
transformée en cosinus discrète), du fait de leurs limitations, ne sont pas toujours bien
adaptées au traitement du signal et de l’image. Dans de nombreux cas de figures, on préférera
bénéficier des caractéristiques multi-résolutions de la transformée en ondelettes.

2.1 Transformée en ondelettes continue :


La transformée en ondelettes utilise des translations et des dilatations d’une fonction fixe,
l’ondelette mère [1]. Dans le cas de la transformée continue, les paramètres de
translation et de dilatation varient de manière continue. En d’autres mots, la transformée
utilise les fonctions :

Avec , où sert à dilater (comprimer ou étendre) la fonction , et sert à la


translater (la déplacer selon l’axe des temps).
L’ondelette mère possède de plus les propriétés suivantes :
- Son intégrale est nulle (centrage).
- L'intégrale de son module carré vaut 1 (normalisation).

Figure IV.2: Ondelette Chapeau Mexicain pour plusieurs facteurs d’échelle.

Quand on analyse un signal avec ces ondelettes, on le transforme en une fonction de


deux variables (le temps et l’échelle d’analyse du signal) qu’on peut appeler :

Que l’on peut également noter :

Cette transformation est en théorie infiniment redondante puisque l’ondelette est translatée de
manière continue ; cependant il existe des méthodes pour diminuer cette redondance : l’une de
ces méthodes consiste en l’emploi de la transformée en ondelettes discrète.
45 
 
CHAPITRE IV Ondelettes
 
 

2.2 Transformée en ondelettes discrète :


Contrairement à la transformée continue, dans laquelle l’ondelette est dilatée et translatée de
manière continue, la transformée en ondelettes discrète translate et dilate l’ondelette selon des
valeurs discrètes [1] [3].
Ces coefficients et seront discrétisés de la manière suivante :
et , avec et fixés et appartenant à .
Les ondelettes sont alors définies de la manière suivante :

Nous avons vu que la transformée en ondelettes continue est infiniment redondante. La


transformée en ondelettes discrète permet de diminuer fortement cette redondance sans
l’annuler entièrement : les signaux sont décrits par un nombre fini d’échantillons. Lorsque
l’on voudra obtenir un signal transformé aussi concis que possible (en pratique, un signal
transformé qui contient autant d’échantillons que le signal d’origine) on utilisera alors un cas
particulier de la transformée en ondelettes discrète : la transformée en ondelettes orthogonale.

2.3 Analyse multi-résolution :


Une autre manière de décrire la transformée en ondelettes est de dire qu’elle consiste à obtenir
une approximation d’un signal par projection de celui-ci sur l’espace d’approximation
grâce à un opérateur [1] [3] [4]. Cette approximation faisant perdre une partie de
l’information, la reconstruction du signal nécessite d’associer à l’opérateur un opérateur
projetant le même signal sur l’espace de détail tel que = + . Les espaces
d’approximation et de détail sont construits respectivement à partir des fonctions de base
et .
L’analyse multi-résolution permet de rapprocher l’analyse en variable d’espace avec l’analyse
en variable de fréquence. Elle formalise l’idée intuitive selon laquelle tout signal peut être
construit par raffinements successifs, c’est-à-dire par l’ajout de détails lorsque l’on passe
d’une résolution à la suivante. D’une manière plus précise, une analyse multi-résolution de
est définie comme une suite de sous-espaces fermés de , , ayant les
propriétés suivantes [4] :
1. l’approximation à la résolution contient toutes les informations
nécessaires pour calculer le même signal à la résolution inférieure .
2. si la même fonction dilatée d’un facteur 2
appartient à .
3. si appartient à , la même fonction translatée d’un
facteur quelconque appartient aussi à .

46 
 
CHAPITRE IV Ondelettes
 
 
4. est dense dans et chaque fonction d’énergie finie
( peut être approximée avec une précision arbitraire par une fonction de d’une
hauteur adéquate.
5. Il existe une fonction d’échelle , ayant une intégrale non nulle, telle que et toutes
ses translatées d’un facteur entier forment une base orthonormée.

3. Ondelettes orthogonales :
Les ondelettes orthogonales étaient couramment employées pour supprimer la redondance
ainsi que pour assurer la reconstruction parfaite du signal.
L’analyse multi-résolution orthogonale est une analyse multi-résolution dans laquelle les
espaces d’ondelettes sont définis comme le complément orthogonal de dans [5]. En
conséquence, les espaces avec sont tous mutuellement orthogonaux.
Une condition suffisante pour qu’une analyse multi-résolution soit orthogonale est :

ou

Reprenons l’expression de la famille d’ondelettes discrètes :

Y. Meyer a montré que pour = 2 et = 1, les fonctions constituent une base


orthonormée de . Les ondelettes sont dites ondelettes orthogonales et s’écrivent alors :

Une fonction d’échelle orthogonale est une fonction telle que l’ensemble est
une base orthonormée, ou

Avec une telle fonction , la collection de fonctions est une base


orthonormée de et la collection de fonctions est une base orthonormée de .
L’intérêt d’utiliser des ondelettes orthogonales devient évident lorsque les applications
envisagées visent la compression (d’image ou de vidéo par exemple). Dans ce genre de cas,
deux conditions doivent être respectées :
1. Ne pas "alourdir" l’information à compresser par de la redondance.
2. Pouvoir effectuer la décompression de l’information, donc assurer la réversibilité de la
transformée en ondelettes.

L’analyse multi-résolution consiste, nous l’avons vu, en la projection du signal à analyser sur
deux espaces distincts : un espace d’approximation, et un espace détail. Si les fonctions
utilisées (fonction d’échelle ou ondelette) ne sont pas orthogonales :

47 
 
CHAPITRE IV Ondelettes
 
 
- L’information ne sera pas dé-corrélée entre les vecteurs de la base : la même information
sera alors répartie sur plusieurs vecteurs, d’où la redondance.
- On ne pourra plus retrouver facilement le signal d’origine à partir des transformées.

4. Avantages de la transformée en ondelettes :


4.1 Généralités :

Figure IV.3 : (a) Transformée de Fourier et (b) Transformée en ondelettes.

On constate que dans les basses fréquences, la transformée en ondelettes est très précise en
fréquence, mais moins sur le temps. La tendance est inversée en haute fréquence où elle est
beaucoup plus précise sur le temps que sur la fréquence. Ainsi, la transformée en ondelettes
s’adapte tout naturellement au signal à analyser, contrairement à la transformée de Fourier à
fenêtre qui conserve une résolution d’analyse fixe quelle que soit la fréquence observée. La
taille de l’enveloppe à utiliser doit donc être définie avant l’analyse, et nécessite donc la
connaissance a priori du signal pour que l’analyse soit efficace.
D’autre part, l’utilisation de la transformée en ondelette orthogonale permet de transformer un
signal quelconque de N échantillons en un signal dans la base d’ondelettes contenant
également N échantillons, et ce sans perdre aucune information sur le signal d’origine.

4.2 Intérêt en traitement d’image :


L’emploi de l’analyse multi-résolutions dans le traitement d’images fournit un certains
nombre d’avantages selon l’application envisagée :
4.2.1 Compression :
Le taux de compression de l’image pourra facilement être adapté à la qualité désirée.
En effet, en éliminant les détails contenus dans certains niveaux de résolution, jugés peu
importants, on pourra fortement augmenter le taux de compression, en conservant uniquement

48 
 
CHAPITRE IV Ondelettes
 
 
l’information nécessaire. Si l’on désire conserver une bonne qualité d’image, il suffira alors
de conserver tous les détails.

4.2.2 Détection de contours :


La détection de contours est une tâche ardue lorsque les images traitées présentent des
variations brusques dans des zones inintéressantes : en pratique, on voudrait pouvoir ignorer
certains contours et ne conserver que les plus représentatifs.
Ce type d’analyse est permis par la multi-résolution. En analysant l’image à une résolution
grossière, après avoir éliminé les détails, les informations sur le feuillage auront disparu. A
contrario, l’analyse à une résolution plus précise nous donnera tous les contours présents dans
l’image.
4.2.3 Détection / reconnaissance de texture :
L’analyse multi-résolution apporte un avantage considérable dans le domaine de la
reconnaissance de texture, puisque l’échelle est prise en compte en plus des paramètres
habituels de détection comme les motifs.
Bien évidemment, la transformée en ondelettes ne se limite pas aux applications mentionnées
ci-dessus.
On peut également citer la reconnaissance de visage, la détection de mouvements, et d’une
manière générale la plupart des applications reposant sur l’analyse d’images.
D’autre part, un avantage non négligeable de la transformée en ondelettes est qu’elle n’est pas
liée à une fonction prédéfinie comme l’est la transformée de Fourier qui utilise les fonctions
sinus et cosinus exclusivement. Ainsi, le choix de l’ondelette utilisée pour l’analyse pourra
dépendre de l’application envisagée, voire même du type de donnée traitée.

5. Filtrage des signaux :


Un des objectifs de filtrage du signal, est de débarrasser un échantillon de son bruit (dans la
mesure du possible) et de tronquer le signal de façon à ce qu’il représente le signal original.
Pour les spécialistes du traitement du signal, il n’existe que deux types de fonctions : le signal
à analyser et le filtre qui l’analyse. Un filtre classique est un dispositif électronique disposant
d’un fil d’entrée portant le signal et d’un fil de sortie portant le signal filtré. Un exemple de
filtre est un filtre passe-bas. On peut également considérer des filtres passe-haut, qui,
appliqués à un signal ne laissent passer que les fréquences de celui-ci supérieures à sa
fréquence de coupure . Mais il existe de nombreux autres types de filtre.

Théorème d’échantillonnage de Shannon :


Si on passe un signal quelconque dans un filtre passe-bas de fréquence de coupure alors
seulement points sont nécessaires pour obtenir une représentation complète du signal à la
sortie du filtre. Cette notion est très importante lorsque l’on traite un signal, elle dit que cela
ne sert à rien de prendre une énorme quantité d’information et elle fixe la quantité nécessaire.

6. Transformée en ondelettes : analyse multi-résolution et bancs de filtres :


Mallat a montré que les coefficients d’ondelettes définis par la relation
peuvent être calculés à partir d’une transformée pyramidale mise en œuvre à l’aide de filtres

49 
 
CHAPITRE IV Ondelettes
 
 
numériques, récursifs ou non [4]. Le principe de la transformée pyramidale consiste en la
décomposition du signal à analyser à l’aide d’une paire de filtres conjugués en quadratures.
L’un de ces filtres fournira les coefficients d’ondelettes (ou détails), le second les coefficients
d’approximation. L’approximation est elle-même à son tour décomposée par une seconde
paire de filtres, l’ensemble constituant une pyramide de filtres.

Figure IV.4 : Décomposition 1D à l’aide de bancs de filtres.

La résolution en sortie de chaque paire (ou banc) de filtres étant deux fois inférieure à la
résolution d’entrée, on parle d’analyse multi-résolution dyadique.

Conclusion :
Nous avons vu dans ce chapitre que la transformée en ondelettes présente de nombreux
avantages dans le domaine du traitement du signal et de l’image. C’est un outil puissant de
transformation du signal qui permet d’adapter celui-ci à un traitement ultérieur dont le
principal intérêt est de "préparer" le signal dans le but de faciliter le traitement envisagé.
Ainsi, elle permet de réduire la redondance pour améliorer la compression d’une image, elle
peut également extraire les informations importantes (texture, contours, etc.) contenues dans
une image.
Dans le chapitre suivant, nous entamerons le domaine de la reconnaissance des formes, sur
lequel repose la conception de notre système.
 

50 
 
CHAPITRE V Conception du système
 
 
Introduction :
Après avoir vu dans les chapitres précédents les différents concepts nécessaires à
l’accomplissement de notre travail, nous passons maintenant à la partie conception du
système.
Après l’étude de l’état de l’art sur les systèmes d’identification et de vérification de personnes
par reconnaissance de l’iris, on a pu distinguer plusieurs méthodes, chacune présentant des
avantages (taux d’identification élevé, taux FAR et FRR bas, espace réduit…) et des
inconvénients (temps de latence, manque de robustesse, influence des conditions de capture
sur les bons résultats obtenus). Quelques unes ont été délaissées, car elles ont rapidement
montré leurs limites, d’autres ont déjà fait leur preuve et constituent une référence dans le
domaine. On distingue plusieurs méthodes d’analyse des données selon le domaine sous
lequel se présente l’information (espace, fréquences…), mais aussi la manière selon laquelle
l’information est structurée et donc traitée (un ensemble de pixels de niveaux de gris, un
ensemble de primitives fractales…). Nous pouvons donc envisager plusieurs méthodes de
conception selon le contenu de l’image et la manière de le traiter.
Dans le but de concevoir un système d’identification biométrique de personnes par
reconnaissance de l’iris, plusieurs étapes sont nécessaires, l’étape d’extraction des
caractéristiques est la plus importante car les performances du système en dépendent (résultats
et robustesse, un temps de latence acceptable pour des applications « temps réel ». Les
données acquises par des capteurs spécifiques ou sauvegardées dans une base de données
subissent d’abord des prétraitements afin de les débarrasser du bruit. Elles seront ensuite
traitées dans le but d’obtenir un gabarit qui représente l’identité biométrique de l’image, celui-
ci caractérise le plus d’informations possibles contenues dans cette image en un minimum
d’espace.

1. Conception globale du système :


Au vu de l’état de l’art et des différentes approches de conception, nous avons choisi comme
méthode l’analyse du contenu spatial des images d’iris : technique basée sur la texture
(manipulation de l’information texturale). Cette technique est largement utilisée dans
l’imagerie médicale et ce pour la détection des pathologies tissulaires et la distinction de
l’atteinte fibreuse notamment lorsqu’elle est évoluée [1] [2]. Une étude récente mettrait en
évidence une amélioration de la capacité à différencier les stades de fibrose [3]. Cette
méthode est également employée dans d’autres domaines de l’imagerie tels que la
reconnaissance automatique de texture (segmentation des objets) et l’évaluation des tissus
graisseux sous cutanés [3].
Nous avons également testé cette méthode sur le contenu spatial filtré d’une image d’iris. Les
données manipulées lors de la phase d’extraction des caractéristiques regroupent de
l’information utile permettant la discrimination entre individus, et de l’information inutile. Le
but de l’utilisation du filtre est de ne garder que l’information utile.
Le système permet d’illustrer le processus d’identification (reconnaissance des individus) et
celui de vérification (contrôle d’accès).
Lors de la phase d’identification, un individu possédant un modèle dans la base de données
peut s’identifier grâce aux images prises par un capteur, qui comparées à tous les modèles de
la base, détermineront son identité.
51 
 
CHAPITRE V Conception du système
 
 
Lors de la phase de vérification, à défaut d’une carte à puce, un individu possédant un modèle
dans la base de données peut effectuer un test de vérification grâce aux seuils individuels
sauvegardés dans la base, permettant ainsi au système de se prononcer sur la véracité de son
identité.
Pour l’estimation des seuils (processus de vérification), ils s’effectuent en amont, de manière
automatique. Les images d’iris utilisées lors du calcul des seuils sont différentes de celles
utilisées pour la vérification, ceci permet de prendre en considération l’impact des conditions
de capture des images sur les résultats. Les taux sont fixés après plusieurs tentatives
permettant ainsi d’avoir la plupart des cas de figure.
Nous supposons que l’identification est un problème fermé (c'est-à-dire que toute personne à
identifier possède un modèle dans la base), une seule classe sera alors récupérée parmi les
plus proches (celle correspondante au vecteur le plus proche).

2. Fonctionnement du système :
Notre système permet d’illustrer le processus d’identification et de vérification d’identité.
Décrivons dans ce qui suit, les différents événements qui s’y passent lors de ces deux
processus.

2.1 Processus d’identification :


Il comporte deux phases : la phase d’apprentissage pendant laquelle les modèles sont
construits et la phase d’identification (phase de comparaison (matching)).
2.1.1 Phase d’apprentissage :
Dans le cadre d’une méthode supervisée (les modèles doivent être connus à priori) pour
l’identification des personnes par iris, un modèle pour la représentation de chaque classe est
construit. Deux types de modèles peuvent être envisagés :
- Le premier consiste en la moyenne de l’échantillon d’apprentissage, cela permet d’aboutir à
un modèle représentatif de tout l’échantillon d’apprentissage.
- Le second est le vecteur correspondant à la distance minimale entre le vecteur recherché et
l’ensemble de l’échantillon d’apprentissage, ceci permet d’aboutir à un modèle ayant les
caractéristiques les plus proches du vecteur recherché au sens de la distance utilisée. Cette
technique reste néanmoins très coûteuse en termes de temps d’exécution. Une fois les
modèles des individus définis, l’opération d’identification peut s’effectuer, voici les étapes de
la phase d’apprentissage :
1. Acquisition d’une ou plusieurs images d’iris de la personne.
2. Prétraitement de cet échantillon si besoin est (passage en niveaux de gris, filtrage du bruit
émanant des défauts de capture et de la lumière utilisée).
3. Normalisation de ces images.
4. Sauvegarde des images normalisées.
5. Calcul du vecteur de données représentant l’identité statistique de l’image à travers les
étapes suivantes :
- Division de l’image normalisée en portions : cette étape a un double objectif : le premier
étant d’arriver à des valeurs de critères statistiques plus précises lorsqu’elles sont calculées sur
de petites zones (portions). Le deuxième est de pouvoir éliminer les zones affectées par le

52 
 
CHAPITRE V Conception du système
 
 
bruit (zones dont le nombre de pixels bruités est supérieurs à 40%), et donc de ne considérer
que les zones saines pour de meilleurs résultats.
- Calcul des critères statistiques dans chaque portion de l’image, caractérisant la répartition et
l’agencement des niveaux de gris sur différents niveaux (méthodes) :
- Méthode statistique du premier ordre (histogramme).
- Méthode statistique du second d’ordre (Matrice de cooccurrence).
- Méthode statistique d’ordre supérieur (matrice des longueurs de plages de niveaux de
gris).
- Alignement des valeurs calculées dans un même ordre pour chaque portion dans un vecteur.
Construction du vecteur final correspondant à l’image normalisée de départ à partir des
vecteurs de chaque portion dans un ordre bien précis.
6. Récupération du vecteur modèle de chaque individu selon le type de modèle choisi (modèle
moyen ou intégral).
7. Sauvegarde et affichage des informations personnelles de l’individu (matricule, nom,
prénom…).

53 
 
CHAPITRE V Conception du système
 
 
¾ Phase d’apprentissage :

CASIA-IrisV3 

Echantillon de la base

Prétraitement et détection
de l’iris et de la pupille

Normalisation

Segmentation en
portions

54 
 
CHAPITRE V Conception du système
 
 

Calcul du vecteur statistique


textural de chaque portion de l’iris

Analyse texturale directe Analyse texturale filtrée

Méthode de Méthode de Méthode


Filtrage par
premier second d’ordre
Log Gabor
ordre ordre supérieur

Juxtaposition des différents Partie réelle 


résultats en un vecteur
Partie imaginaire 

Méthode de
premier
ordre

Juxtaposition des différents


résultats en un vecteur

Figure V.1 : Phase d’apprentissage (processus d’identification et


processusdevérification).

2.1.2 Phase d’identification :

1. Calcul des distances entre le vecteur correspondant à l’iris sélectionné, et les modèles des
individus dans le cas du modèle moyen, dans le cas contraire (modèle intégral), construction
des modèles des individus de la base.
2. Récupération du vecteur le plus proche au sens de la distance utilisée (euclidienne,
Manhattan…).
3. Affichage du résultat (identité trouvée).

55 
 
CHAPITRE V Conception du système
 
 

¾ Phase d’identification :

Calcul des distances entre le vecteur à


identifier et les modèles des individus

Récupération du vecteur le plus


proche (distance minimale)

Affichage du résultat (identité


trouvée)

Figure VI.2 : Phase d’identification.

2.2 Processus de vérification :


Il comporte également deux phases : la phase d’apprentissage pendant laquelle les modèles
sont construits de la même manière que pour le processus d’identification (devant être
sauvegardés dans une carte de gabarit biométrique), et la phase de vérification (phase de
comparaison au seuil).

2.2.1 Phase d’apprentissage :


Les étapes de la phase d’apprentissage sont :
1. Acquisition d’une ou plusieurs images d’iris de la personne.
2. Prétraitement de cet échantillon si besoin est (passage en niveaux de gris, filtrage du bruit
émanant des défauts de capture et de la lumière utilisée).
3. Normalisation de ces images.
4. Sauvegarde des images normalisées.
5. Calcul du vecteur de données représentant l’identité statistique de l’image à travers les
étapes suivantes :
- Division de l’image normalisée en portions.
- Calcul des critères statistiques dans chaque portion de l’image.
- Alignement des valeurs calculées dans un même ordre pour chaque portion dans un vecteur.
- Construction du vecteur final correspondant à l’image normalisée de départ à partir des
vecteurs de chaque portion dans un ordre bien précis.
6. Récupération du vecteur modèle de chaque individu selon le type de modèle choisi (modèle
moyen ou intégral).

56 
 
CHAPITRE V Conception du système
 
 
7. Sauvegarde et affichage des informations personnelles de l’individu (matricule, nom,
prénom...).

2.2.2 Phase de vérification :


1. Sélection d’une image d’iris à partir de la base de données (image de référence) pour la
construction du modèle.
2. Construction du modèle de l’individu.
3. Sélection d’une image d’iris de l’individu dont l’identité doit être vérifiée (image cible).
4. Calcul de la distance entre le vecteur de l’image destination et le vecteur du modèle.
5. Comparaison du résultat obtenu avec le seuil de l’individu correspondant au modèle.
6. Affichage du résultat « succès » dans le cas où le résultat est inférieur au seuil, et « échec »
dans le cas contraire.

¾ Phase de vérification :

Sélection d’une
image de référence

Construction du Sélection d’une


modèle de l’individu image cible

Calcul de la distance entre le vecteur de


l’image destination et celui du modèle

Comparaison du résultat avec


le seuil et affichage du
résultat : succès ou échec

Figure V.3 : Phase de vérification.

3. Structure modulaire du système :


On s’intéresse dans cette partie à décrire avec précision la structure interne du système, ses
composantes (ses modules) et les interactions entre celles-ci.

57 
 
CHAPITRE V Conception du système
 
 
3.1 Modules du processus d’apprentissage :
3.1.1 Module d’acquisition des images d’iris :
Le rôle de ce module est de récupérer les images d’iris que le capteur prend automatiquement
à chaque enclenchement de la fonction de capture.

3.1.2 Module de prétraitement des images :


Après que l’image soit capturée, le passage au mode niveau de gris est l’étape suivante, cette
transformation permet de regrouper en une seule matrice l’essentiel de l’information
structurée en 3 matrices, étant donné qu’avec un capteur traditionnel, l’image est en couleurs
et que celle-ci est sous forme de 3 dimensions. Ce regroupement en une seule matrice permet
un gain en temps d’exécution et en espace, il est effectué par cette formule :

Y[x, y] = 0.299 * R[x, y] + 0.578 * G[x, y] + 0.114 * B[x, y]


Avec R : rouge, G : vert, B : bleu.

Le prétraitement peut maintenant être effectué sur l’image afin de se débarrasser des
informations qui s’y trouvent de leurs bruits. Ces bruits sont causés par les défauts optiques
des capteurs, en faisant appel à des filtres d’égalisation et de réajustement d’histogramme. Le
but est d’arriver à des images les plus homogènes possibles. La transformation en niveaux de
gris est omise si les images sont prises sous lumière proche infrarouge, et les prétraitements
sont facultatifs si les conditions de capture sont bonnes.

Figure V.4 : Transformation en niveaux de gris.

3.1.3 Modules de détection des coordonnées de la pupille et de l’iris :


Les modules de détection des coordonnées de l’iris et de la pupille ont été empruntés des
travaux de Libor Masek car la détection de l’iris et de la pupille n’est pas l’objectif principal.
Ces modules fonctionnent plus ou moins bien, leurs performances seront citées dans le
chapitre tests et résultats. Ce module est composé de plusieurs sous modules :

3.1.3.1 Module de détection de la pupille :


Son rôle est de détecter les coordonnées de la pupille en utilisant la technique de la
transformée de Hough dont le principe est le suivant :
Détecter une forme géométrique connue telle qu’un cercle revient à créer un espace qu’on
appelle espace de Hough contenant le nombre de pixels se trouvant à l’intersection entre un

58 
 
CHAPITRE V Conception du système
 
 
cercle dessiné avec des paramètres (centre et rayon) aléatoires, et le cercle recherché dans
l’image. Les coordonnées du cercle de l’espace de Hough ayant le maximum de pixels
commun seront logiquement les coordonnées du cercle recherché. L’inconvénient majeur de
cette technique qui reste très efficace est son approche à force brute, qui nécessite un temps de
calcul considérable, ceci reste acceptable quand il est appliqué à des images de petites tailles
mais devient très vite inexploitable quand la taille de l’image est trop grande.
Cet algorithme sera appliqué sur l’image des contours d’iris obtenue par application d’un
algorithme traditionnel de détection des contours qui est déjà implémenté sous Matlab (ces
contours représentent les bords des formes géométriques se trouvant dans l’image d’iris et
notamment ceux des cils, de l’iris, de la pupille et des paupières). Pour éviter de tracer trop de
points, l’algorithme inclut un paramètre pour fixer le seuil d’intensité à partir duquel un point
est repéré comme étant un contour.
Cette technique n’est pas incontournable puisque parfois on rencontre des problèmes de
détection dus souvent au bruit (reflet des cils et des paupières sur la pupille et l’iris, image
trop sombre…). Dans ce cas, la seule alternative reste l’opération manuelle.
Les valeurs des rayons et coordonnées cartésiennes à tester sont en fonction de la taille des
images.

3.1.3.2 Module de détection de l’iris :


Il s’agit d’un module qui utilise le même principe que celui de la détection des coordonnées
de la pupille avec cette fois de nouveaux paramètres qui permettent de fixer le seuil approprié
pour la détection des contours. D’autres formes telles que les paupières représentées par des
paraboles sont également recherchées afin de constituer le masque de bruit (zones de bruit)
nécessaire lors du calcul des caractéristiques.

Figure V.5 : Détection des coordonnées de l’iris et de la pupille.

3.1.4 Module de normalisation de l’iris :


Le dépliage de l’iris s’effectue comme suit :
- Découpage de l’iris en zones circulaires, le nombre de cercles dépend de la taille en pixels
de l’image d’iris et de celle des zones circulaires, à titre d’exemple : 32 zones circulaires sur
les images de taille 280 x 320 pixels.
- Choix d’un nombre de points fixes équidistants dans chaque cercle (à titre d’exemple : 240
points), sur lesquels une interpolation linéaire est appliquée. Cette transformation est faite
conformément au modèle de normalisation de John Daugman [4]. Elle permet le passage

59 
 
CHAPITRE V Conception du système
 
 
d’une représentation par coordonnées cartésiennes vers une représentation polaire où
est dans l’intervalle [0,1] et est dans l’intervalle [0,2π].

Figure V.6 : Modèle de transformation polaire rectangulaire de John Daugman [4].

Le passage de la représentation cartésienne à la représentation polaire rectangulaire est


modélisé par la formule :

Avec ,

Où est la région de l’image d’iris, sont les coordonnées cartésiennes initiales,


sont leurs coordonnées polaires correspondantes dans l’image normalisée, , et ,
sont les coordonnées des contours de la pupille et de l’iris respectivement le long de la
direction .
Ce modèle prend en considération la dilatation et la contraction de la pupille, les différences
en dimension dues à la distance de capture et le déplacement non concentrique de la pupille
par rapport à l’iris, et y remédie afin d’arriver à une représentation normalisée avec des
dimensions constantes pour toutes les images d’iris.
Lors des transformations, le centre de la pupille est considéré comme le point référence, le
nombre de lignes radiales traversant le centre de la pupille est considéré comme la résolution
angulaire, le nombre de points pris sur chaque ligne radiale est la résolution radiale. Puisque
souvent la pupille est non concentrique à l’iris, une formule de correction de la valeur du
rayon due au déplacement de la pupille par rapport au centre de l’iris est utilisée, elle permet
de trouver la valeur du rayon sur chaque ligne choisie.

Avec ,

Où le déplacement du centre de la pupille par rapport au centre de l’iris est donné par , ,
la distance entre le contour de la pupille et celui de l’iris dans une certaine direction
autour de la région d’iris et est le rayon de l’iris.

60 
 
CHAPITRE V Conception du système
 
 

Figure V.7 : Résultat du processus de normalisation de l’iris avec une résolution


angulaire de 40 pixels et une résolution radiale de 10 pixels.

Figure V.8 : Illustration du procédé de normalisation de l’image d’un iris après localisation
de l’iris et de la pupille.

3.1.5 Module d’extraction des caractéristiques :


Plusieurs approches sont susceptibles d’être utilisées dont celle basée sur la texture, qui
consiste en une quantification statistique de l’information texturale présente dans la zone
d’intérêt. Les critères statistiques calculés constitueront une identité statistique pour chaque
image d’iris.
L’intérêt d’une telle approche est d’arriver à substituer l’image de l’iris normalisée par un
vecteur dont les valeurs caractérisent d’une manière plus ou moins précise l’agencement des
différents pixels de l’image d’iris, l’avantage est donc d’arriver à compresser les valeurs de
pixels de l’image, et à ne manipuler qu’un maximum de 10% de l’ensemble de départ, et ce
dans un but de discrimination entre individus.

61 
 
CHAPITRE V Conception du système
 
 

Figure V.9 : Illustration du principe de l’approche basée sur la texture.

¾ Etapes de calcul du vecteur caractéristique d’une image d’iris :


Les étapes de calcul de ce vecteur sont différentes selon la méthode d’analyse que l’on
choisit, la première est celle de l’analyse statistique directe, c'est-à-dire une analyse opérant
directement sur l’ensemble des pixels représentant l’image normalisée de l’iris. Cette méthode
prend en considération tous les détails d’une image d’iris normalisée, y compris l’information
inutile pour un problème tel que la discrimination, d’où la nécessité d’analyse approfondie
(méthode de second ordre et d’ordre supérieur). La deuxième méthode découle naturellement
de l’inconvénient de la première méthode : le filtrage de l’image normalisée. Ce traitement
permettra de ne garder que l’information essentielle pour la discrimination, c'est-à-dire les
transitions brusques d’un niveau de gris vers un autre, ce principe et l’outil utilisé seront
expliqués plus loin.

1. Méthode directe :
- Pour chaque portion de l’image normalisée, on vérifie si celle-ci peut être recensée, car faute
d’une forte présence du bruit, la comparaison ne doit pas se faire sur des zones de dimensions
différentes (la texture devant être le seul paramètre discriminant entre individus). Un seuil de
tolérance est fixé selon l’observation des images normalisées ainsi que leur masque de bruit :
ce seuil doit être suffisamment élevé pour n’éliminer que les images trop bruitées, et
suffisamment bas pour que les valeurs des mêmes paramètres statistiques calculés sur deux
zones de texture proches soient les plus homogènes possibles.

Figure V.10 : Iris normalisé et son masque de bruit (les points en blanc
dans le masque représentent le bruit).

- Si la portion peut être recensée statistiquement, l’histogramme de la portion sera calculé, et


un nombre de 6 valeurs de critères statistiques en sera déduit, il s’agit là, des paramètres
statistiques de premier ordre suivants : (moyenne variance écart type skewness
kurtosis snr).

62 
 
CHAPITRE V Conception du système
 
 
- Calcul de la matrice de cooccurrence dans les quatre directions (0°, 45°, 90° et 135°), suivi
du calcul de 12 critères sur chacune des quatre matrices. Enfin, l’alignement en un vecteur des
moyennes de chaque critère.
Un vecteur de critères statistiques d’ordre 2 englobe les 12 paramètres de la méthode du
second ordre : moyenne, variance, écart type, énergie, contraste, corrélation, entropie 1,
entropie 2, différence inverse, homogénéité, dissimilitude, inertie. La moyenne des quatre
vecteurs est alignée en un seul.
- Calcul de la matrice des longueurs de plages de niveaux de gris dans les quatre directions
(0°, 45°, 90° et 135°), 11 critères sur chacune des quatre matrices sont déduits. Enfin,
l’alignement en un vecteur des moyennes de chaque critère.

Un vecteur de critères statistiques d’ordre supérieur englobe les 11 paramètres de la méthode


statistique d’ordre supérieur. La moyenne des quatre vecteurs est alignée en un seul.
Le choix de la moyenne des critères revient au fait que les distributions des matrices de
cooccurrence ne sont que faiblement différentes, ceci est également observé sur les matrices
des longueurs des plages de niveaux de gris.

50 50

100 100

150 150

200 200

250 250
50 100 150 200 250 50 100 150 200 250

d = 1, = 0° d = 1, = 45°

50 50

100 100

150 150

200 200

250 250
50 100 150 200 250 50 100 150 200 250

d = 1, = 90° d = 1, = 135°
Figure V.11 : Matrice de cooccurrence d’une portion d’image.

63 
 
CHAPITRE V Conception du système
 
 

50 50

100 100

150 150

200 200

250 250
5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40

d = 1, = 0° d = 1, = 45°

50 50

100 100

150 150

200 200

250 250
5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40

d = 1, = 90° d = 1, = 0°
Figure V.12 : Matrice de LPNG d’une portion d’image.

- Juxtaposition des 3 vecteurs en un seul vecteur et ce en juxtaposant ces derniers, ce travail


sera fait pour toutes les portions dans un ordre prédéfini et cet ordre reste fixe.

2. Méthode de filtrage :
Le traitement de l’intégralité de l’information texturale de l’image d’iris normalisée reste
l’inconvénient majeur de cette approche, car la seule information dont on a besoin pour la
discrimination entre individus est celle des détails, qui consiste en les transitions brusques des
niveaux de gris et leur localisation dans l’iris. Il est par conséquent nécessaire d’utiliser un
outil capable d’extraire l’information recherchée (les détails) et d’ignorer le reste.
A priori, la transformée de Fourier serait l’outil adéquat car il permet de détecter la plupart
des zones consistantes en informations (détectées sous forme fréquentielle), or l’utilisation de
la transformée de Fourrier délocalisera complètement le contenu fréquentiel obtenu du repère
spatial, d’où la nécessité d’un outil qui serait en mesure de préciser en plus, la localisation
temporelle de cette information fréquentielle.
A l’heure actuelle, la transformée en ondelettes est l’outil qui peut palier ce problème. Elle
permet d’avoir une représentation à différentes échelles de résolution de l’information
présente dans l’iris et a comme avantage par rapport à la transformée de Fourier, le fait que
les signaux restent localisés en fréquence et en espace.
Une ondelette est une fonction de l’espace de moyenne nulle dont la localisation en
espace et en temps est modifiée par translation et homothétie. L’idée inhérente à la notion de
la transformée en ondelettes [5] est de corréler la fonction de départ avec les modifications
spatiales et fréquentielles de l’ondelette, autrement dit, extraire l’information se trouvant en
même temps localisée en espace et en fréquence.  

64 
 
CHAPITRE V Conception du système
 
 
Le premier pas de notre démarche pour aboutir à un gabarit d’iris qui contient l’information
spécifique de l’individu est donc de calculer la transformée de l’iris normalisée par une
ondelette.
Dans la reconnaissance par iris, la plupart des méthodes que l'on trouve dans la littérature
utilisent différents types d'ondelettes ou de filtrage par fenêtre, à titre d’exemple, John
Daugman [4] utilise le filtrage à deux dimensions de Gabor. Masek [6] a étudié en 2003
l’application d’une ondelette Log-Gabor et a constaté qu’elle présentait de bonnes qualités
d’analyse dans le cas de l’iris. Nous avons donc choisi cette approche récente pour notre
analyse.
Un filtre de Gabor est formé par le produit d’une exponentielle complexe avec une
gaussienne. Ainsi, sa partie réelle et complexe sont deux modulations d’une gaussienne avec
deux sinusoïdales orthogonales. L’onde sinusoïdale est parfaitement localisée en fréquence,
mais complètement délocalisée en espace. La multiplication par une gaussienne permet de la
restreindre en espace (bien qu’une certaine délocalisation en fréquence soit ainsi introduite).
D’habitude, l’ondelette de Gabor est implémentée avec une paire de filtres en quadrature, l’un
représentant la partie réelle (un cosinus modulé par une gaussienne) et l’autre la partie
imaginaire (un sinus modulé par cette même gaussienne). La fréquence centrale du filtre est
alors déterminée par la fréquence de la sinusoïde, tandis que l’ampleur de bande dépend des
caractéristiques de la gaussienne.
Voici à titre d’exemple le filtre de Gabor employé par Daugman [4] :

Où représente la position sur l’image.

¾ Le filtrage de Log Gabor :


En consultant les diverses études disponibles sur le processus d’encodage, on rencontre [6] [7]
un désavantage lié au choix de l’ondelette que nous venons de présenter : la partie réelle du
filtre introduit une composante continue puisque la valeur à la fréquence zéro de la
transformée de Fourier du filtre de Gabor n'est pas nulle. Cette composante continue est
déterminée par l’illumination et n’apporte que l’information des conditions de prise des
photos. Puisque dans le traitement de l'iris, nous nous intéressons seulement aux transitions
des valeurs des pixels, cette composante doit être éliminée. Voilà pourquoi nous avons choisi
d’utiliser un filtre de Gabor logarithmique, solution proposée dans la littérature [6] pour
éliminer le problème exposé.
Il s'agit d'un filtre de Gabor dont l'échelle de fréquence est logarithmique. Il possède donc la
réponse fréquentielle suivante :

 
Où est la fréquence central et est la largeur de la bande du filtre. Les choix de et de
dépendent du problème (qualité et propriétés des images de la base de données) et des
applications du système. Graphiquement, la réponse fréquentielle de l’ondelette est donnée
dans la figure suivante :

65 
 
CHAPITRE V Conception du système
 
 

Figure V.13 : Réponse fréquentielle du filtre de Log-Gabor avec une FFT de 121 points.

Pour trouver ces grandeurs, nous observons le contenu fréquentiel des anneaux de l'iris que
l'on traite, car il est inutile de filtrer dans une région de fréquences qui ne contient pas
d'informations. Pour l’analyse, nous donnons la FFT moyenne des anneaux de l'iris, pour une
image donnée.

Figure V.14 : FFT de 1000 points de la moyenne des signaux angulaires (anneaux
circulaires) de l’iris, la composante (coefficient) zéro-fréquence est bien
présente.

66 
 
CHAPITRE V Conception du système
 
 

Figure V.15 : FFT de la moyenne de l’iris normalisé.

Les différentes étapes de calcul du vecteur de critères statistiques sont donc :


- Division de chaque portion en signaux horizontaux, dont on calcule le résultat du filtrage par
la convolution du signal avec le filtre de Log Gabor, étant données que celle-ci est effectuée
dans le domaine fréquentiel, cela revient à une simple multiplication. Le résultat sera ensuite
transporté dans le domaine spatial grâce à une FFT inverse.
- Vérifier si la portion filtrée peut être recensée, si c’est le cas, calcul de l’histogramme et des
6 valeurs des paramètres correspondant à la méthode statistique de premier ordre.
- Alignement des vecteurs de chaque portion dans l’ordre prédéfini.

3.1.6 Module de calcul du modèle de chaque classe :


Ce module génère le représentant de chaque individu à partir de son échantillon. Deux types
de modèles ont été utilisés :
3.1.6.1 Modèle moyen : il s’agit du vecteur statistique moyen de l’échantillon. Les zones qui
ne sont pas recensées sont ignorées.

3.1.6.2 Modèle intégral : le modèle n’est pas calculé, il le sera lors de la phase de vérification
ou d’identification, son principe est qu’un vecteur de l’échantillon disponible sera choisi : il
s’agit du vecteur le plus « proche » du vecteur recherché, cette technique est censée
augmenter le taux d’identification en choisissant le meilleur représentant de chaque individu
par rapport au vecteur recherché.

3.2 Modules du processus d’identification :


3.2.1 Module de calcul des distances :
- Calcul de la distance entre le vecteur à identifier et celui de chaque modèle d'individu. Les
distances (usuelles) utilisées sont :
¾ Distance de Manhattan :
¾ Distance euclidienne :

67 
 
CHAPITRE V Conception du système
 
 
¾ Distance de Mahalanobis :

Avec le nombre de paramètres dans les vecteurs.

¾ Yambor & Al ont proposé des combinaisons de plusieurs distances, nous avons utilisé
l’une d’elles:

est une application de vérifiant :


1.
2.  
3.  
est bien une distance.

3.2.2 Module d’identification :


- Calcul des distances entre le modèle de chaque individu avec le vecteur à identifier au
moyen de la distance utilisée.
- Choix de la classe dont la distance calculée est la plus petite.
- Si le modèle de chaque individu doit se calculer lors de la phase d’identification, alors on
calculera le modèle de chaque individu au moyen du vecteur à identifier. Ensuite, on
récupérera la classe correspondante à la distance minimale trouvée.

3.3 Modules du processus de vérification :


3.3.1 Module de détermination du seuil de décision optimal :
Le seuil est calculé pour chaque individu, et ce pour un nombre minimum de tentatives égal
au nombre de vecteurs de l’échantillon de calcul du seuil. La moyenne des seuils individuels
constitue le seuil du système.
Le but de cette opération est d’obtenir la répartition des distances correspondantes à
l’échantillon de calcul du seuil client par rapport aux distances des échantillons de calcul des
seuils imposteurs (des autres individus). Cela aboutira à la fixation d’un seuil minimisant le
nombre de faux rejets et de fausses acceptations.
Les images utilisées lors de la phase de calcul du seuil n’interviennent pas dans la phase de
test.
Ce module permet de déterminer pour chaque individu, un seuil de décision optimal qui
minimise le taux TER. Voici ses différentes étapes :
1. Calcul des distances intra classe (entre l’échantillon Client réservé au calcul du seuil et
l’échantillon d’apprentissage de l’individu concerné).
( )
Avec le nombre de vecteurs dans l’échantillon de calcul du seuil.
2. Calcul des distances interclasses (entre les échantillons Imposteurs réservés au calcul du
seuil et l’échantillon d’apprentissage de l’individu concerné).

68 
 
CHAPITRE V Conception du système
 
 
( )
Avec le nombre de vecteurs imposteurs.
3. Calcul des grandeurs et . L’ensemble des
distances de et comprises entre et représente les valeurs que prendra
le seuil temporaire lors de chaque tentative de calcul du seuil optimal.
4. Le seuil optimal correspondant au seuil minimisant les FA et FR, il est calculé come suit :
¾ Premier cas : >
Tout seuil compris entre et constitue un seuil optimal. Dans ce cas, il aura la

moyenne comme valeur :  

¾ Deuxième cas :
On procède comme suit :
Pour chaque valeur du seuil temporaire entre et :
- Parcourir le vecteur de distances et comparer chaque distance au seuil temporaire, si elle
est supérieure ( ), on incrémente le nombre de faux rejets (FR).
- Parcourir le vecteur de distances et comparer chaque distance au seuil temporaire, si
elle est inférieure ( ), on incrémente le nombre de fausses
acceptations (FA).

Le seuil optimal est le seuil minimisant le TER dont la formule est :

3.3.2 Module de prise de décision :


Ce module permet de se « prononcer » sur la véracité de l’identité présumée d’un individu.
- Calcul de la distance entre le modèle construit grâce à l’image de référence dont l’identité
doit être vérifiée et une image de l’identité proclamée.
- Comparaison avec le seuil de décision de l’individu dont le modèle a été construit
précédemment.

3.3.3 Module de test :


Ce module permet de calculer les performances réelles du système :
1. Calcul des distances intra classe (entre l’échantillon client de test et l’échantillon
d’apprentissage de l’individu concerné).
( )
Avec le nombre de vecteurs dans l’échantillon de calcul du seuil.
2. Calcul des distances interclasses (entre les échantillons imposteurs de test et l’échantillon
d’apprentissage de l’individu concerné).
( )

69 
 
CHAPITRE V Conception du système
 
 
Avec le nombre de vecteurs imposteurs.
3. Parcourir le vecteur de distances et comparer chaque distance au seuil de l’individu, si
elle est supérieure ( ), on incrémente le nombre de faux rejets (FR).
4. Parcourir le vecteur de distances et comparer chaque distance au seuil de l’individu, si
elle est inférieure ( ), on incrémente le nombre de fausses acceptations (FA).
5. Calcul des taux FAR et FRR.

4. Performances du système en identification :


Afin d’évaluer le taux d’identification du système, les deux bases de données CASIA V1.0 et
CASIA-IrisV3-Interval ont été divisées en deux parties, l'échantillon de chaque individu est
réparti en deux catégories, l’une pour l’apprentissage, et l’autre pour le test. Le taux
d’apprentissage est de 40% de l’échantillon disponible, le reste est réservé pour le test.

Echantillons Echantillons
Apprentissage Test

Figure V.16 : Division de la base pour le calcul du taux d’identification.

Le tableau VI.1 montre le processus d’identification des individus 2 et 12 dans une base de
données contenant 20 individus.
- L’échantillon Apprentissage de chaque individu de la base contient 2 images d’iris.
- L’échantillon Test des individus 2 et 12 contient quand à lui 3 images d’iris.
- Une valeur en rouge représente la distance minimale entre une image de l’échantillon Test
de l’individu à identifier et une image de l’échantillon Apprentissage d’un individu de la base.
- Une cellule en jaune représente le minimum des modèles de la base pour une image de
l’échantillon Test de l’individu à identifier.
- La dernière ligne « Résultat d’identification » représente les classes auxquelles les images
d’iris des individus à identifier sont affectées.
Dans ce tableau, les 6 images d’iris des individus à identifier ont été affectées aux classes
auxquelles elles appartiennent.

70 
 
CHAPITRE V Conception du système
 
 

Individu 2 Individu 12
0.4828 0.5574 0.4883 0.4960 0.4974 0.5037
Individu 1
0.4948 0.5749 0.5104 0.4903 0.5089 0.5074
0.4117 0.5134 0.4357 0.6280 0.5818 0.5765
Individu 2
0.4052 0.4952 0.4125 0.5000 0.4920 0.4920
0.5727 0.5869 0.5878 0.6053 0.6021 0.6213
Individu 3
0.5848 0.5805 0.5892 0.5916 0.5962 0.6046
0.5312 0.6644 0.5531 0.5549 0.5524 0.5776
Individu 4
0.5560 0.6716 0.5616 0.5713 0.5874 0.6003
0.5019 0.5324 0.5388 0.4787 0.4858 0.4949
Individu 5
0.4927 0.5213 0.5151 0.4699 0.4602 0.4816
0.6630 0.7371 0.6987 0.7549 0.7316 0.7120
Individu 6
0.5841 0.6868 0.5712 0.7055 0.6933 0.6595
0.5833 0.6049 0.5921 0.6272 0.6250 0.6333
Individu 7
0.5801 0.5535 0.5857 0.5827 0.6004 0.6101
0.5553 0.5419 0.5578 0.5651 0.5833 0.5986
Individu 8
0.5350 0.5508 0.5500 0.5563 0.5535 0.5548
0.4917 0.5413 0.4905 0.4983 0.5198 0.5232
Individu 9
0.5057 0.6045 0.5022 0.5011 0.5007 0.5324
0.5055 0.5589 0.5236 0.5317 0.5279 0.5633
Individu 10
0.5326 0.5369 0.5543 0.5516 0.5540 0.5814
0.5534 0.6515 0.5660 0.5123 0.5347 0.5458
Individu 11
0.5189 0.6098 0.5185 0.5124 0.5246 0.5294
0.4722 0.5501 0.4868 0.3639 0.3982 0.4217
Individu 12
0.4787 0.5910 0.4941 0.4083 0.3482 0.4020
0.5183 0.5779 0.5261 0.5224 0.5226 0.4949
Individu 13
0.4790 0.5412 0.4752 0.5117 0.5246 0.4751
0.5500 0.6154 0.5710 0.6114 0.6117 0.6245
Individu 14
0.5128 0.5984 0.5350 0.6059 0.6036 0.5917
0.5502 0.5459 0.5417 0.5368 0.5445 0.5299
Individu 15
0.5003 0.5105 0.5230 0.4967 0.4980 0.5187
0.4880 0.5469 0.4943 0.4864 0.4803 0.4722
Individu 16
0.4881 0.5306 0.5152 0.5206 0.5197 0.5010
0.5139 0.5224 0.5220 0.4941 0.4840 0.4641
Individu 17
0.4964 0.5040 0.5134 0.5039 0.4701 0.4698
0.5225 0.5795 0.5311 0.4838 0.5051 0.4951
Individu 18
0.5166 0.6239 0.5103 0.4751 0.4993 0.5000
0.6380 0.6936 0.6500 0.7181 0.7291 0.6587
Individu 19
0.6197 0.6610 0.6224 0.6873 0.6929 0.6702
0.5606 0.5947 0.5545 0.5783 0.5871 0.5524
Individu 20
0.5529 0.5271 0.5535 0.5400 0.5423 0.5466
71 
 
CHAPITRE V Conception du système
 
 
Résultat
2 2 2 12 12 12
d’identification

Tableau V.1 : Distances calculées lors de l’identification des individus 2 et 12.

5. Performances du système en vérification :


Les performances du système sont illustrées par les taux FAR et FRR, ces taux sont calculés
par les moyennes des taux FAR et FRR individuels.
- Division de la base en deux catégories : l’individu pour lequel les taux FAR et FRR doivent
être calculés représente la première catégorie, le reste de la base représente la deuxième
catégorie.
- Séparation des images de l’individu concerné en trois échantillons : AppCli, SeuilCli et
TestCli.
- Séparation de la deuxième catégorie en deux parties : échantillons Imposteurs pour le calcul
du seuil et échantillons Imposteurs pour l’opération de test.

Individu i AppCli SeuilCli TestCli

SeuilImp TestImp

Figure V.17 : Division de la base pour le calcul des taux FAR et FRR.

Le tableau VI.2 montre les étapes de calcul du seuil optimal de l’individu 1 (client) parmi les
cinq autres individus (imposteurs).
- L’échantillon AppCli contient 3 images d’iris.
- L’échantillon SeuilCli contient 2 images d’iris.
- L’échantillon SeuilImp contient 2 images d’iris pour chaque individu.
- Les valeurs en rouge représentent les distances intra classe de l’individu 1.
- Les valeurs en bleu représentent les distances interclasses de l’individu 1.
- La cellule en rouge ( = 0.3679) représente le maximum des distances intra classe (ce
maximum est choisi uniquement parmi les distances correspondantes aux modèles).
- La cellule en bleu ( = 0.4780) représente le minimum des distances interclasses (ce
minimum est choisi uniquement parmi les distances correspondantes aux modèles).
- . Alors, le seuil optimal a pour valeur la moyenne :
Le seuil optimal est 0.4229.

72 
 
CHAPITRE V Conception du système
 
 

 
Individu 1
0.3679 0.3590 0.3838
Individu 1
0.3875 0.3903 0.3613
0.5247 0.5112 0.5021
Individu 2
0.5122 0.4883 0.5254
0.5768 0.5873 0.5921
Individu 3
0.5778 0.5853 0.5835
0.5404 0.5199 0.5108
Individu 4
0.5383 0.5371 0.5333
0.5010 0.4892 0.4994
Individu 5
0.4992 0.4780 0.5055
0.6524 0.6418 0.6385
Individu 6
0.6330 0.6382 0.6238

Tableau V.2 : Distances calculées lors de l’opération de calcul du seuil optimal.

Le tableau VI.3 montre les étapes de calcul des taux FAR et FRR de l’individu 1(client) parmi
les cinq autres individus (imposteurs).
- L’échantillon AppCli contient 3 images d’iris.
- L’échantillon TestCli contient 2 images d’iris.
- L’échantillon TestImp contient 5 images d’iris pour chaque individu.
- Une valeur en rouge représente la distance minimale entre une image de l’échantillon
TestCli et une image de l’échantillon AppCli.
- Une valeur en bleu représente la distance minimale entre une image de l’échantillon TestImp
d’un individu et une image de l’échantillon AppCli.
- Il n’y a pas de valeurs en rouge supérieures au seuil optimal. Alors, FR = 0.
- Il n’y a pas de valeurs en bleu inférieures au seuil optimal. Alors, FA = 0.
L’individu 1 est complètement séparé des autres individus (FAR = 0, FRR = 0, TER = 0).

73 
 
CHAPITRE V Conception du système
 
 

 
Individu 1 
0.3799 0.3626 0.3581
Individu 1 
0.3861 0.3811 0.3648
0.5508 0.5909 0.5977
0.5054 0.4828 0.5159
Individu 2  0.5110 0.4888 0.5307
0.4707 0.4742 0.4901
0.5193 0.4920 0.5297
0.5864 0.5861 0.5940
0.5692 0.5742 0.5791
Individu 3  0.5764 0.5733 0.5833
0.5716 0.5760 0.5765
0.5763 0.5800 0.5809
0.5740 0.5542 0.5542
0.5581 0.5343 0.5015
Individu 4  0.5617 0.5850 0.5646
0.5464 0.5288 0.5248
0.5659 0.5552 0.5369
0.4816 0.4586 0.5018
0.4838 0.4735 0.4902
Individu 5  0.5022 0.4820 0.4971
0.4974 0.4832 0.4974
0.5158 0.4880 0.5012
0.7409 0.7343 0.7335
0.6998 0.6844 0.6863
Individu 6  0.6539 0.6507 0.6465
0.6675 0.6649 0.6662
0.6713 0.6742 0.6658

Tableau V.3 : Distances calculées lors de l’opération de calcul des taux FAR et FRR de
l’individu 1.

Conclusion :
Dans ce chapitre, nous avons présenté l’architecture globale de l’application IrisSystem Tool
pour en dégager les principaux modules. Cette structure modulaire est adéquate pour une
réalisation dans un langage orienté objet.
Après avoir effectué la conception de notre système, nous sommes désormais en mesure
d’entamer l’étape d’implémentation de notre application qui fera l’objet du prochain chapitre.
 

74 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
Introduction :
Après avoir présenté dans le chapitre précédent les différentes étapes nécessaires à la
réalisation de notre système, à savoir la conception, nous allons à présent décrire les outils de
développement qui ont servi à la mise en œuvre de notre application. L’implémentation du
système IrisSystem Tool repose sur deux entités logicielles : un langage orienté objet et un
logiciel mathématique pour effectuer des tâches nécessitant beaucoup de calculs notamment
celles de traitement des images.

1. Outils de développement :
Nous avons eu recours lors de l’élaboration de notre système à deux outils : Microsoft Visual
Studio 2005 et Matlab 7.0.

1.1 Microsoft Visual Studio 2005 :


C’est un ensemble d’outils de développement performants de Microsoft, qui permet de créer
des applications Windows de haut niveau grâce à plusieurs langages de développement,
notamment C#.
- Un développement robuste qui permet une modification et un débogage efficaces du code
source.
- Une collection riche de classes et de bibliothèques qui facilitent l’implémentation des
différents algorithmes.

1.2 Matlab 7.0.0.19920 (R14) :


Matlab et son environnement interactif est un langage de haut niveau qui permet l’exécution
de tâches nécessitant une grande puissance de calcul et dont la mise en œuvre sera bien plus
simple et rapide qu’avec des langages de programmation traditionnels tels que le C, C++. Il
dispose de plusieurs boites à outils en particulier celle du traitement d’images
« ImageProcessing ToolBox » qui propose un ensemble d’algorithme et d’outils graphiques
de référence pour le traitement, l’analyse, la visualisation et le développement d’algorithmes
de traitement d’images.

75 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
2. Structure de données et implémentation :
Le système IrisSystem Tool fait appel à plusieurs classes décrites dans le tableau ci-dessous :

Classes Signification et rôle


Permet d’effectuer la transformation polaire
Normalisation rectangulaire nécessaire à la standardisation
des images en dimensions.
Permet de déterminer l’identité d’un individu
Identification
grâce à ses images d’iris.
Permet de se prononcer sur la véracité d’une
Vérification
identité présumée.
Permet de donner le taux d’identification
Tests
d’un individu.

Tableau VI.1 : Les différentes classes composant le système IrisSystem Tool.

2.1 Classe Normalisation :


Variables :
CoordonneesIrisPupille : tableau de 6 entiers devant contenir le résultat de la normalisation. Il
s’agit des coordonnées abscisses et ordonnées de l’iris et de la pupille ainsi que leurs rayons.

Méthodes :
Il y a deux types de méthodes utilisées par cette classe :
¾ Méthode du langage C# : implémentée en C#.
Normaliser () : sert à lancer le processus de normalisation en faisant appel à une architecture
de procédures Matlab permettant la détection de l’iris et de la pupille ainsi que l’interpolation
linéaire de l’image résultante de la détection.

Coordonnées et rayon de l’iris


Image d’iris Normaliser
Coordonnées et rayon de la pupille

¾ Méthodes importées de bibliothèques externes :


Elles proviennent du fichier DLL nombibliothèque.dll, elles sont invoquées à l’aide de
l’instruction :
[DllImport(@"nombibliothèque.dll", EntryPoint = "_Point d’Entrée de la
Fonction")].

Il y a deux types de bibliothèques :


1. Bibliothèque interne : créee par l’utilisateur en utilisant Matlab.
- _libimageInitialize() : permet d’initialiser la bibliothèque.
- _libimageTerminate() : permet de fermer la bibliothèque.
- _mlfTest() : permet d’effectuer la normalisation, en faisant appel à plusieurs fonctions
Matlab :
76 
 
CHAPITRE VI Implémentation et réalisation du système
 
 

addcircle() : permet de générer des cercles pour les ajouter (Coordonnées et rayons de l’iris et
de la pupille) à l’espace de Hough suivant la transformée de Hough.
Entrées :
- h : tableau de 2 dimensions représentant l’espace de Hough.
- c : coordonnées du centre d’un cercle.
- radius : le rayon du cercle.
Sortie :
- h : espace de Hough mis à jour.

adjgamma() : permet d’avoir une carte définissant les parties sombres d’une image dans le
but d’ajuster son contraste dans ces zones.
Entrées :
- im : image à traiter.
- g : valeurs de 0 à 1, g est d’autant plus grand que l’image est sombre, c’est une valeur
au dessus de laquelle le contraste doit être augmenté, si valeurs > 1 alors le contraste
est augmenté dans les zones très sombres.
Sortie :
- g.

canny() : permet la détection des contours de « canny » dans une image.


Entrées :
- im : image à traiter.
- sigma : écart type du filtre Gaussien de lissage (généralement égale à 1).
- scaling : facteur de réduction de l’image en entrée par :
- vert : poids pour les gradients verticaux.
- horz : poids pour les gradients horizontaux.
Sorties :
- gradient : amplitudes des contours de l’image.
- or : orientation de l’image (en degrés de 0 à 180, sens positif des eguilles).
circlecoords() : retourne les coordonnées des pixels d’un cercle défini par son rayon et les
coordonnées de son centre.
Entrées :
- c : un tableau contenant les coordonnées du centre d’un circle .
- r : le rayon du cerle.
- imgsize : taille du tableau de l’image sur lequels les coordonnées doivent être
déssinés.
- nsides : le cercle est réellement approximé par un polygone, cet argument donne le
nombre de cotés pour son approximation, à défaut il y a 600 cotés.
Sorties :
- x : un tableau contenant les abscisses des points contours d’un cercle.
- y : un tableau contenant les ordonnées des points contours d’un cercle.

77 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
findcircle() : retourne les coordonnées d’un cercle dans une image en utilisant la transformée
de Hough et l’algorithme de détection des contours de Canny pour la création de la carte des
contours.
Entrées :
- image : l’image contenant des cercles à repérer.
- lradius : le rayon le plus petit du cercle à rechercher dans l’image.
- uradius : le rayon le plus grand du cercle à rechercher dans l’image.
- scaling : facteur d’échelle pour l’accéleration de la transformée de Hough.
- sigma : amplitude du lissage Gaussien à appliquer pour la création de la carte des
contours.
- hithres : seuil pour la création de la carte des contours.
- lowthres : seuil pour la connexion des contours.
- vert : indice de contribution du contours vertical (0-1).
- horz : indice de contribution du contours horizontal (0-1).
Sorties :
- circleiris : coordonnées du centre et le rayon des limites de l’iris détecté.
- circlepupil : coordonnées du centre et le rayon des limites de l’iris détecté.
- imagewithnoise : image originale de l’œil, avec la localisation du bruit marqué par la
valeur NaN.

findline() : retourne les coordonnées d’une ligne recherché dans une image en utilisant la
transformée de Hough linéaire et l’algorithme de détection des contours de Canny pour la
création de la carte des contours.
Entrée :
- image : l’image en entrée.
Sortie :
- lines : paramètres de la ligne détectée en coordonnées polaires.

houghcircle() : prend la carte des contours d’une image et exécute la transformée de Hough
pour la détection des cercles dans une image.
Entrée :
- edgeim : la carte des contours d’une image à traiter.
- rmin, rmax : les valeurs minimales et maximales des rayons des cercles à rechercher.
Sortie :
- h : la transformée de Hough.

hysthresh() : fonction de seuillage de l’image.


Entrées :
- im : image sur laquelle le seuillage est effectué.
- T1 : la valeur la plus élevée du seuil.
- T2 : la valeur la plus basse du seuil.
Sortie :
- bw : image ayant subie l’opération de seuillage (contenant les valeurs 0 ou 1).

78 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
linecoords() : retourne les coordonnées x et y des positions le long d’une ligne.
Entrées :
- lines : un tableau contenant les paramètres d’une ligne.
- imsize : taille de l’image, elle est nécessaire afin que les coordonnées x et y soient à
l’intérieur de l’image des limites.
Sorties :
- x : les abscisses.
- y : leurs ordonnées correspondantes.
normaliseiris() : exécute la normalisation de la région d’iris en transformant les pixels choisis
d’une représentation circulaire vers une représentation en bloc rectangulaire de dimensions
constantes.
Entrées :
- image : l’image d’iris en entrée dont les informations sur la région d’iris doivent
être extraites.
- x_iris : les abscisses des contours du cercle de l’iris.
- y_iris : les ordonnées des contours du cercle de l’iris.
- r_iris : le rayon du cercle de l’iris.
- x_pupil : les abscisses des contours du cercle de la pupille.
- y_pupil : les ordonnées des contours du cercle de la pupille.
- r_pupil : le rayon du cercle de la pupille.
- eyeimage_filename : le nom initial de l’image de l’oeil en entrée
- radpixels : la résolution radiale qui fixe la dimension verticale de la représentation
normalisée.
- angulardiv : résolution angulaire qui fixe la dimension horizontale de la
représentation normalisée.
Sorties :
- polar_array : un tableau de 2 dimensions représentant la forme normalisée de l’iris.
- polar_noise : le masque de bruit correspondant à l’image d’iris en entrée.

segmentiris() : exécute une segmentation automatique de la région de l’iris à partir de


l’image d’iris en entrée. Elle permet aussi d’isoler les zones touchées par le bruit telles que les
cils ou les paupières.
Entrée :
- eyeimage : l’image d’iris en entrée.
Sorties :
- circleiris : le rayon et les coordonnées de l’iris détecté.
- circlepupil : le rayon et les coordonnées de la pupille détectée.
- imagewithnoise : l’image d’iris initiale dont les zones de bruit sont marquées par la
valeur NaN.

test() : fonction permettant à partir d’une image d’iris : segmenter celle-ci (détecter les
coordonnées des centres d’iris et des pupilles ainsi que leur rayons) et lancer le processus de
normalisation (passage d’une représentation cartésienne à une représentation polaire
rectangulaire).
79 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
Entrée :
- im : image d’iris en entrée.
Sortie :
- vec : coordonnées des centres d’iris et des pupilles ainsi que les rayons.

normaliseiris test

circlecoords segmentiris findline

linecoords nonmaxsup

findcircle adjgamma

houghcircle hysthresh

addcircle canny

Figure VI.1 : Aperçu de l’interconnexion entre les sous modules de segmentation et de


normalisation.

2. Bibliothèque externe : ce sont des méthodes importées du système.


- mclInitializeApplication() : permet d’initialiser le mcr.
- mclTerminateApplication() : permet de terminer le mcr.
- mxGetPr() : permet d’obtenir la partie réelle d’une variable non amangée.
- mxGetPi() : permet d’obtenir la partie imaginaire d’une variable non amangée.
- mxCreateString() : permet d’obtenir une variable non managée contenant la chaine de
caractères données en entrée.
- mxCreateDoubleScalar() : permet de créer une variable non managée contenant une
valeur double donnée en entrée.

80 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
- mxCreateDoubleMatrix() : permet de créer une variable non managée pointant sur une
structure de tableau de valeurs doubles dont le nombre de lignes, de colonnes sont
données en entrée. La compléxité des valeurs est également données en entrée.
- mxDestroyArray() : permet de détruire la variable non managée dont la valeurs du
pointeur est données en entrée.

2.2 Classe ClasseId :


Méthodes :
¾ Méthode du langage C# :
Identifier () : sert à lancer le processus d’identification en faisant appel à une architecture de
procédures Matlab permettant le calcul du modèle des individus ainsi que les distances entre
le vecteur biométrique (gabarit) de l’iris recherché et les modèles des individu (et ce selon les
valeurs des paramètres pertinents du système). Le processus d’identification s’effectue sur
l’image sélectionnée.

nomImageIris  
segl
segc  
technique numeroIndividu
apprentissage Identifier
distance
modele
numerobase

¾ Méthodes importées de bibliothèques externes :


1. Bibliothèque interne : créee par l’utilisateur en utilisant Matlab.
- _libidentificationInitialize() : permet d’initialiser la bibliothèque.
- _libidentificationTerminate() : permet de fermer la bibliothèque.
- _mlfIdentificationindividu() : permet de déterminer l’identité d’un individu, en faisant
appel à plusieurs fonction Matlab :

convert() : permet de transformer une chaine de caractères composée uniquement de chiffres


en un nombre décimal.
Entrées :
- chaine : chaine à convertir.
Sorties :
- nb : nombre résultant de la chaine.

valid() : permet de marquer tous les échantillons de tous les individu comme réservés à
l’identification ou à la vérification.
Entrées :

81 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
- base : base d’images d’iris.
Sorties :
- Validation : structure de taille égale au nombre d’individus, et oiu dans chaque
élément les champs correspondant aux images d’iris sont mentionnés « réservés au
test ».
Fonctionnement :
- Parcourir l’ensemble des individus et pour chacun faire :
- Parcourir l’ensemble des images de l’individu et mettre à 1 les champs leur correspondant.

generer() : permet de marquer un certain pourcentage des images de chaque individu comme
réservés à l’apprentissage.
Entrées :
- validation : structure initiale après validation de la base.
- apprentissage : taux d’images réservées à l’opération d’apprentissage.
Sorties :
- validation : structure mise à jour.
Fonctionnement :
- Parcourir l’ensemble des individus et pour chacun faire:
- Générer un pourcentage égal à celui de l’apprentissage de numéros aléatoires entre 1 et le nb
(nombre d’images de l’individu).
- Mettre les champs dont les positions correspondent aux numéros générés à 0.

apprentissage() : permet d’effectuer l’opération d’apprentissage selon deux type de modèle :


le modèle moyen et le modèle intégral. Cette opération aboutit à la construction du
représentant de chaque individu. Dans le cas du modèle intégral, cette opération s’effectuera
pendant l’opération d’identification.
Entrées :
- base : base d’images d’iris.
- validation : la structure inquant les images réservées au test et celles réservées à
l’apprentissage.
- modele : type de modèle à construire.
Sortie :
- classes : structure contenant pour chaque individu un vecteur représentatif.
Fonctionnement :
- Si le type du modèle est moyen alors:
- Parcourir l’ensemble des individu et pour chacun faire:
- Faire la somme des vecteurs réservés à l’apprentissage.
- Si le type du modèle est intégral alors:
- Récupérer les vecteurs réservés à l’apprentissage et ce pour chaque individu.

identification() : permet d’effectuer l’identification d’un individu.


Entrées :
- classes : l’ensemble des modèles des individus.
- nomiris : nom de l’image d’iris à identifier.
82 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
- type : type de distance à utiliser.
- tabseg : tableau indiquant le niveau de segmentation ligne et colonne.
Sorties :
- num : numero de l’individu trouvé.
Fonctionnement :
- Parcourir l’ensemble des individus de la base et pour chacun faire:
- Calculer les distances selon le type de celle-ci entre le vecteur à identifier et l’échantillon
réservé pour l’apprentissage pour chaque individu.
- Sélectionner la distance minimale des distances calculées pour chaque individu.
- Récupérer le numéro de l’individu correspondant à la distance minimale de l’ensemble des
distances minimales trouvées.

distances() : permet de calculer la distance entre deux vecteurs biométriques.


Entrées :
- vect1 : le vecteur à identifier.
- vect2 : le second vecteur.
Sorties :
- dis : distance entre les vecteurs en entrée.
Fonctionnement :
- Récupérer les indices correspondants aus valeurs non définies dans le vecteur vect1 et mettre
les valeurs qui y correspondent à 0 (à cause du bruit, des valeurs ne sont pas définie).
- Mettre les valeurs correspondantes aux indices trouvés ainsi que les valeurs non définies
dans le vecteur vect2 à 0.
- Calculer le nombre de valeurs non nulles n dans le vecteur vect2.
- Calculer le vecteur vect égale à (vect1 - vect2)² s’il s’agit de la distance de Mahalanobis ou
le vecteur abs(vect1 - vect2) s’il s’agit de la distance D (abs signifie valeurs absolue).
- Diviser le vecteur vect par le nombre de valeurs non nulles dans le vecteur vect2: n.

plus() : permet de calculer la somme entre deux vecteurs biométriques. Elle est nécessaire car
les valeurs dans un vecteur ne sont pas toutes définies à cause du bruit.
Entrées :
- vect1 : le premier vecteur.
- vect2 : le second vecteur.
Sorties :
- vect : vecteur résultant de la somme de vect1 et vect2.
Fonctionnement :
- Ranger la somme des valeurs de même position dans un vecteur à la position correspondante
aux deux valeurs.
- Si l’une des deux valeurs est non définie alors le resultat de la somme sera la valeur définie.
- Si aucune des deux valeurs n’est définie alors mettre une valeur NaN à la position
correspondante aux deux valeurs.

83 
 
CHAPITRE VI Implémentation et réalisation du système
 
 

valid  IdentificationIndividu generer

apprentissage identification convert

plus dsitances

Figure VI.2 : Aperçu de l’interconnexion entre les sous modules de IdentificationIndividu.

2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de
segmentation et de normalisation.

2.3 Classe ClasseVe :


Méthodes :
¾ Méthode du langage C# :
Verifier () : sert à lancer le processus de vérification en faisant appel à une architecture de
procédures Matlab permettant le calcul du modèle de l’individu correspondant à l’identité
présumée (modèle de référence) ainsi que la distance entre celui-ci et le vecteur biométrique
(gabarit) de l’iris à vérifier (cible).

nomIrisSource   dis

numerobase Vérifier res

nomIrisCible seuil

¾ Méthodes importées de bibliothèques externes :


1. Bibliothèque interne : créee par l’utilisateur en utilisant Matlab.
- _libidentificationInitialize() : permet d’initialiser la bibliothèque.
- _libidentificationTerminate() : permet de fermer la bibliothèque.
- _mlfIdentificationindividu() : permet de déterminer l’identité d’un individu, en faisant
appel à plusieurs fonction Matlab :

convert()
valid()
generer()

84 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
apprentissage()
distancesVe() : permet de retourner non pas la distance mais le numéro de vecteur correspondant à la
distance calculée.

valid  VerificationIndividu generer

apprentissage distancesVe convert

Figure VI.3 : Aperçu de l’interconnexion entre les sous modules de VérificationIndividu.

2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de
segmentation et de normalisation.

2.4 Classe ClasseTo :


Méthodes :
¾ Méthode du langage C# :
TauxIndividu () : sert à lancer le processus d’identification en faisant appel à une
architecture de procédures Matlab permettant le calcul du modèle des individus ainsi que les
distances entre le vecteur biométrique (gabarit) de l’iris recherché et les modèles des individu
(et ce selon les valeurs des paramètres pertinents du système). Le processus d’identification
s’effectue sur l’ensemble de l’échantillon Test de l’individu sélectionné.

nomImageIris  
segl nbsucces
segc  
technique
apprentissage TauxIndividu
distance nbtest
modele
numerobase

¾ Méthodes importées de bibliothèques externes :


1. Bibliothèque interne : créer par l’utilisateur en utilisant Matlab :
- _libtauxInitialize() : permet d’initialiser la bibliothèque.
- _libtauxTerminate() : permet de fermer la bibliothèque.
- _mlfTauxIndividu() : permet de déterminer le taux d’identification d’un individu, en
faisant appel à plusieurs fonctions Matlab :

85 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
convert()
valid()
generer()
recuperer() : permet de récupérer l’échantillon Test selon la distribution aléatoire de
validation.
Entrées :
- validation : structure initiale après répartition des échantillons Apprentissage et Test.
- base : base des gabarits biométriques.
Sorties :
- ech : échantillon Test.

apprentissage()
identification()
distances()
plus()

valid  TauxIndividu generer

apprentissage identification convert

plus dsitances convert

Figure VI.4 : Aperçu de l’interconnexion entre les sous modules de TauxIndividu.

2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de
segmentation et de normalisation.
 
3. Présentation de l’application :
On présente dans cette section les différents aspects de l’application IrisSystem Tool.
3.1 Interface Présentation :
C’est une interface destinée aux utilisateurs, elle est simple et permet d’illustrer les principaux
processus de ce système (détection de l’iris et de la pupille, normalisation, identification,
vérification et calcul du taux d’identification). Ces opérations ne peuvent s’effectuer que sur
deux bases : CASIA V1.0 et CASIA-IrisV3-Interval.

86 
 
CHAPITRE VI Implémentation et réalisation du système
 
 

1 2 3 4 5 6 7 8 18

9 10 11 12

13 14

15

16 17

Figure VI.5 : Interface Présentation.

1 Il s’agit du bouton avec lequel une base des images d’iris doit être chargée. Une fois
ce bouton cliqué et la base sélectionnée, celle-ci sera détaillée dans l’espace librairie
(le nombre d’individus ainsi que le nombre d’images d’iris par individu).

2 Il s’agit du bouton avec lequel une image d’iris peut être chargée sans passer par

87 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
le chargement intégral de la base. Une fois ce bouton cliqué, le processus de
détection des contours de l’iris et de la pupille sera lancé. L’mage qui sera affichée
dans la partie « Source » est une image dont les contours de l’iris et de la pupille sont
en blanc. La forme normalisée et le masque de bruit lui correspondant ainsi que les
coordonnées de l’iris et de la pupille seront également affichés.

3 Il s’agit du bouton avec lequel l’identification d’une image d’iris est lancée.

4 Il s’agit du bouton avec lequel la vérification entre deux images d’iris est lancée.

5 Il s’agit du bouton avec lequel l’identification d’un échantillon Test d’un individu est
lancée. Le résultat s’affichera dans une boite de dialogue.

6 Il s’agit du bouton avec lequel les informations sur les opérations d’identification
effectuées au cours de l’exécution sont affichées.

7 Il s’agit du bouton avec lequel les informations sur les opérations de vérification
effectuées au cours de l’exécution sont affichées.

8 Il s’agit du bouton avec lequel des informations sur le système sont affichées.

9 Espace contenant les détails de la librairie des images d’iris.

10 Espace contenant les statistiques de la base sélectionnée.

11 Espace réservé aux paramètres pertinents du système.

12 Espace contenant l’image de référence (source) ainsi que l’image normalisée de son
iris et le masque de bruit.

13 Affichage du nom de la librairie chargée.

14 Retour aux paramètres par défaut automatiquement.

15 Espace contenant l’image cible ainsi que l’image normalisée de son iris et le masque
de bruit.
88 
 
CHAPITRE VI Implémentation et réalisation du système
 
 

16 Il s’agit du bouton avec lequel une image d’iris peut être chargée dans la zone cible.

17 Affichage du constat de la dernière vérification effectuée

18 Fermer

89 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
3.2 Interface Chargement et Normalisation :
Après chargement de la base CASIA-IrisV3-Interval, les détails de celle-ci en nombre
d’individus et en genre seront affichés. L’utilisateur peut parcourir l’ensemble des images
d’individus et sélectionner l’une d’elles pour l’affichage. Celle-ci est donc affichée dans la
zone source ainsi que la forme normalisée de l’iris et son masque de bruit.

Figure VI.6 : Interface Chargement et Normalisation.

90 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
3.3 Interface Identification :
Une fois l’une des images d’un individu est sélectionnée, le processus d’identification de cet
individu peut être relancé. Le résultat d’identification est affiché dans la zone cible. Il s’agit
de la première image d’une des deux sessions de la classe à laquelle l’image à identifier a été
affectée.

Figure VI.7 : Interface Identification.

91 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
3.4 Interface Vérification :
La vérification peut s’effectuer lorsque deux images distinctes appartenant ou pas au même
individu sont sélectionnées (affichées). L’image affichée dans la zone source servira à
construire le modèle de l’individu lui correspondant (image référence). Le résultat de la
distance entre le modèle construit et le gabarit biométrique de l’image cible sera comparé au
seuil de l’individu source. Le résultat de la vérification et ses détails peuvent être affichés
grâce au bouton 16.

Figure VI.8 : Interface Vérification.

92 
 
CHAPITRE VI Implémentation et réalisation du système
 
 

93 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
3.5 Interface Statistiques (identification, vérification) :
Cette interface permet de donner le résumé des opérations d’identification et de vérification
effectuées au cours d’une exécution. Elle peut être nécessaire pour les utilisateurs voulant
faire une étude approfondie sur les images d’iris des deux bases. Ainsi, grâce au bouton 3, on
peut arriver à un constat sur la stabilité d’identification de l’image sélectionnée pour un
certain nombre de tentatives. Contrairement au bouton 5 qui permet d’avoir un constat sur le
taux d’identification d’un individu dont les images de test ne sont identifiées qu’une seule
fois. Enfin, le bouton 4 rend compte sur les mauvaises opérations de vérification.

Figure VI.9 : Interface Statistiques.

94 
 
CHAPITRE VI Implémentation et réalisation du système
 
 

95 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
3.6 Interface Taux d’identification :
Cette interface permet d’avoir une moyenne globale des taux d’identification d’un individu
sur plusieurs tentatives.

Figure VI.10 : Interface Taux d’identification.

96 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
4. Avantages et inconvénients du système :
Dans ce chapitre, nous avons détaillé l’implémentation du système IrisSystem Tool en Visual
C#, et décrit les différentes interfaces de l’application. Comme tout système biométrique,
IrisSystem Tool a été conçu dans le but de se rapprocher du cerveau humain dans sa rapidité,
son exactitude et sa fiabilité. En vue de ce qui a été fait dans la conception et la réalisation, on
peut dégager plusieurs avantages :
¾ Système très interactif :
C’est un système très interactif. En effet, en plus du fait qu’il permet l’identification et la
vérification d’individus avec des taux bons, il permet aussi d’effectuer des tests plus avancés
sur l’effet du bruit et les dimensions de l’iris et de la pupille sur l’identification et la
vérification d’une image ainsi que les taux individuels de reconnaissance. Il permet également
d’étudier l’influence du niveau de segmentation, le pourcentage d’apprentissage, le type de
modèle ainsi que la distance sur la performance du système en identification.

¾ Système performant :
Le système est performant car les taux de reconnaissance (identification et vérification) sont
bons.

¾ Interface simple et rapide :


C’est une interface que toute personne ayant peu de connaissances sur la biométrie peut
utiliser. Un autre avantage : la rapidité des opérations d’identification et de vérification.

Néanmoins, ce système présente quelques faiblesses, entre autres :


¾ Processus de normalisation long :
Cet inconvénient est dû au type d’algorithme de détection des contours de l’iris et de la
pupille basé sur le principe de la transformée de Hough qui a la caractéristique d’être une
méthode à calcul massif, d’où la proposition d’une solution de zoom pour la réduction de la
durée de cette opération.

¾ Système statique :
Ce système ne peut être utilisé que sur deux bases dont les gabarits biométriques ont été
préalablement calculés car l’implémentation du module de normalisation y compris celui de
détection des contours de l’iris et de la pupille est étroitement liée aux différentes
caractéristiques des images d’iris des bases (résolution, luminosité).

¾ Absence d’un système d’acquisition des images :


Faute de la disponibilité d’un système d’acquisition, les seules données utilisées par le
système proviennent des bases. Cela rend les opérations d’identification et de vérification de
simples simulations.

¾ Liaison du système à l’environnement :


L’emplacement des données biométriques utilisées par le système le rend dépendant de
l’environnement dans lequel le système s’exécute.

97 
 
CHAPITRE VI Implémentation et réalisation du système
 
 
Conclusion :
Ce chapitre a été consacré en premier lieu à la présentation des structures de données ainsi
que l’implémentation du système. Ensuite, nous avons décrit les différentes fonctionnalités du
système par le biais de ses différentes interfaces graphiques. Enfin, nous avons détaillé les
avantages et les inconvénients de ce système.
Dans le chapitre suivant, nous allons tester le système dans son environnement afin d’évaluer
ses performances pour en déduire les paramètres optimaux qui garantissent une meilleure
efficacité du système.
 

98 
 
CHAPITRE VII Tests et résultats
 
 
Introduction :
Une fois le système conçu, tout en respectant les conditions de son fonctionnement, il doit
subir de nombreux tests touchant à plusieurs aspects (temps de latence, espace réservé,
performances, valeurs idéales des paramètres pertinents…), et ce dans le but d’aboutir à un
système fiable, performant et efficace.
Dans le domaine de reconnaissance par iris, plusieurs bases de données des images d’iris
standards sont utilisées, les plus courantes sont les bases de données CASIA (en plusieurs
versions) et UBIRIS. Les bases sur lesquelles nous avons effectué nos tests sont : CASIA
V1.0 et CASIA-IrisV3-Interval. La clarté des textures de leurs images d’iris est le principal
motif de notre choix.

1. Présentation des bases d’images :


La reconnaissance par iris a été un sujet de recherche actif de l'Institut d'Automatisation de
l'Académie Chinoise de Sciences (CASIA) [1]. Afin de pallier le manque des images d'iris
pour le test d’algorithmes, la base de données CASIA a été développée. En plus du fait qu’elle
est la plus ancienne, cette base est la plus connue, elle est largement utilisée par la majorité
des chercheurs. Elle présente peu de défauts (images prises sous lumière proche infrarouge,
pas de reflet sur l’image, etc.) et des caractéristiques très proches et homogènes.
CASIA-IrisV3 inclut trois bases nommées CASIA-IrisV3-Interval, CASIA-IrisV3-Lamp et
CASIA-IrisV3-Twins. CASIA-IrisV3 contient un total de 22051 images d'iris prises à partir
de plus de 700 individus. Toutes les images d'iris sont au format JPEG Gray-level 8 bits,
Presque tous les individus sont chinois sauf quelques-uns de la base CASIA-IrisV3-Interval.

1.1 Base de données CASIA V1.0 :


Les images d'iris de CASIA V1.0 ont été capturées à l'aide d'un appareil photo très puissant.
Elle contient 756 images d'iris correspondant à 108 individus, ces images ont été prises sous
lumière proche infrarouge, avec une résolution de 320 x 280 pixels. Ces images sont de très
bonne qualité avec des détails de texture d’iris très clairs. Chaque individu contient 7 images
d’iris réparties en deux sessions : 3 images pour la première session et 4 pour la deuxième
session.

1.2 Base de données CASIA-IrisV3-Interval :


CASIA-IrisV3-Interval est une extension de CASIA V1.0, elle a été utilisée et recommandée
par plus de 1500 chercheurs et groupes de recherches de 70 pays (Juin 2006). CASIA-IrisV3-
Interval contient 2655 images d’iris correspondant à 249 individus, ces images ont été prises
dans les mêmes conditions que CASIA V1.0, avec une résolution de 320 x 280 pixels.

Figure VII.1 : Exemples d’images d’iris de la base de données CASIA.

99 
 
CHAPITRE VII Tests et résultats
 
 

Caractéristiques CASIA V1.0 CASIA-IrisV3-Interval


Capteur Interne Interne
Environnement Interne Interne
La plupart des images ont été
Session deux capturées en 2 sessions, avec au
moins un mois d’intervalle
Nombre de
108 249
personnes
Nombre de classes 216 396
Nombre d’images 756 2655
Résolution 320 x 280 320 x 280
Très bonne qualité d’images avec Très bonne qualité d’images avec
Caractéristiques
des détails de texture d’iris clairs des détails de texture d’iris clairs

Tableau VII.1 : Statistiques de CASIA V1.0 et CASIA-IrisV3-Interval.

2. Tests :
Le système est testé de manière à ce que l’impact de chaque paramètre pertinent sur les
résultats soit évalué. Ceci permet de fixer les valeurs idéales de ces paramètres pour un
meilleur rendement du système.

2.1 Paramètres pertinents du système :


Plusieurs paramètres susceptibles d’influer les résultats peuvent être cités :
- Méthode d’analyse :
La méthode employée lors de la phase d’extraction des caractéristiques. Il y en a deux :
méthode directe et méthode de filtrage.

- Modèle :
Il existe deux types de modèles :
1. Modèle moyen: il s’agit du vecteur statistique moyen d’un échantillon.
2. Modèle intégral: il s’agit du vecteur le plus « proche » d’un échantillon.

- Type_test :
Il existe trois types de test :
1. Sans remise : seuls les individus (Testimp) non utilisées lors du calcul du seuil sont
présentés pour l’opération de vérification.
2. Avec remise totale : l’ensemble des images d’imposteurs présentées pour le test de
vérification est constitué uniquement de celles des imposteurs utilisées lors de l’estimation du
seuil. Autrement dit, l’individu intervient dans le calcul du seuil et dans le test de vérification.
On partage ces images en deux groupes disjoints : l’un pour le seuil et l’autre pour le test de
vérification.
3. Avec remise partielle : c’est une combinaison des deux premiers types. En effet, les
images des imposteurs ayant participé au calcul du seuil et d’autres n’y ayant pas participé
sont présentées pour le test de vérification.

100 
 
CHAPITRE VII Tests et résultats
 
 
A noter que le type de test affecte les fausses acceptations et non pas les faux rejets.

- Distance :
La distance utilisée est

- SegL, SegC :
Le niveau de segmentation en ligne et en colonne de l’image normalisée.

- Napp :
Le pourcentage du nombre d’images par individu utilisées lors de la phase d’apprentissage
pour le calcul des taux d’identification, ce paramètre peut grandement influer les résultats
notamment ceux de l’identification.

- AppCli :
Le pourcentage du nombre d’images de l’échantillon Client réservées à l’apprentissage.

- SeuilCli :
Le pourcentage du nombre d’images de l’échantillon Client réservées au calcul du seuil.

- TestCli :
Le pourcentage du nombre d’images de l’échantillon Client réservées au test de vérification.

- Seuilimp :
Le pourcentage du nombre d’images des échantillons Imposteurs réservées au calcul du seuil.

- Testimp :
Le pourcentage du nombre d’images des échantillons Imposteurs réservées au test de
vérification.

- Priorité P :
La priorité du faux rejet pour la détermination du seuil.

- Fréquence :
La fréquence centrale du filtre de Gabor.

- Nombre a :
Le nombre d’échelles utilisées lors du filtrage.

- Tol :
Le pourcentage de bruit toléré pour qu’une zone de texture soit valide.

101 
 
CHAPITRE VII Tests et résultats
 
 
Les paramètres par défaut sont fixés comme suit :

Paramètres CASIA V1.0 CASIA-IrisV3-Interval


Méthodes d’analyse Méthode de filtrage Méthode de filtrage
Modèle Intégral Intégral
Type_test Sans remise Sans remise
Distance D D
SegL 3 3
SegC 24 8
Napp 2/7 40%
AppCli 2/7 Variable
SeuilCli 2/7 Variable
TestCli 3/7 Variable
SeuilImp 2/7 40%
TestImp 5/7 60%
P 0,5 0,5
1/18 1/18
a 1 1
Tol 40% 40%

Tableau VII.2 : Valeurs par défaut des paramètres pertinents du système.

2.2 Taux d’identification (performances en identification) :


Ces taux d’identification correspondent au taux calculés en utilisant les valeurs par défaut des
paramètres pertinents du système.

Méthode d’analyse Méthode directe Méthode de filtrage


CASIA V1.0 84.07 94.62
CASIA-IrisV3-Interval 76.70 91.21

Tableau VII.3 : Taux d’identification des deux techniques de codage.

Ce tableau montre l’efficacité de l’utilisation de la méthode de filtrage par rapport à la


méthode directe. Ceci s’explique par le fait que la méthode de filtrage n’utilise que
l’information utile (information discriminante).
Les résultats de la base CASIA V1.0 sont mieux que ceux de la base CASIA-IrisV3-Interval.
Ceci est dû au fait que la base CASIA-IrisV3-Interval est plus volumineuse que la base
CASIA V1.0 (plus le nombre de tests augmente, plus le taux d’erreurs risque d’être grand).

102 
 
CHAPITRE VII Tests et résultats
 
 
2.2.1 Evolution du taux d’identification suivant le nombre d’images (Napp) et le taux
d’apprentissage (Tapp) utilisés :
- Base de données CASIA V1.0 :

Napp 1 2 3 4 5 6
Méthode directe 73.60 84.07 88.88 89.81 90.27 90.74
Méthode de filtrage 89.66 94.62 97.33 98.76 98.45 99,07

Tableau VII.4 : Evolution du taux d’identification suivant le nombre d’images (Napp).

Figure VII.2 : Evolution du taux d’identification suivant le nombre d’images (Napp)


utilisées.

Le taux d’identification évolue en fonction du nombre d’images (Napp) utilisées pour


l’apprentissage, plus ce nombre augmente, plus le taux d’identification augmente. A noter
qu’à partir d’un nombre de 3 images, le taux d’identification n’augmente que de peu.

- Base de données CASIA-IrisV3-Interval :

Tapp 30 40 50 60 70 80
Méthode directe 69.21 76.34 80.78 81.87 83.97 84.14
Méthode de filtrage 86.26 91.21 94.30 94.48 94.87 95,32

Tableau VII.5 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp).

103 
 
CHAPITRE VII Tests et résultats
 
 

Figure VII.3 : Evolution du taux d’identification suivant le taux d’apprentissage (Tapp)


utilisé.

Le taux d’identification évolue en fonction du taux d’apprentissage utilisé (Tapp), plus ce


taux augmente, plus le taux d’identification augmente. A noter qu’à partir d’un taux
d’apprentissage de 50%, le taux d’identification n’augmente que de peu.

2.2.2 Evolution du taux d’identification suivant les catégories d’individus :


L’intérêt d’une telle étude est d’arriver à comprendre l’impact du nombre d’images par
individu sur le taux d’identification. On distingue quatre catégories d’individus en fonction du
nombre d’images par individu :
- Catégorie 1 : échantillon de 1 à 3 images.
- Catégorie 2 : échantillon de 4 à 9 images.
- Catégorie 3 : échantillon de 10 à 20 images.
- Catégorie 4 : échantillon supérieur à 20 images.
Les résultats sont illustrés selon les valeurs par défaut des paramètres du système. Cette étude
ne concerne que la base CASIA-IrisV3-Interval dont le nombre d’images par individu est
variable.

Catégories Catégorie 1 Catégorie 2 Catégorie 3  Catégorie 4


Fréquence  19/249 104/249 120/249  6/249
Méthode directe 41.38 75.12 76.09  76.45
Méthode de filtrage  72.41 90.05 91.83  96,74

Tableau VII.6 : Evolution du taux d’identification suivant les catégories d’individus.

104 
 
CHAPITRE VII Tests et résultats
 
 

Figure VII.4 : Evolution du taux d’identification suivant les catégories d’individus.

Le taux d’identification évolue en fonction du nombre d’images par individu, plus ce nombre
augmente, plus le taux d’identification augmente. A noter qu’à partir d’un nombre de 4
images par individu, le taux d’identification devient satisfaisant et n’augmente que de peu
lorsque le nombre d’images augmente. Le taux d’identification est meilleur lorsque le nombre
d’images par individu est supérieur à 20.

2.2.3 Evolution du taux d’identification suivant le niveau de segmentation :


Cette étude est très importante car elle permet d’avoir une idée précise quant à l’impact de la
segmentation sur les résultats d’identification. Elle permet, en effet, de connaître à quel
niveau de segmentation, les critères statistiques calculés sur différents niveaux de
segmentation caractérisent la texture de l’iris de manière à discriminer les individus entre eux.

105 
 
CHAPITRE VII Tests et résultats
 
 

- Base de données CASIA V1.0 :

SegL - SegC Méthode directe Méthode de filtrage


1-2 25.00 13.33
1-4 35.74 23.33
1-8 58.70 45.55
2-1 15.74 11.29
2-2 25.37 13.70
2-4 41.48 21.48
2-8 76.11 62.77
2 - 10 77.59 74.44
2 - 12 80.56 75.92
2 - 16 83.88 88.33
3-8 84.07 78.14
3 - 10 - 78.51
3 - 12 - 88.51
3 - 16 - 95.18
3 - 24 - 94.62

Tableau VII.7 : Evolution du taux d’identification suivant le niveau de segmentation.

Figure VII.5 : Evolution du taux d’identification suivant le niveau de segmentation.

On déduit de ce tableau qu’il y a une relation proportionnelle entre le niveau de segmentation


et les résultats d’identification, plus on augmente la segmentation, plus les taux
d’identification sont meilleurs. On remarque que pour la méthode de filtrage, la segmentation
au-delà d’un certain seuil pourrait créer des gabarits très proches (similaires) pour des iris

106 
 
CHAPITRE VII Tests et résultats
 
 
différents, ce qui conduit à une diminution des bonnes performances. Les résultats de la
méthode directe sont mieux que celle de la méthode de filtrage.
La méthode directe est plus performante que celle de filtrage, mais nécessite un temps de
création de gabarits considérable (ne permet pas d’aller au delà d’une segmentation 3 - 8 car
une telle opération sera très longue).

- Base de données CASIA-IrisV3-Interval :

SegL - SegC Méthode directe Méthode de filtrage


1-2 18.28 09.08
1-4 29.51 17.20
1-8 53.58 37.22
2-1 17.32 06.27
2-2 20.19 07.29
2-4 32.80 15.83
2-8 68.16 63.98
2 - 10 69.59 70.79
2 - 12 72.34 78.20
2 - 16 75.94 83.39
3-8 76.70 73.42
3 - 10 - 82.32
3 - 12 - 83.99
3 - 16 - 87.34
3 - 24 - 91,04

Tableau VII.8 : Evolution du taux d’identification suivant le niveau de segmentation.

Figure VII.6 : Evolution du taux d’identification suivant le niveau de segmentation.

107 
 
CHAPITRE VII Tests et résultats
 
 
Même constatation que pour la base de données CASIA V1.0, il ya une relation
proportionnelle entre le niveau de segmentation et les taux d’identification. A noter que pour
cette base, le taux d’identification augmente toujours en fonction du niveau de segmentation
même si celui-ci atteint son maximum, cela est dû au fait qu’il y a plus de diversité en gabarits
(le nombre de personnes de la base CASIA-IrisV3-Interval est supérieur au double du nombre
de personnes que contient la base CASIA V1.0).

2.2.4 Evolution du taux d’identification suivant la distance utilisée :


- Base de données CASIA V1.0 :

Distance Distance de Mahalanobis Distance D


Méthode directe 69.81 84.07
Méthode de filtrage 89.62 94,62

Tableau VII.9 : Evolution du taux d’identification suivant la distance utilisée.

- Base de données CASIA-IrisV3-Interval :

Distance Distance de Mahalanobis Distance D


Méthode directe 60.75 76.70
Méthode de filtrage 82.61 91.04

Tableau VII.10 : Evolution du taux d’identification suivant la distance utilisée.

On remarque à travers ces résultats que les taux d’identification obtenus sont mieux en
utilisant la distance D qu’en utilisant la distance de Mahalanobis et ce quelque soit la base de
données et la méthode d’analyse utilisées.

2.2.5 Evolution du taux d’identification suivant le type de modèle utilisé :


- Base de données CASIA V1.0 :

Modèle Modèle moyen Modèle intégral


Méthode directe 20.37 84.07
Méthode de filtrage 84.25 94.62

Tableau VII.11 : Evolution du taux d’identification suivant le type de modèle utilisé.

- Base de données CASIA-IrisV3-Interval :

Modèle Modèle moyen Modèle intégral


Méthode directe 10.81 76.70
Méthode de filtrage 20.37 84.07

Tableau VII.12 : Evolution du taux d’identification suivant le type de modèle utilisé.

108 
 
CHAPITRE VII Tests et résultats
 
 
Il est clair que le modèle intégral est mieux que le modèle moyen car les résultats obtenus en
utilisant le modèle moyen sont médiocres, contrairement aux résultats obtenus en utilisant le
modèle intégral, et ce quelque soit la base de donnée et la méthode d’analyse utilisées.

2.3 Distributions des distances intra classe et interclasses :


Les distances entre vecteurs caractéristiques d’un même individu sont appelées distances intra
classes et les distances entre vecteurs caractéristiques d’individus différents sont appelées
distances interclasses. Statistiquement, il n’y a que peu de corrélations entre les codes
(gabarits biométriques) d’individus distincts, la distance interclasses devrait donc être plus
grande que la distance intra classe.

Les distances intra classes ne peuvent pas être nulles, car les conditions de prise d’images
d’iris ainsi que les erreurs de détection de la pupille et de l’iris entraînent des variations au
niveau local.
Empiriquement, cette propriété se traduit par l’observation de deux distributions de distances
avec un faible chevauchement. Ce chevauchement des deux courbes interclasses et intra
classes est problématique. En effet, si l’identification se fait en utilisant un seuil pour la
distance utilisée certaines personnes rentreront sans être autorisées et d’autres seront privées
d’accès bien qu’ils aient le droit. Les figures suivantes illustrent les performances en
identification du système.

Les zones de chevauchements sont différentes en fonction de la technique de codage et de la


base utilisée. Pour la même base utilisée CASIA V1.0, la technique de filtrage est meilleure
car la zone de chevauchement est plus petite. La distribution interclasses dans la figure des
distributions de la technique directe semble quelque peu étalée (elle varie rapidement en
fonction des distances surtout dans la zone de chevauchement) contrairement à la distribution
intra classes dans la figure des distributions par technique de filtrage, dont les valeurs des
distances interclasses semblent stagner.

109 
 
CHAPITRE VII Tests et résultats
 
 
300

250

200

150

100

50

0
0 200 400 600 800 1000 1200 1400 1600 1800 2000

Figure VII.7 : Distributions des distances intra classe et interclasses de la base CASIA V1.0
en utilisant la méthode de filtrage.
300

250

200

150

100

50

0
0 200 400 600 800 1000 1200 1400

Figure VII.8 : Distributions des distances intra classe et interclasses de la base CASIA V1.0
en utilisant la méthode directe.

Le même phénomène est observé dans les distributions interclasses et intra classes de la base
CASIA-IrisV3-Interval, la zone de chevauchement est plus grande lorsque la technique
directe est utilisée ce qui réduit considérablement les performances en vérification.

110 
 
CHAPITRE VII Tests et résultats
 
 
2500

2000

1500

1000

500

0
0 200 400 600 800 1000 1200 1400 1600 1800 2000

Figure VII.9 : Distributions des distances intra classe et interclasses de la base


CASIA-IrisV3-Interval en utilisant la méthode de filtrage.
1500

1000

500

0
0 200 400 600 800 1000 1200 1400 1600 1800

Figure VII.10 : Distributions des distances intra classe et interclasses de la base


CASIA-IrisV3-Interval en utilisant la méthode directe.

111 
 
CHAPITRE VII Tests et résultats
 
 

2.4 Taux FAR et FRR (Performances en vérification) :

Taux FAR FRR TER


CASIA V1.0 1.29 7.75 4.44
CASIA-IrisV3-Interval 3.80 12.27 8.03

Tableau VII.13 : Taux FAR et FRR du système.

Les taux FAR et FRR de la base CASIA V1.0 sont plus bas que ceux de la base CASIA-
IrisV3-Interval. Ceci est dû au fait que la base CASIA-IrisV3-Interval contient plus
d’individus par rapport à la base CASIA V1.0 (il est plus difficile de séparer des échantillons
de 249 individus que des échantillons de 108 individus).

Au cours de nos tests, nous avons constaté que le nombre de faux rejets FR résultant des
opérations de vérification effectuées sur deux images quelconques appartenant à deux
sessions différentes du même individu était considérablement élevé par aux FR résultant des
opérations de vérifications effectuées sur deux images quelconques appartenant à la même
session du même individu. Nous insinuons donc que les sessions d’un même individu peuvent
être considérées comme deux classes distinctes.

- Evolution des taux FAR et FRR suivant le nombre d’images utilisées pour l’échantillon
AppCli et l’échantillon TestCli (CASIA V1.0) :

AppCli=2, TestCli=3 AppCli=3, TestCli=2


FAR 1.29 1.34
FRR 7.75 12.17
TER 4.44 6.75

Tableau VII.14 : Taux FAR et FRR avec des taux d’apprentissage et de test différents.

Les taux FAR et FRR sont plus élevés en utilisant des échantillons AppCli=3 et
TestCli=2qu’en utilisant des échantillons AppCli=2 et TestCli=3. Cela revient au fait que les
images de la base sont touchées par le bruit (l’iris est submergé par les cils et les paupières).

112 
 
CHAPITRE VII Tests et résultats
 
 

2.5 Temps d’exécution :


Les tests ont été effectués sur un PC doté d’un processeur Core 2 Duo 1.8 GHz, les résultats
sont donnés en secondes.

2.5.1 Estimation du temps d’exécution en fonction du zoom de la phase de segmentation


et de normalisation :

Zoom 50% 75% 100%


CASIA V1.0 3.86 11.66 34.09
CASIA-IrisV3-Interval 4 15.20 40

Tableau VII.15 : Temps d’exécution en fonction du zoom de la phase de segmentation et de


normalisation.

Ce tableau montre que la phase de segmentation et de normalisation est très longue. Cela nous
conduit à introduire le paramètre zoom afin de pallier à cet inconvénient. En effet, le taux
d’exécution est considérablement réduit pour un zoom de 75% ou de 50%.

2.5.2 Estimation du temps d’exécution de la phase de filtrage et celle d’extraction des


caractéristiques :

Extraction des caractéristiques


Phases Filtrage
Filtrage Directe
CASIA V1.0 0.252 0.057 308.92
CASIA-IrisV3-Interval 0.306 0.057 317.37

Tableau VII.16 : Temps d’exécution de la phase de filtrage et celle d’extraction des


caractéristiques.

L’opération de filtrage est relativement courte, et ce pour les deux bases. La durée de
l’opération d’extraction des caractéristiques en utilisant la méthode de filtrage est très petite,
contrairement à la méthode directe dont la durée est très grande (c’est l’inconvénient majeur
de cette méthode).

2.5.3 Estimation du temps d’exécution de la phase de vérification :

Phase  Vérification
CASIA V1.0 0.884
CASIA-IrisV3-Interval 1.45

Tableau VII.17 : Temps d’exécution de la phase de vérification.

La durée de la phase de vérification reste acceptable pour les deux bases CASIA V1.0 et
CASIA-IrisV3-Interval.
113 
 
CHAPITRE VII Tests et résultats
 
 

2.5.4 Estimation du temps d’exécution de la phase d’identification :

Identification
Phase Méthode de filtrage Méthode directe
Intégral Moyen Intégral Moyen
CASIA V1.0 0.669 0.705 0.547  0.539
CASIA-IrisV3-Interval  2.39 2.064 1.90  1.73

Tableau VII.18 : Temps d’exécution de la phase d’identification.

La durée de la phase d’identification pour la base CASIA V1.0 est petite par rapport à celle de
CASIA-IrisV3-Interval, et ce quelque soit la méthode et le modèle utilisés. Cela est dû au fait
que la base CASIA-IrisV3-Interval est plus volumineuse que CASIA V1.0. L’identification en
utilisant le modèle intégral dure plus longtemps par rapport au modèle moyen.

114 
 
CONCLUSION GENERALE
 
 
L’objectif de notre travail est la réalisation d’un système d’identification biométrique de
personnes par reconnaissance de l’iris, permettant d’illustrer le processus d’identification
(reconnaissance des individus) et celui de vérification (contrôle d’accès).

Deux méthodes d’analyse ont été choisies : la première est l’analyse statistique directe,
c'est-à-dire une analyse opérant directement sur l’ensemble des pixels représentant l’image
normalisée de l’iris. Cette méthode prend en considération tous les détails d’une image d’iris
normalisée, y compris l’information inutile pour un problème tel que la discrimination, d’où
la nécessité d’analyse approfondie (méthode de second ordre et d’ordre supérieur). La
deuxième méthode découle naturellement de l’inconvénient de la première méthode : le
filtrage de l’image normalisée. Ce traitement permettra de ne garder que l’information
essentielle pour la discrimination, c'est-à-dire les transitions brusques d’un niveau de gris vers
un autre.

Les deux bases de données sur lesquelles ont été effectués nos tests sont : CASIA V1.0
et CASIA-IrisV3-Interval. La clarté des textures de leurs images d’iris était le principal motif
de notre choix. Plusieurs tests ont été effectués sur ces deux bases pour étudier les paramètres
pertinents du système et ressortir les valeurs optimales. Ces tests ont révélé l’efficacité de
l’utilisation de la méthode de filtrage par rapport à la méthode directe. Ceci s’explique par le
fait que la méthode de filtrage n’utilise que l’information utile (information discriminante).

Nous estimons avoir réalisé un système répondant à l’objectif que nous nous sommes
fixés au départ, à savoir la mise en œuvre d’un système permettant la reconnaissance
d’individus et le contrôle d’accès. Notre système se distingue parfaitement par son
interactivité, il permet d’effectuer des tests plus avancés sur l’effet du bruit et les dimensions
de l’iris et de la pupille sur l’identification et la vérification d’une image ainsi que les taux
individuels de reconnaissance. Il permet également d’étudier l’influence des différents
paramètres sur les performances du système. En outre, il présente une interface simple et
rapide que toute personne ayant peu de connaissances sur la biométrie peut utiliser.

Alors, et en guise de perspectives, une extension de ce travail peut être réalisée en


intégrant un système d’acquisition des images pour éviter que ces opérations d’identification
et de vérification soient de simples simulations. Une autre amélioration est de rendre ce
système dynamique pour qu’il puisse être utilisé sur n’importe quelle base.

115 
 
Bibliographie
CHAPITRE I : INTRODUCTION A LA BIOMETRIE

[1] A. K. Jain, L. Hong, S. Pankanti, « Biometrics : Promising Frontiers for Emerging


Identification Market », Communications of the ACM, pp. 91-98, February 2000.

[2] Jean-Luc Dugelay Al., « Recent Advances in Biometric Person Authentication », IEEE
Int. Conf. on Acoustics Speech and Signal Processing (ICASSP), Orlando, Florida,
May 2002.

[3] http://www.biometricgroup.com

[4] Florent Perronnin, Jean-Luc Dugelay, « Introduction à la biométrie : Authentification


des individus par traitement audio-vidéo », Institut Eurocom, Multimedia
Communications Department, Revue Traitement du signal, Vol. 19, N° 4, 2002.

[5] N. Galy, « Etude d’un système complet de reconnaissance d’empreintes digitales pour
un capteur microsystème à balayage », Thèse de doctorat, Institut National
Polytechnique de Grenoble, Avril 2005.

[6] G.O. Williams, « Iris Recognition Technology » , IEEE Aerospace and Electronics
Systems Magazine, Vol. 12, Issue 4, pp. 23 -29, April 1997.

[7] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proceeding of the
IEEE, Vol. 85, Issue 9, pp. 1348 -1363, September 1997.

[8] A.K. Jain, A. Ross, and S. Pankanti, « A prototype hand geometry-based verification
system », Proc. of 2nd International Conf. on Audio- and Video-based Biometric Person
Authentication, pp. 166 171, March 1999.

[9] W. Zhao, R. Chellappa, P.J. Phillips, A. Rosenfeld, « Face recognition : A literature


survey », ACM Computing Surveys (CSUR), Vol. 35, Issue 4, December 2003.

[10] W.A. Barrett, « A survey of face recognition algorithms and testing results »,
Conference Record of the Thirty-First Asilomar Conference on Signals, Systems &
Computers, pp. 301-305, 1997.

[11] http://www.retina-scan.com/retina_scan_technology.htm

[12] http://www.veinid.com

116 
 
[13] S.J. Vaughan-Nichols, « Voice authentication speaks to the marketplace », Computer,
Vol. 37, Issue 3, pp. 13-15, March 2004.

[14] B.H. Juang, T. Chen, « The past, present, and future of speech processing », IEEE
Signal Processing Magazine, Vol. 15, Issue 3, pp. 24-48, May 1998.

[15] R. Gaines W. Lisowski, S. Press, N. Shapiro, « Authentification by Keystroke Timing :


Some Preliminary Results », Rand Report R-256NSF, Rand Corp, 1980.

[16] L.L. Lee, T. Berger, E. Aviczer, « Reliable On-Line Human Signature Verification
Systems », IEEE Transactions on PAMI, Vol. 18, N° 6, pp.643-647, June 1996.

[17] Lily Lee, « Gait analysis for recognition and classification », Research Abstract of the
Artificial Intelligence Laboratory at MIT, Cambridge – Massachusetts, 2002.

[18] S. Liu, M. Silveman, « A pratical Guide to Biometric Security Technology », IEEE


Computer Society, IT Pro-Security, Janvier-Février 2001.

[19] A. K. Jain, L. Hong, S. Pankanti, « Biometrics : Promising Frontiers for Emerging


Identification Market », Communications of the ACM, pp. 91-98, February 2000.

[20] C. Fredouille, J. Mariethoz, C. Jaboulet, J. Hennebert, J.-F. Bonastre, C. Mokbel, F.


Bimbot, « Behavior of a Bayesian Adaptation Method for Incremental Enrollment in
Speaker Verification », International Conference on Acoustics, Speech, and Signal
Processing, pp. 1197-1200, Istanbul, Turquie, 5-9 Juin 2000.

[21] L. Heck, N. Mirghafori, « On-Line Unsupervised Adaptation in Speaker Verification »,


International Conference on Spoken Language Processing, Vol. 2, pp. 454-457, Pékin,
Chine, 16-20 Octobre 2000.

[22] P. Phillips, H. Hyeonjoon, S. Rizvi, P. Rauss, « The FERET Evaluation Methodology


for Face-Recognition Algorithms », IEEE Transactions on Pattern Analysis and
Machine Intelligence, Vol. 22, N° 10, Octobre 2000.

[23] Jamal Kharroubi, « Etude de Techniques de Classement : Machines à Vecteurs Supports


pour la Vérification Automatique du Locuteur », Ecole Nationale Supérieure des
Télécommunications, 2002.

[24] A. K. Jain, A. Ross, S. Prabhakar, « An introduction to biometric recognition »,


http://www.cse.msu.edu

[25] P. Landragin, « De la reconnaissance d’empreintes digitales à celle de l’iris de l’œil »,


Magasine Electronique, N° 132, pp. 3-38, Janvier 2003.

117 
 
CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE

[1] R.M. Haralick, « Statistical and structural approaches to textures », Proceedings of the
IEEE, Vol. 67, N° 5, pp. 786-804, May 1979.

[2] M. Unser, « Description statistique de la texture », Thèse de docteur es sciences, Ecole


Polytechnique Fédérale de Lausanne, Suisse, 1984.

[3] A. Gagalowicz, « Vers un modèle de textures », Thèse de doctorat, Université Pierre et


Marie Curie, Paris V, Mai 1983.

[4] R.W. Conners, C.A. Harlow, « A theoretical comparison of texture algorithms », IEEE
Transactions on Pattern Analysis and Machine Intelligence, Vol. 2, N° 3, pp. 204-222,
May 1980.

[5] J. Weska, C. Dyer, A. Rosenfeld, « A comparative study of texture measures for terrain
classification », IEEE Transactions on Systems, Man, and Cybernetics, Vol. 6, pp. 269-
285, 1976.

[6] L.S. Davis, S. Johns, J.K. Aggarwal, « Texture analysis using generalized cooccurrence
matrices », Proceedings of the IEEE Conference on Pattern Recognition and Image
Processing, Chicago, USA, 1979.

[7] M.M. Galloway, « Texture analysis using gray level run lengths », CGIP 4, pp. 172-
179, 1975.

CHAPITRE III : RECONNAISSANCE PAR IRIS

[1] Elaine R Berman, « Biochemistry of the Eye », Springer, 1991.

[2] John G. Daugman, « High confidence visual recognition of persons by a test of


statististical independence », IEEE Transactions on Pattern Analysis and Machine
Intelligence, Vol. 15, N° 11, pp. 1148-1160, November 1993.

[3] Ales Muron, Jaroslav Pospisil, « The human iris structure and its usages », Acta Univ.
Palacky Olomuc. Fac. Rerum Nat. Phys., Vol. 39, pp. 87-95, 2000.

[4] A. K. Jain, « Biometric recognition : How do I know who you are ? », Carnegie Mellon
University Distinguished Lecture Series, November 2004.

[5] T. Mansfield, G. Kelly, D. Chandler, J. Kane, « Biometric product testing », Final


Report of Centre for Mathematics and Scientific Computing, National Physical Lab.,
UK, 19 Mars 2001.

118 
 
[6] Brevet US 5016282, ATR COMMUNICATION SYSTEMS, 14 Mai 1991.

[7] Brevet WO 98/08439, SENSAR INC., 19 Octobre 1998.

[8] Brevet JP 11047117, OKI ELECTRIC, 23 Février 1999.

[9] Brevet US 5956122, LITTON SYSTEM, 21 Septembre 1999.

[10] Brevet EP 0973122, MEDIA TECHNOLOGY INC., 19 Janvier 2000.

[11] Brevet WO 00/62239, IRITECH INC., 19 Octobre 2000.

[12] Kwanghyuk Bae, Seungin Noh, Jaihei Kim, « Iris feature extraction using independent
component analysis », Proc. 4th Intl. Conf. on Audio and Video Based Biometric
Person Authentication (AVBPA 2003), pp. 838-844, 2003.

[13] Vivekanand Dorairaj, Gamal Fahmy, Natalia Schmid, « Performance evaluation of


iris based recognition system implementing pca and ica techniques », Proc. of SPIE
Conf. on Biometric Technology for Human Identification, March 2005.

[14] Richard P. Wildes, « Iris recognition : An emerging biometric technology »,


Proceedings of the IEEE, Vol. 85, N° 9, pp. 1348-1363, September 1997.

[15] Li Ma, Yunhong Wang, Tieniu Tan, « Iris recognition using circular symmetric
filters », Proc. of 16th Intl. Conf. on Pattern Recognition, Vol. 2, pp. 805-808, 2000.

[16] Li Ma, Yunhong Wang, Tieniu Tan, « Personal identification based on iris texture
analysis », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25,
N° 12, pp. 1519-1533, December 2003.

[17] Vijaya B.V.K. Kumar, C. Xie, J. Thornton, « Iris verification using correlation
filters », Proc. 4th Intl. Conf. on Audio and Video Based Biometric Person
Authentication (AVBPA 2003), pp. 697-705, June 2003.

[18] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on Signal Processing, Vol. 46, N° 4, pp.
1185-1188, April 1998.

[19] Li Ma, Tieniu Tan, Yunhong Wang, « Efficient iris recognition by characterizing key
local variations », IEEE Transactions on Image Processing, Vol. 13, N° 6, pp. 739-750,
June 2004.

[20] John G. Daugman, « Complete discrete 2D Gabor transforms by neural networks for

119 
 
image analysis and compression », IEEE Transactions on Acoustics, Speech, and
Signal Processing, Vol. 36, N° 7, pp. 1169-1179, July 1988.

[21] J. Daugman, « High confidence personal identification by rapid video analysis of iris
texture », Proc. of the IEEE for the International Conference on Security Technology,
1992.

[22] J. Daugman, « High confidence recognition of persons by rapid video analysis of iris
texture », Publication of IEE for Conf. on European Convention on Security and
Detection, 16-18 Mai, 1995.

[23] F. Bouchier, J.S. Ahrens, G. Wells, « Laboratory evaluation of the IrisScan prototype
biometric identifier », Sandia National Laboratories, Albuquerque, NM, Tech. Rep.
SAND’96-1033, 1996.

[24] R.P. Wildes, « A system for automated iris recognition », Proc. of 2nd IEEE Workshop
on Applications of Computer Vision, pp. 121-128, Décembre 1994.

[25] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proc. of the
IEEE, Vol. 85, N° 9, Septembre 1997.

[26] W.W. Boles, « A wavelet transform based technique for the recognition of the human
iris », Proc. of International Symposium on Signal Processing and its Application,
Australia, 25-30 Août 1996.

[27] W.W. Boles, « A security system based on human iris identification using wavelet
transform », Proc. of the 1st International Conf. on Knowledge-based Intelligent
Electronic Systems, Adelaide, Australia, 21-23 Mai 1997.

[28] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on signal processing, Vol. 46, N° 4, Avril
1998.

[29] R. Sanchez-Reillo, C. Sanchez –Avila, A. Gonzales-Marcos, « Improving access


control Security using iris identification », Proc. of the Conf. BMES/EMBS, IEEE
Publication, Atlanta, Octobre 1999.

[30] Y. Zhu, T. Tan, Y. Wang, Chinese Patent Application N° 9911025, 1999.

[31] Y. Zhu, T. Tan, Y. Wang, « Biometric personal identification based on iris patterns »,
Proc. of IAPR, International Conf. on Pattern Recognition, Vol. II, pp. 805-808, 2000.

[32] L. Ma, Y. Wang, T. Tan, « Iris recognition using circular symmetric filters », Proc. of
ICPR’02, Québec city, Canada, 11-25 Août 2002.

120 
 
[33] S.Z. Li, J. Lu, « Face recognition using the nearest geature line method », IEEE
Transactions On Neural Networks, Vol. 10, N° 2, pp. 439-443, Mars 1999.
[34] S. Lim, K. Lee et T. Kim, « Efficient iris recognition through improvement of feature
vector and classifier », ETRI Journal, Vol. 23, N° 2, Juin 2001.

[35] S-I. Noh, K. Pae, C. Lee, J. Kim, « Multi-resolution independent component analysis
for iris identification », Proc. of International and Technical Conf. on Circuits/Systems
& Communication, Phuket, Thaïlande, Juillet 2002.
[36] A. Muron, P. Kois, J. Pospisil, « Identification of persons by means of the Fourier
spectra of the optical transmission binary models of the human irises », Optics
Communication by Elsevier Science, 192, pp. 161-167, 2001.

[37] M. Dobes, L. Machala, P. Tichavsky, « Iris recognition using mutual information »,


Rapport de projet MSM 153100007 du Ministère de l’Education de la République
tchèque en collaboration avec l’Université de Palacky, 2003.

[38] A. Czajka, A. Pacut, « Comments on iris interchange format, projet 1576, revision D
par Dr Cambier », Report of The Institute of Control and Computation Engineering,
Université de Varsovie, Pologne, 30 Novembre 2002.

CHAPITRE IV : ONDELETTES

[1] Jaideva C. Goswami, Andrew K. Chan, « Fundamentals of Wavelets : Theory,


Algorithms, and Applications », Wiley Series in Microwave and Optical Engineering.
Wiley Interscience, ISBN 0-471-19748-3, 1999.

[2] B. B. Hubbard, « Ondes et Ondelettes », Collection Sciences d’Avenir. Pour la Science,


diff. Belin, Paris, ISBN 2-9029-1890-9, 1995.

[3] A. Cohen, « Ondelettes et Traitement Numérique du Signal », Masson, ISBN


2-225-83954-9, 1992.

[4] Stéphane G. Mallat, « A Theory for Multiresolution Signal Decomposition : The


Wavelet Representation », IEEE Transactions On Pattern Analysis And Machine
Intelligence, 11(7), 1989.

[5] Gilbert Strang, Truong Nguyen, « Wavelets and Filter Banks », Wellesley-Cambridge
Press, ISBN 0-9614088-7-1, 1996.

CHAPITRE V : CONCEPTION DU SYSTEME

[1] D. Jirak, M. Dezortova, P. Taimr, M. Hajek, « Texture analysis of human liver »,


J. Magn Reson Imaging, 2002, 15:68-74.

121 
 
[2] X. Zhang, H. Fujita, M. Kanematsu, X. Zhou, T. Hare, H. Kato, R. Yokoyama, H.
Hoshi, « Improving the classification of cirrhotic liver by using texture features », Conf
Prec IEEI Eng Med. Biol. Soc. 2005, 1:867-870.

[3] H. Kato, M. Kanematsu, X. Zhang, M. Saio, H. Kondo, S. Goshima, H. Fujita,


« Computed- aided diagnosis of hepatic fibrosis : preliminary evaluation of MRI texture
analysis using the finite difference method and an artificial neural network », AJR
2007, 189:117-122.
[4] J. Daugman, « How Iris Recognition Works », Proceedings of 2002 International
Conference on Image Processing, Vol. 1, 2002.

[5] S. Mallat, « Une exploration des signaux en ondelettes », Editions de l’Ecole


Polytechnique.

[6] Libor Masek, Peter Kovesi, « MATLAB Source Code for a Biometric Identification
System Based on Iris Patterns », The School of Computer Science and Software
Engineering, The University of Western Australia, 2003.

[7] J. Daugman, « Complete discrete 2D Gabor transforms by neural networks for image
analysis and compression », IEEE Transactions on Acoustics, Speech, and Signal
Processing, Vol. 36, N° 7, pp. 1169-1179, July 1988.

CHAPITRE VII : TESTS ET RÉSULTATS

[1] Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports

ANNEXE A : RECONNAISSANCE DES FORMES

[1] K. S. Fu, « Syntactic Methods in Pattern Recognition », Academic Press, Inc, New
York, 1974.

[2] B. Dubuisson, « Diagnostic et Reconnaissance des Formes », Traité des nouvelles


technologies. Série diagnostic et Maintenance. Hermès, Paris, 1990.

[3] R.C. Dubes, A.K. Jain, « Validities studies in clustering methodologies », Pattern
Recognition, N° 11, pp. 235-254, 1979.

[4] A.K. Jain, R.C. Dubes, « Algorithms for Clustering Data », Prentice Hall, 1988.

122 
 
[5] M. Donias, « Caractérisation de Champs d’Orientation par Analyse en Composantes
Principales et Estimation de la Courbure : Application aux Images Sismiques », Thèse
de doctorat, Université Bordeaux I, France, Janvier 1999.

[6] R. A. Fisher, « The use of multiple measurements in taxonomic problems », Annals of


Eugenics, Vol. 7, pp. 179-188, 1936.

[7] Nicolas Morizet, Thomas EA, Florence Rossant, Frederic Amiel, Amara Amara,
« Revue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage
pour la biométrie », Institut Supérieur d’Electronique de Paris (ISEP).

[8] John Holland, « Outline for a logical theory of adaptive systems », Journal of the
Association of Computing Machinery, 3, 1962.

[9] D.E. Goldberg, « Genetic Algorithms in Search, Optimization and Machine Learning »,
Reading MA AddisonWesley, 1989.

[10] E. Diday, J. C. Simon, « Cluster Analysis », dans Digital Pattern Recognition,


(K. S. FU edition), pp. 47-94, Springer – Verlag, Berlin, 1976.

[11] R. O. Duda, P. E. Hart, « Pattern Classification and Scene Analysis », John Wiley and
Sons, New York, 1973.

[12] L. A. Bartolucci, P. H. Swain, C. Wu, « Selective radiant temperature mapping using a


layered classifier », IEEE Trans. Geosci. Electron., Vol. GE-14, pp. 101-106, 1976.

[13] Y. X. Gu, Q. R. Wang, C. Y. Suen, « Application of multilayer decision tree in


computer recognition of Chinese characters », IEEE Transactions Pattern Anal.
Machine Intell., Vol. PAMI-13, pp. 163-174, 1991.

[14] A. C. Anderson, K. S. Fu, « Design and development of a linear binary tree for
leukocytes », Purdue University, West Lafayette, IN, Tech. Rep. TR-EE- 79-31, 1979.

[15] E. Didelet, « Les arbres de neurones avec rejet d’ambiguïté. Application au diagnostic
pour le pilotage en temps réel du réseau téléphonique français », Thèse de doctorat,
Université de Technologie de Compiègne, 1992.

[16] T. W. S. Chow, G. Fei, « Three phase induction machines asymmetrical faults


identification using bispectrum » IEEE Transactions on Energy Conversion, Vol. 10,
Issue 4, pp. 688-693, December 1995.

[17] J. Kittler, « A method for determining k nearest neighbors », Kibernetes, Vol. 7, pp.
313-315, 1978.

123 
 
[18] M. Richetin, G. Rives, M. Naranjo, « Algorithme rapide pour la détermination des k
plus proches voisins », R.A.I.R.O. Informatique, Vol. 14, N° 4, pp. 369-378, 1980.

[19] J. H. Friedman, J. L. Bentley, R. A. Finkel, « An algorithm for finding nearest


Neighbors », IEEE Transactions On Computer, Vol. 24, pp. 1000-1006, July 1975.

[20] D. L. Wilson, "Asymptotic properties of nearest neighbor rules using edited data", IEEE
Transactions on Systems, Man and Cybernetics, Vol. SMC-2, N° 3, pp. 408-421, July
1972.

ANNEXE B : BASES DES IMAGES D’IRIS STANDARDS

[1] University of Bath, « University of Bath iris image database », 2004,


http://www.bath.ac.uk/elec-eng/pp./sipg/

[2] Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports

[3] National Institute of Standards and Technology, « Iris challenge evaluation », 2006,
http://iris.nist.gov/ICE/

[4] Multimedia University, « MMU iris image database », 2004,


http://pesona.mmu.edu.my/ccteo

[5] Michal Dobes and Libor Machala, « UPOL iris image database », 2004,
http://phoenix.inf.upol.cz/iris/

[6] A. Ross, S. Crihalmeanu, L. Hornak, S. Schuckers, « A centralized web-enabled


multimodal biometric database », In Proceedings of the 2004 Biometric Consortium
Conference (BCC), U.S.A, September 2004.

[7] Hugo Proença, Luis A. Alexandre, « UBIRIS : A noisy iris image database », In
Proceedings of the 13th International Conference on Image Analysis and Processing
(ICIAP2005), pp. 970-977, Calgary, September 2005,
http:// iris.di.ubi.pt
 
ANNEXE C : UTILISATION DES FONCTIONS MATLAB DANS C #

[1] http://www.mathworks.com 

124 
 
ANNEXE A Reconnaissance des formes
 
 
La reconnaissance des formes est une science de définition d’algorithmes qui permettent de
classer des objets (ou formes) par comparaison à des prototypes (objets types). Il s’agit de
définir à quelle forme-type une forme observée ressemble le plus.

Les formes ou motifs à reconnaitre peuvent être de nature très variée. Des exemples de
contenus auxquels sont appliqués les méthodes sont multiples. Il peut s'agir de contenu visuel
(code barre, visage, empreinte digitale...) ou sonore (reconnaissance de parole), d'images
médicales (rayons X, EEG, IRM...) ou multi spectrales (images satellitaires) et bien d'autres.

1. Reconnaissance des formes :


1.1 Définition :
La Reconnaissance des Formes (RDF) repose sur le classement des objets ou formes en les
comparant à des formes-types. De manière générale, deux types de RDF se distinguent :
- La RDF structurelle qui se base sur une représentation des formes à l’aide de grammaires
[1].
- La RDF statistique qui s’appuie sur une représentation numérique des formes [2].

1.2 Notions de forme ou d’objet :


Une forme est une observation réalisée sur le processus. Elle est caractérisée par un ensemble
de d paramètres (ou caractères), et représentée par un point dans l’espace de dimension d,
défini par les différents paramètres (espace de représentation). Comme les paramètres sont
souvent des nombres réels, une forme peut être définie par un vecteur
de , figure ci-dessous.
                                                                                                

                                                  Paramètre d                                        

   

                                                                                              •  

                                                                                                              Paramètre 1

                                                                                     

                                               Paramètre 2

Figure A.1: Représentation d’un objet dans l’espace de dimension d.

Ces formes ou objets sont donc caractérisés par ce vecteur appelé vecteur forme. Ils sont issus
d’analyses effectuées sur les signaux mesurés par les capteurs implantés sur le système.

125 
 
ANNEXE A Reconnaissance des formes
 
 
Les formes types (ou prototypes) sont des points représentatifs de cet espace, et le problème
de la reconnaissance consiste à associer une forme observée à une forme type connue. A
cause des perturbations (bruit de mesure, précision des capteurs,…), une nouvelle observation
sera rarement identique à l’un des prototypes. Ainsi, afin de traduire l’influence du bruit, les
classes correspondent à des zones dans l’espace, regroupant les formes
semblables (Figure V.2).

Figure A.2 : Notions de classes en reconnaissance des formes.

2. Principe de la reconnaissance des formes:


Le principe de la reconnaissance est de savoir décider à quelle classe, parmi M classes
connues, associer une nouvelle forme (avec d, la dimension de
l’espace de représentation) observée.

3. Processus de reconnaissance des formes :


Le processus de reconnaissance des formes s’effectue souvent en deux étapes : une phase
d’analyse et une phase d’exploitation.

3.1 La phase d’analyse : cette phase consiste à partir de connaissances acquises sur le
système à :
- Déterminer l’espace de représentation, c’est-à-dire choisir les paramètres sensibles aux
différents défauts permettant la meilleure discrimination des classes et ainsi construire le
vecteur forme.

- Réduire l’espace de représentation, c’est-à-dire déterminer les d’ (d’ < d ) paramètres les
plus pertinents pour la reconnaissance, afin d’améliorer les performances et de diminuer le
temps de décision relatif au classement d’une nouvelle observation. Cette opération de
réduction peut être réalisée soit par des méthodes d’extraction, soit par des méthodes de
sélection de caractères. L’extraction consiste à effectuer une transformation de l’espace initial
par combinaison des caractères initiaux. La sélection utilise une procédure de recherche selon

126 
 
ANNEXE A Reconnaissance des formes
 
 
un critère de séparabilité entre les classes et de compacité dans les classes permettant ainsi de
sélectionner un sous-ensemble des caractères initiaux.
- Déterminer l’espace de décision, c’est-à-dire l’ensemble de toutes les classes possibles. Si
l’on dispose de N observations déjà recueillies sur le système (ensemble d’apprentissage) et
pour lesquelles on connaît a priori la classe d’origine, c’est-à-dire son mode de
fonctionnement correspondant, l’espace de décision est parfaitement déterminé, on parle de
RDF en mode supervisé. Dans le cas contraire, on parle de RDF en mode non supervisé, il
convient d’extraire cette connaissance manquante de l’ensemble d’apprentissage. Le principe
est de détecter dans cet ensemble, une ou des structures de classes disjointes au sens d’un
critère de similarité, de telle façon que les observations d’une même classe soient semblables
et que celle de classes différentes soient dissemblables. De nombreuses méthodes existent
pour mener à bien cette opération de classification automatique appelée « coalescence » [3]
[4].
- Choisir une méthode de discrimination qui consiste à construire des frontières entre les
différentes classes de l’ensemble d’apprentissage afin d’élaborer une règle de décision. Cette
règle décidera d’affecter ou non une nouvelle observation à l’une des classes connues.

3.2 La phase d’exploitation:


A la fin de la phase d’analyse, le système RDF peut être exploité. Il est alors possible
d’associer une nouvelle observation recueillie sur le système à l’une des classes
précédemment définies en appliquant la règle de décision. C’est la phase d’exploitation. La
bonne exploitation du système décisionnel dépend de la pertinence du vecteur forme et des
performances de la règle de décision.

4. Méthodes utilisées dans le domaine de reconnaissance des formes :


4.1 Constitution du vecteur forme:
Cette étape consiste à construire le vecteur forme, c’est-à-dire, sélectionner les d paramètres à
extraire à partir des signaux recueillis à l’aide des capteurs. Ces paramètres sont choisis pour
optimiser la discrimination des modes de fonctionnement. Il n’existe pas d’outils
algorithmiques qui permettent de régler le choix de ce vecteur, seule la connaissance a priori
que l’on a du système, permet de retenir les paramètres les plus pertinents. Ainsi l'intervention
d'un expert du processus à surveiller est souvent très utile pour orienter cette procédure.

Figure A.3 : Cheminement pour le calcul des paramètres constituant le vecteur forme.

Les performances d’un système RDF dépendront de la pertinence des paramètres calculés. Il
est donc préférable de disposer de paramètres variant, de manière significative, en fonction

127 
 
ANNEXE A Reconnaissance des formes
 
 
des différentes conditions de prise des données. Le nombre souvent élevé de paramètres peut
être pénalisant en termes de temps de calcul. De plus, tous les paramètres calculés et
constituant le vecteur forme initial ne seront pas forcément pertinents vis-à-vis des modes de
fonctionnement étudiés. Des méthodes doivent donc être utilisées afin de ne conserver que les
paramètres les plus représentatifs.

4.2 Réduction de l’espace de représentation:


La réduction de la dimension du vecteur forme consiste à rechercher un sous-ensemble de d’
paramètres (d’ < d ), qui conserve le mieux possible la séparation des classes de l’ensemble
d’apprentissage initial. Cette réduction de l'espace de représentation peut être réalisée soit par
des méthodes d'extraction de paramètres soit par des méthodes de sélection de paramètres.
L’extraction consiste à définir de nouveaux paramètres à partir des d paramètres initiaux. Les
nouveaux paramètres sont des combinaisons linéaires des anciens. Parmi les différentes
méthodes d'extraction de paramètres, on distingue l'Analyse en Composantes Principales
(ACP) ou transformée de Karhunen - Loève discrète. Quelque soit le critère utilisé pour la
réduction de l’espace de représentation, celui-ci doit représenter au mieux les classes
supposées connues de X, ce qui correspond intuitivement à :
- Un regroupement des points d’une même classe, c’est-à-dire à une minimisation de la
variance intra-classe (notion de compacité).
- Une séparation des différentes classes, soit une maximisation de la variance interclasse
(notion de séparabilité).

4.2.1 Analyse en composantes principales :


L’analyse en composantes principales (ACP) consiste à déterminer les axes principaux d’un
nuage de points (de vecteurs) par la décomposition en valeurs propres de la matrice de
covariance du nuage (et non de la matrice d’auto corrélation). Donias [5] utilise cette
technique pour déterminer l’orientation principale d’un champ de gradients. Toutefois, ce
champ de gradient n’étant pas forcément centré (de moyenne nulle), il remplace le champ de
vecteurs par le champ des directeurs, un directeur étant le couple formé d’un vecteur et de son
opposé. Cette technique permet d’obtenir un nuage symétrique et de pouvoir effectuer une
ACP. On montre en réalité que la matrice de covariance des directeurs est proportionnelle à la
matrice d’auto corrélation du champ de vecteurs ; elles possèdent les mêmes espaces propres.
La technique tensorielle et l’ACP d’un champ de directeurs sont donc équivalentes.

Les méthodes de sélection de paramètres ont pour but de chercher d’ paramètres parmi les d
initiaux réalisant la meilleure discrimination possible des classes de . Ainsi le nombre de
mesures à effectuer diminue comme la dimension de l’espace de représentation, ce qui
présente un double avantage : une réduction des temps de calcul et l’élimination des
informations redondantes ou inintéressantes. Les paramètres sélectionnés seront ceux donnant
la combinaison optimale au sens d’un critère de séparabilité entre classes et de compacité des
classes comme par exemple le critère de Fisher [6], ou l’application d’un algorithme
génétique.

128 
 
ANNEXE A Reconnaissance des formes
 
 
4.2.2 Analyse discriminante linéaire (LDA : Linear Discriminant Analysis) :
Appliqué aux images en 1997 par Belhumeur et Al. de la Yale University aux USA,
l’algorithme LDA, aussi connu sous le nom de Fisherfaces, est très proche de celui de l’ACP
sauf que la séparation de la base d’images en classe s’effectue en amont. Pour séparer en
classe la base d’images d’apprentissage de sorte que chaque classe comporte plusieurs images
de la même personne, on calcule les matrices de dispersion interclasses et intra classes puis on
cherche une projection qui minimise la dispersion intra classes (variation des images d’une
même personne) et maximise la dispersion interclasses (variation des images de personnes
différentes). Après application de la projection sur les images apprises et les images test, on
utilise les mêmes critères que l’ACP pour effectuer l’association entre l’image test et sa classe
adéquate. Lorsque le nombre d’individus à traiter est plus faible que la résolution de l’image,
les matrices de dispersion peuvent être non inversibles, ce qui rend difficile l’application de la
LDA [7].

4.2.3 Algorithmes génétiques :


Les algorithmes génétiques sont des algorithmes d’optimisation s’appuyant sur des techniques
dérivées de la génétique et de l’évolution naturelle : croisements, mutations, sélection, etc. [8]
[9].Un algorithme génétique recherche le ou les extrema d’une fonction définie sur un espace
de données. Pour l’utiliser, on doit disposer des cinq éléments suivants :
1. Un principe de codage de l’élément de population. Cette étape associe à chacun des points
de l’espace d’état une structure de données. Elle se place généralement après une phase de
modélisation mathématique du problème traité.
2. Un mécanisme de génération de la population initiale. Ce mécanisme doit être capable de
produire une population d’individus non homogène qui servira de base pour les générations
futures. Le choix de la population initiale est important car il peut rendre plus ou moins rapide
la convergence vers l’optimum global.
3. Une fonction à optimiser. Celle-ci retourne une valeur de appelée fitness ou fonction
d’évaluation de l’individu.
4. Des opérateurs permettant de diversifier la population au cours des générations et
d’explorer l’espace d’état. L’opérateur de croisement recompose les gènes d’individus
existant dans la population, l’opérateur de mutation a pour but de garantir l’exploration de
l’espace d’états.
5. Des paramètres de dimensionnement : taille de la population, nombre total de générations
ou critère d’arrêt, probabilités d’application des opérateurs de croisement et de mutation.

4.3 Détermination de l’espace de décision :


Cette étape consiste à partitionner l’ensemble d’apprentissage en classes. Soit
un ensemble de N vecteurs constituant l’ensemble de données initiales, l’objectif est donc de
structurer ces vecteurs et d’établir une correspondance entre les classes définies et les
différents états du système. Lorsque la classe d'origine de chaque observation est connue,
l'espace de décision est parfaitement connu et l'apprentissage peut être effectué en mode
supervisé. Si au contraire aucune information sur la structuration de l'ensemble
d'apprentissage en classes n’est disponible, alors la classification doit être faite en mode non

129 
 
ANNEXE A Reconnaissance des formes
 
 
supervisé. Il existe différentes méthodes de classification non supervisée, appelées également
méthodes de coalescence. Il y des méthodes réalisant une classification exclusive et d’autre
une classification non exclusive; dans ce dernier cas, une observation peut appartenir à
plusieurs sous-ensemble. Dans le premier cas, une observation appartient à un sous-ensemble
(une classe) et à un seul. Dans ce cas de figure, ces méthodes de coalescence se décomposent
en deux parties :
4.3.1 Les méthodes de classification par partition :
Ces méthodes ont pour but de créer des regroupements d’observations autour de centres de
gravité recherchés. Elles sont dérivées d’une classe d’algorithmes connue sous le nom de
‘méthodes des nuées dynamiques’ introduites par [10]. Parmi ces algorithmes, on distingue la
coalescence stricte Hard C-Means (HCM) [11].
L’algorithme HCM fonctionne comme suit:
1. Choix du nombre de classes M
2. Partition aléatoire de l’ensemble des observations en M classes
3. Calcul des centres de gravité des M classes
Répéter
4. Restructuration des classes par affectation au centre de gravité le plus proche
5. Calcul des nouveaux centres de gravité
6. Calcul du critère d’arrêt
Jusqu’à satisfaction du critère d’arrêt

4.3.2 Les méthodes hiérarchiques (ascendantes ou descendantes):


Elles réalisent une arborescence dont les éléments à la base sont les observations elles mêmes
et l’élément au sommet est composé de l’ensemble d’apprentissage au complet. L'algorithme
de classification ascendante procède à un regroupement progressif des éléments, alors que la
classification descendante vise plutôt l'éclatement des sous-ensembles.
Voici un exemple d’une méthode non supervisée à classification exclusive, les arbres de
décision, qui est une méthode hiérarchique descendante.

Arbre de décision :
Les arbres de décision constituent des outils de classification très employés dans des
problèmes de RDF variés tels que la télédétection [12], la reconnaissance de caractères [13],
ou encore le pronostic et le diagnostic médical [14][15] a, quant à elle, utilisé les arbres de
neurones, qui associent un ensemble de neurones et un arbre de décision binaire pour le
diagnostic du pilotage en temps réel d’un réseau téléphonique.

Un arbre de décision est composé de plusieurs nœuds internes reliés entre eux par des
branches. Ces nœuds internes représentent les états (classes) intermédiaires lors de la
construction de l’arbre tandis que les branches représentent le processus de construction. Il
possède également un certain nombre de nœuds terminaux ou feuilles, correspondant aux
classes finales, auxquels on associe un indicateur de classe (étiquette correspondant à son
mode de fonctionnement), parmi les M classes du problème à traiter.

130 
 
ANNEXE A Reconnaissance des formes
 
 
L’intérêt de la classification par arbres de décision est de diviser les données contenus dans un
ensemble d’apprentissage, par des tests définis à l’aide d’attributs (calcul de distance) jusqu’à
ce que l’on arrive à des sous-ensembles de points, obtenus en suivant l’évolution d’un critère,
ne contenant presque que des données appartenant toutes à la même classe.

Figure A.4 : Représentation d’un arbre de décision.

4.4 Détermination d’une règle de décision :


Les deux premières étapes de la phase d’analyse ont permis de structurer l’ensemble
d’apprentissage en classes distinctes et de pouvoir étiqueter les données de telle sorte que
chacune des observations appartient à une des M classes connues. Soit
l’ensemble d’apprentissage initial et l’ensemble des M classes connues. Le
problème posé est alors d’affecter une nouvelle observation à l’une des M classes à l’aide
d’une règle de décision. Si on souhaite réaliser une présentation non exhaustive des
différentes approches de définition d’une règle de décision, il convient tout de même de
distinguer les méthodes statistiques, paramétriques ou non paramétriques.

4.4.1 Méthodes paramétriques :


Les méthodes paramétriques supposent la connaissance des lois de probabilité des classes et
des observations. En effet, tout vecteur suit, dans une classe donnée , une loi de
probabilité . Par ailleurs, les classes , (c =1,..., M) sont caractérisées par leurs
probabilités a priori probabilité . Parmi ces méthodes, l’approche la plus commune est
la théorie Bayesienne de la décision [2].

4.4.1.1 Classification bayesienne :


Dans la classification bayesienne, les classes et les données à classer sont considérées comme
des variables aléatoires (VA). Les classes sont en nombre fini. Ce sont donc des variables
131 
 
ANNEXE A Reconnaissance des formes
 
 
aléatoires discrètes et elles sont décrites par des probabilités. Les données sont des VA
continues, donc elles sont décrites par des fonctions de densité de probabilité (FDP).

Théorème de Bayes :
Le théorème de Bayes donne la probabilité qu’une entrée x (un vecteur de données)
appartienne à une classe donnée yi. Cette probabilité est définie par :

Avec , où N est le nombre de classes.


- désigne une probabilité et une FDP.
- est appelée probabilité a posteriori de la classe yi. Il s’agit d’une probabilité
conditionnelle.
- est appelée probabilité a priori de la classe yi. Elle représente la probabilité qu’une
donnée (indépendamment de sa valeur) lui appartienne.
- est la FDP de la classe yi. Elle représente la façon dont sont réparties les données
dans l’espace (de dimension égale à celle des données).
- est la somme des FDP pour toutes les classes, pondérées par les probabilités a priori de
ces dernières.

4.4.1.2 Méthode du maximum de vraisemblance :


Les paramètres de la loi recherchés sont considérés comme " fixes " et le choix optimal est celui
qui maximise la probabilité d’obtenir les échantillons fournis pour définir la classe.

4.4.2 Méthodes non paramétriques :


Les méthodes précédentes supposent les connaissances totales des lois de probabilités pour les
classes et les observations et donc, ne peuvent s’appliquer de façon réaliste que sous
l’hypothèse gaussienne. Toutefois si cette connaissance est incomplète, il est nécessaire de
s’orienter vers une estimation de ces lois de probabilité. Parmi les estimateurs usuels, on
distingue l’estimateur des k – plus proches voisins (k – ppv), qui est une approche facile
d’utilisation.

4.4.2.1 Règle des k plus proches voisins :


Soit l’ensemble d’apprentissage composé de N vecteurs indépendants,
chacun étiqueté à l’une M classes connues. Le principe de la règle des k – ppv est d’affecter
une nouvelle observation Xu à la classe majoritairement représentée parmi ses k – plus
proches voisins. En réalité, La manière la plus simple d’élaborer cette règle, est de mesurer la
distance entre la nouvelle observation et chacun des vecteurs de l’ensemble d’apprentissage.
La nouvelle observation sera alors affectée à la classe majoritairement représentée parmi ses k
– ppv. La définition de la notion de plus proche voisin est liée au choix d’une distance.

4.4.2.2 Règle des k – plus proches voisins avec rejet :

132 
 
ANNEXE A Reconnaissance des formes
 
 
Comme évoqué précédemment, le cas où la connaissance sur les classes est exhaustive n’est
pas usuel en diagnostic. De ce fait, de nouvelles classes peuvent apparaître au cours du temps,
et, dans ce cas, l’affectation systématique d’une nouvelle observation à une classe connue
peut conduire à une erreur de diagnostic. Il vaut mieux reporter la décision et affecter à
une classe dite de rejet. On parlera alors d’utilisation de règle de décision avec rejet [16].
En réalité, il existe deux grandes notions de rejet : le rejet en ambiguïté qui concerne une
nouvelle observation située entre deux ou plusieurs classes de et le rejet en distance qui
correspond à une nouvelle observation située à une distance éloignée des classes de .
Ces rejets ont été introduits dans la règle des k – ppv et plus généralement, dans les méthodes
de diagnostic afin de diminuer les erreurs de classification et, par conséquent, les erreurs de
diagnostic.

4.4.2.3 Réduction des temps de calcul :


Un des inconvénients de la méthode des k – ppv est qu’elle nécessite le calcul des distances
de l’observation à tous les éléments de l’ensemble d’apprentissage et le stockage avant
classement. Cette contrainte peut être pénalisante en termes de temps de calcul si l’ensemble
d’apprentissage initial est de grande taille.
Il est donc préférable de chercher à accélérer cette étape. Dans ce but, de nombreuses études
ont été effectuées, d’une part, par la recherche rapide des distances en appliquant des calculs
de distance plus courte (distance du max, distance de Manhattan) que la distance euclidienne
classique [17][18][19] ou d’autre part, par la réduction de la taille de , ce qui entraîne une
diminution des distances à calculer [20].

5. Schéma général d’un système de reconnaissance des formes :


Au final, les différentes phases : la phase d’analyse et la phase d’exploitation, composant un
système de reconnaissance des formes, ainsi que l’étape d’actualisation servant à la détection
de nouvelles classes peuvent être représentées de la manière suivante :

133 
 
ANNEXE A Reconnaissance des formes
 
 

Figure A.5 : Schéma du principe d’un système par RDF. 


 

134 
 
ANNEXE B Bases des images d’iris standards
 
 
Nous décrivons les caractéristiques principales des bases de données des images d’iris
standards disponibles pour des fins biométriques. A travers des exemples, nous illustrons les
types de bruit que les images des bases de données contiennent, ainsi que l’impact de chacun
sur les différentes phases à travers lesquelles un système biométrique fonctionne. Enfin,
quelques statistiques concernant chaque base.

1. Bases d’images standards :


Les recherches biométriques et le développement demandent l’analyse des données
humaines. Évidemment, c'est irréaliste d'exécuter le test d'algorithmes dans les données
capturées rapidement, dû au malaise énorme que cela impliquerait. De plus, la comparaison
juste entre méthodes de reconnaissance demande des données d'entrée semblables à valoriser
et évaluer leurs résultats. Par conséquent, quand arrive le test des méthodes de la
reconnaissance, les bases de données biométriques standard de haute pertinence deviennent
indispensables au processus du développement.

Concernant le domaine de reconnaissance par iris, il y a actuellement, six bases de données


publiques d’images d'iris disponibles. Dans les subdivisions suivantes nous décrivons les
caractéristiques principales de leurs images en se focalisant sur l'analyse du bruit que chaque
base de données contient. Nous avons considéré l'analyse de ces facteurs de bruit et
l'hétérogénéité des images comme les paramètres les plus importants pouvant influencer sur
les résultats de notre travail.

1.1 Base de données BATH :


La base de données des images d’iris de l’université BATH [1] est en constante évolution et à
présent contient plus de 16000 images d'iris prises à partir des deux yeux de 400 personnes. Il
résulte d'un projet qui vise à construire une ressource d’images d'iris de haute qualité. La
majorité de la base de données comprend des images prises d'étudiants et du personnel de
l'Université Bath.

Les images sont de très haute qualité, prises avec un appareil photo professionnel, et montées
sur un appareil d’ajustement de position d’hauteur réglable. La lumière (luminosité) a été
fournie par une chaîne de diodes infrarouges LEDs, et placée au-dessous de l'appareil photo et
mise à un angle tel que les réflexions ont été ajustées vers la pupille. Au cours de cette
opération, un filtre de passage infrarouge a été utilisé pour ne laisser passer qu’une partie de la
lumière. Cette technique a permis de diversifier et d’augmenter la qualité des images d’iris.
Les images de la base de données BATH contiennent exclusivement la plupart des facteurs de
bruit reliés avec les obstructions de l'iris (dû aux paupières et aux cils). En outre, les
caractéristiques principales de ses images sont assez homogènes, résultantes d'un cadre de
prise d'images coopératif.

134 
 
ANNEXE B Bases des images d’iris standards
 
 

Figure B.1 : Exemples d’images d’iris de la base de données BATH.

1.2 Base de données ICE :


The Iris Challenge Evaluation (ICE) est un concours conçu pour mesurer l'efficacité de la
technologie émergente qui rend la reconnaissance par iris possible. Ses buts sont de
promouvoir le développement de reconnaissance par iris et d’estimer le niveau de
performance actuel de la technologie. Il est divisé en deux étapes: en premier, il a été
demandé aux chercheurs et aux promoteurs de participer dans le projet intitulé : « problèmes
de chalenges de reconnaissance d’iris » qui pouvait améliorer leurs algorithmes de
reconnaissance. Plus tard, une opportunité de participer à une évaluation indépendante à
grande échelle allait être proposée, à travers un nouvel ensemble d’images d’iris et une
bibliothèque d’évaluation.

La base de données ICE [2] est composée de 2954 images, avec un nombre variable d'images
par personne. De la même façon que les bases de données d'iris publiques restantes, ses
images ont été capturées, avec comme préoccupation principale la qualité des images, celle-
ci simule clairement la coopération des utilisateurs dans l'image capturée. En conséquence, les
facteurs de bruit que la base de données ICE contient sont liés presque exclusivement avec les
obstructions de la mauvaise position de l’iris par rapport au capteur. D’autant plus qu’il y a
quelques images qui ont délibérément subi des rotations et d'autres ont été partiellement
capturées.

Figure B.2 : Exemples d’images d’iris de la base de données ICE.

1.3 Base de données MMU :


The Multimedia University a développé une petite base de données (MMU) [3] composée de
450 images d'iris.
Elles ont été capturées à l’aide d’un appareil photo très performant (LG Iris Access® 2200).
C'est un appareil photo semi automatisé de gamme 7-25 cm. Plus tard, une nouvelle base de
données (MMU2) composée de 995 images d'iris a été réalisée en utilisant un appareil photo
(Panasonic BM-ET100US Authenticam). Les images d'iris sont de 100 volontaires de
différents âges et nationalités. Ils viennent d'Asie, Moyen-Orient, Afrique et Europe, dont les
images d'iris ont été prises des deux yeux (5 images par œil). Les images sont très homogènes

135 
 
ANNEXE B Bases des images d’iris standards
 
 
et leurs facteurs de bruit sont liés exclusivement avec les obstructions de l'iris dus aux
paupières et aux cils.

Figure B.3 : Exemples d’images d’iris de la base de données MMU.

1.4 Base de données UPOL :


La base de données d'images d'iris UPOL [4] a été construite au sein de l'Université de
Palacki. Olomuc. Ses images ont la particularité d’avoir été capturées à l’aide d’une structure
optométriste (TOPCON TRC50IA) et, ce qui leur vaut d’être de haute qualité et convenable
pour l'évaluation de reconnaissance par iris dans des environnements sans bruit.
La base de données contient 384 images extraites des deux yeux de 64 personnes (trois
images par œil). Comme illustré dans la figure VI.4, ses images sont d'une homogénéité
maximale et la segmentation est facilitée. Evidemment, ces caractéristiques font de cette base
de données la moins appropriée pour la recherche biométrique dans le cas non coopératif.

Figure B.4 : Exemples d’images d’iris de la base de données UPOL.

1.5 Base de données WVU :


The West Virginia University a développé une base de données d'images d'iris (WVU) [5]
composée de 1852 images de 380 yeux différents. Le nombre d’images capturées de chaque
œil est compris entre trois et six grâce au dispositif OKI IrisPass-H. Les images de la base de
données WVU ont été capturées dans des conditions de prise d'images peu contraignantes,
d’où, la mauvaise qualité d’images comportant des obstructions de l'iris, mauvaise
localisation de l’iris dans l’image avec une position angulaire fermé, quelques unes
complètement affectées par le reflet des paupières et des cils, ce qui leur vaut d’être les
images les plus hostiles au processus de reconnaissance.

136 
 
ANNEXE B Bases des images d’iris standards
 
 

Figure B.5 : Exemples d’images d’iris de la base de données WVU.

1.6 Base de données UBIRIS :


La base de données UBIRIS [6] est composée de 1877 images recueillies à partir de 241
personnes au sein de l’Université de Beira Interior, elle est scindée en deux sessions
distinctes. Sa caractéristique principale est le fait qu’à l’heure actuelle c’est la base de
données publique et gratuite (CASIA et UPOL) la plus large qui existe, elle comporte des
images avec plusieurs facteurs de bruit, permettant ainsi l'évaluation de la robustesse des
méthodes de reconnaissance de l'iris.
Pour la première session de capture d'image, on a tenté de minimiser les facteurs de bruit, en
particulier ceux relatifs à la réflexion, la luminosité et le contraste, après avoir installé la
capture d'images dans un cadre de chambre noire.
Dans la deuxième session, nous avons changé le lieu de capture afin d'introduire des facteurs
de luminosité naturelle. Ceci a pour conséquence, l'apparition d'images hétérogènes en terme
de réflexion, de contraste et de luminosité.

Figure B.6 : Exemples d’images d’iris de la base de données UBIRIS.

2. Analyse des facteurs de bruit des bases de données:


2.1 Types de bruit:
Dans le but de donner une vue d’ensemble des caractéristiques principales des bases de
données d’images d’iris, le tableau VI.2 résume les facteurs de bruit que contiennent les
images des bases de données décrites précedemment . Chaque colonne représente un facteur
de bruit dont le sens est décrit ci-dessous. La lettre "X" signifie que la base de données
contient des images présentant le bruit décrit par la colonne correspondante, le signe "-"
signifie qu’elle en est depourvue.

137 
 
ANNEXE B Bases des images d’iris standards
 
 
L’analyse du tableau ci-dessous nous permet de conclure que la base de données UBIRIS est
la plus bruyante. Cette base contient, mis à part le bruit de type angle fermé, tous les autres
types de bruit pouvant être provoqués lors de la phase d’enrôlement non coopérative.
Contrairement à UBIRIS, les autres bases de données contiennent moins d’images affectées
par le bruit, celles-ci sont de caractéristiques beaucoup plus homogènes.

Base d’iris NEO NLO NLR NMB NOA NOI NPF NPI NSR
BATH X X - - X - - - -
CASIA X X - - - - - -
ICE X X - - - - X X -
MMU X X - - - - - - -
UPOL - - - - - - - - -
UBIRIS X X X X - X X X X
WVU X X - X X - X X -

Tableau B.1: Vue d’ensemble des facteurs de bruit des bases de données standards.

2.2 Mesure du bruit:


Après avoir identifié les types de bruit que les bases de données contiennent, il est
indispensable d’avoir une idée sur la quantité moyenne des pixels touchés par le bruit de
chaque image d’iris des bases de données. Nous considérons chaque pixel faisant partie de
l’iris et touché par un des facteurs de bruit précédemment cités comme un pixel bruité.

Base d’iris Taille Image, pix Rayon Iris, pix Rayon Pupille, pix Bruit, %
BATH 1280 x 960 232 101 6.29
CASIA 320 x 280 102 37 12.72
ICE 640 x 480 119 54 6.70
MMU 320 x 240 57 21 7.83
UPOL 768 x 576 286 74 1.03
UBIRIS 800 x 600 206 45 27.62
WVU 800 x 600 204 54 16.10

Tableau B.2 : Quantité moyenne des pixels affectés par le bruit dans les régions d’iris des
images de bases de données.

138 
 
ANNEXE C Utilisation des fonctions Matlab dans C#
 
 
L’utilisation des fonctions Matlab dans la plateforme Dot Net est possible grâce à des
librairies partagées. La création d’une librairie partagée C est effectuée au niveau de Matlab et
les étapes de création de ces librairies sont décrites ci-dessous [1] :
- La sélection du compilateur à utiliser moyennant la commande :
mbuild -setup

- La compilation du fichier Matlab à l’aide de la commande :


mcc -B csharedlib :mylib <M-file>
mylib est le nom de la bibliothèque comportant la fonction écrite sous Matlab.
Remarque :
<M-file> peut comporter une seule fonction (ex : fonction1.m) ou plusieurs fonctions (ex :
fonction1.m fonction2.m … fonctionN.m) si l’on souhaite les regrouper dans une seule
bibliothèque.

- Une fois l’instruction de compilation lancée, Matlab crée plusieurs fichiers (mylib.c
mylib.h …). Il suffit, ensuite, de copier les fichiers mylib.dll et mylib.ctf dans le
dossier /bin/Debug/ du projet C#.

- Avant l’appel de toute librairie à partir de C#, il est nécessaire de faire appel à la
routine d’initialisation du MCR : mclInitializeApplication (null, 0), cette routine
externe est importée à partir de la Dll copiée lors de l’installation du logiciel Matlab
"mclmcrrt70.DLL".

- Avant de faire appel à une librairie donnée (ex : mylib), il faut l’initialiser en
utilisant : mylibInitialize (), cette routine externe est importée à partir de la Dll
"mylib.dll".

- Puis, l’appel d’une fonction de la librairie peut alors être effectué.


mlfFonction1 (param1, param2 … paramK) importée à partir de la Dll "mylib.dll".
Remarque :
Le premier paramètre est un entier représentant le nombre de paramètres en sortie de la
fonction Matlab. Les autres paramètres doivent être des tableaux de pointeurs (IntPtr).
Pour ce faire, Matlab propose des fonctions telles que mxCreateDoubleScalar, mxGetPr,
mxCreateString, mxCreateDoubleMatrix importées à partir de la Dll "mclmcrrt70.dll".

- Une fois tous les appels aux fonctions de la librairie ont été effectués, il faudra libérer
les ressources utilisées par ces fonctions. De ce fait, il est nécessaire de faire appel à la
routine de terminaison mcllibTerminate () importée à partir de la Dll "mylib.dll".

- Une fois tous les appels aux Dll de Matlab effectués, effectuer la terminaison du
MCR : mclTerminateApplication () importée à partir de la Dll " mclmcrrt70.dll".
 
 

139 
 
ANNEXE D Taux FAR et FRR individuels
 
 
Ces taux ont été calculés en utilisant les valeurs par défaut des paramètres pertinents du système.
I. Base de données CASIA V1.0 :

Seuil FAR FRR TER


1 0.42767 0 0 0
2 0.45038 0.03289 0.19999 0.11644
3 0.43897 0 0 0
4 0.44285 0 0.13333 0.06666
5 0.44053 0.00074 0.06666 0.0337
6 0.57729 0.01831 0.13333 0.07582
7 0.47865 0.00897 0.13333 0.06722
8 0.47322 0 0.06666 0.03333
9 0.45846 0.00149 0.13333 0.06741
10 0.49149 0.00037 0 0.00018
11 0.42607 0.00111 0.06666 0.03388
12 0.43270 0 0 0
13 0.46171 0.00410 0.19999 0.10204
14 0.47413 0.00111 0 0.00055
15 0.43007 0 0.06666 0.03333
16 0.45308 0.00111 0.06666 0.03333
17 0.41750 0 0 0
18 0.48527 0.05233 0.19999 0.12616
19 0.48543 0.00073 0.13333 0.06703
20 0.46941 0 0 0
21 0.41026 0 0 0
22 0.44158 0 0 0
23 0.43812 0 0 0
24 0.43831 0 0.19999 0.09999
25 0.45712 0 0 0
26 0.43346 0 0 0
27 0.46886 0.00074 0 0.00037
28 0.41285 0 0 0
29 0.42915 0 0 0
30 0.43687 0.00336 0.13333 0.06834
31 0.43546 0 0 0
32 0.41385 0 0 0
33 0.44149 0 0 0
34 0.44752 0 0.06666 0.03333
35 0.44038 0.00373 0.19999 0.10186
36 0.45736 0 0 0
37 0.44076 0 0 0
38 0.46827 0.00709 0.26666 0.13687
39 0.49162 0.03438 0.39999 0.21718
40 0.43602 0 0.06666 0.03333
41 0.49530 0.06690 0.26666 0.16678
42 0.49615 0.06355 0.39999 0.23177
43 0.47559 0.07775 0.13333 0.10554
44 0.43241 0 0.13333 0.06666

140 
 
ANNEXE D Taux FAR et FRR individuels
 
 
45 0.48090 0.06467 0.19999 0.13233
46 0.42856 0 0 0
47 0.4077 0 0 0
48 0.45667 0 0 0
49 0.43664 0 0 0
50 0.45143 0.01607 0 0.00803
51 0.43438 0 0 0
52 0.45906 0 0 0
53 0.44507 0.00074 0 0.00037
54 0.50060 0 0 0
55 0.45551 0.00523 0.06666 0.03594
56 0.42244 0 0.06666 0.03333
57 0.41427 0 0 0
58 0.47864 0.02279 0.19999 0.11139
59 0.41142 0 0 0
60 0.40355 0 0 0
61 0.43119 0 0 0
62 0.45986 0 0 0
63 0.48251 0.10130 0 0.05065
64 0.44141 0 0 0
65 0.44247 0 0 0
66 0.45717 0 0.19999 0.09999
67 0.52548 0.37756 0.06666 0.22211
68 0.45818 0 0.13333 0.06666
69 0.42624 0.00037 0 0.00018
70 0.48523 0.00148 0.39999 0.20073
71 0.41861 0.00074 0.06666 0.0337
72 0.46628 0.02616 0.33333 0.17974
73 0.43878 0.01083 0.13333 0.07208
74 0.46219 0.00037 0.06666 0.03351
75 0.44976 0 0.06666 0.03333
76 0.44884 0.03252 0.13333 0.08292
77 0.47604 0.11102 0.26666 0.18884
78 0.48435 0 0 0
79 0.50876 0.03364 0 0.01682
80 0.42847 0 0 0
81 0.43526 0 0 0
82 0.43633 0 0.06666 0.33333
83 0.44155 0.00074 0.06666 0.0337
84 0.43499 0 0.06666 0.03333
85 0.42879 0 0.06666 0.03333
86 0.45238 0 0 0
87 0.42905 0 0 0
88 0.42405 0 0 0
89 0.41604 0 0 0
90 0.41959 0 0.13333 0.06666
91 0.53361 0.00336 0.19999 0.10167
92 0.44075 0 0.06666 0.03333

141 
 
ANNEXE D Taux FAR et FRR individuels
 
 
93 0.42501 0 0 0
94 0.42687 0 0 0
95 0.44550 0 0.06666 0.03333
96 0.43337 0 0 0
97 0.45126 0 0 0
98 0.43133 0.00224 0.06666 0.03445
99 0.45494 0 0.06666 0.03333
100 0.42151 0 0.06666 0.03333
101 0.48982 0.01419 0.06666 0.04042
102 0.46450 0.00074 0.19999 0.10036
103 0.49118 0.13981 0.06666 0.10323
104 0.45165 0.00112 0.19999 0.10055
105 0.45382 0.00672 0.19999 0.10335
106 0.45226 0.04111 0.06666 0.35388
107 0.42654 0 0.13333 0.06666
108 0.48999 0 0.06666 0.03333
 
Tableau D.1 : Taux FAR et FRR individuels (CASIA V1.0).
 
 

142 
 
ANNEXE D Taux FAR et FRR individuels
 
 
2. Base de données CASIA-IrisV3-Interval :
 
Seuil FAR FRR TER
1 0.53857 0.13140 0.125 0.1282
2 0.51043 0.10952 0.125 0.11726
3 0.45590 0 0 0
4 0.54649 0.04606 0 0.02303
5 0.46672 0.00024 0 0.00012
6 0.45518 0.00084 0.06666 0.03375
7 0.48881 0.05209 0.05357 0.05283
8 0.45867 0.00232 0.05357 0.02794
9 0.46450 0.00025 0.14285 0.07155
10 0.47041 0 0 0
11 0.45430 0.03397 0.125 0.07948
12 0.46512 0.00011 0 0.00005
13 0.52739 0.01954 0.19045 0.10499
14 0.49332 0.00108 0.13332 0.06720
15 0.43881 0 0 0
16 0.40925 0 0.5 0.25
17 0.51082 0.14588 0.3 0.22294
18 0.44551 0 0 0
19 0.47558 0.02155 0.03906 0.03030
20 0.48606 0.10507 0.16666 0.13586
21 0.48046 0.0806 0.11111 0.09585
22 0.52916 0.10101 0.25 0.17550
23 0.46433 0.00089 0.5 0.25044
24 0.39509 0 0 0
25 0.42223 0 0 0
26 0.43217 0 0 0
27 0.47762 0 0 0
28 0.50609 0.03605 0.13888 0.08746
29 0.51681 0.07568 0.32142 0.19855
30 0.50304 0.02746 0.08928 0.05837
31
32 0.40038 0 0 0
33 0.42643 0 0 0
34 0.45392 0 0 0
35 0.50249 0.00239 0.33333 0.16786
36 0.47964 0.00103 0.05357 0.0273
37 0.45956 0 0 0
38 0.48773 0.16932 0.3 0.23466
39 0.44101 0 0.125 0.0625
40 0.53424 0.02077 0.5 0.26038
41
42 0.50794 0.04219 0.25 0.14609
43 0.51197 0.09221 0.21875 0.15548
44 0.55646 0.29975 0.33333 0.31654
45 0.51133 0.02774 0.22222 0.12498

143 
 
ANNEXE D Taux FAR et FRR individuels
 
 
46 0.4185 0 0 0
47 0.52683 0.22208 0.22222 0.22215
48 0.52485 0.04358 0.16666 0.10512
49 0.44687 0 0 0
50 0.40582 0 0 0
51 0.39927 0 0.125 0.0625
52 0.41296 0 0 0
53 0.43994 0 0.01587 0.00793
54 0.46266 0 0 0
55 0.46419 0.00039 0.16666 0.08352
56 0.45728 0.00079 0 0.00039
57 0.44027 0 0 0
58 0.46397 0.00164 0.25 0.12582
59 0.50057 0.10051 0.16666 0.13358
60 0.49741 0.05037 0.08928 0.06982
61 0.44094 0 0 0
62 0.41133 0 0 0
63 0.46919 0.00024 0.12 0.06012
64 0.50314 0.17313 0 0.08656
65 0.43377 0 0.04 0.02
66 0.44673 0.00048 0.04 0.02024
67 0.45895 0.03138 0.1 0.06596
68 0.50773 0.12254 0.36 0.24127
69 0.52217 0.12146 0.04 0.08073
70 0.45565 0.01342 0.24 0.12671
71 0.44626 0.00084 0.04 0.02042
72 0.51493 0.04909 0.08 0.06454
73 0.43989 0.00024 0 0.00012
74 0.50615 0.14596 0.16 0.15298
75 0.50374 0.08772 0.2 0.14386
76 0.47124 0.03489 0.04 0.03744
77 0.44991 0 0 0
78 0.46815 0.00060 0.12 0.06030
79 0.43922 0 0 0
80 0.49026 0.08863 0.32 0.20431
81 0.46877 0.00050 0.08333 0.04191
82 0.50538 0.11419 0.24336 0.17877
83 0.46598 0.03990 0.06666 0.05328
84 0.42895 0 0 0
85 0.51033 0.12237 0.12 0.12118
86 0.52894 0.03102 0.08 0.05551
87 0.48593 0.03860 0.36 0.1993
88 0.42462 0 0 0
89 0.44640 0 0 0
90 0.43373 0 0.2 0.1
91 0.47963 0.08261 0.19999 0.1413
92 0.46557 0.00461 0.16666 0.08563
93 0.47539 0.0001 0.04166 0.02088

144 
 
ANNEXE D Taux FAR et FRR individuels
 
 
94 0.46858 0.02922 0.08571 0.05746
95 0.45218 0 0.13333 0.06666
96 0.47165 0.05044 0 0.02522
97 0.45298 0.0003 0.06666 0.03348
98 0.46130 0.0004 0.06666 0.03353
99 0.46939 0.00991 0.08333 0.04662
100 0.44892 0.02583 0.02857 0.0272
101 0.48386 0.04281 0.1 0.07140
102 0.42551 0 0 0
103 0.42591 0 0 0
104 0.51799 0.00693 0.1 0.05346
105 0.42948 0.01133 0.1 0.05566
106 0.51143 0.31036 0.1 0.20518
107 0.48116 0.05274 0.2 0.12637
108 0.48409 0.12258 0.33333 0.22795
109 0.53184 0.12116 0.2 0.16058
110 0.44589 0.00872 0.06666 0.03769
111 0.45429 0 0 0
112 0.44101 0.00250 0.03333 0.01791
113 0.46975 0.05314 0.13333 0.09323
114 0.47635 0.01122 0.23333 0.12227
115 0.52647 0.0818 0.07142 0.07661
116 0.45027 0.07771 0.03333 0.05552
117 0.45177 0 0.06666 0.03333
118 0.47755 0.03990 0.13333 0.08661
119 0.5073 0.15763 0.13333 0.14548
120 0.46203 0.00892 0.2 0.10446
121 0.46433 0.00160 0.03333 0.01746
122 0.45535 0.00240 0.16666 0.08453
123 0.48707 0.01804 0.06666 0.04235
124 0.43397 0.0004 0.03333 0.01686
125 0.49891 0.10677 0.30357 0.20517
126 0.48937 0.06136 0.1 0.08068
127 0.4795 0.02184 0.23333 0.12758
128 0.50344 0.05602 0.2 0.12801
129 0.49727 0.10148 0.13333 0.11740
130 0.46720 0.10569 0.1 0.10284
131 0.49681 0.11955 0.2 0.15977
132 0.48557 0.04280 0.08571 0.06425
133 0.49022 0.06774 0.16666 0.1172
134 0.48119 0.03789 0.1 0.06894
135 0.45682 0.00190 0.26666 0.13428
136 0.44378 0.00010 0.02083 0.01046
137 0.46942 0.00060 0.13333 0.06696
138 0.46638 0.01363 0.1 0.05681
139 0.53684 0.02956 0.26666 0.14811
140 0.46163 0.0022 0.26666 0.13443
141 0.48773 0.04379 0.18333 0.11356

145 
 
ANNEXE D Taux FAR et FRR individuels
 
 
142 0.44460 0 0 0
143 0.42893 0.01253 0 0.00626
144 0.47615 0.15693 0.3 0.22846
145 0.44010 0.01835 0.2 0.10917
146 0.44373 0.03118 0.1 0.06559
147 0.44246 0 0 0
148 0.48760 0.02175 0.26666 0.14420
149 0.50328 0.12855 0.1 0.11427
150 0.51494 0.07253 0.83333 0.45293
151
152 0.47427 0 0.5 0.25
153 0.50075 0.08353 0.16666 0.12509
154 0.47304 0.00015 0.125 0.06257
155 0.55217 0.00059 0.16666 0.08362
156 0.43552 0.02474 0.18749 0.10611
157 0.48548 0.00456 0.05 0.02728
158 0.42159 0 0.33333 0.16666
159 0.53486 0.18062 0.1875 0.18406
160 0.48095 0.05980 0.22409 0.14194
161 0.52869 0.17683 0.125 0.15091
162 0.50172 0.03504 0.10937 0.07220
163 0.55829 0.22113 0.2 0.21056
164 0.48760 0.00828 0.15 0.07914
165 0.50732 0.04509 0.20407 0.12458
166 0.49844 0.04317 0 0.02158
167 0.51210 0.01782 0.08928 0.05355
168 0.48741 0.04791 0.20312 0.12551
169 0.44324 0 0.04687 0.02343
170 0.54413 0.23023 0.16666 0.19844
171 0.41130 0 0 0
172 0.44466 0 0 0
173 0.59546 0.00135 0.49999 0.25067
174 0.54838 0 0.375 0.1875
175 0.41793 0 0 0
176 0.42454 0 0 0
177 0.45171 0 0.5 0.25
178 0.46003 0.01335 0.16666 0.09000
179 0.48923 0.02541 0.16666 0.09603
180 0.43595 0 0.16666 0.08333
181 0.46419 0 0 0
182 0.55010 0.18805 0.14285 0.16545
183 0.51403 0.10414 0.16666 0.1354
184 0.48942 0 0.16666 0.08333
185 0.45546 0 0.16666 0.08333
186 0.44985 0 0 0
187 0.49412 0.00075 0.08333 0.04204
188 0.49911 0.08447 0.08928 0.08687
189

146 
 
ANNEXE D Taux FAR et FRR individuels
 
 
190 0.48376 0 0 0
191 0.42248 0 0 0
192 0.50025 0.07892 0.16666 0.12279
193 0.46649 0 0 0
194 0.4401 0 0 0
195 0.56696 0 0 0
196 0.48143 0 0 0
197 0.46374 0.00029 0.125 0.06264
198 0.49048 0.00139 0.16666 0.08402
199 0.43964 0.00080 0 0.00040
200
201 0.43201 0 0 0
202 0.49892 0.11307 0.16666 0.13986
203 0.50700 0.15506 0.125 0.14003
204
205 0.50416 0.23738 0.16666 0.20202
206 0.43778 0 0 0
207 0.44397 0 0 0
208 0.48735 0.08868 0.08333 0.08600
209 0.51292 0.06793 0.05357 0.06075
210 0.49505 0.0003 0.16666 0.08348
211 0.50082 0.02667 0.20407 0.11537
212 0.49457 0.15815 0 0.07907
213
214 0.07625 0.06917 0.08333 0.07625
215 0.47183 0.00020 0 0.00010
216
217 0.42883 0 0 0
218 0.50518 0.00060 0.19047 0.09553
219 0.52650 0.04572 0.22448 0.1351
220 0.47190 0.00479 0.2 0.10239
221 0.48146 0.20063 0.33333 0.26698
222 0.4482 0 0 0
223 0.39034 0 0 0
224 0.49853 0.05496 0.17851 0.11673
225 0.48639 0.00060 0.16666 0.08363
226 0.49737 0.00015 0.08333 0.04174
227 0.50924 0.00030 0.125 0.06265
228 0.46153 0.00075 0 0.00037
229 0.54828 0.21364 0.30952 0.26158
230 0.48382 0.00012 0.05 0.02506
231 0.47148 0.0039 0.41666 0.21028
232 0.56396 0.28859 0.66666 0.47759
233 0.52331 0.03506 0 0.01753
234 0.43881 0 0 0
235 0.42647 0 0 0
236 0.49144 0.06710 0.5 0.28355
237 0.43031 0 0 0

147 
 
ANNEXE D Taux FAR et FRR individuels
 
 
238 0.41883 0 0.2 0.1
239 0.49665 0.05739 0.08333 0.07036
240 0.50650 0.00020 0.16666 0.08343
241 0.43235 0 0 0
242 0.53210 0 0 0
243
244 0.44054 0 0 0
245 0.44365 0 0 0
246 0.56666 0.00179 0.5 0.25089
247 0.47643 0.00075 0.33333 0.16704
248 0.48791 0.11989 0.16666 0.14327
249
 
Tableau D.2 : Taux FAR et FRR individuels (CASIA-IrisV3-Interval).
 
 

148 
 

Vous aimerez peut-être aussi