Académique Documents
Professionnel Documents
Culture Documents
scientifique
Ecole nationale Supérieure d’Informatique (ESI)
Oued-Smar, Alger
Thème
Système d’identification biométrique de
personnes par reconnaissance de l’iris
Promotion : 2008/2009
Ecole national Supérieure d’Informatique (ESI)
Nassim HAMITOUCHE
Zakaria SALMI
ESI
SEPTEMBRE 2009
A mes frères et sœurs dont le soutien sans failles m’a aidé à surmonter
toutes les difficultés.
Nassim HAMITOUCHE
A mes chers parents, qui sont la cause de mon existence dans cette vie,
pour leur soutient, leur patience et leur amour.
Zakaria Salmi
III
Remerciements
Enfin, un grand merci pour ceux que nous n’avons pu désignés et qui nous
ont aidé de près ou de loin à parcourir ce chemin.
IV
Résumé
Un système biométrique permet l’identification automatique d’un individu basée sur
une représentation unique des caractéristiques possédées par l’individu. La reconnaissance par
iris est considérée comme le système d’identification biométrique le plus fiable et le plus
efficace qui soit disponible. La plupart des systèmes commerciaux de reconnaissance par iris
utilisent l’algorithme breveté de Daugman. Cet algorithme est capable de donner des taux de
reconnaissance parfaits. Cependant, les résultats publiés ont souvent été obtenus sous des
conditions de capture favorables, et il n’y a jamais eu pour cette technologie des tests
indépendants.
La distance de Mahalanobis ainsi qu’une nouvelle distance "D" ont été utilisées pour
l’affectation des gabarits biométriques. Les performances en identification du système sur la
base CASIA V1.0 de 108 individus (7 images par individu) et la base CASIA-IrisV3-Interval
de 249 individus sont respectivement 94% et 91%. Les performances en vérification sont
respectivement FAR=1.29% , FRR=7,75% et FAR=3.80%, FRR=12.27. Ces résultats sont
bien évidemment loin d’être parfaits, mais restent très bons et satisfaisants. Cela explique
d’abord l’engouement et l’intérêt des entreprises commerciales œuvrant dans le domaine de la
biométrie pour cette technologie. Ils montrent également le bien fondé du recours des
chercheurs à l’utilisation des approches basées sur la texture pour la résolution de problèmes
récents tels que ceux de la reconnaissance des formes pour la classification ou la segmentation
d’objets.
V
Abstract
A biometric system provides automatic identification of an individual based on a
unique feature or characteristic possessed by the individual. Iris recognition is regarded as the
most reliable and accurate biometric identification system available. Most commercial iris
recognition systems use patented algorithm developed by Daugman. This algorithm is able to
produce perfect recognition rates. However, published results have usually been produced
under favourable conditions, and there have been no independent trials of the technology.
The work presented in this memoir involved developing an iris recognition system in
order to verify both the uniqueness of the human iris and also its performance as a biometric.
It also aims to test new techniques of coding based texture. For determining the recognition
performances of the system, two databases of digitised grey scale eye images were used.
The iris recognition system consists of an automatic segmentation system that is based
on the Hough transform, and it is able to localise the circular iris and pupil region, occluding
eyelids and eyelashes, and reflections. The extracted iris region was then normalised into a
rectangular block with constant dimensions to account for imaging inconsistencies. Finally,
the texture data filtered by 1D Log-Gabor filter was extracted and quantised by statistical
parameters to encode the unique pattern of the iris into a biometric template.
The Mahalanobis and new distance "D" were employed for classification of iris
templates. The identification system performance on base CASIA V1.0 with 108 individuals
and base CASIA-IrisV3-Interval with 249 individuals are respectively 94% et 91%. The
verification system performance are respectively FAR=1.29% , FRR=7.75% and
FAR=3.80%, FRR=12.27%. These results are of course far from to be perfect, but they are
good and satisfactory. That explains first, the infatuation and the interest of the commercial
companies working on biometric domain for this technology. They also show the reasons of
the recourse of researchers to use methods based texture for resolution of recent problems
such as those of patterns recognition for classification or objects segmentation.
VI
Table des matières
INTRODUCTION………………………………………………………………………….....1
Introduction.................................................................................................................................1
1. La biométrie………………………………………………………………………………………4
1.1 Définition…………………………………………………………..……….…………………4
1.2 Le marché mondial de la biométrie…………………………………………..……………...4
1.3 Les parts de marché par technologie…………………………..…………………………….5
1.4 Les modes opératoires d’un système biométrique……………….…………………………6
1.5 Les différentes techniques biométriques……………………………………...……………..6
1.5.1 L’analyse morphologique……………………………………………………………...6
1.5.2 L’analyse comportementale………………………………………………………..….6
1.6 Présentation des techniques biométriques……………………………………………….6
1.6.1 L’empreinte digitale……………………………………………………………….6
1.6.2 L’iris…………………………………………………………………………………….7
1.6.3 La géométrie de la main…………………………………………………………...7
1.6.4 Le visage………………………………………………………………………………..8
1.6.5 La rétine………………………………………………………………………………...8
1.6.6 Les veines de la main…………………………………………………………….........9
1.6.7 La reconnaissance vocale………………………………………………………….9
1.6.8 La dynamique de frappe au clavier .......................................................................10
1.6.9 La dynamique du tracé de la signature ...................................................................... 10
1.6.10 L’analyse de la démarche ....................................................................................10
1.7 Applications de la biométrie ................................................................................................... 10
1.7.1 Service public…………………………………………………………………………10
1.7.2 Application de la loi ..............................................................................................11
1.7.3 Transaction commerciale et bancaire ......................................................................... 11
1.7.4 Accès physique et logique ........................................................................................... 11
2. Architecture d’un système biométrique ...........................................................................11
2.1 Module d’apprentissage……………………………………………………………………..11
2.2 Module de reconnaissance .............................................................................................12
2.3 Module d’adaptation ......................................................................................................13
3. Evaluation d’un système biométrique…………………………...…………………………..13
3.1 Evaluation de l’identification .........................................................................................13
3.2 Evaluation de la vérification…………………………………………………………...14
4. Comparaison des différentes techniques biométriques ..................................................16
5. La multi modalité dans la biométrie…………………………………………………………18
5.1 Systèmes multiples biométriques……………...…………………………………………...18
VII
5.2 Systèmes multiples d’acquisition ...................................................................................18
5.3 Mesures multiples d’une même unité biométrique………….……………………………18
5.4 Instances multiples d’une même mesure…………………………………..……………...18
5.5 Algorithmes précis .........................................................................................................18
Conclusion ................................................................................................................................18
Introduction ..............................................................................................................................20
1. Analyse de texture……………………………………………………………………………..20
1.1 Définition .......................................................................................................................20
1.2 Besoin d’analyse de texture............................................................................................21
2. Méthodes d’analyse de texture ..........................................................................................22
2.1 Méthodes statistiques .....................................................................................................22
2.1.1 Méthode de premier ordre .....................................................................................22
2.1.2 Méthode de second ordre ...................................................................................... 23
2.1.2.1 Méthode de matrice de cooccurrence ........................................................23
2.1.2.2 Méthode des différences des niveaux de gris ............................................26
2.1.2.3 Méthode des matrices de caractéristiques statistiques ..............................26
2.1.2.4 Méthode des gradients ...............................................................................26
2.1.3 Méthodes d’ordre supérieur .................................................................................26
2.2 Méthodes structurelles……………………………………………………………………...28
2.3 Méthodes basées sur les modèles……………………………..…………………………...28
2.4 Méthodes basées sur le traitement du signal ..................................................................28
Conclusion ................................................................................................................................28
1. L’iris ....................................................................................................................................30
1.1 Rappel anatomique ......................................................................................................30
1.2 Avantages ....................................................................................................................31
1.3 Inconvénients ..............................................................................................................31
1.4 Historique ....................................................................................................................31
1.5 Schéma général ...........................................................................................................32
1.5.1 Système d’acquisition ........................................................................................33
1.5.2 Traitement des données : état de l’art.................................................................34
2. Techniques de reconnaissance par iris .............................................................................34
2.1 Techniques basées sur l’apparence .............................................................................35
2.2 Techniques basées sur la texture .................................................................................35
2.3 Techniques basées sur les caractéristiques ..................................................................36
3. Quelques méthodes connues de reconnaissance par iris.................................................36
3.1 Méthode de John Daugman ........................................................................................36
3.2 Méthode de Wildes ......................................................................................................37
3.3 Méthode de Boles ........................................................................................................37
VIII
3.4 Méthode de Sanchez-Reillo & Al ................................................................................38
3.5 Méthode de Y. Wang & Al ...........................................................................................38
3.6 Méthode de S. Lim & Al ..............................................................................................38
4. Standards ............................................................................................................................39
5. Chalenges dans les systèmes de reconnaissance par iris .................................................40
Conclusion ................................................................................................................................41
CHAPITRE IV : ONDELETTES
Introduction ..............................................................................................................................42
1. Historique du traitement du signal et de l’image ............................................................42
1.1 Transformée de Fourier .............................................................................................42
1.2 Transformée de Fourier rapide ...................................................................................43
1.3 Transformée de Fourier à fenêtre ...............................................................................43
1.4 Ondelettes et analyse multi-résolution ........................................................................44
2. Introduction à la transformée en ondelettes et à l’analyse multi-résolution ................45
2.1 Transformée en ondelettes continue ............................................................................45
2.2 Transformée en ondelettes discrète .............................................................................46
2.3 Analyse multi-résolution .............................................................................................46
3. Ondelettes orthogonales .....................................................................................................47
4. Avantages de la transformée en ondelettes ......................................................................48
4.1 Généralités ...................................................................................................................48
4.2 Intérêt en traitement d’image ......................................................................................48
4.2.1 Compression .............................................................................................................48
4.2.2 Détection de contours ...............................................................................................48
4.2.3 Détection / reconnaissance de texture ......................................................................49
5. Filtrage des signaux ............................................................................................................49
6. Transformée en ondelettes : analyse multi-résolution et bancs de filtres .....................49
Conclusion……………………………………………………………….…………………………50
CHAPITRE V : CONCEPTION DU SYSTEME
Introduction ..............................................................................................................................51
1. Conception globale du système .........................................................................................51
2. Fonctionnement du système ..............................................................................................52
2.1 Processus d’identification ..............................................................................................52
2.1.1 Phase d’apprentissage ...........................................................................................52
2.1.2 Phase d’identification ............................................................................................55
2.2 Processus de vérification ................................................................................................56
2.2.1 Phase d’apprentissage ...........................................................................................56
2.2.2 Phase de vérification .............................................................................................57
3. Structure modulaire du système .......................................................................................57
3.1 Modules du processus d’apprentissage ..........................................................................58
3.1.1 Module d’acquisition des images d’iris ................................................................58
3.1.2 Module de prétraitement des images .....................................................................58
IX
3.1.3 Modules de détection des coordonnées de la pupille et de l’iris............................. 58
3.1.3.1 Module de détection de la pupille .............................................................58
3.1.3.2 Module de détection de l’iris .......................................................................... 59
3.1.4 Module de normalisation de l’iris………………………………………..……...…..59
3.1.5 Module d’extraction des caractéristiques...............................................................61
3.1.6 Module de calcul du modèle de chaque classe………………………………….. 67
3.1.6.1 Modèle moyen…………………………………………..……………….......67
3.1.6.2 Modèle intégral .........................................................................................67
3.2 Modules du processus d’identification ...........................................................................67
3.2.1 Module de calcul des distances ............................................................................67
3.2.2 Module d’identification .........................................................................................68
3.3 Modules du processus de vérification…………………………………………………..…68
3.3.1 Module de détermination du seuil de décision optimal.........................................68
3.3.2 Module de prise de décision ..................................................................................69
3.3.3 Module de test .......................................................................................................69
4. Performances du système en identification ......................................................................70
5. Performances du système en vérification .........................................................................72
Conclusion ................................................................................................................................74
Introduction ..............................................................................................................................75
1. Outils de développement ....................................................................................................75
1.1 Microsoft Visual Studio 2005 ...........................................................................................75
1.2 Matlab 7.0.0.19920 (R14) .................................................................................................75
2. Structure de données et implémentation ..........................................................................76
2.1 Classe Normalisation .........................................................................................................76
2.2 Classe ClasseId ...................................................................................................................81
2.3 Classe ClasseVe ................................................................................................................84
2.4 Classe ClasseTo..................................................................................................................85
3. Présentation de l’application .............................................................................................86
3.1 Interface Présentation………………………………………………………………….86
3.2 Interface Chargement et Normalisation .........................................................................90
3.3 Interface Identification ...................................................................................................91
3.4 Interface Vérification .....................................................................................................92
3.5 Interface Statistiques ......................................................................................................94
3.6 Interface Taux d’identification .......................................................................................96
4. Avantages et inconvénients du système ...............................................................................97
Conclusion ................................................................................................................................98
Introduction ..............................................................................................................................99
1. Présentation des bases d’images .......................................................................................99
X
1.1 Base de données CASIA V1.0 ………………………………………………………..99
1.2 Base de données CASIA-IrisV3-Interval .......................................................................99
2. Tests……………………………………………………………………………………………100
2.1 Paramètres pertinents du système…………………………………………………….100
2.2 Taux d’identification (performances en identification)………………………………102
2.2.1 Evolution du taux d’identification suivant Napp et Tapp utilisés……………...103
2.2.2 Evolution du taux d’identification suivant les catégories d’individus…………104
2.2.3 Evolution du taux d’identification suivant le niveau de segmentation………...105
2.2.4 Evolution du taux d’identification suivant la distance utilisée…………............108
2.2.5 Evolution du taux d’identification suivant le type de modèle utilisé…………..108
2.3 Distributions des distances intra classes et interclasses………………………………109
2.4 Taux FAR et FRR (Performances en vérification)…………………………………..112
2.5 Temps d’exécution…………………………………………………………...…………...113
2.5.1 Estimation du temps d’exécution en fonction du zoom de la phase de
segmentation et de normalisation………………………….………………………113
2.5.2 Estimation du temps d’exécution de la phase de filtrage et celle d’extraction des
Caractéristiques………………………………………………...…………………...113
2.5.3 Estimation du temps d’exécution de la phase de vérification………..………….113
2.5.4 Estimation du temps d’exécution de la phase d’identification………..………...114
CONCLUSION GENERALE………………………………….…………………………….115
BIBLIOGRAPHIE………………………………………………………………………...116
XI
Liste des tableaux
CHAPITRE I : INTRODUCTION A LA BIOMETRIE
Tableau VI.1 : Les différentes classes composant le système IrisSystem Tool …………….76
XII
normalisation……………………………………………………….…….113
Tableau VII.16 : Temps d’exécution de la phase de filtrage et celle d’extraction des
caractéristiques …………………………………………………….…….113
Tableau VII.17 : Temps d’exécution de la phase de vérification …………………….…....113
Tableau VII.18 : Temps d’exécution de la phase d’identification ……………………...…114
Tableau B.1 : Vue d’ensemble des facteurs de bruit des bases de données standards .........139
Tableau B.2 : Quantité moyenne des pixels affectés par le bruit dans les régions d’iris des
images de bases de données …..…………………………………………….139
XIII
Liste des figures
CHAPITRE I : INTRODUCTION A LA BIOMETRIE ET A L’IRIS
CHAPITRE IV : ONDELETTES
XIV
Figure V.1 : Phase d’apprentissage ……………………………………………………….…54
Figure V.2 : Phase d’identification ……………………………………………………….…56
Figure V.3 : Phase de vérification ……………………………………………………….…..57
Figure V.4 : Transformation en niveaux de gris ………………………………………….…58
Figure V.5 : Détection des coordonnées de l’iris et de la pupille ………………………..….59
Figure V.6 : Modèle de transformation polaire rectangulaire de John Daugman ……….….60
Figure V.7 : Résultat du processus de normalisation de l’iris avec une résolution
angulaire de 40 pixels et une résolution radiale de 10 pixels….……………….………...………61
Figure V.8 : Illustration du procédé de normalisation de l’image d’un iris après localisation
de l’iris et de la pupille….………………………………………………………….…………61
Figure V.9 : Illustration du principe de l’approche basée sur la texture ………….…………62
Figure V.10 : Iris normalisé et son masque de bruit ……………………………….………..62
Figure V.11 : Matrice de cooccurrence d’une portion d’image …………………….……….63
Figure V.12 : Matrice de LPNG d’une portion d’image …………………………….……...64
Figure V.13 : Réponse fréquentielle du filtre de Log-Gabor avec une FFT de 121 points....66
Figure V.14 : FFT de 1000 points de la moyenne des signaux angulaires (anneaux
circulaires) de l’iris.……….………………………………………….……….66
Figure V.15 : FFT de la moyenne de l’iris normalisé ……………………………….………67
Figure V.16 : Division de la base pour le calcul du taux d’identification …………….…….70
Figure V.17 : Division de la base pour le calcul des taux FAR et FRR …………………….72
XV
Figure VII.5 : Evolution du taux d’identification suivant le niveau de segmentation
(CASIA V1.0) ……………………………………………………………………….……...106
Figure VII.6 : Evolution du taux d’identification suivant le niveau de segmentation
(CASIA IrisV3-Interval) ……………………………………………………………...…….107
Figure VII.7 : Distributions des distances intra classes et interclasses de la base CASIA V1.0
en utilisant la méthode de filtrage ………………………………………..…………………110
Figure VII.8 : Distributions des distances intra classes et interclasses de la base CASIA V1.0
en utilisant la méthode directe …………………………………………………………...…110
Figure VII.9 : Distributions des distances intra classes et interclasses de la base CASIA
IrisV3-Interval en utilisant la méthode de filtrage ………………………………………….111
Figure VII.10 : Distributions des distances intra classes et interclasses de la base CASIA
IrisV3-Interval en utilisant la méthode directe ………………………………………….…111
XVI
Liste des sigles et abréviations
ACI : Analyse en Composantes Indépendantes
ACP : Analyse en Composantes Principales
ADN : Acide DésoxyriboNucléique
AFIS : Automatic Fingerprint Identification System
AlGaAs : Aluminium Gallium Arsenide
BATH : University of Bath Iris Image Database
CASIA : Institute of Automation Chinese Academy of Sciences Iris Image Database
CCD : Charge-Coupled Device Camera
CMOS : Complementary Metal-Oxide Semiconductor
DLL : Dynamic Link Library
EEG : ElectroEncéphaloGramme
EER : Equal Error Rate
FA : Fausse Acceptation (False Acceptance)
FAR : False Acceptance Rate
FFT : Fast Fourier Transform
FR : Faux Rejet (False Rejection)
FRR : False Rejection Rate
GMM : Gaussian Mixture Models
HCM : Hard C-Means
HTER : Half Total Error Rate
IBG :International Biometric Group
ICE : Iris Challenge Evaluation Iris Database Image
ID : Identification
INCITS : InterNational Committee for Information Technology Standards
IRIS : Iris Recognition Immigration System
IRM : Imagerie par Résonance Magnétique
ISO : International Standards Organization
JPEG : Joint Photographic Expert Group
LVQ : Learning Vector Quantization
LDA : Linear Discriminant Analysis
LED: Light Emitting Diodes
LPNG : Méthode des Longueurs de Plages de Niveaux de Gris
MMU : Multimedia University Iris Image Database
MRF : Markov Random Fields
NEO : Iris Noisy Factor (eyelids obstruction)
NLO : Iris Noisy Factor (eyelash obstruction)
NLR : Iris Noisy Factor (lighting reflections)
NMB : Iris Noisy Factor (motion blurred)
NOA : Iris Noisy Factor (off-angle)
XVII
NOI : Iris Noisy Factor (out-of-iris)
NPF : Iris Noisy Factor (poor focused)
NPS : Iris Noisy Factor (inaccurate segmentation of inner iris border)
NPI: Iris Noisy Factor (partial iris)
NSS : Iris Noisy factor (inaccurate segmentation of inner iris border)
NSR : Iris Noisy Factor (specular reflections)
PC : Personal Computer
PIN : Personal Identification Number
RDF : Reconnaissance Des Formes
ROC : Receiver Operating Characteristics
ROI : Region Of Interest
SVM : Support Vector Machines
TER : Total Error Rate
UBIRIS : University of Beira Interior Iris Image Database
UPOL : University of Palacki. Olomuc Iris Image Database
UV : UltraViolet
VGA : Video Graphics Array
WVU : West Virginia University Iris Image Database
XVIII
INTRODUCTION GENERALE
Tous les systèmes de reconnaissance biométrique existants reposent sur l’étude des
différences aléatoires de certaines formes entre des personnes distinctes. La précision des
résultats biométriques est d’autant plus grande que cette dimension aléatoire présente dans les
domaines analysés est importante. Toutefois, l’aléa nécessairement présent dans l’analyse
biométrique engendre un problème de taille : les formes biométriques étudiées dans les
systèmes de reconnaissance d’identité doivent garantir des signatures "quasiment" identiques
pour une même personne quelles que soient les conditions physiques extérieures lors du test.
Prenons par exemple la reconnaissance faciale. Les visages sont des objets en trois
dimensions très dynamiques : leurs images de projection sur des plans peuvent varier en
fonction de l’angle de vue, de l’éclairage, de l’âge, etc. Les expressions du visage sont
susceptibles de modifier considérablement les signatures biométriques d’une même personne.
Pour des images prises à une année d’intervalle, on a constaté que les meilleurs
algorithmes de reconnaissance faciale présentent des taux d’erreurs élevés. De même, la
reconnaissance vocale, souvent utilisée en recherche criminelle, ne semble pas encore
constituer un moyen fiable de reconnaissance biométrique. C’est pourquoi la recherche
scientifique en reconnaissance vocale se concentre surtout sur la compréhension et
l’interprétation de la parole, souvent utilisées dans les différents services téléphoniques
automatiques.
Les premières traces d’une proposition d’utilisation du motif de l’iris comme moyen de
reconnaissance des individus remontent à un manuel d’ophtalmologie écrit par James
Doggarts datant de 1949. On dit même que l’ophtalmologiste Frank Burch en avait émis
l’idée dès 1936. Durant les années 80, l’idée reparut dans le cinéma, mais elle restait du
domaine de la science fiction. Ce n’est donc qu’en 1986 que deux ophtalmologistes (Aran
Safir et Leonard Flom) déposèrent un brevet sur cette idée et demandèrent à John Daugman
(enseignant à cette époque à l’université de Harvard et inventeur de la reconnaissance
biométrique par iris) d’essayer de trouver un algorithme d’identification basé sur le motif de
l’iris. Cet algorithme a été breveté en 1994. Il est la base de tous les systèmes de
reconnaissance d’iris actuels.
Dans le chapitre II, nous présenterons l’analyse de texture. Nous commencerons par
introduire la notion de texture. Nous verrons ensuite le besoin d’analyse de texture. Enfin,
nous décrirons les méthodes d’analyse de texture en se basant sur les méthodes statistiques.
Le chapitre III sera consacré aux algorithmes de reconnaissance d’iris. Nous exposerons
les contraintes liées à l’acquisition d’une image d’iris par un système vidéo. Nous verrons
ensuite les différentes techniques de reconnaissance d’iris trouvées dans la littérature, et
présenterons quelques méthodes connues de reconnaissance d’iris. Nous conclurons ce
chapitre par une présentation des standards et les chalenges dans les systèmes de
reconnaissance d’iris.
Dans le chapitre IV, nous ferons une rapide introduction sur le traitement du signal et
l’apparition de la transformée en ondelettes comme outil présentant de nombreux avantages et
qui tend à s’imposer en remplacement de la transformée de Fourier et de ses dérivées. Nous
décrirons ensuite plus précisément les bases théoriques de la transformée en ondelettes et
introduirons les notions d’ondelettes orthogonales. Nous verrons également l’analyse multi-
résolution qui permet le traitement des signaux à différentes échelles (ou niveaux de
résolution) et qui, alliée à la transformée en ondelettes, constitue une méthode puissante
d’analyse du signal, et notamment des images. Nous conclurons ce chapitre par la
comparaison entre la transformée de Fourier et la transformée en ondelettes, et insisterons sur
les avantages de cette dernière en terme de représentation de l’information.
Dans le dernier chapitre, nous commencerons par une présentation des deux bases de
données sur lesquelles nous avons effectué nos tests. Nous décrirons ensuite les paramètres
pertinents du système. Nous conclurons ce chapitre par les différents tests et résultats obtenus
sur ces deux bases.
3
CHAPITRE I Introduction à la biométrie
Introduction :
Depuis quelques décennies, l’explosion de l’informatique et des réseaux de communication a
fait augmenter de manière significative le besoin d’identification des personnes. Jusqu’à
présent les méthodes usuelles d’identification sont basées sur ce que l’on possède (carte
d’identité, carte à puce, badge magnétique…) ou sur ce que l’on sait (mot de passe, code
PIN…) mais ces méthodes posent de gros problèmes de fiabilités (falsification de document,
oubli de son code, décryptage du mot de passe via des logiciels spécifiques…). Une
identification fiable des personnes est devenue un problème majeur pour des raisons de
sécurité (contrôle aux frontières, accès aux lieus publiques, transport…). Tous ces problèmes
ont ainsi provoqué un développement accru des techniques biométriques d’identification [1]
[2].
Dans ce chapitre, nous commençons par présenter la biométrie de manière générale ainsi que
les diverses applications qui en découlent, en insistant plus particulièrement sur l’utilisation
de l’iris pour la reconnaissance d’individus.
1. La biométrie :
1.1 Définition :
Le mot anglais « Biometric », utilisé pour définir « La mesure des éléments morphologiques
des humains », est fréquemment traduit en français par « Biométrie ».
La définition de « Biométrie » donnée par le Petit Robert est une « science qui étudie à l'aide
de mathématiques (statistiques, probabilités) les variations biologiques à l'intérieur d'un
groupe déterminé ».
5
CHAPITRE I Introduction à la biométrie
1.4 Les modes opératoires d’un système biométrique :
Un système biométrique peut avoir deux modes opératoires [4] : la vérification et
l’identification.
La vérification, également appelée authentification, consiste à confirmer ou infirmer l’identité
d’une personne (suis-je celui que je prétends être ?). Il s’agit d’une comparaison du type un
contre un ; les caractéristiques de l’individu sont comparées à celles présentes dans un
enregistrement de référence.
Quant à l’identification, elle permet d’établir l’identité d’une personne (qui suis-je ?) à partir
d’une base de données, il s’agit d’une comparaison du type un contre plusieurs.
Il existe, par ailleurs, une autre catégorie qui est l’étude des traces biologiques telles que :
l’ADN, le sang, la salive, l’urine, l’odeur, etc.
6
CHAPITRE I Introduction à la biométrie
7
CHAPITRE I Introduction à la biométrie
8
CHAPITRE I Introduction à la biométrie
9
CHAPITRE I Introduction à la biométrie
1.6.8 La dynamique de frappe au clavier [15] :
Un système basé sur la dynamique de frappe au clavier ne nécessite aucun équipement
particulier, chaque ordinateur disposant d’un clavier. Il s’agit d’un dispositif logiciel qui
calcule le temps où un doigt effectue une pression sur une touche et le temps où un doigt est
dans les airs (entre les frappes). Cette mesure est capturée environ mille fois par seconde. La
séquence de frappe est prédéterminée sous la forme d’un mot de passe. Initialement
l’utilisateur doit composer son mot de passe à quelques reprises afin que soit constitué un
gabarit de référence.
Ce dispositif biométrique est utilisé comme méthode de vérification pour le commerce
électronique et comme mécanisme de contrôle d’accès à des bases de données.
11
CHAPITRE I Introduction à la biométrie
Apprentissage
Mesure de la Extraction des
de données
Base
caractéristique paramètres
. . .
Adaptation
Reconnaissance
Mesure de la Extraction des Comparaison et
ID
caractéristique paramètres décision
Cependant, les capteurs de qualité sont en général coûteux et leur utilisation est donc limitée à
des applications de haute sécurité pour un public restreint. Le modèle peut être stocké dans
une base de données comme représenté sur la figure I.4 ou sur une carte de type carte à puce.
12
CHAPITRE I Introduction à la biométrie
L’identification peut-être une tâche redoutable lorsque la base de données contient des
milliers, voire des millions d’identités, tout particulièrement lorsqu’il existe des contraintes de
type « temps réel » sur le système. Ces difficultés sont analogues à celles que connaissent par
exemple les systèmes d’indexation de documents multimédia.
Le type d’erreurs commises par ce genre de système est d’attribuer à l’individu présenté une
identité autre que la sienne.
Les performances de ce système sont mesurées à l’aide du taux d’identification [23].
13
CHAPITRE I Introduction à la biométrie
Et donc :
14
CHAPITRE I Introduction à la biométrie
Figure I.12 : Distributions des taux de vraisemblance des utilisateurs légitimes et des
imposteurs d’un système biométrique.
Lors de la vérification, le taux est comparé au seuil de décision , si est inférieur à alors
l’individu est accepté sinon celui-ci est rejeté. Le système peut faire deux types d’erreurs :
¾ FA (False Acceptance) :
La fausse acceptation correspond au cas où le système accepte un individu qui a proclamé une
identité qui n’est pas la sienne.
¾ FR (False Rejection) :
Le faux rejet correspond au cas où le système rejette un client légitime.
Les performances de ce type de système se basent principalement sur le taux de faux rejet et
le taux de fausse acceptation.
On remarque à travers la figure I.5 que plus le seuil de décision est petit, plus le système
acceptera de clients légitimes mais aussi des imposteurs, plus est grand, plus le système
rejettera d’imposteurs mais aussi des utilisateurs légitimes. Le paramétrage d’un système
consiste à trouver le bon équilibre entre ces deux taux.
Les performances d’un système biométrique peuvent être présentées graphiquement à l’aide
de la courbe ROC (Receiver Operating Characteristics) sur laquelle les FRRs sont données en
fonction des FAR (voir Figure I.6). Cette courbe est obtenue en calculant un couple (FAR,
FRR) pour chaque valeur du seuil de décision, ce dernier varie de la plus petite valeur des
taux obtenus en phase de test à la plus grande valeur.
Il existe d’autres critères fréquemment utilisés pour donner un aperçu des performances des
systèmes de vérification :
¾ EER (Equal Error Rate) :
Le taux d’erreur égale correspond à l’intersection de la courbe ROC avec la première
bissectrice, en d’autres termes, EER correspond au point de fonctionnement pour lequel le
taux de faux rejet est égal au taux de fausse acceptation.
16
CHAPITRE I Introduction à la biométrie
A partir de ces sept critères, une première comparaison des principales technologies
biométriques est proposée sur le Tableau I.1. Parmi les techniques les plus matures, on
distingue le visage, l’empreinte digitale, la géométrie de la main, l’iris et la rétine, qui
présentent des bonnes caractéristiques. Mais aucune d’entre elles n’est parfaite. Chaque
technique possède des avantages et des inconvénients, acceptables ou inacceptables suivant
les applications en termes de niveau de sécurité et/ou de facilité d’emploi, etc. Aussi nous
sommes tentés de dire que ces cinq solutions biométriques ne sont pas systématiquement en
concurrence. Cela dit, pour des applications grand public, la reconnaissance rétinienne, qui
nécessite un appareillage d’acquisition sophistiqué et coûteux, peut être d’ores et déjà écartée
car trop intrusive. Parmi les facteurs de performances, on se doit aussi de prendre en compte
certains paramètres d’usage tels que les taux de FAR et FRR.
En regardant le Tableau I.2, on voit que l’iris est tout particulièrement prometteur, et on
comprend mieux le vif intérêt et la convoitise des industriels que l’iris a suscités depuis 2000.
Sa stabilité au cours du temps (car protégé derrière les paupières et l’humeur aqueuse de la
cornée), sa précision, sa faible complexité algorithmique (temps d’exécution d’une
identification sur une large base de données relativement court), la compacité des gabarits
extraits de sa texture, sont autant de points forts qui laissent penser que l’iris a un bel avenir
en reconnaissance biométrique d’individus.
17
CHAPITRE I Introduction à la biométrie
Toutefois, les deux problèmes majeurs de l’analyse par l’iris sont : sa faible capacité
d’intégration (portabilité sur systèmes embarqués) et le fait qu’elle soit perçue comme
intrusive ou contraignante par l’utilisateur car l’acquisition d’une image d’iris exige un certain
apprentissage et une complète coopération.
On notera que les capteurs intégrés d’empreintes digitales posent d’autres problèmes : les
variations du taux d’hygrométrie, les poussières, la graisse, les cicatrices et l’usure des doigts
sont autant de paramètres qui altèrent l’information biométrique. Les systèmes de
reconnaissance de visage sont eux extrêmement sensibles à l’environnement (éclairage,
lunettes, etc.).
Une comparaison des méthodes biométriques nous a montré que l’iris semble plus fiable que
l’empreinte digitale, le visage, la géométrie de la main et la rétine. Ses performances sont
liées à l’unicité des caractéristiques contenues dans la texture de l’iris humaine. Par contre la
mesurabilité de cette texture est comparativement faible, et limite l’utilisation de l’iris dans
des applications sur systèmes embarqués.
Conclusion :
Dans ce chapitre, nous avons présenté une vue générale de la biométrie, un survol sur
quelques techniques biométriques ainsi que l’architecture d’un système biométrique. La
18
CHAPITRE I Introduction à la biométrie
performance et la fiabilité d’un système biométrique s’expriment par le taux d’identification
et les taux d’erreurs commises. Dans le but d’obtenir de meilleures performances, les
chercheurs ont recours à la combinaison de deux ou plusieurs modalités différentes. Le fait
que l’iris soit texturé nous conduit à introduire dans le chapitre suivant les différents concepts
de base de l’analyse de la texture d’une image.
19
CHAPITRE II Analyse de la texture d’une image
Introduction :
L'analyse est un domaine très important du traitement de l'image. L'analyse de l'image
consiste souvent à extraire un certain nombre de propriétés caractéristiques et à les exprimer
sous forme paramétrique. L'étape d'extraction des paramètres précède souvent une étape de
décision de manière à pouvoir répondre à des questions telles que : matériau normal ou
défectueux ? Tissu biologique sain ou pathologique ? Types de défauts ? Les paramètres
calculés permettent donc de décrire, de caractériser, de segmenter et d'analyser les images en
question. Selon le cas, l'analyse peut être globale ou locale, la notion de localité prenant toute
son importance avec la complexité de l'image. Il est évident que le choix des paramètres
dépend surtout de l'application considérée, par exemple de lier ces paramètres avec les
propriétés physiques et biologiques réelles afin de les quantifier ou alors de trouver des
similitudes avec des textures de référence afin de les identifier. L'interprétation des
informations dans un environnement naturel n'est pas un problème simple. En effet, les
textures naturelles sont très irrégulières et ne peuvent être modélisées précisément par les
techniques mathématiques actuelles.
1. Analyse de texture :
1.1 Définition :
La définition littéraire de la texture est la suivante : " répétition spatiale d'un même motif dans
différentes directions de l'espace ". Cette définition est limitative car elle caractérise l'objet
indépendamment d'un observateur humain. La notion de texture est utilisée pour traduire un
aspect homogène de la surface d'un objet sur une image. La texture se manifeste donc par une
information visuelle qui permet de la décrire qualitativement à l'aide des adjectifs suivants:
grossière, fine, lisse, tachetée, granuleuse, marbrée, régulière ou irrégulière. De nombreuses
études psycho visuelles ont été faites sur la discrimination de texture par le système visuel
humain. Une conjecture importante et valide dans beaucoup de cas est que l'œil humain ne
peut discerner instantanément deux textures dont les statistiques du second ordre sont
identiques. Cependant, il existe des cas où des textures ayant les mêmes statistiques du second
ordre sont néanmoins discriminables sur la base de propriétés locales.
Haralick [1] élargit la définition en décrivant une texture comme un phénomène à deux
dimensions : la première concernant la description d'éléments de base ou primitives (le motif)
à partir desquels est formée la texture; la deuxième dimension est relative à la description de
l'organisation spatiale de ces primitives.
Unser [2] présente la texture comme une structure disposant de certaines propriétés spatiales
homogènes et invariantes par translation. Une autre approche serait encore de définir la
texture à partir de deux types d'informations essentielles que comporte l'image :
- Les contours, de type monodimensionnel, qui marquent les frontières entre régions
homogènes.
- L'aspect de surface, de type bidimensionnel, qui définit les régions homogènes. Cependant,
la description d'une texture peut s'avérer erronée à une autre échelle d'observation, c'est à dire
en changeant la résolution.
Il existe deux grands types de textures : les textures aléatoires et les textures dites périodiques
ou structurées.
20
CHAPITRE II Analyse de la texture d’une image
- Une texture périodique est formée de primitives arrangées d'une façon particulière, rangée.
Le motif de base se répète alors de manière régulière. On parle de texture ordonnée.
- Une texture aléatoire semble totalement désordonnée. Il est alors impossible d'isoler un
motif de base.
Gagalowicz [3] propose une synthèse des deux approches en considérant la texture comme
"une structure spatiale constituée de l'organisation de primitives ayant chacune un aspect
aléatoire, donc une structure hiérarchique à deux niveaux".
21
CHAPITRE II Analyse de la texture d’une image
médicales, où le critère de classification aura pour objectif de différencier entre la texture du
tissu normal et la structure du tissu anormal dans les images médicales.
Une autre application peut être l’extraction ou la construction de surface 3D à partir des
variations dans les propriétés texturales dans une image. Une telle application nous aide à
recréer la surface 3D, dont la projection sur une image 2D est la texture donnée. Comme la
texture ne peut être complètement décrite en une définition particulière, nous ne pouvons pas
non plus trouver juste une seule manière qui nous permettra de caractériser complètement une
texture donnée et d’extraire ses traits caractéristiques avec succès pour toutes les différentes
applications. En conséquence, il y a différentes approches pour analyser la texture par
beaucoup de gens, selon le genre d’application et aussi selon le type de texture qui doit être
analysée.
1. Moyenne : donne la valeur moyenne (ou intensité moyenne) des niveaux de gris
appartenant à tous les pixels de la ROI. Ce paramètre représente l'emplacement de
l'histogramme sur l'échelle des niveaux de gris.
2. Variance : correspond au moment d'ordre 2. Elle mesure la répartition des niveaux de gris
autour de la valeur moyenne.
22
CHAPITRE II Analyse de la texture d’une image
3. "Skewness" : correspond au moment d'ordre 3 centré autour de la moyenne. Ce paramètre
mesure la déviation de la distribution des niveaux de gris par rapport à une distribution
symétrique.
Pour une déviation par les valeurs élevées, le skewness est positif ; alors que pour une
déviation vers les basses valeurs, il est négatif.
5. Le rapport "signal-sur-bruit" :
En imagerie le SNR peut être défini de la façon suivante :
Il correspond au rapport de la moyenne sur l’écart type. Ce paramètre permet de rendre
compte de l'hétérogénéité d'une texture. Une texture hétérogène possèdera un signal sur bruit
faible car la variance sera élevée.
6. Les percentiles :
Ils sont déterminés par extrapolation sur l’histogramme cumulé. Celui-ci correspond à la
fréquence cumulée d’apparition d’un niveau de gris.
correspond à la proportion (en %) de pixels ayant une valeur de niveaux de gris inférieure à
la valeur correspondant à .
23
CHAPITRE II Analyse de la texture d’une image
La taille de la matrice est x , où correspond au maximum des niveaux de gris de
l'image. A chaque direction et pour chaque valeur de correspond une matrice de
cooccurrence .
Une fois la matrice symétrique réalisée, il est possible d'en extraire une quinzaine de
paramètres.
Ils contiennent des informations sur la finesse, la direction et la granularité de la texture.
Pour une texture grossière, les valeurs de la matrice sont concentrées sur la diagonale
principale. Au contraire, pour une texture fine, les valeurs de la matrice seront dispersées : en
effet, pour une telle texture il existe beaucoup de transitions de niveaux de gris.
1. La moyenne :
2. La variance :
Elle caractérise la distribution des niveaux de gris autour de la valeur moyenne calculée
précédemment.
24
CHAPITRE II Analyse de la texture d’une image
4. Le contraste (inertie) : mesure les variations locales des niveaux de gris. Si elles sont
importantes (c'est à dire s'il existe peu de régions homogènes), alors le contraste sera élevé.
Ce paramètre permet aussi de caractériser la dispersion des valeurs de la matrice par rapport à
sa diagonale principale.
Une texture apparaît plus nette lorsque le contraste est plus élevé, les transitions entre niveaux
de gris sont alors plus visibles.
5. La corrélation :
Oiu et représentent les écarts types respectivement des lignes et des colonnes de la
matrice.
Elle permet de caractériser le degré de granulation de l'image. Plus l'entropie est élevée, plus
la granulation est grossière.
On peut aussi définir les paramètres suivants qui sont cependant moins utilisés :
9. Le moment diagonal :
25
CHAPITRE II Analyse de la texture d’une image
10. Le "cluster shade" :
Cette méthode qui prend en compte seulement des relations entre pixels n'est cependant pas
adaptée pour étudier la forme détaillée d'éléments de texture.
De plus, il n'existe pas de méthodes pour sélectionner le vecteur déplacement. Les calculs sont
alors très longs si on veut utiliser plusieurs déplacements.
26
CHAPITRE II Analyse de la texture d’une image
Les principaux paramètres issus de la matrice des longueurs de plages sont les suivants :
1. Le "poids" des plages courtes :
L’image qui possède un LRE plus grand possède plus de plages, c'est à dire plus de zones
étendues ayant le même niveau de gris.
5. Le pourcentage de plages :
ou la constante np correspond au nombre de pixels de l’image. Plus la texture est
homogène, plus ce paramètre est élevé.
27
CHAPITRE II Analyse de la texture d’une image
Les paramètres suivants tiennent compte à la fois de la distribution des niveaux de gris et des
longueurs de plage :
8. Le poids des petites plages de faible niveau de gris :
28
CHAPITRE II Analyse de la texture d’une image
Les filtres de domaine spatial et fréquentiel peuvent être utilisés pour l’extraction des
caractéristiques. Un travail large a été fait concernant l’utilisation des filtres de Gabor et
d’ondelette pour l’analyse des textures ayant montré d’ailleurs d’excellents résultats.
Conclusion :
Ce chapitre avait pour intérêt de présenter le besoin d’analyse de texture, ainsi que les
différentes méthodes utilisées pour la caractérisation d’une texture. Les méthodes statistiques
s’avèrent les plus appropriées pour l’analyse d’une texture aléatoire et sans régularité
apparente telle que celle de l’iris.
Dans le chapitre suivant, nous nous intéresserons à la reconnaissance de l’iris en se focalisant
sur les différents algorithmes de reconnaissance de l’iris dont quelques uns utilisant des
méthodes basées texture.
29
CHAPITRE III Reconnaissance par iris
1. L’iris :
1.1 Rappel anatomique :
L’iris est la zone colorée visible entre le blanc de l’œil et la pupille. Il s’agit d’un réseau de
tubes fins dont le diamètre est inférieur à celui d'un cheveu. L'iris commence à se former
quelques mois avant la naissance jusqu’à quelques mois après, et l'enchevêtrement des tubes
qui le constituent est fixe et ne varie que très peu durant la vie de l'individu. Par contre la
couleur des tubes peut varier avec le temps (période de quelques années) et pour certaines
maladies. L'iris contient une quantité d'informations particulièrement importante, comparable
à la quantité d'informations contenue dans l'ADN. Mais l'iris n'occupant qu'une surface très
faible, son observation pratique à travers un système optique spécifique (éclairage artificiel
pour éviter les reflets sur la cornée), placé entre 10 à 30 cm de l’œil, ne permet de déceler que
certains contours macroscopiques. Toutefois, cette approximation de l'information est
suffisante pour certifier l'identité d'un individu avec une grande précision.
L'iris placé derrière la cornée de l’œil (Figure III.1) est un diaphragme variable percé d'un trou
circulaire, la pupille (diamètre de 2.5 à 4.5 mm), régie par un sphincter et par un dilatateur
formé de fibres musculaires antagonistes, lisses, rayonnantes et circulaires. La pupille
s'agrandit quand les fibres musculaires sympathiques se contractent ; elle se rétrécit quand les
fibres circulaires parasympathiques agissent. Cette ouverture de la pupille permet de modifier
la quantité de lumière qui pénètre dans l’œil pour éviter l’aveuglement en plein soleil ou
capter le peu de rayons lumineux la nuit.
La couleur des tubes qui le constituent varie avec le temps (du gris bleu au brun en passant
par le bleu et le vert) et pour certaines maladies. Elle résulte de la combinaison de la
transparence des fibres iridiennes et des pigments (mélanine) qui s'y fixent progressivement.
Bleu à la naissance, elle varie jusqu'à la puberté.
L’observation pratique à travers un système optique permet uniquement de déceler les
contours macroscopiques, et pas de descendre au niveau des tubes élémentaires. Ces motifs
aléatoires de l’iris sont uniques à chaque individu : ils constituent en quelque sorte un code
barres humain à partir des filaments, creux et stries dans les cercles colorés qui entourent la
pupille de chaque œil (exemples sur la figure III.2). De plus, s’agissant d’un tissu interne, ces
empreintes iridiennes sont relativement à l’abri des lésions, protégées par la cornée et
l’humeur aqueuse.
30
CHAPITRE III Reconnaissance par iris
1.2 Avantages :
- L’iris est un organe interne et donc bien protégé de tout dommage contrairement aux autres
outils biométriques, en l’occurrence les empreintes digitales [1].
- L’iris présente l’avantage d’être de caractéristiques hautement aléatoires et assure presque
l’unicité de non pas chaque paire d’iris d’une personne mais entre les iris de la même
personne [2].
- Il n’y aucunement de relation ou d’impact génétique sur sa structure interne [3].
1.3 Inconvénients :
- L’image d’iris est difficile à acquérir car sa taille est très petite, comparé par exemple au
visage. L’acquisition d’une image d’iris nécessite un appareil spécial.
- Puisque l’mage d’iris est difficile à acquérir, le processus d’enrôlement prend beaucoup de
temps, ce qui n’est pas acceptable pour tous les utilisateurs. Aussi, Le taux d’échec de
l’enrôlement de l’iris est d’environ 7 % [4].
- L’image d’iris peut gravement être affectée par l’ombre (reflet) des cils et des paupières
causé par la qualité de la source lumineuse.
1.4 Historique :
L’iris, qui veut dire arc-en-ciel en grec, est historiquement utilisé en Iridologie pour
diagnostiquer l’état de santé ou la maladie d’une personne à partir de la couleur ou de la
location de tâches de pigment, selon l’hypothèse étrange que chaque partie du corps est
représentée par une zone correspondante dans l’iris de l’œil. Mais aucun iridologue n’a
réussi jusqu’à ce jour d’examen scientifique prouvant la fiabilité de cette théorie. L’iris est
retenu pour la première fois pour des fins d’identification personnelle par l’ophtalmologiste
américain Frank Burch en 1936. En 1986, les deux ophtalmologistes Aran Safir et Leonard
Flom brevètent cette idée (Brevet N° WO8605018A1), mais il faudra attendre 1991 pour que
le professeur John Daugman de l’Université d’Harvard développe le premier système
biométrique d’identification de personnes basé sur l’iris (Brevet N° WO09409446).
Aujourd’hui ce procédé a la réputation d’être le plus sûr parmi les méthodes d’identification
biométrique, puisqu’on considère que chaque iris est unique avec une probabilité d’en
trouver deux identiques inférieures à . Une récente évaluation de différents systèmes
biométriques [5] (résultats sur la figure III.2), effectuée par le laboratoire
national de physique en Angleterre, a récemment confirmé la fiabilité d’un système
d’identification d’iris conçu par la société Iridian Technologies. De plus la technologie de
31
CHAPITRE III Reconnaissance par iris
l’iris présente les avantages suivants : stable au cours du temps car protégé derrière la cornée,
non-intrusive car image acquise à distance et sans contact, signature de petite taille, difficile à
pirater grâce à une détection des variations d’ouverture de la pupille.
32
CHAPITRE III Reconnaissance par iris
Le terminal biométrique (1) qui permet la saisie des images d’iris a fait l’objet de nombreux
développements et recherches [6] [7] [8] [9] [10] [11]. La partie algorithmique de traitement
des données (2) est constituée des processus suivants :
d’enrôlement (21) par lequel l’identité d’une personne et son image biométrique (image de
l’iris) sont utilisées pour constituer une base de données (23), de matching (22) qui quantifie
la ressemblance entre deux gabarits (signatures numériques dont l’une provient de la base de
données et l’autre créée au cours de l’enrôlement présent).
33
CHAPITRE III Reconnaissance par iris
Figure III.5 : Image d’un iris capturé (a) dans le visible, (b) dans le proche infrarouge.
34
CHAPITRE III Reconnaissance par iris
Nous avons classifié les systèmes de reconnaissance par iris en trois catégories selon la
technique par laquelle les caractéristiques sont extraites de la texture de l’iris pour des buts de
comparaisons. Ces trois catégories sont : les techniques basées sur l’apparence, les techniques
basées sur la texture et les techniques basées sur l’extraction des caractéristiques.
- Les techniques basées sur l’apparence [12] [13] font usage d’approches statistiques
classiques telles que l’analyse en composantes principales (ACP) ou l’analyse en composantes
indépendantes (ACI) pour représenter les images d’iris.
- Les techniques basées sur la texture [2] [14] [15] [16] [17] [18] font quant à elles usage de
filtres pour le traitement des images et l’extraction de quelques propriétés des images filtrées
afin de quantifier les images d’iris données.
- Les techniques basées sur l’extraction des caractéristiques [19] font usage des
caractéristiques locales présentes dans l’image (blocs ou taches) et enregistrent leurs
localisations et caractéristiques (propriétés) pour distinguer les différentes images. Les
différentes approches de reconnaissance par iris sont détaillées ci-dessous.
35
CHAPITRE III Reconnaissance par iris
imaginaires de l’image transformée. Une distance de Hamming qui est une mesure est utilisée
pour déterminer si les images sont de la même personne ou pas. Dans une autre approche,
Wilds [14] utilise le Laplacien du filtre gaussien pour extraire les traits dans la partie texture.
Cela est relativement une simple technique qui compte sur les traits des contours dans le motif
de texture. La comparaison est faite grâce au calcul des corrélations normalisées entre l’image
acquise et les représentations de la base de données. Comme les intensités moyennes sont
soustraites pendant le calcul des corrélations normalisées, cette technique est robuste et peut
tenir compte des variations locales dans l’intensité de l’image. Plus récemment, Wang & Al.
[15][16] ont proposé des techniques de reconnaissance utilisant des filtres de Gabor multiples.
Des filtres de Gabor 8-directionnel avec des fréquences multiples sont utilisés et la moyenne
et la variance de ces images filtrées par Gabor sont utilisées comme une un moyen de
comparaisons de caractéristiques. Aussi une autre méthode existe qui n’extrait pas tout trait
explicite, mais utilise directement les sorties du filtre de corrélation pour l’alignement et la
comparaison des images d’iris [17].
Boles et Al. ont proposé une technique basée sur la transformée par ondelettes générant une
représentation zero-crossing [18]. La transformée par ondelette « dyadique » est utilisée pour
décomposer l’image à différentes résolutions. Comme les niveaux élevés sont hautement
exécutés par le bruit, seulement quelques résolutions basses sont utilisées. La représentation
zero-crossing de chaque image est générée en enregistrant le zero-crossing de ces coefficients
d’ondelettes. Cette technique offre plus de liberté quant à la méthode de capture de l’image
puisque elle est une variante translation et rotation.
36
CHAPITRE III Reconnaissance par iris
1770 images (3 images de 592 yeux) fournie par l’Ophtalmology Associates of Connecticut,
le taux EER est estimé à 1/128 000 par extrapolation des distributions des imposteurs et
authentiques relevées. Cependant lors de l’évaluation des algorithmes de J. Daugman dans
des conditions réelles d’utilisation pour leur commercialisation par la société IriScan, The
Sandia National Laboratories [23] présentait des résultats beaucoup plus modestes : avec 199
yeux enrôlés provenant de 122 personnes, on enregistrait un FRR de 10% (878 essais
d’identification en groupe fermé) et un temps moyen d’identification de 14 secondes.
37
CHAPITRE III Reconnaissance par iris
3.4 Méthode de Sanchez-Reillo & Al. :
En 1999, l’approche de Sanchez-Reillo & Al. [29] reprend dans l’ensemble celle de J.
Daugman. La texture de l’iris est partiellement transformée en un équivalent rectangulaire,
puis codée en rendant binaires les résultats de filtrage avec la partie imaginaire de filtres
complexes de Gabor. La comparaison consiste à calculer la distance de Hamming entre deux
codes. A partir d’une base de données de plus de 200 images (au moins 10 images de 20
yeux), l’étude de Sanchez-Reillo & Al. montre que leur système atteint un EER de 3.6% pour
une taille de code d’iris de 1860 bits.
Pour finir ce tour d’horizon des méthodes de reconnaissance de l’iris, on note plus récemment
l’apparition d’approches moins " séduisantes " ou jugées " exotiques ". Par exemples : S. Noh
& Al. [35] appliquent sans succès un algorithme d’apprentissage non -supervisé utilisant des
statistiques d’ordre supérieur pour l’extraction de caractéristiques, A. Muron & Al. [36]
évoquent la possibilité d’identifier un iris par son spectre de puissance optique de Fourier, ou
38
CHAPITRE III Reconnaissance par iris
encore M. Dobes & Al. [37] proposent l’utilisation de l’information mutuelle moyenne pour
aligner les motifs de deux iris et mesurer leur similarité.
Au vu de cet état de l’art, une analyse comparée des différents algorithmes de reconnaissance
d’iris s’avère particulièrement difficile pour diverses raisons. D’une part, les performances
mesurées ne sont pas établies sur des bases de données communes, et les protocoles et
scénarios de test ne sont pas homogènes. D’autre part, tous les travaux ne prennent pas en
compte les mêmes critères de performances. Néanmoins cette brève description des
algorithmes fait apparaître certains avantages et inconvénients inhérents à chacune des
méthodes. Le procédé implémenté par J. Daugman jouit aujourd’hui d’une notoriété
grandissante, et plus particulièrement l’idée de convertir l’image circulaire de l’iris dans un
système pseudo-polaire sans dimension. En effet, l’approche de J. Daugman (reprise par la
suite par Y. Wang et S. Lim) permet, grâce à une représentation rectangulaire de l’iris dans un
repère de taille fixe, de s’affranchir des constrictions pupillaires et des variations d’échelles
lors de l’acquisition, contrairement à celles de R.P.Wildes et W.W.Boles qui tiennent compte
uniquement du diamètre extérieur de l’iris pour effectuer un alignement spatial entre deux
images d’iris à comparer. De plus, l’intérêt de ces deux dernières solutions est respectivement
limité par : pour la première son temps de calcul prohibitif pour effectuer la localisation et la
vérification d’une image d’iris, et pour la seconde le manque d’expérimentations sur sa
fiabilité et sa robustesse avec des images réelles bruitées (problème de singularité et de
reproductibilité de la représentation zero-crossing issue d’une transformée en ondelettes 1D).
Quant aux méthodes introduites par Y. Wang & Al. et S. Lim & Al., elles reposent toutes deux
sur l’extraction de caractéristiques statistiques issues soit de sous-blocs de l’image d’iris après
filtrage, soit des coefficients de sa décomposition en ondelettes 2D.
4. Standards :
Comme nous l’avons vu précédemment, on dénombre un grand nombre de solutions pour
l’acquisition des images d’iris, et les algorithmes de reconnaissance d’iris sont très variables
et utilisent parfois des données très différentes. Cette diversité rend la standardisation des
systèmes biométriques basés sur l’iris délicate. Certaines tentatives de spécifications de
format standard d’images d’iris ont été très controversées [38]. Nous présentons
sommairement ici les dernières principales propositions du comité Biométrie de l’INCITS,
conseiller de l’ISO aux Etats-Unis, à propos de la capture d’images d’iris, le format de
sauvegarde des images et le format des images polaires d’iris.
1. La résolution du système d’acquisition doit être d’au moins 15 pixels/mm dans la zone de
l’iris. Facteur de compression JPEG inférieure à 6:1.
2. Densité de niveaux de gris supérieure à 256.
3. Illumination dans la gamme de longueurs d’ondes 700 à 900 nm, et un axe optique
d’éclairement de plus de 5 degrés (pour éviter l’effet yeux rouges).
4. Contraste : un minimum de 90 niveaux de gris entre l’iris et la sclérotique et un minimum
de 50 niveaux de gris entre l’iris et la pupille.
5. Zone de l’iris visible : au moins 70% de l’iris ne doit pas être caché par une réflexion
spéculaire, les cils, les paupières, etc.
39
CHAPITRE III Reconnaissance par iris
6. L’iris doit apparaître avec un diamètre compris entre 160 et 300 pixels, et doit être centré
dans l’image (distance entre les contours de l’iris et les bords de l’image supérieure à 70
pixels).
7. La tête de l’opérateur lors de l’acquisition doit être verticale (rotation tolérée de +/-10°).
8. Le format du stockage des images peut être l’un des suivants : Format Ligne – l’image est
représentée par une aire de m colonnes par n lignes, où chaque pixel (noir et blanc) est codé
par un octet – les données peuvent être compressées par l’algorithme sans perte JPEG-LS
conformément à la norme ISO/IEC 14495, Format JPEG - l’image est sauvegardée selon le
format défini par la norme ISO/IEC 10918, Format Polaire – l’image est sauvegardée en
coordonnées polaires par une aire de m colonnes par n lignes, où n est le nombre
d’échantillons radiaux et m le nombre d’échantillons angulaires – la valeur angulaire de degré
zéro se trouve à 6 heures.
- La plupart des techniques actuelles de reconnaissance par iris n’ont pas été testées sur une
base de données de grande échelle, due aux difficultés de rassembler un grand nombre
d’individus pour l’acquisition d’images à grande échelle.
- Il n’y a pas de combinaisons de classification pour les images d’iris comme celles qui
existent pour les empreintes digitales. Bien que les images d’iris apparaissent aléatoires et
confuses, elles possèdent une structure globale qui peut être perçue. Comme tous les systèmes
commerciaux peuvent exécuter des comparaisons 1 à N en deux secondes, une telle
combinaison peut ne pas être d’un vrai grand intérêt commercial, mais de très grande
importance pour un point de vue académique. Une telle technique fournira plus d’aperçu de la
structure de la texture de l’iris et peut apporter aussi plus d’informations sur l’individualité de
l’image de l’iris.
40
CHAPITRE III Reconnaissance par iris
- Toutes les documentations actuelles se focalisent sur le traitement avec des images d’iris qui
ont été obtenues par la coopération totale de l’utilisateur. Les techniques qui peuvent utiliser
des images d’iris partielles (problèmes de rotation…) ont besoin d’être explorées et traitées
afin de réduire les exigences strictes de capture d’images d’iris.
Conclusion :
Dans ce chapitre, nous nous sommes intéressés au fonctionnement des systèmes
d’identification par reconnaissance de l’iris. Cet engouement pour ces systèmes est justifié par
les nombreux avantages de cette technologie, à savoir sa précision et ses performances. Notre
choix s’est porté sur les méthodes basées sur la texture qui sont très utilisées dans la
littérature.
Dans le chapitre qui suit, nous introduirons la notion d’ondelettes, une des méthodes de
traitement du signal.
41
CHAPITRE IV Ondelettes
Introduction :
La théorie des ondelettes est récente : elle est née au milieu des années 80. Et pourtant, elle est
déjà utilisée dans de nombreux domaines qu’ils soient théoriques ou pratiques : analyse
harmonique, vision par ordinateur, traitement du signal, compression d’images, analyse de
turbulences, etc. Son succès est dû à son adaptabilité aux données et à sa facilité
d’implémentation.
Une ondelette est une onde " localisée ". Lorsqu’on décompose une fonction en séries de
Fourier, on la décompose en fait en fréquence. La décomposition en ondelettes ajoute une
dimension, la décomposition est double : en fréquence mais aussi en espace. Une fonction est
ainsi représentée comme une somme d’oscillations de fréquences précises se produisant à un
endroit précis, c’est-à-dire une somme d’ondelettes. C’est pour cela que cette théorie
représente "bien" les données.
Cependant, l’analyse de Fourier, de par sa nature, montre assez vite ses limitations : son
calcul nécessite la connaissance de toute l’histoire temporelle du signal (la transformée de
Fourier et la transformée inverse). De plus, dans une transformée de Fourier, l’information
sur le temps est présente (la transformée inverse est donc possible), mais elle est cachée dans
les phases : elle est en pratique impossible à extraire. On en est donc réduit à étudier un signal
soit en fonction du temps, soit en fonction des fréquences qu’il contient, sans possibilité de
conjuguer les deux analyses. La transformée de Fourier inverse s’écrit comme suit :
Convolution :
Soit et deux fonctions de dans ; la convolution de par , quand elle existe, est
définie par :
42
CHAPITRE IV Ondelettes
Où désigne la variance, c’est à dire la moyenne des carrés des écarts par rapport à la
moyenne.
Pour pallier le manque d’informations sur le temps dans la transformée de Fourier, une
nouvelle méthode d’analyse est donc introduite : elle utilise une « fenêtre glissante ». Cette
méthode, pouvant être adaptée aux signaux non-stationnaires, est très proche de l’analyse
spectrale : on définit une fenêtre qui sera utilisée comme masque sur le signal, et dans laquelle
on considère que le signal est localement stationnaire, puis on décale cette fenêtre le long du
signal afin de l’analyser entièrement.
Gabor reprendra cette méthode dans les années 40 : sa fenêtre est représentée par une fonction
gaussienne [1] :
Le signal d’origine (a) est décomposé en un ensemble de sous-signaux (b) selon la procédure
suivante :
La fonction est décomposée en un signal de détail et un signal d’approximation
(qui n’est pas représenté ici). Ce signal est à son tour décomposé en un détail
et une approximation , et ainsi de suite jusqu’à obtenir les cinq signaux de
détails à correspondant aux détails des 5 premières résolutions, et le signal
d’approximation à la résolution 5 .
Ainsi, l’analyse multi-résolution agit comme un zoom mathématique sur le signal à analyser :
on peut en faisant varier l’échelle d’analyse du signal extraire les détails présents à telle ou
telle résolution.
44
CHAPITRE IV Ondelettes
Cette transformation est en théorie infiniment redondante puisque l’ondelette est translatée de
manière continue ; cependant il existe des méthodes pour diminuer cette redondance : l’une de
ces méthodes consiste en l’emploi de la transformée en ondelettes discrète.
45
CHAPITRE IV Ondelettes
46
CHAPITRE IV Ondelettes
4. est dense dans et chaque fonction d’énergie finie
( peut être approximée avec une précision arbitraire par une fonction de d’une
hauteur adéquate.
5. Il existe une fonction d’échelle , ayant une intégrale non nulle, telle que et toutes
ses translatées d’un facteur entier forment une base orthonormée.
3. Ondelettes orthogonales :
Les ondelettes orthogonales étaient couramment employées pour supprimer la redondance
ainsi que pour assurer la reconstruction parfaite du signal.
L’analyse multi-résolution orthogonale est une analyse multi-résolution dans laquelle les
espaces d’ondelettes sont définis comme le complément orthogonal de dans [5]. En
conséquence, les espaces avec sont tous mutuellement orthogonaux.
Une condition suffisante pour qu’une analyse multi-résolution soit orthogonale est :
ou
Une fonction d’échelle orthogonale est une fonction telle que l’ensemble est
une base orthonormée, ou
L’analyse multi-résolution consiste, nous l’avons vu, en la projection du signal à analyser sur
deux espaces distincts : un espace d’approximation, et un espace détail. Si les fonctions
utilisées (fonction d’échelle ou ondelette) ne sont pas orthogonales :
47
CHAPITRE IV Ondelettes
- L’information ne sera pas dé-corrélée entre les vecteurs de la base : la même information
sera alors répartie sur plusieurs vecteurs, d’où la redondance.
- On ne pourra plus retrouver facilement le signal d’origine à partir des transformées.
On constate que dans les basses fréquences, la transformée en ondelettes est très précise en
fréquence, mais moins sur le temps. La tendance est inversée en haute fréquence où elle est
beaucoup plus précise sur le temps que sur la fréquence. Ainsi, la transformée en ondelettes
s’adapte tout naturellement au signal à analyser, contrairement à la transformée de Fourier à
fenêtre qui conserve une résolution d’analyse fixe quelle que soit la fréquence observée. La
taille de l’enveloppe à utiliser doit donc être définie avant l’analyse, et nécessite donc la
connaissance a priori du signal pour que l’analyse soit efficace.
D’autre part, l’utilisation de la transformée en ondelette orthogonale permet de transformer un
signal quelconque de N échantillons en un signal dans la base d’ondelettes contenant
également N échantillons, et ce sans perdre aucune information sur le signal d’origine.
48
CHAPITRE IV Ondelettes
l’information nécessaire. Si l’on désire conserver une bonne qualité d’image, il suffira alors
de conserver tous les détails.
49
CHAPITRE IV Ondelettes
numériques, récursifs ou non [4]. Le principe de la transformée pyramidale consiste en la
décomposition du signal à analyser à l’aide d’une paire de filtres conjugués en quadratures.
L’un de ces filtres fournira les coefficients d’ondelettes (ou détails), le second les coefficients
d’approximation. L’approximation est elle-même à son tour décomposée par une seconde
paire de filtres, l’ensemble constituant une pyramide de filtres.
La résolution en sortie de chaque paire (ou banc) de filtres étant deux fois inférieure à la
résolution d’entrée, on parle d’analyse multi-résolution dyadique.
Conclusion :
Nous avons vu dans ce chapitre que la transformée en ondelettes présente de nombreux
avantages dans le domaine du traitement du signal et de l’image. C’est un outil puissant de
transformation du signal qui permet d’adapter celui-ci à un traitement ultérieur dont le
principal intérêt est de "préparer" le signal dans le but de faciliter le traitement envisagé.
Ainsi, elle permet de réduire la redondance pour améliorer la compression d’une image, elle
peut également extraire les informations importantes (texture, contours, etc.) contenues dans
une image.
Dans le chapitre suivant, nous entamerons le domaine de la reconnaissance des formes, sur
lequel repose la conception de notre système.
50
CHAPITRE V Conception du système
Introduction :
Après avoir vu dans les chapitres précédents les différents concepts nécessaires à
l’accomplissement de notre travail, nous passons maintenant à la partie conception du
système.
Après l’étude de l’état de l’art sur les systèmes d’identification et de vérification de personnes
par reconnaissance de l’iris, on a pu distinguer plusieurs méthodes, chacune présentant des
avantages (taux d’identification élevé, taux FAR et FRR bas, espace réduit…) et des
inconvénients (temps de latence, manque de robustesse, influence des conditions de capture
sur les bons résultats obtenus). Quelques unes ont été délaissées, car elles ont rapidement
montré leurs limites, d’autres ont déjà fait leur preuve et constituent une référence dans le
domaine. On distingue plusieurs méthodes d’analyse des données selon le domaine sous
lequel se présente l’information (espace, fréquences…), mais aussi la manière selon laquelle
l’information est structurée et donc traitée (un ensemble de pixels de niveaux de gris, un
ensemble de primitives fractales…). Nous pouvons donc envisager plusieurs méthodes de
conception selon le contenu de l’image et la manière de le traiter.
Dans le but de concevoir un système d’identification biométrique de personnes par
reconnaissance de l’iris, plusieurs étapes sont nécessaires, l’étape d’extraction des
caractéristiques est la plus importante car les performances du système en dépendent (résultats
et robustesse, un temps de latence acceptable pour des applications « temps réel ». Les
données acquises par des capteurs spécifiques ou sauvegardées dans une base de données
subissent d’abord des prétraitements afin de les débarrasser du bruit. Elles seront ensuite
traitées dans le but d’obtenir un gabarit qui représente l’identité biométrique de l’image, celui-
ci caractérise le plus d’informations possibles contenues dans cette image en un minimum
d’espace.
2. Fonctionnement du système :
Notre système permet d’illustrer le processus d’identification et de vérification d’identité.
Décrivons dans ce qui suit, les différents événements qui s’y passent lors de ces deux
processus.
52
CHAPITRE V Conception du système
bruit (zones dont le nombre de pixels bruités est supérieurs à 40%), et donc de ne considérer
que les zones saines pour de meilleurs résultats.
- Calcul des critères statistiques dans chaque portion de l’image, caractérisant la répartition et
l’agencement des niveaux de gris sur différents niveaux (méthodes) :
- Méthode statistique du premier ordre (histogramme).
- Méthode statistique du second d’ordre (Matrice de cooccurrence).
- Méthode statistique d’ordre supérieur (matrice des longueurs de plages de niveaux de
gris).
- Alignement des valeurs calculées dans un même ordre pour chaque portion dans un vecteur.
Construction du vecteur final correspondant à l’image normalisée de départ à partir des
vecteurs de chaque portion dans un ordre bien précis.
6. Récupération du vecteur modèle de chaque individu selon le type de modèle choisi (modèle
moyen ou intégral).
7. Sauvegarde et affichage des informations personnelles de l’individu (matricule, nom,
prénom…).
53
CHAPITRE V Conception du système
¾ Phase d’apprentissage :
CASIA-IrisV3
Echantillon de la base
Prétraitement et détection
de l’iris et de la pupille
Normalisation
Segmentation en
portions
54
CHAPITRE V Conception du système
Méthode de
premier
ordre
1. Calcul des distances entre le vecteur correspondant à l’iris sélectionné, et les modèles des
individus dans le cas du modèle moyen, dans le cas contraire (modèle intégral), construction
des modèles des individus de la base.
2. Récupération du vecteur le plus proche au sens de la distance utilisée (euclidienne,
Manhattan…).
3. Affichage du résultat (identité trouvée).
55
CHAPITRE V Conception du système
¾ Phase d’identification :
56
CHAPITRE V Conception du système
7. Sauvegarde et affichage des informations personnelles de l’individu (matricule, nom,
prénom...).
¾ Phase de vérification :
Sélection d’une
image de référence
57
CHAPITRE V Conception du système
3.1 Modules du processus d’apprentissage :
3.1.1 Module d’acquisition des images d’iris :
Le rôle de ce module est de récupérer les images d’iris que le capteur prend automatiquement
à chaque enclenchement de la fonction de capture.
Le prétraitement peut maintenant être effectué sur l’image afin de se débarrasser des
informations qui s’y trouvent de leurs bruits. Ces bruits sont causés par les défauts optiques
des capteurs, en faisant appel à des filtres d’égalisation et de réajustement d’histogramme. Le
but est d’arriver à des images les plus homogènes possibles. La transformation en niveaux de
gris est omise si les images sont prises sous lumière proche infrarouge, et les prétraitements
sont facultatifs si les conditions de capture sont bonnes.
58
CHAPITRE V Conception du système
cercle dessiné avec des paramètres (centre et rayon) aléatoires, et le cercle recherché dans
l’image. Les coordonnées du cercle de l’espace de Hough ayant le maximum de pixels
commun seront logiquement les coordonnées du cercle recherché. L’inconvénient majeur de
cette technique qui reste très efficace est son approche à force brute, qui nécessite un temps de
calcul considérable, ceci reste acceptable quand il est appliqué à des images de petites tailles
mais devient très vite inexploitable quand la taille de l’image est trop grande.
Cet algorithme sera appliqué sur l’image des contours d’iris obtenue par application d’un
algorithme traditionnel de détection des contours qui est déjà implémenté sous Matlab (ces
contours représentent les bords des formes géométriques se trouvant dans l’image d’iris et
notamment ceux des cils, de l’iris, de la pupille et des paupières). Pour éviter de tracer trop de
points, l’algorithme inclut un paramètre pour fixer le seuil d’intensité à partir duquel un point
est repéré comme étant un contour.
Cette technique n’est pas incontournable puisque parfois on rencontre des problèmes de
détection dus souvent au bruit (reflet des cils et des paupières sur la pupille et l’iris, image
trop sombre…). Dans ce cas, la seule alternative reste l’opération manuelle.
Les valeurs des rayons et coordonnées cartésiennes à tester sont en fonction de la taille des
images.
59
CHAPITRE V Conception du système
d’une représentation par coordonnées cartésiennes vers une représentation polaire où
est dans l’intervalle [0,1] et est dans l’intervalle [0,2π].
Avec ,
Avec ,
Où le déplacement du centre de la pupille par rapport au centre de l’iris est donné par , ,
la distance entre le contour de la pupille et celui de l’iris dans une certaine direction
autour de la région d’iris et est le rayon de l’iris.
60
CHAPITRE V Conception du système
Figure V.8 : Illustration du procédé de normalisation de l’image d’un iris après localisation
de l’iris et de la pupille.
61
CHAPITRE V Conception du système
1. Méthode directe :
- Pour chaque portion de l’image normalisée, on vérifie si celle-ci peut être recensée, car faute
d’une forte présence du bruit, la comparaison ne doit pas se faire sur des zones de dimensions
différentes (la texture devant être le seul paramètre discriminant entre individus). Un seuil de
tolérance est fixé selon l’observation des images normalisées ainsi que leur masque de bruit :
ce seuil doit être suffisamment élevé pour n’éliminer que les images trop bruitées, et
suffisamment bas pour que les valeurs des mêmes paramètres statistiques calculés sur deux
zones de texture proches soient les plus homogènes possibles.
Figure V.10 : Iris normalisé et son masque de bruit (les points en blanc
dans le masque représentent le bruit).
62
CHAPITRE V Conception du système
- Calcul de la matrice de cooccurrence dans les quatre directions (0°, 45°, 90° et 135°), suivi
du calcul de 12 critères sur chacune des quatre matrices. Enfin, l’alignement en un vecteur des
moyennes de chaque critère.
Un vecteur de critères statistiques d’ordre 2 englobe les 12 paramètres de la méthode du
second ordre : moyenne, variance, écart type, énergie, contraste, corrélation, entropie 1,
entropie 2, différence inverse, homogénéité, dissimilitude, inertie. La moyenne des quatre
vecteurs est alignée en un seul.
- Calcul de la matrice des longueurs de plages de niveaux de gris dans les quatre directions
(0°, 45°, 90° et 135°), 11 critères sur chacune des quatre matrices sont déduits. Enfin,
l’alignement en un vecteur des moyennes de chaque critère.
50 50
100 100
150 150
200 200
250 250
50 100 150 200 250 50 100 150 200 250
d = 1, = 0° d = 1, = 45°
50 50
100 100
150 150
200 200
250 250
50 100 150 200 250 50 100 150 200 250
d = 1, = 90° d = 1, = 135°
Figure V.11 : Matrice de cooccurrence d’une portion d’image.
63
CHAPITRE V Conception du système
50 50
100 100
150 150
200 200
250 250
5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40
d = 1, = 0° d = 1, = 45°
50 50
100 100
150 150
200 200
250 250
5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40
d = 1, = 90° d = 1, = 0°
Figure V.12 : Matrice de LPNG d’une portion d’image.
2. Méthode de filtrage :
Le traitement de l’intégralité de l’information texturale de l’image d’iris normalisée reste
l’inconvénient majeur de cette approche, car la seule information dont on a besoin pour la
discrimination entre individus est celle des détails, qui consiste en les transitions brusques des
niveaux de gris et leur localisation dans l’iris. Il est par conséquent nécessaire d’utiliser un
outil capable d’extraire l’information recherchée (les détails) et d’ignorer le reste.
A priori, la transformée de Fourier serait l’outil adéquat car il permet de détecter la plupart
des zones consistantes en informations (détectées sous forme fréquentielle), or l’utilisation de
la transformée de Fourrier délocalisera complètement le contenu fréquentiel obtenu du repère
spatial, d’où la nécessité d’un outil qui serait en mesure de préciser en plus, la localisation
temporelle de cette information fréquentielle.
A l’heure actuelle, la transformée en ondelettes est l’outil qui peut palier ce problème. Elle
permet d’avoir une représentation à différentes échelles de résolution de l’information
présente dans l’iris et a comme avantage par rapport à la transformée de Fourier, le fait que
les signaux restent localisés en fréquence et en espace.
Une ondelette est une fonction de l’espace de moyenne nulle dont la localisation en
espace et en temps est modifiée par translation et homothétie. L’idée inhérente à la notion de
la transformée en ondelettes [5] est de corréler la fonction de départ avec les modifications
spatiales et fréquentielles de l’ondelette, autrement dit, extraire l’information se trouvant en
même temps localisée en espace et en fréquence.
64
CHAPITRE V Conception du système
Le premier pas de notre démarche pour aboutir à un gabarit d’iris qui contient l’information
spécifique de l’individu est donc de calculer la transformée de l’iris normalisée par une
ondelette.
Dans la reconnaissance par iris, la plupart des méthodes que l'on trouve dans la littérature
utilisent différents types d'ondelettes ou de filtrage par fenêtre, à titre d’exemple, John
Daugman [4] utilise le filtrage à deux dimensions de Gabor. Masek [6] a étudié en 2003
l’application d’une ondelette Log-Gabor et a constaté qu’elle présentait de bonnes qualités
d’analyse dans le cas de l’iris. Nous avons donc choisi cette approche récente pour notre
analyse.
Un filtre de Gabor est formé par le produit d’une exponentielle complexe avec une
gaussienne. Ainsi, sa partie réelle et complexe sont deux modulations d’une gaussienne avec
deux sinusoïdales orthogonales. L’onde sinusoïdale est parfaitement localisée en fréquence,
mais complètement délocalisée en espace. La multiplication par une gaussienne permet de la
restreindre en espace (bien qu’une certaine délocalisation en fréquence soit ainsi introduite).
D’habitude, l’ondelette de Gabor est implémentée avec une paire de filtres en quadrature, l’un
représentant la partie réelle (un cosinus modulé par une gaussienne) et l’autre la partie
imaginaire (un sinus modulé par cette même gaussienne). La fréquence centrale du filtre est
alors déterminée par la fréquence de la sinusoïde, tandis que l’ampleur de bande dépend des
caractéristiques de la gaussienne.
Voici à titre d’exemple le filtre de Gabor employé par Daugman [4] :
Où est la fréquence central et est la largeur de la bande du filtre. Les choix de et de
dépendent du problème (qualité et propriétés des images de la base de données) et des
applications du système. Graphiquement, la réponse fréquentielle de l’ondelette est donnée
dans la figure suivante :
65
CHAPITRE V Conception du système
Figure V.13 : Réponse fréquentielle du filtre de Log-Gabor avec une FFT de 121 points.
Pour trouver ces grandeurs, nous observons le contenu fréquentiel des anneaux de l'iris que
l'on traite, car il est inutile de filtrer dans une région de fréquences qui ne contient pas
d'informations. Pour l’analyse, nous donnons la FFT moyenne des anneaux de l'iris, pour une
image donnée.
Figure V.14 : FFT de 1000 points de la moyenne des signaux angulaires (anneaux
circulaires) de l’iris, la composante (coefficient) zéro-fréquence est bien
présente.
66
CHAPITRE V Conception du système
3.1.6.2 Modèle intégral : le modèle n’est pas calculé, il le sera lors de la phase de vérification
ou d’identification, son principe est qu’un vecteur de l’échantillon disponible sera choisi : il
s’agit du vecteur le plus « proche » du vecteur recherché, cette technique est censée
augmenter le taux d’identification en choisissant le meilleur représentant de chaque individu
par rapport au vecteur recherché.
67
CHAPITRE V Conception du système
¾ Distance de Mahalanobis :
¾ Yambor & Al ont proposé des combinaisons de plusieurs distances, nous avons utilisé
l’une d’elles:
68
CHAPITRE V Conception du système
( )
Avec le nombre de vecteurs imposteurs.
3. Calcul des grandeurs et . L’ensemble des
distances de et comprises entre et représente les valeurs que prendra
le seuil temporaire lors de chaque tentative de calcul du seuil optimal.
4. Le seuil optimal correspondant au seuil minimisant les FA et FR, il est calculé come suit :
¾ Premier cas : >
Tout seuil compris entre et constitue un seuil optimal. Dans ce cas, il aura la
¾ Deuxième cas :
On procède comme suit :
Pour chaque valeur du seuil temporaire entre et :
- Parcourir le vecteur de distances et comparer chaque distance au seuil temporaire, si elle
est supérieure ( ), on incrémente le nombre de faux rejets (FR).
- Parcourir le vecteur de distances et comparer chaque distance au seuil temporaire, si
elle est inférieure ( ), on incrémente le nombre de fausses
acceptations (FA).
69
CHAPITRE V Conception du système
Avec le nombre de vecteurs imposteurs.
3. Parcourir le vecteur de distances et comparer chaque distance au seuil de l’individu, si
elle est supérieure ( ), on incrémente le nombre de faux rejets (FR).
4. Parcourir le vecteur de distances et comparer chaque distance au seuil de l’individu, si
elle est inférieure ( ), on incrémente le nombre de fausses acceptations (FA).
5. Calcul des taux FAR et FRR.
Echantillons Echantillons
Apprentissage Test
Le tableau VI.1 montre le processus d’identification des individus 2 et 12 dans une base de
données contenant 20 individus.
- L’échantillon Apprentissage de chaque individu de la base contient 2 images d’iris.
- L’échantillon Test des individus 2 et 12 contient quand à lui 3 images d’iris.
- Une valeur en rouge représente la distance minimale entre une image de l’échantillon Test
de l’individu à identifier et une image de l’échantillon Apprentissage d’un individu de la base.
- Une cellule en jaune représente le minimum des modèles de la base pour une image de
l’échantillon Test de l’individu à identifier.
- La dernière ligne « Résultat d’identification » représente les classes auxquelles les images
d’iris des individus à identifier sont affectées.
Dans ce tableau, les 6 images d’iris des individus à identifier ont été affectées aux classes
auxquelles elles appartiennent.
70
CHAPITRE V Conception du système
Individu 2 Individu 12
0.4828 0.5574 0.4883 0.4960 0.4974 0.5037
Individu 1
0.4948 0.5749 0.5104 0.4903 0.5089 0.5074
0.4117 0.5134 0.4357 0.6280 0.5818 0.5765
Individu 2
0.4052 0.4952 0.4125 0.5000 0.4920 0.4920
0.5727 0.5869 0.5878 0.6053 0.6021 0.6213
Individu 3
0.5848 0.5805 0.5892 0.5916 0.5962 0.6046
0.5312 0.6644 0.5531 0.5549 0.5524 0.5776
Individu 4
0.5560 0.6716 0.5616 0.5713 0.5874 0.6003
0.5019 0.5324 0.5388 0.4787 0.4858 0.4949
Individu 5
0.4927 0.5213 0.5151 0.4699 0.4602 0.4816
0.6630 0.7371 0.6987 0.7549 0.7316 0.7120
Individu 6
0.5841 0.6868 0.5712 0.7055 0.6933 0.6595
0.5833 0.6049 0.5921 0.6272 0.6250 0.6333
Individu 7
0.5801 0.5535 0.5857 0.5827 0.6004 0.6101
0.5553 0.5419 0.5578 0.5651 0.5833 0.5986
Individu 8
0.5350 0.5508 0.5500 0.5563 0.5535 0.5548
0.4917 0.5413 0.4905 0.4983 0.5198 0.5232
Individu 9
0.5057 0.6045 0.5022 0.5011 0.5007 0.5324
0.5055 0.5589 0.5236 0.5317 0.5279 0.5633
Individu 10
0.5326 0.5369 0.5543 0.5516 0.5540 0.5814
0.5534 0.6515 0.5660 0.5123 0.5347 0.5458
Individu 11
0.5189 0.6098 0.5185 0.5124 0.5246 0.5294
0.4722 0.5501 0.4868 0.3639 0.3982 0.4217
Individu 12
0.4787 0.5910 0.4941 0.4083 0.3482 0.4020
0.5183 0.5779 0.5261 0.5224 0.5226 0.4949
Individu 13
0.4790 0.5412 0.4752 0.5117 0.5246 0.4751
0.5500 0.6154 0.5710 0.6114 0.6117 0.6245
Individu 14
0.5128 0.5984 0.5350 0.6059 0.6036 0.5917
0.5502 0.5459 0.5417 0.5368 0.5445 0.5299
Individu 15
0.5003 0.5105 0.5230 0.4967 0.4980 0.5187
0.4880 0.5469 0.4943 0.4864 0.4803 0.4722
Individu 16
0.4881 0.5306 0.5152 0.5206 0.5197 0.5010
0.5139 0.5224 0.5220 0.4941 0.4840 0.4641
Individu 17
0.4964 0.5040 0.5134 0.5039 0.4701 0.4698
0.5225 0.5795 0.5311 0.4838 0.5051 0.4951
Individu 18
0.5166 0.6239 0.5103 0.4751 0.4993 0.5000
0.6380 0.6936 0.6500 0.7181 0.7291 0.6587
Individu 19
0.6197 0.6610 0.6224 0.6873 0.6929 0.6702
0.5606 0.5947 0.5545 0.5783 0.5871 0.5524
Individu 20
0.5529 0.5271 0.5535 0.5400 0.5423 0.5466
71
CHAPITRE V Conception du système
Résultat
2 2 2 12 12 12
d’identification
SeuilImp TestImp
Figure V.17 : Division de la base pour le calcul des taux FAR et FRR.
Le tableau VI.2 montre les étapes de calcul du seuil optimal de l’individu 1 (client) parmi les
cinq autres individus (imposteurs).
- L’échantillon AppCli contient 3 images d’iris.
- L’échantillon SeuilCli contient 2 images d’iris.
- L’échantillon SeuilImp contient 2 images d’iris pour chaque individu.
- Les valeurs en rouge représentent les distances intra classe de l’individu 1.
- Les valeurs en bleu représentent les distances interclasses de l’individu 1.
- La cellule en rouge ( = 0.3679) représente le maximum des distances intra classe (ce
maximum est choisi uniquement parmi les distances correspondantes aux modèles).
- La cellule en bleu ( = 0.4780) représente le minimum des distances interclasses (ce
minimum est choisi uniquement parmi les distances correspondantes aux modèles).
- . Alors, le seuil optimal a pour valeur la moyenne :
Le seuil optimal est 0.4229.
72
CHAPITRE V Conception du système
Individu 1
0.3679 0.3590 0.3838
Individu 1
0.3875 0.3903 0.3613
0.5247 0.5112 0.5021
Individu 2
0.5122 0.4883 0.5254
0.5768 0.5873 0.5921
Individu 3
0.5778 0.5853 0.5835
0.5404 0.5199 0.5108
Individu 4
0.5383 0.5371 0.5333
0.5010 0.4892 0.4994
Individu 5
0.4992 0.4780 0.5055
0.6524 0.6418 0.6385
Individu 6
0.6330 0.6382 0.6238
Le tableau VI.3 montre les étapes de calcul des taux FAR et FRR de l’individu 1(client) parmi
les cinq autres individus (imposteurs).
- L’échantillon AppCli contient 3 images d’iris.
- L’échantillon TestCli contient 2 images d’iris.
- L’échantillon TestImp contient 5 images d’iris pour chaque individu.
- Une valeur en rouge représente la distance minimale entre une image de l’échantillon
TestCli et une image de l’échantillon AppCli.
- Une valeur en bleu représente la distance minimale entre une image de l’échantillon TestImp
d’un individu et une image de l’échantillon AppCli.
- Il n’y a pas de valeurs en rouge supérieures au seuil optimal. Alors, FR = 0.
- Il n’y a pas de valeurs en bleu inférieures au seuil optimal. Alors, FA = 0.
L’individu 1 est complètement séparé des autres individus (FAR = 0, FRR = 0, TER = 0).
73
CHAPITRE V Conception du système
Individu 1
0.3799 0.3626 0.3581
Individu 1
0.3861 0.3811 0.3648
0.5508 0.5909 0.5977
0.5054 0.4828 0.5159
Individu 2 0.5110 0.4888 0.5307
0.4707 0.4742 0.4901
0.5193 0.4920 0.5297
0.5864 0.5861 0.5940
0.5692 0.5742 0.5791
Individu 3 0.5764 0.5733 0.5833
0.5716 0.5760 0.5765
0.5763 0.5800 0.5809
0.5740 0.5542 0.5542
0.5581 0.5343 0.5015
Individu 4 0.5617 0.5850 0.5646
0.5464 0.5288 0.5248
0.5659 0.5552 0.5369
0.4816 0.4586 0.5018
0.4838 0.4735 0.4902
Individu 5 0.5022 0.4820 0.4971
0.4974 0.4832 0.4974
0.5158 0.4880 0.5012
0.7409 0.7343 0.7335
0.6998 0.6844 0.6863
Individu 6 0.6539 0.6507 0.6465
0.6675 0.6649 0.6662
0.6713 0.6742 0.6658
Tableau V.3 : Distances calculées lors de l’opération de calcul des taux FAR et FRR de
l’individu 1.
Conclusion :
Dans ce chapitre, nous avons présenté l’architecture globale de l’application IrisSystem Tool
pour en dégager les principaux modules. Cette structure modulaire est adéquate pour une
réalisation dans un langage orienté objet.
Après avoir effectué la conception de notre système, nous sommes désormais en mesure
d’entamer l’étape d’implémentation de notre application qui fera l’objet du prochain chapitre.
74
CHAPITRE VI Implémentation et réalisation du système
Introduction :
Après avoir présenté dans le chapitre précédent les différentes étapes nécessaires à la
réalisation de notre système, à savoir la conception, nous allons à présent décrire les outils de
développement qui ont servi à la mise en œuvre de notre application. L’implémentation du
système IrisSystem Tool repose sur deux entités logicielles : un langage orienté objet et un
logiciel mathématique pour effectuer des tâches nécessitant beaucoup de calculs notamment
celles de traitement des images.
1. Outils de développement :
Nous avons eu recours lors de l’élaboration de notre système à deux outils : Microsoft Visual
Studio 2005 et Matlab 7.0.
75
CHAPITRE VI Implémentation et réalisation du système
2. Structure de données et implémentation :
Le système IrisSystem Tool fait appel à plusieurs classes décrites dans le tableau ci-dessous :
Méthodes :
Il y a deux types de méthodes utilisées par cette classe :
¾ Méthode du langage C# : implémentée en C#.
Normaliser () : sert à lancer le processus de normalisation en faisant appel à une architecture
de procédures Matlab permettant la détection de l’iris et de la pupille ainsi que l’interpolation
linéaire de l’image résultante de la détection.
addcircle() : permet de générer des cercles pour les ajouter (Coordonnées et rayons de l’iris et
de la pupille) à l’espace de Hough suivant la transformée de Hough.
Entrées :
- h : tableau de 2 dimensions représentant l’espace de Hough.
- c : coordonnées du centre d’un cercle.
- radius : le rayon du cercle.
Sortie :
- h : espace de Hough mis à jour.
adjgamma() : permet d’avoir une carte définissant les parties sombres d’une image dans le
but d’ajuster son contraste dans ces zones.
Entrées :
- im : image à traiter.
- g : valeurs de 0 à 1, g est d’autant plus grand que l’image est sombre, c’est une valeur
au dessus de laquelle le contraste doit être augmenté, si valeurs > 1 alors le contraste
est augmenté dans les zones très sombres.
Sortie :
- g.
77
CHAPITRE VI Implémentation et réalisation du système
findcircle() : retourne les coordonnées d’un cercle dans une image en utilisant la transformée
de Hough et l’algorithme de détection des contours de Canny pour la création de la carte des
contours.
Entrées :
- image : l’image contenant des cercles à repérer.
- lradius : le rayon le plus petit du cercle à rechercher dans l’image.
- uradius : le rayon le plus grand du cercle à rechercher dans l’image.
- scaling : facteur d’échelle pour l’accéleration de la transformée de Hough.
- sigma : amplitude du lissage Gaussien à appliquer pour la création de la carte des
contours.
- hithres : seuil pour la création de la carte des contours.
- lowthres : seuil pour la connexion des contours.
- vert : indice de contribution du contours vertical (0-1).
- horz : indice de contribution du contours horizontal (0-1).
Sorties :
- circleiris : coordonnées du centre et le rayon des limites de l’iris détecté.
- circlepupil : coordonnées du centre et le rayon des limites de l’iris détecté.
- imagewithnoise : image originale de l’œil, avec la localisation du bruit marqué par la
valeur NaN.
findline() : retourne les coordonnées d’une ligne recherché dans une image en utilisant la
transformée de Hough linéaire et l’algorithme de détection des contours de Canny pour la
création de la carte des contours.
Entrée :
- image : l’image en entrée.
Sortie :
- lines : paramètres de la ligne détectée en coordonnées polaires.
houghcircle() : prend la carte des contours d’une image et exécute la transformée de Hough
pour la détection des cercles dans une image.
Entrée :
- edgeim : la carte des contours d’une image à traiter.
- rmin, rmax : les valeurs minimales et maximales des rayons des cercles à rechercher.
Sortie :
- h : la transformée de Hough.
78
CHAPITRE VI Implémentation et réalisation du système
linecoords() : retourne les coordonnées x et y des positions le long d’une ligne.
Entrées :
- lines : un tableau contenant les paramètres d’une ligne.
- imsize : taille de l’image, elle est nécessaire afin que les coordonnées x et y soient à
l’intérieur de l’image des limites.
Sorties :
- x : les abscisses.
- y : leurs ordonnées correspondantes.
normaliseiris() : exécute la normalisation de la région d’iris en transformant les pixels choisis
d’une représentation circulaire vers une représentation en bloc rectangulaire de dimensions
constantes.
Entrées :
- image : l’image d’iris en entrée dont les informations sur la région d’iris doivent
être extraites.
- x_iris : les abscisses des contours du cercle de l’iris.
- y_iris : les ordonnées des contours du cercle de l’iris.
- r_iris : le rayon du cercle de l’iris.
- x_pupil : les abscisses des contours du cercle de la pupille.
- y_pupil : les ordonnées des contours du cercle de la pupille.
- r_pupil : le rayon du cercle de la pupille.
- eyeimage_filename : le nom initial de l’image de l’oeil en entrée
- radpixels : la résolution radiale qui fixe la dimension verticale de la représentation
normalisée.
- angulardiv : résolution angulaire qui fixe la dimension horizontale de la
représentation normalisée.
Sorties :
- polar_array : un tableau de 2 dimensions représentant la forme normalisée de l’iris.
- polar_noise : le masque de bruit correspondant à l’image d’iris en entrée.
test() : fonction permettant à partir d’une image d’iris : segmenter celle-ci (détecter les
coordonnées des centres d’iris et des pupilles ainsi que leur rayons) et lancer le processus de
normalisation (passage d’une représentation cartésienne à une représentation polaire
rectangulaire).
79
CHAPITRE VI Implémentation et réalisation du système
Entrée :
- im : image d’iris en entrée.
Sortie :
- vec : coordonnées des centres d’iris et des pupilles ainsi que les rayons.
normaliseiris test
linecoords nonmaxsup
findcircle adjgamma
houghcircle hysthresh
addcircle canny
80
CHAPITRE VI Implémentation et réalisation du système
- mxCreateDoubleMatrix() : permet de créer une variable non managée pointant sur une
structure de tableau de valeurs doubles dont le nombre de lignes, de colonnes sont
données en entrée. La compléxité des valeurs est également données en entrée.
- mxDestroyArray() : permet de détruire la variable non managée dont la valeurs du
pointeur est données en entrée.
nomImageIris
segl
segc
technique numeroIndividu
apprentissage Identifier
distance
modele
numerobase
valid() : permet de marquer tous les échantillons de tous les individu comme réservés à
l’identification ou à la vérification.
Entrées :
81
CHAPITRE VI Implémentation et réalisation du système
- base : base d’images d’iris.
Sorties :
- Validation : structure de taille égale au nombre d’individus, et oiu dans chaque
élément les champs correspondant aux images d’iris sont mentionnés « réservés au
test ».
Fonctionnement :
- Parcourir l’ensemble des individus et pour chacun faire :
- Parcourir l’ensemble des images de l’individu et mettre à 1 les champs leur correspondant.
generer() : permet de marquer un certain pourcentage des images de chaque individu comme
réservés à l’apprentissage.
Entrées :
- validation : structure initiale après validation de la base.
- apprentissage : taux d’images réservées à l’opération d’apprentissage.
Sorties :
- validation : structure mise à jour.
Fonctionnement :
- Parcourir l’ensemble des individus et pour chacun faire:
- Générer un pourcentage égal à celui de l’apprentissage de numéros aléatoires entre 1 et le nb
(nombre d’images de l’individu).
- Mettre les champs dont les positions correspondent aux numéros générés à 0.
plus() : permet de calculer la somme entre deux vecteurs biométriques. Elle est nécessaire car
les valeurs dans un vecteur ne sont pas toutes définies à cause du bruit.
Entrées :
- vect1 : le premier vecteur.
- vect2 : le second vecteur.
Sorties :
- vect : vecteur résultant de la somme de vect1 et vect2.
Fonctionnement :
- Ranger la somme des valeurs de même position dans un vecteur à la position correspondante
aux deux valeurs.
- Si l’une des deux valeurs est non définie alors le resultat de la somme sera la valeur définie.
- Si aucune des deux valeurs n’est définie alors mettre une valeur NaN à la position
correspondante aux deux valeurs.
83
CHAPITRE VI Implémentation et réalisation du système
plus dsitances
2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de
segmentation et de normalisation.
nomIrisSource dis
nomIrisCible seuil
convert()
valid()
generer()
84
CHAPITRE VI Implémentation et réalisation du système
apprentissage()
distancesVe() : permet de retourner non pas la distance mais le numéro de vecteur correspondant à la
distance calculée.
2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de
segmentation et de normalisation.
nomImageIris
segl nbsucces
segc
technique
apprentissage TauxIndividu
distance nbtest
modele
numerobase
85
CHAPITRE VI Implémentation et réalisation du système
convert()
valid()
generer()
recuperer() : permet de récupérer l’échantillon Test selon la distribution aléatoire de
validation.
Entrées :
- validation : structure initiale après répartition des échantillons Apprentissage et Test.
- base : base des gabarits biométriques.
Sorties :
- ech : échantillon Test.
apprentissage()
identification()
distances()
plus()
2. Bibliothèque externe : les mêmes méthodes que celles utilisées lors de la phase de
segmentation et de normalisation.
3. Présentation de l’application :
On présente dans cette section les différents aspects de l’application IrisSystem Tool.
3.1 Interface Présentation :
C’est une interface destinée aux utilisateurs, elle est simple et permet d’illustrer les principaux
processus de ce système (détection de l’iris et de la pupille, normalisation, identification,
vérification et calcul du taux d’identification). Ces opérations ne peuvent s’effectuer que sur
deux bases : CASIA V1.0 et CASIA-IrisV3-Interval.
86
CHAPITRE VI Implémentation et réalisation du système
1 2 3 4 5 6 7 8 18
9 10 11 12
13 14
15
16 17
1 Il s’agit du bouton avec lequel une base des images d’iris doit être chargée. Une fois
ce bouton cliqué et la base sélectionnée, celle-ci sera détaillée dans l’espace librairie
(le nombre d’individus ainsi que le nombre d’images d’iris par individu).
2 Il s’agit du bouton avec lequel une image d’iris peut être chargée sans passer par
87
CHAPITRE VI Implémentation et réalisation du système
le chargement intégral de la base. Une fois ce bouton cliqué, le processus de
détection des contours de l’iris et de la pupille sera lancé. L’mage qui sera affichée
dans la partie « Source » est une image dont les contours de l’iris et de la pupille sont
en blanc. La forme normalisée et le masque de bruit lui correspondant ainsi que les
coordonnées de l’iris et de la pupille seront également affichés.
3 Il s’agit du bouton avec lequel l’identification d’une image d’iris est lancée.
4 Il s’agit du bouton avec lequel la vérification entre deux images d’iris est lancée.
5 Il s’agit du bouton avec lequel l’identification d’un échantillon Test d’un individu est
lancée. Le résultat s’affichera dans une boite de dialogue.
6 Il s’agit du bouton avec lequel les informations sur les opérations d’identification
effectuées au cours de l’exécution sont affichées.
7 Il s’agit du bouton avec lequel les informations sur les opérations de vérification
effectuées au cours de l’exécution sont affichées.
8 Il s’agit du bouton avec lequel des informations sur le système sont affichées.
12 Espace contenant l’image de référence (source) ainsi que l’image normalisée de son
iris et le masque de bruit.
15 Espace contenant l’image cible ainsi que l’image normalisée de son iris et le masque
de bruit.
88
CHAPITRE VI Implémentation et réalisation du système
16 Il s’agit du bouton avec lequel une image d’iris peut être chargée dans la zone cible.
18 Fermer
89
CHAPITRE VI Implémentation et réalisation du système
3.2 Interface Chargement et Normalisation :
Après chargement de la base CASIA-IrisV3-Interval, les détails de celle-ci en nombre
d’individus et en genre seront affichés. L’utilisateur peut parcourir l’ensemble des images
d’individus et sélectionner l’une d’elles pour l’affichage. Celle-ci est donc affichée dans la
zone source ainsi que la forme normalisée de l’iris et son masque de bruit.
90
CHAPITRE VI Implémentation et réalisation du système
3.3 Interface Identification :
Une fois l’une des images d’un individu est sélectionnée, le processus d’identification de cet
individu peut être relancé. Le résultat d’identification est affiché dans la zone cible. Il s’agit
de la première image d’une des deux sessions de la classe à laquelle l’image à identifier a été
affectée.
91
CHAPITRE VI Implémentation et réalisation du système
3.4 Interface Vérification :
La vérification peut s’effectuer lorsque deux images distinctes appartenant ou pas au même
individu sont sélectionnées (affichées). L’image affichée dans la zone source servira à
construire le modèle de l’individu lui correspondant (image référence). Le résultat de la
distance entre le modèle construit et le gabarit biométrique de l’image cible sera comparé au
seuil de l’individu source. Le résultat de la vérification et ses détails peuvent être affichés
grâce au bouton 16.
92
CHAPITRE VI Implémentation et réalisation du système
93
CHAPITRE VI Implémentation et réalisation du système
3.5 Interface Statistiques (identification, vérification) :
Cette interface permet de donner le résumé des opérations d’identification et de vérification
effectuées au cours d’une exécution. Elle peut être nécessaire pour les utilisateurs voulant
faire une étude approfondie sur les images d’iris des deux bases. Ainsi, grâce au bouton 3, on
peut arriver à un constat sur la stabilité d’identification de l’image sélectionnée pour un
certain nombre de tentatives. Contrairement au bouton 5 qui permet d’avoir un constat sur le
taux d’identification d’un individu dont les images de test ne sont identifiées qu’une seule
fois. Enfin, le bouton 4 rend compte sur les mauvaises opérations de vérification.
94
CHAPITRE VI Implémentation et réalisation du système
95
CHAPITRE VI Implémentation et réalisation du système
3.6 Interface Taux d’identification :
Cette interface permet d’avoir une moyenne globale des taux d’identification d’un individu
sur plusieurs tentatives.
96
CHAPITRE VI Implémentation et réalisation du système
4. Avantages et inconvénients du système :
Dans ce chapitre, nous avons détaillé l’implémentation du système IrisSystem Tool en Visual
C#, et décrit les différentes interfaces de l’application. Comme tout système biométrique,
IrisSystem Tool a été conçu dans le but de se rapprocher du cerveau humain dans sa rapidité,
son exactitude et sa fiabilité. En vue de ce qui a été fait dans la conception et la réalisation, on
peut dégager plusieurs avantages :
¾ Système très interactif :
C’est un système très interactif. En effet, en plus du fait qu’il permet l’identification et la
vérification d’individus avec des taux bons, il permet aussi d’effectuer des tests plus avancés
sur l’effet du bruit et les dimensions de l’iris et de la pupille sur l’identification et la
vérification d’une image ainsi que les taux individuels de reconnaissance. Il permet également
d’étudier l’influence du niveau de segmentation, le pourcentage d’apprentissage, le type de
modèle ainsi que la distance sur la performance du système en identification.
¾ Système performant :
Le système est performant car les taux de reconnaissance (identification et vérification) sont
bons.
¾ Système statique :
Ce système ne peut être utilisé que sur deux bases dont les gabarits biométriques ont été
préalablement calculés car l’implémentation du module de normalisation y compris celui de
détection des contours de l’iris et de la pupille est étroitement liée aux différentes
caractéristiques des images d’iris des bases (résolution, luminosité).
97
CHAPITRE VI Implémentation et réalisation du système
Conclusion :
Ce chapitre a été consacré en premier lieu à la présentation des structures de données ainsi
que l’implémentation du système. Ensuite, nous avons décrit les différentes fonctionnalités du
système par le biais de ses différentes interfaces graphiques. Enfin, nous avons détaillé les
avantages et les inconvénients de ce système.
Dans le chapitre suivant, nous allons tester le système dans son environnement afin d’évaluer
ses performances pour en déduire les paramètres optimaux qui garantissent une meilleure
efficacité du système.
98
CHAPITRE VII Tests et résultats
Introduction :
Une fois le système conçu, tout en respectant les conditions de son fonctionnement, il doit
subir de nombreux tests touchant à plusieurs aspects (temps de latence, espace réservé,
performances, valeurs idéales des paramètres pertinents…), et ce dans le but d’aboutir à un
système fiable, performant et efficace.
Dans le domaine de reconnaissance par iris, plusieurs bases de données des images d’iris
standards sont utilisées, les plus courantes sont les bases de données CASIA (en plusieurs
versions) et UBIRIS. Les bases sur lesquelles nous avons effectué nos tests sont : CASIA
V1.0 et CASIA-IrisV3-Interval. La clarté des textures de leurs images d’iris est le principal
motif de notre choix.
99
CHAPITRE VII Tests et résultats
2. Tests :
Le système est testé de manière à ce que l’impact de chaque paramètre pertinent sur les
résultats soit évalué. Ceci permet de fixer les valeurs idéales de ces paramètres pour un
meilleur rendement du système.
- Modèle :
Il existe deux types de modèles :
1. Modèle moyen: il s’agit du vecteur statistique moyen d’un échantillon.
2. Modèle intégral: il s’agit du vecteur le plus « proche » d’un échantillon.
- Type_test :
Il existe trois types de test :
1. Sans remise : seuls les individus (Testimp) non utilisées lors du calcul du seuil sont
présentés pour l’opération de vérification.
2. Avec remise totale : l’ensemble des images d’imposteurs présentées pour le test de
vérification est constitué uniquement de celles des imposteurs utilisées lors de l’estimation du
seuil. Autrement dit, l’individu intervient dans le calcul du seuil et dans le test de vérification.
On partage ces images en deux groupes disjoints : l’un pour le seuil et l’autre pour le test de
vérification.
3. Avec remise partielle : c’est une combinaison des deux premiers types. En effet, les
images des imposteurs ayant participé au calcul du seuil et d’autres n’y ayant pas participé
sont présentées pour le test de vérification.
100
CHAPITRE VII Tests et résultats
A noter que le type de test affecte les fausses acceptations et non pas les faux rejets.
- Distance :
La distance utilisée est
- SegL, SegC :
Le niveau de segmentation en ligne et en colonne de l’image normalisée.
- Napp :
Le pourcentage du nombre d’images par individu utilisées lors de la phase d’apprentissage
pour le calcul des taux d’identification, ce paramètre peut grandement influer les résultats
notamment ceux de l’identification.
- AppCli :
Le pourcentage du nombre d’images de l’échantillon Client réservées à l’apprentissage.
- SeuilCli :
Le pourcentage du nombre d’images de l’échantillon Client réservées au calcul du seuil.
- TestCli :
Le pourcentage du nombre d’images de l’échantillon Client réservées au test de vérification.
- Seuilimp :
Le pourcentage du nombre d’images des échantillons Imposteurs réservées au calcul du seuil.
- Testimp :
Le pourcentage du nombre d’images des échantillons Imposteurs réservées au test de
vérification.
- Priorité P :
La priorité du faux rejet pour la détermination du seuil.
- Fréquence :
La fréquence centrale du filtre de Gabor.
- Nombre a :
Le nombre d’échelles utilisées lors du filtrage.
- Tol :
Le pourcentage de bruit toléré pour qu’une zone de texture soit valide.
101
CHAPITRE VII Tests et résultats
Les paramètres par défaut sont fixés comme suit :
102
CHAPITRE VII Tests et résultats
2.2.1 Evolution du taux d’identification suivant le nombre d’images (Napp) et le taux
d’apprentissage (Tapp) utilisés :
- Base de données CASIA V1.0 :
Napp 1 2 3 4 5 6
Méthode directe 73.60 84.07 88.88 89.81 90.27 90.74
Méthode de filtrage 89.66 94.62 97.33 98.76 98.45 99,07
Tapp 30 40 50 60 70 80
Méthode directe 69.21 76.34 80.78 81.87 83.97 84.14
Méthode de filtrage 86.26 91.21 94.30 94.48 94.87 95,32
103
CHAPITRE VII Tests et résultats
104
CHAPITRE VII Tests et résultats
Le taux d’identification évolue en fonction du nombre d’images par individu, plus ce nombre
augmente, plus le taux d’identification augmente. A noter qu’à partir d’un nombre de 4
images par individu, le taux d’identification devient satisfaisant et n’augmente que de peu
lorsque le nombre d’images augmente. Le taux d’identification est meilleur lorsque le nombre
d’images par individu est supérieur à 20.
105
CHAPITRE VII Tests et résultats
106
CHAPITRE VII Tests et résultats
différents, ce qui conduit à une diminution des bonnes performances. Les résultats de la
méthode directe sont mieux que celle de la méthode de filtrage.
La méthode directe est plus performante que celle de filtrage, mais nécessite un temps de
création de gabarits considérable (ne permet pas d’aller au delà d’une segmentation 3 - 8 car
une telle opération sera très longue).
107
CHAPITRE VII Tests et résultats
Même constatation que pour la base de données CASIA V1.0, il ya une relation
proportionnelle entre le niveau de segmentation et les taux d’identification. A noter que pour
cette base, le taux d’identification augmente toujours en fonction du niveau de segmentation
même si celui-ci atteint son maximum, cela est dû au fait qu’il y a plus de diversité en gabarits
(le nombre de personnes de la base CASIA-IrisV3-Interval est supérieur au double du nombre
de personnes que contient la base CASIA V1.0).
On remarque à travers ces résultats que les taux d’identification obtenus sont mieux en
utilisant la distance D qu’en utilisant la distance de Mahalanobis et ce quelque soit la base de
données et la méthode d’analyse utilisées.
108
CHAPITRE VII Tests et résultats
Il est clair que le modèle intégral est mieux que le modèle moyen car les résultats obtenus en
utilisant le modèle moyen sont médiocres, contrairement aux résultats obtenus en utilisant le
modèle intégral, et ce quelque soit la base de donnée et la méthode d’analyse utilisées.
Les distances intra classes ne peuvent pas être nulles, car les conditions de prise d’images
d’iris ainsi que les erreurs de détection de la pupille et de l’iris entraînent des variations au
niveau local.
Empiriquement, cette propriété se traduit par l’observation de deux distributions de distances
avec un faible chevauchement. Ce chevauchement des deux courbes interclasses et intra
classes est problématique. En effet, si l’identification se fait en utilisant un seuil pour la
distance utilisée certaines personnes rentreront sans être autorisées et d’autres seront privées
d’accès bien qu’ils aient le droit. Les figures suivantes illustrent les performances en
identification du système.
109
CHAPITRE VII Tests et résultats
300
250
200
150
100
50
0
0 200 400 600 800 1000 1200 1400 1600 1800 2000
Figure VII.7 : Distributions des distances intra classe et interclasses de la base CASIA V1.0
en utilisant la méthode de filtrage.
300
250
200
150
100
50
0
0 200 400 600 800 1000 1200 1400
Figure VII.8 : Distributions des distances intra classe et interclasses de la base CASIA V1.0
en utilisant la méthode directe.
Le même phénomène est observé dans les distributions interclasses et intra classes de la base
CASIA-IrisV3-Interval, la zone de chevauchement est plus grande lorsque la technique
directe est utilisée ce qui réduit considérablement les performances en vérification.
110
CHAPITRE VII Tests et résultats
2500
2000
1500
1000
500
0
0 200 400 600 800 1000 1200 1400 1600 1800 2000
1000
500
0
0 200 400 600 800 1000 1200 1400 1600 1800
111
CHAPITRE VII Tests et résultats
Les taux FAR et FRR de la base CASIA V1.0 sont plus bas que ceux de la base CASIA-
IrisV3-Interval. Ceci est dû au fait que la base CASIA-IrisV3-Interval contient plus
d’individus par rapport à la base CASIA V1.0 (il est plus difficile de séparer des échantillons
de 249 individus que des échantillons de 108 individus).
Au cours de nos tests, nous avons constaté que le nombre de faux rejets FR résultant des
opérations de vérification effectuées sur deux images quelconques appartenant à deux
sessions différentes du même individu était considérablement élevé par aux FR résultant des
opérations de vérifications effectuées sur deux images quelconques appartenant à la même
session du même individu. Nous insinuons donc que les sessions d’un même individu peuvent
être considérées comme deux classes distinctes.
- Evolution des taux FAR et FRR suivant le nombre d’images utilisées pour l’échantillon
AppCli et l’échantillon TestCli (CASIA V1.0) :
Tableau VII.14 : Taux FAR et FRR avec des taux d’apprentissage et de test différents.
Les taux FAR et FRR sont plus élevés en utilisant des échantillons AppCli=3 et
TestCli=2qu’en utilisant des échantillons AppCli=2 et TestCli=3. Cela revient au fait que les
images de la base sont touchées par le bruit (l’iris est submergé par les cils et les paupières).
112
CHAPITRE VII Tests et résultats
Ce tableau montre que la phase de segmentation et de normalisation est très longue. Cela nous
conduit à introduire le paramètre zoom afin de pallier à cet inconvénient. En effet, le taux
d’exécution est considérablement réduit pour un zoom de 75% ou de 50%.
L’opération de filtrage est relativement courte, et ce pour les deux bases. La durée de
l’opération d’extraction des caractéristiques en utilisant la méthode de filtrage est très petite,
contrairement à la méthode directe dont la durée est très grande (c’est l’inconvénient majeur
de cette méthode).
Phase Vérification
CASIA V1.0 0.884
CASIA-IrisV3-Interval 1.45
La durée de la phase de vérification reste acceptable pour les deux bases CASIA V1.0 et
CASIA-IrisV3-Interval.
113
CHAPITRE VII Tests et résultats
Identification
Phase Méthode de filtrage Méthode directe
Intégral Moyen Intégral Moyen
CASIA V1.0 0.669 0.705 0.547 0.539
CASIA-IrisV3-Interval 2.39 2.064 1.90 1.73
La durée de la phase d’identification pour la base CASIA V1.0 est petite par rapport à celle de
CASIA-IrisV3-Interval, et ce quelque soit la méthode et le modèle utilisés. Cela est dû au fait
que la base CASIA-IrisV3-Interval est plus volumineuse que CASIA V1.0. L’identification en
utilisant le modèle intégral dure plus longtemps par rapport au modèle moyen.
114
CONCLUSION GENERALE
L’objectif de notre travail est la réalisation d’un système d’identification biométrique de
personnes par reconnaissance de l’iris, permettant d’illustrer le processus d’identification
(reconnaissance des individus) et celui de vérification (contrôle d’accès).
Deux méthodes d’analyse ont été choisies : la première est l’analyse statistique directe,
c'est-à-dire une analyse opérant directement sur l’ensemble des pixels représentant l’image
normalisée de l’iris. Cette méthode prend en considération tous les détails d’une image d’iris
normalisée, y compris l’information inutile pour un problème tel que la discrimination, d’où
la nécessité d’analyse approfondie (méthode de second ordre et d’ordre supérieur). La
deuxième méthode découle naturellement de l’inconvénient de la première méthode : le
filtrage de l’image normalisée. Ce traitement permettra de ne garder que l’information
essentielle pour la discrimination, c'est-à-dire les transitions brusques d’un niveau de gris vers
un autre.
Les deux bases de données sur lesquelles ont été effectués nos tests sont : CASIA V1.0
et CASIA-IrisV3-Interval. La clarté des textures de leurs images d’iris était le principal motif
de notre choix. Plusieurs tests ont été effectués sur ces deux bases pour étudier les paramètres
pertinents du système et ressortir les valeurs optimales. Ces tests ont révélé l’efficacité de
l’utilisation de la méthode de filtrage par rapport à la méthode directe. Ceci s’explique par le
fait que la méthode de filtrage n’utilise que l’information utile (information discriminante).
Nous estimons avoir réalisé un système répondant à l’objectif que nous nous sommes
fixés au départ, à savoir la mise en œuvre d’un système permettant la reconnaissance
d’individus et le contrôle d’accès. Notre système se distingue parfaitement par son
interactivité, il permet d’effectuer des tests plus avancés sur l’effet du bruit et les dimensions
de l’iris et de la pupille sur l’identification et la vérification d’une image ainsi que les taux
individuels de reconnaissance. Il permet également d’étudier l’influence des différents
paramètres sur les performances du système. En outre, il présente une interface simple et
rapide que toute personne ayant peu de connaissances sur la biométrie peut utiliser.
115
Bibliographie
CHAPITRE I : INTRODUCTION A LA BIOMETRIE
[2] Jean-Luc Dugelay Al., « Recent Advances in Biometric Person Authentication », IEEE
Int. Conf. on Acoustics Speech and Signal Processing (ICASSP), Orlando, Florida,
May 2002.
[3] http://www.biometricgroup.com
[5] N. Galy, « Etude d’un système complet de reconnaissance d’empreintes digitales pour
un capteur microsystème à balayage », Thèse de doctorat, Institut National
Polytechnique de Grenoble, Avril 2005.
[6] G.O. Williams, « Iris Recognition Technology » , IEEE Aerospace and Electronics
Systems Magazine, Vol. 12, Issue 4, pp. 23 -29, April 1997.
[7] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proceeding of the
IEEE, Vol. 85, Issue 9, pp. 1348 -1363, September 1997.
[8] A.K. Jain, A. Ross, and S. Pankanti, « A prototype hand geometry-based verification
system », Proc. of 2nd International Conf. on Audio- and Video-based Biometric Person
Authentication, pp. 166 171, March 1999.
[10] W.A. Barrett, « A survey of face recognition algorithms and testing results »,
Conference Record of the Thirty-First Asilomar Conference on Signals, Systems &
Computers, pp. 301-305, 1997.
[11] http://www.retina-scan.com/retina_scan_technology.htm
[12] http://www.veinid.com
116
[13] S.J. Vaughan-Nichols, « Voice authentication speaks to the marketplace », Computer,
Vol. 37, Issue 3, pp. 13-15, March 2004.
[14] B.H. Juang, T. Chen, « The past, present, and future of speech processing », IEEE
Signal Processing Magazine, Vol. 15, Issue 3, pp. 24-48, May 1998.
[16] L.L. Lee, T. Berger, E. Aviczer, « Reliable On-Line Human Signature Verification
Systems », IEEE Transactions on PAMI, Vol. 18, N° 6, pp.643-647, June 1996.
[17] Lily Lee, « Gait analysis for recognition and classification », Research Abstract of the
Artificial Intelligence Laboratory at MIT, Cambridge – Massachusetts, 2002.
117
CHAPITRE II : ANALYSE DE LA TEXTURE D’UNE IMAGE
[1] R.M. Haralick, « Statistical and structural approaches to textures », Proceedings of the
IEEE, Vol. 67, N° 5, pp. 786-804, May 1979.
[4] R.W. Conners, C.A. Harlow, « A theoretical comparison of texture algorithms », IEEE
Transactions on Pattern Analysis and Machine Intelligence, Vol. 2, N° 3, pp. 204-222,
May 1980.
[5] J. Weska, C. Dyer, A. Rosenfeld, « A comparative study of texture measures for terrain
classification », IEEE Transactions on Systems, Man, and Cybernetics, Vol. 6, pp. 269-
285, 1976.
[6] L.S. Davis, S. Johns, J.K. Aggarwal, « Texture analysis using generalized cooccurrence
matrices », Proceedings of the IEEE Conference on Pattern Recognition and Image
Processing, Chicago, USA, 1979.
[7] M.M. Galloway, « Texture analysis using gray level run lengths », CGIP 4, pp. 172-
179, 1975.
[3] Ales Muron, Jaroslav Pospisil, « The human iris structure and its usages », Acta Univ.
Palacky Olomuc. Fac. Rerum Nat. Phys., Vol. 39, pp. 87-95, 2000.
[4] A. K. Jain, « Biometric recognition : How do I know who you are ? », Carnegie Mellon
University Distinguished Lecture Series, November 2004.
118
[6] Brevet US 5016282, ATR COMMUNICATION SYSTEMS, 14 Mai 1991.
[12] Kwanghyuk Bae, Seungin Noh, Jaihei Kim, « Iris feature extraction using independent
component analysis », Proc. 4th Intl. Conf. on Audio and Video Based Biometric
Person Authentication (AVBPA 2003), pp. 838-844, 2003.
[15] Li Ma, Yunhong Wang, Tieniu Tan, « Iris recognition using circular symmetric
filters », Proc. of 16th Intl. Conf. on Pattern Recognition, Vol. 2, pp. 805-808, 2000.
[16] Li Ma, Yunhong Wang, Tieniu Tan, « Personal identification based on iris texture
analysis », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25,
N° 12, pp. 1519-1533, December 2003.
[17] Vijaya B.V.K. Kumar, C. Xie, J. Thornton, « Iris verification using correlation
filters », Proc. 4th Intl. Conf. on Audio and Video Based Biometric Person
Authentication (AVBPA 2003), pp. 697-705, June 2003.
[18] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on Signal Processing, Vol. 46, N° 4, pp.
1185-1188, April 1998.
[19] Li Ma, Tieniu Tan, Yunhong Wang, « Efficient iris recognition by characterizing key
local variations », IEEE Transactions on Image Processing, Vol. 13, N° 6, pp. 739-750,
June 2004.
[20] John G. Daugman, « Complete discrete 2D Gabor transforms by neural networks for
119
image analysis and compression », IEEE Transactions on Acoustics, Speech, and
Signal Processing, Vol. 36, N° 7, pp. 1169-1179, July 1988.
[21] J. Daugman, « High confidence personal identification by rapid video analysis of iris
texture », Proc. of the IEEE for the International Conference on Security Technology,
1992.
[22] J. Daugman, « High confidence recognition of persons by rapid video analysis of iris
texture », Publication of IEE for Conf. on European Convention on Security and
Detection, 16-18 Mai, 1995.
[23] F. Bouchier, J.S. Ahrens, G. Wells, « Laboratory evaluation of the IrisScan prototype
biometric identifier », Sandia National Laboratories, Albuquerque, NM, Tech. Rep.
SAND’96-1033, 1996.
[24] R.P. Wildes, « A system for automated iris recognition », Proc. of 2nd IEEE Workshop
on Applications of Computer Vision, pp. 121-128, Décembre 1994.
[25] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proc. of the
IEEE, Vol. 85, N° 9, Septembre 1997.
[26] W.W. Boles, « A wavelet transform based technique for the recognition of the human
iris », Proc. of International Symposium on Signal Processing and its Application,
Australia, 25-30 Août 1996.
[27] W.W. Boles, « A security system based on human iris identification using wavelet
transform », Proc. of the 1st International Conf. on Knowledge-based Intelligent
Electronic Systems, Adelaide, Australia, 21-23 Mai 1997.
[28] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on signal processing, Vol. 46, N° 4, Avril
1998.
[31] Y. Zhu, T. Tan, Y. Wang, « Biometric personal identification based on iris patterns »,
Proc. of IAPR, International Conf. on Pattern Recognition, Vol. II, pp. 805-808, 2000.
[32] L. Ma, Y. Wang, T. Tan, « Iris recognition using circular symmetric filters », Proc. of
ICPR’02, Québec city, Canada, 11-25 Août 2002.
120
[33] S.Z. Li, J. Lu, « Face recognition using the nearest geature line method », IEEE
Transactions On Neural Networks, Vol. 10, N° 2, pp. 439-443, Mars 1999.
[34] S. Lim, K. Lee et T. Kim, « Efficient iris recognition through improvement of feature
vector and classifier », ETRI Journal, Vol. 23, N° 2, Juin 2001.
[35] S-I. Noh, K. Pae, C. Lee, J. Kim, « Multi-resolution independent component analysis
for iris identification », Proc. of International and Technical Conf. on Circuits/Systems
& Communication, Phuket, Thaïlande, Juillet 2002.
[36] A. Muron, P. Kois, J. Pospisil, « Identification of persons by means of the Fourier
spectra of the optical transmission binary models of the human irises », Optics
Communication by Elsevier Science, 192, pp. 161-167, 2001.
[38] A. Czajka, A. Pacut, « Comments on iris interchange format, projet 1576, revision D
par Dr Cambier », Report of The Institute of Control and Computation Engineering,
Université de Varsovie, Pologne, 30 Novembre 2002.
CHAPITRE IV : ONDELETTES
[5] Gilbert Strang, Truong Nguyen, « Wavelets and Filter Banks », Wellesley-Cambridge
Press, ISBN 0-9614088-7-1, 1996.
121
[2] X. Zhang, H. Fujita, M. Kanematsu, X. Zhou, T. Hare, H. Kato, R. Yokoyama, H.
Hoshi, « Improving the classification of cirrhotic liver by using texture features », Conf
Prec IEEI Eng Med. Biol. Soc. 2005, 1:867-870.
[6] Libor Masek, Peter Kovesi, « MATLAB Source Code for a Biometric Identification
System Based on Iris Patterns », The School of Computer Science and Software
Engineering, The University of Western Australia, 2003.
[7] J. Daugman, « Complete discrete 2D Gabor transforms by neural networks for image
analysis and compression », IEEE Transactions on Acoustics, Speech, and Signal
Processing, Vol. 36, N° 7, pp. 1169-1179, July 1988.
[1] Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports
[1] K. S. Fu, « Syntactic Methods in Pattern Recognition », Academic Press, Inc, New
York, 1974.
[3] R.C. Dubes, A.K. Jain, « Validities studies in clustering methodologies », Pattern
Recognition, N° 11, pp. 235-254, 1979.
[4] A.K. Jain, R.C. Dubes, « Algorithms for Clustering Data », Prentice Hall, 1988.
122
[5] M. Donias, « Caractérisation de Champs d’Orientation par Analyse en Composantes
Principales et Estimation de la Courbure : Application aux Images Sismiques », Thèse
de doctorat, Université Bordeaux I, France, Janvier 1999.
[7] Nicolas Morizet, Thomas EA, Florence Rossant, Frederic Amiel, Amara Amara,
« Revue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage
pour la biométrie », Institut Supérieur d’Electronique de Paris (ISEP).
[8] John Holland, « Outline for a logical theory of adaptive systems », Journal of the
Association of Computing Machinery, 3, 1962.
[9] D.E. Goldberg, « Genetic Algorithms in Search, Optimization and Machine Learning »,
Reading MA AddisonWesley, 1989.
[11] R. O. Duda, P. E. Hart, « Pattern Classification and Scene Analysis », John Wiley and
Sons, New York, 1973.
[14] A. C. Anderson, K. S. Fu, « Design and development of a linear binary tree for
leukocytes », Purdue University, West Lafayette, IN, Tech. Rep. TR-EE- 79-31, 1979.
[15] E. Didelet, « Les arbres de neurones avec rejet d’ambiguïté. Application au diagnostic
pour le pilotage en temps réel du réseau téléphonique français », Thèse de doctorat,
Université de Technologie de Compiègne, 1992.
[17] J. Kittler, « A method for determining k nearest neighbors », Kibernetes, Vol. 7, pp.
313-315, 1978.
123
[18] M. Richetin, G. Rives, M. Naranjo, « Algorithme rapide pour la détermination des k
plus proches voisins », R.A.I.R.O. Informatique, Vol. 14, N° 4, pp. 369-378, 1980.
[20] D. L. Wilson, "Asymptotic properties of nearest neighbor rules using edited data", IEEE
Transactions on Systems, Man and Cybernetics, Vol. SMC-2, N° 3, pp. 408-421, July
1972.
[2] Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports
[3] National Institute of Standards and Technology, « Iris challenge evaluation », 2006,
http://iris.nist.gov/ICE/
[5] Michal Dobes and Libor Machala, « UPOL iris image database », 2004,
http://phoenix.inf.upol.cz/iris/
[7] Hugo Proença, Luis A. Alexandre, « UBIRIS : A noisy iris image database », In
Proceedings of the 13th International Conference on Image Analysis and Processing
(ICIAP2005), pp. 970-977, Calgary, September 2005,
http:// iris.di.ubi.pt
ANNEXE C : UTILISATION DES FONCTIONS MATLAB DANS C #
[1] http://www.mathworks.com
124
ANNEXE A Reconnaissance des formes
La reconnaissance des formes est une science de définition d’algorithmes qui permettent de
classer des objets (ou formes) par comparaison à des prototypes (objets types). Il s’agit de
définir à quelle forme-type une forme observée ressemble le plus.
Les formes ou motifs à reconnaitre peuvent être de nature très variée. Des exemples de
contenus auxquels sont appliqués les méthodes sont multiples. Il peut s'agir de contenu visuel
(code barre, visage, empreinte digitale...) ou sonore (reconnaissance de parole), d'images
médicales (rayons X, EEG, IRM...) ou multi spectrales (images satellitaires) et bien d'autres.
•
Paramètre 1
Paramètre 2
Ces formes ou objets sont donc caractérisés par ce vecteur appelé vecteur forme. Ils sont issus
d’analyses effectuées sur les signaux mesurés par les capteurs implantés sur le système.
125
ANNEXE A Reconnaissance des formes
Les formes types (ou prototypes) sont des points représentatifs de cet espace, et le problème
de la reconnaissance consiste à associer une forme observée à une forme type connue. A
cause des perturbations (bruit de mesure, précision des capteurs,…), une nouvelle observation
sera rarement identique à l’un des prototypes. Ainsi, afin de traduire l’influence du bruit, les
classes correspondent à des zones dans l’espace, regroupant les formes
semblables (Figure V.2).
3.1 La phase d’analyse : cette phase consiste à partir de connaissances acquises sur le
système à :
- Déterminer l’espace de représentation, c’est-à-dire choisir les paramètres sensibles aux
différents défauts permettant la meilleure discrimination des classes et ainsi construire le
vecteur forme.
- Réduire l’espace de représentation, c’est-à-dire déterminer les d’ (d’ < d ) paramètres les
plus pertinents pour la reconnaissance, afin d’améliorer les performances et de diminuer le
temps de décision relatif au classement d’une nouvelle observation. Cette opération de
réduction peut être réalisée soit par des méthodes d’extraction, soit par des méthodes de
sélection de caractères. L’extraction consiste à effectuer une transformation de l’espace initial
par combinaison des caractères initiaux. La sélection utilise une procédure de recherche selon
126
ANNEXE A Reconnaissance des formes
un critère de séparabilité entre les classes et de compacité dans les classes permettant ainsi de
sélectionner un sous-ensemble des caractères initiaux.
- Déterminer l’espace de décision, c’est-à-dire l’ensemble de toutes les classes possibles. Si
l’on dispose de N observations déjà recueillies sur le système (ensemble d’apprentissage) et
pour lesquelles on connaît a priori la classe d’origine, c’est-à-dire son mode de
fonctionnement correspondant, l’espace de décision est parfaitement déterminé, on parle de
RDF en mode supervisé. Dans le cas contraire, on parle de RDF en mode non supervisé, il
convient d’extraire cette connaissance manquante de l’ensemble d’apprentissage. Le principe
est de détecter dans cet ensemble, une ou des structures de classes disjointes au sens d’un
critère de similarité, de telle façon que les observations d’une même classe soient semblables
et que celle de classes différentes soient dissemblables. De nombreuses méthodes existent
pour mener à bien cette opération de classification automatique appelée « coalescence » [3]
[4].
- Choisir une méthode de discrimination qui consiste à construire des frontières entre les
différentes classes de l’ensemble d’apprentissage afin d’élaborer une règle de décision. Cette
règle décidera d’affecter ou non une nouvelle observation à l’une des classes connues.
Figure A.3 : Cheminement pour le calcul des paramètres constituant le vecteur forme.
Les performances d’un système RDF dépendront de la pertinence des paramètres calculés. Il
est donc préférable de disposer de paramètres variant, de manière significative, en fonction
127
ANNEXE A Reconnaissance des formes
des différentes conditions de prise des données. Le nombre souvent élevé de paramètres peut
être pénalisant en termes de temps de calcul. De plus, tous les paramètres calculés et
constituant le vecteur forme initial ne seront pas forcément pertinents vis-à-vis des modes de
fonctionnement étudiés. Des méthodes doivent donc être utilisées afin de ne conserver que les
paramètres les plus représentatifs.
Les méthodes de sélection de paramètres ont pour but de chercher d’ paramètres parmi les d
initiaux réalisant la meilleure discrimination possible des classes de . Ainsi le nombre de
mesures à effectuer diminue comme la dimension de l’espace de représentation, ce qui
présente un double avantage : une réduction des temps de calcul et l’élimination des
informations redondantes ou inintéressantes. Les paramètres sélectionnés seront ceux donnant
la combinaison optimale au sens d’un critère de séparabilité entre classes et de compacité des
classes comme par exemple le critère de Fisher [6], ou l’application d’un algorithme
génétique.
128
ANNEXE A Reconnaissance des formes
4.2.2 Analyse discriminante linéaire (LDA : Linear Discriminant Analysis) :
Appliqué aux images en 1997 par Belhumeur et Al. de la Yale University aux USA,
l’algorithme LDA, aussi connu sous le nom de Fisherfaces, est très proche de celui de l’ACP
sauf que la séparation de la base d’images en classe s’effectue en amont. Pour séparer en
classe la base d’images d’apprentissage de sorte que chaque classe comporte plusieurs images
de la même personne, on calcule les matrices de dispersion interclasses et intra classes puis on
cherche une projection qui minimise la dispersion intra classes (variation des images d’une
même personne) et maximise la dispersion interclasses (variation des images de personnes
différentes). Après application de la projection sur les images apprises et les images test, on
utilise les mêmes critères que l’ACP pour effectuer l’association entre l’image test et sa classe
adéquate. Lorsque le nombre d’individus à traiter est plus faible que la résolution de l’image,
les matrices de dispersion peuvent être non inversibles, ce qui rend difficile l’application de la
LDA [7].
129
ANNEXE A Reconnaissance des formes
supervisé. Il existe différentes méthodes de classification non supervisée, appelées également
méthodes de coalescence. Il y des méthodes réalisant une classification exclusive et d’autre
une classification non exclusive; dans ce dernier cas, une observation peut appartenir à
plusieurs sous-ensemble. Dans le premier cas, une observation appartient à un sous-ensemble
(une classe) et à un seul. Dans ce cas de figure, ces méthodes de coalescence se décomposent
en deux parties :
4.3.1 Les méthodes de classification par partition :
Ces méthodes ont pour but de créer des regroupements d’observations autour de centres de
gravité recherchés. Elles sont dérivées d’une classe d’algorithmes connue sous le nom de
‘méthodes des nuées dynamiques’ introduites par [10]. Parmi ces algorithmes, on distingue la
coalescence stricte Hard C-Means (HCM) [11].
L’algorithme HCM fonctionne comme suit:
1. Choix du nombre de classes M
2. Partition aléatoire de l’ensemble des observations en M classes
3. Calcul des centres de gravité des M classes
Répéter
4. Restructuration des classes par affectation au centre de gravité le plus proche
5. Calcul des nouveaux centres de gravité
6. Calcul du critère d’arrêt
Jusqu’à satisfaction du critère d’arrêt
Arbre de décision :
Les arbres de décision constituent des outils de classification très employés dans des
problèmes de RDF variés tels que la télédétection [12], la reconnaissance de caractères [13],
ou encore le pronostic et le diagnostic médical [14][15] a, quant à elle, utilisé les arbres de
neurones, qui associent un ensemble de neurones et un arbre de décision binaire pour le
diagnostic du pilotage en temps réel d’un réseau téléphonique.
Un arbre de décision est composé de plusieurs nœuds internes reliés entre eux par des
branches. Ces nœuds internes représentent les états (classes) intermédiaires lors de la
construction de l’arbre tandis que les branches représentent le processus de construction. Il
possède également un certain nombre de nœuds terminaux ou feuilles, correspondant aux
classes finales, auxquels on associe un indicateur de classe (étiquette correspondant à son
mode de fonctionnement), parmi les M classes du problème à traiter.
130
ANNEXE A Reconnaissance des formes
L’intérêt de la classification par arbres de décision est de diviser les données contenus dans un
ensemble d’apprentissage, par des tests définis à l’aide d’attributs (calcul de distance) jusqu’à
ce que l’on arrive à des sous-ensembles de points, obtenus en suivant l’évolution d’un critère,
ne contenant presque que des données appartenant toutes à la même classe.
Théorème de Bayes :
Le théorème de Bayes donne la probabilité qu’une entrée x (un vecteur de données)
appartienne à une classe donnée yi. Cette probabilité est définie par :
132
ANNEXE A Reconnaissance des formes
Comme évoqué précédemment, le cas où la connaissance sur les classes est exhaustive n’est
pas usuel en diagnostic. De ce fait, de nouvelles classes peuvent apparaître au cours du temps,
et, dans ce cas, l’affectation systématique d’une nouvelle observation à une classe connue
peut conduire à une erreur de diagnostic. Il vaut mieux reporter la décision et affecter à
une classe dite de rejet. On parlera alors d’utilisation de règle de décision avec rejet [16].
En réalité, il existe deux grandes notions de rejet : le rejet en ambiguïté qui concerne une
nouvelle observation située entre deux ou plusieurs classes de et le rejet en distance qui
correspond à une nouvelle observation située à une distance éloignée des classes de .
Ces rejets ont été introduits dans la règle des k – ppv et plus généralement, dans les méthodes
de diagnostic afin de diminuer les erreurs de classification et, par conséquent, les erreurs de
diagnostic.
133
ANNEXE A Reconnaissance des formes
134
ANNEXE B Bases des images d’iris standards
Nous décrivons les caractéristiques principales des bases de données des images d’iris
standards disponibles pour des fins biométriques. A travers des exemples, nous illustrons les
types de bruit que les images des bases de données contiennent, ainsi que l’impact de chacun
sur les différentes phases à travers lesquelles un système biométrique fonctionne. Enfin,
quelques statistiques concernant chaque base.
Les images sont de très haute qualité, prises avec un appareil photo professionnel, et montées
sur un appareil d’ajustement de position d’hauteur réglable. La lumière (luminosité) a été
fournie par une chaîne de diodes infrarouges LEDs, et placée au-dessous de l'appareil photo et
mise à un angle tel que les réflexions ont été ajustées vers la pupille. Au cours de cette
opération, un filtre de passage infrarouge a été utilisé pour ne laisser passer qu’une partie de la
lumière. Cette technique a permis de diversifier et d’augmenter la qualité des images d’iris.
Les images de la base de données BATH contiennent exclusivement la plupart des facteurs de
bruit reliés avec les obstructions de l'iris (dû aux paupières et aux cils). En outre, les
caractéristiques principales de ses images sont assez homogènes, résultantes d'un cadre de
prise d'images coopératif.
134
ANNEXE B Bases des images d’iris standards
La base de données ICE [2] est composée de 2954 images, avec un nombre variable d'images
par personne. De la même façon que les bases de données d'iris publiques restantes, ses
images ont été capturées, avec comme préoccupation principale la qualité des images, celle-
ci simule clairement la coopération des utilisateurs dans l'image capturée. En conséquence, les
facteurs de bruit que la base de données ICE contient sont liés presque exclusivement avec les
obstructions de la mauvaise position de l’iris par rapport au capteur. D’autant plus qu’il y a
quelques images qui ont délibérément subi des rotations et d'autres ont été partiellement
capturées.
135
ANNEXE B Bases des images d’iris standards
et leurs facteurs de bruit sont liés exclusivement avec les obstructions de l'iris dus aux
paupières et aux cils.
136
ANNEXE B Bases des images d’iris standards
137
ANNEXE B Bases des images d’iris standards
L’analyse du tableau ci-dessous nous permet de conclure que la base de données UBIRIS est
la plus bruyante. Cette base contient, mis à part le bruit de type angle fermé, tous les autres
types de bruit pouvant être provoqués lors de la phase d’enrôlement non coopérative.
Contrairement à UBIRIS, les autres bases de données contiennent moins d’images affectées
par le bruit, celles-ci sont de caractéristiques beaucoup plus homogènes.
Base d’iris NEO NLO NLR NMB NOA NOI NPF NPI NSR
BATH X X - - X - - - -
CASIA X X - - - - - -
ICE X X - - - - X X -
MMU X X - - - - - - -
UPOL - - - - - - - - -
UBIRIS X X X X - X X X X
WVU X X - X X - X X -
Tableau B.1: Vue d’ensemble des facteurs de bruit des bases de données standards.
Base d’iris Taille Image, pix Rayon Iris, pix Rayon Pupille, pix Bruit, %
BATH 1280 x 960 232 101 6.29
CASIA 320 x 280 102 37 12.72
ICE 640 x 480 119 54 6.70
MMU 320 x 240 57 21 7.83
UPOL 768 x 576 286 74 1.03
UBIRIS 800 x 600 206 45 27.62
WVU 800 x 600 204 54 16.10
Tableau B.2 : Quantité moyenne des pixels affectés par le bruit dans les régions d’iris des
images de bases de données.
138
ANNEXE C Utilisation des fonctions Matlab dans C#
L’utilisation des fonctions Matlab dans la plateforme Dot Net est possible grâce à des
librairies partagées. La création d’une librairie partagée C est effectuée au niveau de Matlab et
les étapes de création de ces librairies sont décrites ci-dessous [1] :
- La sélection du compilateur à utiliser moyennant la commande :
mbuild -setup
- Une fois l’instruction de compilation lancée, Matlab crée plusieurs fichiers (mylib.c
mylib.h …). Il suffit, ensuite, de copier les fichiers mylib.dll et mylib.ctf dans le
dossier /bin/Debug/ du projet C#.
- Avant l’appel de toute librairie à partir de C#, il est nécessaire de faire appel à la
routine d’initialisation du MCR : mclInitializeApplication (null, 0), cette routine
externe est importée à partir de la Dll copiée lors de l’installation du logiciel Matlab
"mclmcrrt70.DLL".
- Avant de faire appel à une librairie donnée (ex : mylib), il faut l’initialiser en
utilisant : mylibInitialize (), cette routine externe est importée à partir de la Dll
"mylib.dll".
- Une fois tous les appels aux fonctions de la librairie ont été effectués, il faudra libérer
les ressources utilisées par ces fonctions. De ce fait, il est nécessaire de faire appel à la
routine de terminaison mcllibTerminate () importée à partir de la Dll "mylib.dll".
- Une fois tous les appels aux Dll de Matlab effectués, effectuer la terminaison du
MCR : mclTerminateApplication () importée à partir de la Dll " mclmcrrt70.dll".
139
ANNEXE D Taux FAR et FRR individuels
Ces taux ont été calculés en utilisant les valeurs par défaut des paramètres pertinents du système.
I. Base de données CASIA V1.0 :
140
ANNEXE D Taux FAR et FRR individuels
45 0.48090 0.06467 0.19999 0.13233
46 0.42856 0 0 0
47 0.4077 0 0 0
48 0.45667 0 0 0
49 0.43664 0 0 0
50 0.45143 0.01607 0 0.00803
51 0.43438 0 0 0
52 0.45906 0 0 0
53 0.44507 0.00074 0 0.00037
54 0.50060 0 0 0
55 0.45551 0.00523 0.06666 0.03594
56 0.42244 0 0.06666 0.03333
57 0.41427 0 0 0
58 0.47864 0.02279 0.19999 0.11139
59 0.41142 0 0 0
60 0.40355 0 0 0
61 0.43119 0 0 0
62 0.45986 0 0 0
63 0.48251 0.10130 0 0.05065
64 0.44141 0 0 0
65 0.44247 0 0 0
66 0.45717 0 0.19999 0.09999
67 0.52548 0.37756 0.06666 0.22211
68 0.45818 0 0.13333 0.06666
69 0.42624 0.00037 0 0.00018
70 0.48523 0.00148 0.39999 0.20073
71 0.41861 0.00074 0.06666 0.0337
72 0.46628 0.02616 0.33333 0.17974
73 0.43878 0.01083 0.13333 0.07208
74 0.46219 0.00037 0.06666 0.03351
75 0.44976 0 0.06666 0.03333
76 0.44884 0.03252 0.13333 0.08292
77 0.47604 0.11102 0.26666 0.18884
78 0.48435 0 0 0
79 0.50876 0.03364 0 0.01682
80 0.42847 0 0 0
81 0.43526 0 0 0
82 0.43633 0 0.06666 0.33333
83 0.44155 0.00074 0.06666 0.0337
84 0.43499 0 0.06666 0.03333
85 0.42879 0 0.06666 0.03333
86 0.45238 0 0 0
87 0.42905 0 0 0
88 0.42405 0 0 0
89 0.41604 0 0 0
90 0.41959 0 0.13333 0.06666
91 0.53361 0.00336 0.19999 0.10167
92 0.44075 0 0.06666 0.03333
141
ANNEXE D Taux FAR et FRR individuels
93 0.42501 0 0 0
94 0.42687 0 0 0
95 0.44550 0 0.06666 0.03333
96 0.43337 0 0 0
97 0.45126 0 0 0
98 0.43133 0.00224 0.06666 0.03445
99 0.45494 0 0.06666 0.03333
100 0.42151 0 0.06666 0.03333
101 0.48982 0.01419 0.06666 0.04042
102 0.46450 0.00074 0.19999 0.10036
103 0.49118 0.13981 0.06666 0.10323
104 0.45165 0.00112 0.19999 0.10055
105 0.45382 0.00672 0.19999 0.10335
106 0.45226 0.04111 0.06666 0.35388
107 0.42654 0 0.13333 0.06666
108 0.48999 0 0.06666 0.03333
Tableau D.1 : Taux FAR et FRR individuels (CASIA V1.0).
142
ANNEXE D Taux FAR et FRR individuels
2. Base de données CASIA-IrisV3-Interval :
Seuil FAR FRR TER
1 0.53857 0.13140 0.125 0.1282
2 0.51043 0.10952 0.125 0.11726
3 0.45590 0 0 0
4 0.54649 0.04606 0 0.02303
5 0.46672 0.00024 0 0.00012
6 0.45518 0.00084 0.06666 0.03375
7 0.48881 0.05209 0.05357 0.05283
8 0.45867 0.00232 0.05357 0.02794
9 0.46450 0.00025 0.14285 0.07155
10 0.47041 0 0 0
11 0.45430 0.03397 0.125 0.07948
12 0.46512 0.00011 0 0.00005
13 0.52739 0.01954 0.19045 0.10499
14 0.49332 0.00108 0.13332 0.06720
15 0.43881 0 0 0
16 0.40925 0 0.5 0.25
17 0.51082 0.14588 0.3 0.22294
18 0.44551 0 0 0
19 0.47558 0.02155 0.03906 0.03030
20 0.48606 0.10507 0.16666 0.13586
21 0.48046 0.0806 0.11111 0.09585
22 0.52916 0.10101 0.25 0.17550
23 0.46433 0.00089 0.5 0.25044
24 0.39509 0 0 0
25 0.42223 0 0 0
26 0.43217 0 0 0
27 0.47762 0 0 0
28 0.50609 0.03605 0.13888 0.08746
29 0.51681 0.07568 0.32142 0.19855
30 0.50304 0.02746 0.08928 0.05837
31
32 0.40038 0 0 0
33 0.42643 0 0 0
34 0.45392 0 0 0
35 0.50249 0.00239 0.33333 0.16786
36 0.47964 0.00103 0.05357 0.0273
37 0.45956 0 0 0
38 0.48773 0.16932 0.3 0.23466
39 0.44101 0 0.125 0.0625
40 0.53424 0.02077 0.5 0.26038
41
42 0.50794 0.04219 0.25 0.14609
43 0.51197 0.09221 0.21875 0.15548
44 0.55646 0.29975 0.33333 0.31654
45 0.51133 0.02774 0.22222 0.12498
143
ANNEXE D Taux FAR et FRR individuels
46 0.4185 0 0 0
47 0.52683 0.22208 0.22222 0.22215
48 0.52485 0.04358 0.16666 0.10512
49 0.44687 0 0 0
50 0.40582 0 0 0
51 0.39927 0 0.125 0.0625
52 0.41296 0 0 0
53 0.43994 0 0.01587 0.00793
54 0.46266 0 0 0
55 0.46419 0.00039 0.16666 0.08352
56 0.45728 0.00079 0 0.00039
57 0.44027 0 0 0
58 0.46397 0.00164 0.25 0.12582
59 0.50057 0.10051 0.16666 0.13358
60 0.49741 0.05037 0.08928 0.06982
61 0.44094 0 0 0
62 0.41133 0 0 0
63 0.46919 0.00024 0.12 0.06012
64 0.50314 0.17313 0 0.08656
65 0.43377 0 0.04 0.02
66 0.44673 0.00048 0.04 0.02024
67 0.45895 0.03138 0.1 0.06596
68 0.50773 0.12254 0.36 0.24127
69 0.52217 0.12146 0.04 0.08073
70 0.45565 0.01342 0.24 0.12671
71 0.44626 0.00084 0.04 0.02042
72 0.51493 0.04909 0.08 0.06454
73 0.43989 0.00024 0 0.00012
74 0.50615 0.14596 0.16 0.15298
75 0.50374 0.08772 0.2 0.14386
76 0.47124 0.03489 0.04 0.03744
77 0.44991 0 0 0
78 0.46815 0.00060 0.12 0.06030
79 0.43922 0 0 0
80 0.49026 0.08863 0.32 0.20431
81 0.46877 0.00050 0.08333 0.04191
82 0.50538 0.11419 0.24336 0.17877
83 0.46598 0.03990 0.06666 0.05328
84 0.42895 0 0 0
85 0.51033 0.12237 0.12 0.12118
86 0.52894 0.03102 0.08 0.05551
87 0.48593 0.03860 0.36 0.1993
88 0.42462 0 0 0
89 0.44640 0 0 0
90 0.43373 0 0.2 0.1
91 0.47963 0.08261 0.19999 0.1413
92 0.46557 0.00461 0.16666 0.08563
93 0.47539 0.0001 0.04166 0.02088
144
ANNEXE D Taux FAR et FRR individuels
94 0.46858 0.02922 0.08571 0.05746
95 0.45218 0 0.13333 0.06666
96 0.47165 0.05044 0 0.02522
97 0.45298 0.0003 0.06666 0.03348
98 0.46130 0.0004 0.06666 0.03353
99 0.46939 0.00991 0.08333 0.04662
100 0.44892 0.02583 0.02857 0.0272
101 0.48386 0.04281 0.1 0.07140
102 0.42551 0 0 0
103 0.42591 0 0 0
104 0.51799 0.00693 0.1 0.05346
105 0.42948 0.01133 0.1 0.05566
106 0.51143 0.31036 0.1 0.20518
107 0.48116 0.05274 0.2 0.12637
108 0.48409 0.12258 0.33333 0.22795
109 0.53184 0.12116 0.2 0.16058
110 0.44589 0.00872 0.06666 0.03769
111 0.45429 0 0 0
112 0.44101 0.00250 0.03333 0.01791
113 0.46975 0.05314 0.13333 0.09323
114 0.47635 0.01122 0.23333 0.12227
115 0.52647 0.0818 0.07142 0.07661
116 0.45027 0.07771 0.03333 0.05552
117 0.45177 0 0.06666 0.03333
118 0.47755 0.03990 0.13333 0.08661
119 0.5073 0.15763 0.13333 0.14548
120 0.46203 0.00892 0.2 0.10446
121 0.46433 0.00160 0.03333 0.01746
122 0.45535 0.00240 0.16666 0.08453
123 0.48707 0.01804 0.06666 0.04235
124 0.43397 0.0004 0.03333 0.01686
125 0.49891 0.10677 0.30357 0.20517
126 0.48937 0.06136 0.1 0.08068
127 0.4795 0.02184 0.23333 0.12758
128 0.50344 0.05602 0.2 0.12801
129 0.49727 0.10148 0.13333 0.11740
130 0.46720 0.10569 0.1 0.10284
131 0.49681 0.11955 0.2 0.15977
132 0.48557 0.04280 0.08571 0.06425
133 0.49022 0.06774 0.16666 0.1172
134 0.48119 0.03789 0.1 0.06894
135 0.45682 0.00190 0.26666 0.13428
136 0.44378 0.00010 0.02083 0.01046
137 0.46942 0.00060 0.13333 0.06696
138 0.46638 0.01363 0.1 0.05681
139 0.53684 0.02956 0.26666 0.14811
140 0.46163 0.0022 0.26666 0.13443
141 0.48773 0.04379 0.18333 0.11356
145
ANNEXE D Taux FAR et FRR individuels
142 0.44460 0 0 0
143 0.42893 0.01253 0 0.00626
144 0.47615 0.15693 0.3 0.22846
145 0.44010 0.01835 0.2 0.10917
146 0.44373 0.03118 0.1 0.06559
147 0.44246 0 0 0
148 0.48760 0.02175 0.26666 0.14420
149 0.50328 0.12855 0.1 0.11427
150 0.51494 0.07253 0.83333 0.45293
151
152 0.47427 0 0.5 0.25
153 0.50075 0.08353 0.16666 0.12509
154 0.47304 0.00015 0.125 0.06257
155 0.55217 0.00059 0.16666 0.08362
156 0.43552 0.02474 0.18749 0.10611
157 0.48548 0.00456 0.05 0.02728
158 0.42159 0 0.33333 0.16666
159 0.53486 0.18062 0.1875 0.18406
160 0.48095 0.05980 0.22409 0.14194
161 0.52869 0.17683 0.125 0.15091
162 0.50172 0.03504 0.10937 0.07220
163 0.55829 0.22113 0.2 0.21056
164 0.48760 0.00828 0.15 0.07914
165 0.50732 0.04509 0.20407 0.12458
166 0.49844 0.04317 0 0.02158
167 0.51210 0.01782 0.08928 0.05355
168 0.48741 0.04791 0.20312 0.12551
169 0.44324 0 0.04687 0.02343
170 0.54413 0.23023 0.16666 0.19844
171 0.41130 0 0 0
172 0.44466 0 0 0
173 0.59546 0.00135 0.49999 0.25067
174 0.54838 0 0.375 0.1875
175 0.41793 0 0 0
176 0.42454 0 0 0
177 0.45171 0 0.5 0.25
178 0.46003 0.01335 0.16666 0.09000
179 0.48923 0.02541 0.16666 0.09603
180 0.43595 0 0.16666 0.08333
181 0.46419 0 0 0
182 0.55010 0.18805 0.14285 0.16545
183 0.51403 0.10414 0.16666 0.1354
184 0.48942 0 0.16666 0.08333
185 0.45546 0 0.16666 0.08333
186 0.44985 0 0 0
187 0.49412 0.00075 0.08333 0.04204
188 0.49911 0.08447 0.08928 0.08687
189
146
ANNEXE D Taux FAR et FRR individuels
190 0.48376 0 0 0
191 0.42248 0 0 0
192 0.50025 0.07892 0.16666 0.12279
193 0.46649 0 0 0
194 0.4401 0 0 0
195 0.56696 0 0 0
196 0.48143 0 0 0
197 0.46374 0.00029 0.125 0.06264
198 0.49048 0.00139 0.16666 0.08402
199 0.43964 0.00080 0 0.00040
200
201 0.43201 0 0 0
202 0.49892 0.11307 0.16666 0.13986
203 0.50700 0.15506 0.125 0.14003
204
205 0.50416 0.23738 0.16666 0.20202
206 0.43778 0 0 0
207 0.44397 0 0 0
208 0.48735 0.08868 0.08333 0.08600
209 0.51292 0.06793 0.05357 0.06075
210 0.49505 0.0003 0.16666 0.08348
211 0.50082 0.02667 0.20407 0.11537
212 0.49457 0.15815 0 0.07907
213
214 0.07625 0.06917 0.08333 0.07625
215 0.47183 0.00020 0 0.00010
216
217 0.42883 0 0 0
218 0.50518 0.00060 0.19047 0.09553
219 0.52650 0.04572 0.22448 0.1351
220 0.47190 0.00479 0.2 0.10239
221 0.48146 0.20063 0.33333 0.26698
222 0.4482 0 0 0
223 0.39034 0 0 0
224 0.49853 0.05496 0.17851 0.11673
225 0.48639 0.00060 0.16666 0.08363
226 0.49737 0.00015 0.08333 0.04174
227 0.50924 0.00030 0.125 0.06265
228 0.46153 0.00075 0 0.00037
229 0.54828 0.21364 0.30952 0.26158
230 0.48382 0.00012 0.05 0.02506
231 0.47148 0.0039 0.41666 0.21028
232 0.56396 0.28859 0.66666 0.47759
233 0.52331 0.03506 0 0.01753
234 0.43881 0 0 0
235 0.42647 0 0 0
236 0.49144 0.06710 0.5 0.28355
237 0.43031 0 0 0
147
ANNEXE D Taux FAR et FRR individuels
238 0.41883 0 0.2 0.1
239 0.49665 0.05739 0.08333 0.07036
240 0.50650 0.00020 0.16666 0.08343
241 0.43235 0 0 0
242 0.53210 0 0 0
243
244 0.44054 0 0 0
245 0.44365 0 0 0
246 0.56666 0.00179 0.5 0.25089
247 0.47643 0.00075 0.33333 0.16704
248 0.48791 0.11989 0.16666 0.14327
249
Tableau D.2 : Taux FAR et FRR individuels (CASIA-IrisV3-Interval).
148