Académique Documents
Professionnel Documents
Culture Documents
Mémoire
En vue de l’obtention du diplôme de
MAGISTER EN INFORMATIQUE
Option : Informatique Répartie et Mobile (IRM)
Thème
Promotion : 2009/2010
i
DEDICACE
ii
REMERCIMENTS
Mes plus vifs remerciements vont à ma famille pour m’avoir soutenue tout au long des
années. Qu’elle trouve ici l’expression de ma sincère gratitude.
Je tiens à remercier mes encadreurs, Mlle. Karima BENATCHBA et Mr. Mouloud KOUDIL, pour
avoir bien accepté de m’encadrer et de m’accompagner dans ce sujet.
Je suis redevable aux membres de mon jury pour avoir accepté de juger mon travail.
Merci à tous les membres du laboratoire LMCS qui m’étaient une deuxième famille.
Merci à tous ceux qui ont contribué de près ou de loin à la réalisation de ce travail.
Merci à tous ceux qui ont cru en moi et m'ont encouragée durant ce long projet.
iii
RESUME
Afin de bien comprendre ces travaux et leurs bases et concepts, il nous a fallu
étudier le domaine biométrique en général ainsi que celui criminalistique en particulier. De
plus, une étude de la reconnaissance de l’empreinte palmaire dans sa forme complète était
nécessaire pour éclaircir les limites d’application de telles approches dans notre cas. De
même, la nature de la peau de la paume de la main similaire à celle des doigts nous a
poussés à étudier les approches de reconnaissance digitale. Cette dernière étude nous a été
très importante pour mettre le point sur la source des approches appliquées sur
l’empreinte palmaire partielle et voir les défis introduits par cette dernière.
iv
ABSTRACT
In this work, we will study this latent palmprint recognition through a comparative
presentation of research studying this problem in order to underline the different potential
research axes and proposals.
To understand this works and their foundations and concepts, we had to study the
biometric field in general as well as forensics one in particular. In addition, a study of the
palmprint recognition in its complete form was necessary to clarify the limits of
applicability of such approaches in our case. Moreover, the similar skin nature of hand palm
and finger pushed us to explore fingerprint recognition approaches. This latest study was
very important to put the point on the source of the applied approaches on the partial
palmprint and to see the challenges introduced by the latter.
v
SOMMAIRE
RESUME............................................................................................................................... IV
ABSTRACT ............................................................................................................................V
SOMMAIRE ......................................................................................................................... VI
INTRODUCTION GENERALE............................................................................................ 1
vi
6.2 Les caractéristiques dentaires : .................................................................................................................. 28
6.3 Les tissus mous et l’anthropologie: .......................................................................................................... 28
6.4 Les marques et les traces : ............................................................................................................................ 29
6.5 Les enregistrements digitaux (reconnaissance à distance): ........................................................ 33
9. Conclusion: ........................................................................................................................................ 41
6. Conclusion : ....................................................................................................................................... 65
vii
1.1 Les approches à base d’intensité (par corrélation) : ........................................................................ 70
1.2 Les approches à base de minuties : .......................................................................................................... 71
1.2.1. Appariement global : ................................................................................................................................ 72
1.2.2. Appariement local : ................................................................................................................................... 74
1.3 Les approches à base de caractéristiques non-minuties : ............................................................. 77
1.3.1. Les informations (globales et locales) issues de la texture : ................................................. 77
1.3.2. Les attributs géométriques et les relations spatiales entres les lignes de crêtes : ..... 80
1.3.3. Les caractéristiques du troisième niveau : .................................................................................... 80
BIBLIOGRAPHIE ............................................................................................................126
viii
LISTE DES TABLEAUX
Tableau 1- Comparaison entre les types de preuves criminelles (Chen & Jain, 2009)
...................................................................................................................................................................................... 24
Tableau 2- Tableau récapitulatif des approches de reconnaissance selon la
résolution................................................................................................................................................................. 49
Tableau 3- Tableau comparatif entre les approches d'appariement locales et globales
...................................................................................................................................................................................... 72
Tableau 4- Résultat des tests du travail de Jain 2008 ............................................................. 87
Tableau 5- Résultat des tests du travail de Jain 2009 ............................................................. 94
Tableau 6- un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire
latente (publication) ........................................................................................................................................ 116
Tableau 7-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire
latente (techniques de reconnaissance)................................................................................................... 118
Tableau 8-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire
latente (Tests et résultats)............................................................................................................................. 119
ix
LISTE DES FIGURES
x
Figure 23- Exemple de vecteur caractéristique dans le cas d''une approches
statistiques locale ................................................................................................................................................. 60
Figure 24- Exemple de plusieurs vecteurs caractéristiques (R, ϴ) ................................... 61
Figure 25- Le schéma d’un module de fusion et décision de scores utilisé dans
(Kumar & Zhang, 2005)(- Schéma illustratif des approches multi-caractéristiques à base de
fusion des scores) ................................................................................................................................................. 64
Figure 26- Schéma illustratif des approches multi-caractéristiques hiérarchiques .. 65
Figure 27- Taxonomie des différentes catégories d’approches de reconnaissance
d’empreinte digitale ............................................................................................................................................ 69
Figure 28- Exemple de corrélation entre deux empreintes digitales. .............................. 70
Figure 30- Exemple d'attributs d'une structure locale........................................................... 75
Figure 31- Illustration de la technique du "FingerCode". Vij : énergie révélée par le
filtre j dans la cellule i = l’écart moyen absolu (AAD) par rapport à la moyenne des réponses
de du filtre j a tous les pixels de la cellule i ................................................................................................ 79
Figure 32- - La structure générale du travail de Jain 2008 ................................................... 84
Figure 33- phase de segmentation et d’amélioration de contraste : (Jain & Demirkus,
2008) ......................................................................................................................................................................... 85
Figure 34- extraction des plis (Jain & Demirkus, 2008)......................................................... 85
Figure 35- Elimination des fausses minuties (Jain & Demirkus, 2008) ........................... 86
Figure 36- Exemple d'appariement des minuties et des caractéristiques SIFT (Jain &
Demirkus, 2008). .................................................................................................................................................. 86
Figure 37- La structure générale de l’approche de Jain 2009 ............................................. 89
Figure 38- Extraction des crêtes (Jain & Feng, 2009) ............................................................. 90
Figure 39- extraction des minuties: .............................................................................................. 90
Figure 40- Illustration de la construction du MinutiaCode .................................................. 92
Figure 41- a : Poc entre une empreinte partielle et complète identique, b : Poc entre
une empreinte partielle et complète différentes (Laadjel, et al., 2009). ........................................ 97
Figure 42- La structure générale de l’approche de Laadjel 2010 ................................... 100
Figure 43- Extraction des minuties (Laadjel, et al., 2010) ................................................ 102
Figure 44- Schéma illustratif de la technique de construction d’un descripteur de
minutie (ILMD),.................................................................................................................................................. 104
Figure 45- Exemples des empreintes (complètes et partielles) de la base de données
utilisée ................................................................................................................................................................... 105
xi
Figure 46- La structure générale du travail de Dai, Les étapes en rouge sont les
étapes où Dai s’introduit. ............................................................................................................................... 108
Figure 47- Les étapes de l’algorithme composite d’estimation de champs
d’orientation ........................................................................................................................................................ 109
Figure 48- Schéma détaillant la phase d'extraction et d'appariement de minuties 110
Figure 49-Exemple (a) empreinte partielle (b) les champs d’orientation (c) La carte
des densités (de fréquences) (Dai & Zhou, 2011) ................................................................................ 111
Figure 50- extraction des lignes principales: (a) image originale, (b) image des
énergies des plis (c) image des directions des plis (d) la carte des plis principale extraite
(Dai & Zhou, 2011)............................................................................................................................................ 112
xii
INTRODUCTION GENERALE
D’autre part, la nature de l’empreinte palmaire similaire à celle digitale a incité les
chercheurs à exploiter les concepts et les approches conçues pour la reconnaissance digitale.
A titres d’exemples, des points caractéristiques robustes communs, telles que les minuties,
ayant déjà prouvés leurs efficacités peuvent être utilisées pour identifier les empreintes
palmaires latentes. L’utilisation des minuties ne présente pas la seule stratégie adaptable
dans notre cas. Plusieurs autres notions déjà appliquées dans la reconnaissance digitale
peuvent être exploitées. Les descripteurs invariants aux transformations conçus en principe
pour la reconnaissance des objets dans les images et les approches de recalages d’images le
sont aussi. Malgré cette variété apparente de choix et d’idées, la reconnaissance
d’empreintes palmaires latentes reste peu abordée dans les travaux de recherche.
1
Les objectifs principaux de notre présent travail sont:
Dans ce rapport, nous allons essayer d’atteindre ces objectifs. A travers trois
chapitres, plusieurs notions et concepts de la biométrie et de la criminalistique ainsi que de
l’empreinte palmaires vont être abordés :
2
pouvoir mettre le point sur l’inspiration de chacun d’entre eux, Il dresse un
état de l’art sur la reconnaissance digitale. Il passe par la suite vers une
présentation détaillée de ces travaux pour pouvoir les comparer et tirer les
différents problèmes soulevés qui sont toujours sujet de recherche dans le
domaine.
Nous terminerons ce document par une conclusion générale où nous tracerons des
perspectives et des propositions en vue pour ce travail tout en espérant que ce rapport
servira d'une introduction pour une recherche plus approfondie dans le domaine.
3
CHAPITRE 1 : LA BIOMETRIE ET LA
CRIMINALISTIQUE
Depuis l’aube des temps, la reconnaissance des individus a pris une importance dans
la vie humaine. Son intérêt a évolué de la simple association des personnes aux événements
ou aux transactions dans un cadre social ou commercial, à l’identification à grande échelle
dans le cadre de la sécurité des nations. Et comme tous les domaines, elle a tiré profit du
développement technologique qu’a connu le monde. On est ainsi arrivé à concevoir des
systèmes de reconnaissance, dits biométriques, complètement automatisés profitant de
plus en plus des traits physiques, morphologiques ou même comportementaux de l’être
humain.
Depuis ce temps, l’utilisation des empreintes digitales est devenue décisive dans
l’individualisation des personnes impliquées dans des infractions pénales par les experts de
la criminalistique. Cette utilisation de données biométriques ne s’est pas limitée aux
empreintes digitales. En 1986, et pour la première fois, l'ADN va confondre l'auteur d'un
double meurtre dans ce qu’on appelle l’affaire « Colin Pitchfork » (Champod, 2009).
1 Le 29 Juin 1892, en Argentine, Ponciano Caraballo, 6 ans, et sa sœur Felisa, quatre ans sont tués
à l'aide d'un couteau de cuisine. Leur mère révèle qu'elle a été brutalement attaquée par son voisin,
Ramon Velazquez, travaillant comme vacher. A la suite d'une dispute, celui-ci a tué ses deux enfants avec
un couteau de cuisine. Il l'a ensuite frappée avec une pelle avant de prendre la fuite. Le 8 juillet 1892, soit
neuf jours après les faits, des constatations sont réalisées sur la scène de crime par une équipe de
policiers de La Plata (pour laquelle travaillait Juan Vucetich). Ceux-ci mettent en évidence des traces
digitales sanglantes sur la porte du lieu du crime. Ils découpent des morceaux de bois de la porte
supportant les traces papillaires. Les enquêteurs prélèvent aussi les empreintes digitales de Francisca
Rojas et de Ramon Velazquez pour les comparer avec les traces sanglantes. En effet, les traces digitales,
qui au vu de leur emplacement sont celles de l'auteur, sont identifiées avec les empreintes de Francisca
Rojas. (Anon., n.d.)
4
D’autres preuves biométriques deviennent de plus en plus répandues ; l’empreinte
palmaire, les traces des chaussures, les empreintes auriculaires, les informations fournies
par les enregistrements vidéos de surveillance tels que les images de visages, la démarche,
la voix…
5
1. HISTORIQUE DE LA BIOMETRIE :
Mais ce n’est que vers la fin du 19e siècle que l'étude de la biométrie fut utilisée
officiellement et cela pour poursuivre des criminels. Alphonse Bertillon, un anthropologue
et commissaire au sein de la police française, tira profit de la stabilité de la longueur des os
durant l’âge adulte, sa variabilité entre individus ainsi que la possibilité de la mesurer avec
une précision raisonnable : il proposa un enregistrement de mesures multiples des corps
(anthropométriques) constitué de onze mesures précises (la taille de l’individu, l’envergure,
la hauteur du buste, la hauteur et la largeur de la tête, la largeur et la longueur de l’oreille
droite, la longueur du pied gauche, celle du médius gauche, de l’articulaire gauche et celle de
la coudée gauche) pour caractérisé chaque criminel arrêté. Cet enregistrement était
complété par une image photographique et un relevé de marques particulières (Champod,
2009). Connu sous le nom «Bertillonnage1 », ce système fut adopté par plusieurs autorités
de police dans le monde entier durant les années 90 du 19eme siècle (Motorola, 2006).
Cependant, ses limitations furent rapidement remarquées et le rendent vite obsolète (Les
gens peuvent bien partager les mêmes mesures physiques. Ces dernières sont aussi
corrélées et d’une distribution irrégulière(Champod, 2009).
1 Bertillon affirme qu'en prenant quatorze mensurations (taille, pieds, mains, nez, oreilles, etc.)
sur n'importe quel individu, il n'y a qu'une seule chance sur deux cent quatre-vingt-six millions pour
qu'on retrouve les mêmes mesures chez une autre personne
6
durabilité et la permanence de l’empreinte digitale tout au long de la vie1 ainsi que sa force
distinctive2 et la possibilité d’une classification fiable3 (Champod, 2009). Galton définit,
également, les caractéristiques connu sous le nom de «minuties» qui sont encore utilisées
aujourd'hui pour démontrer la correspondance entre deux impressions faites par le même
doigt (Motorola, 2006).
7
Depuis, plusieurs technologies biométriques automatiques sont apparues : La
reconnaissance faciale en 1977, l’identification rétinienne un an après, la fréquence de
frappe au clavier en 1980 ainsi que la vérification automatique de la signature en 1883
(Roberts, 2005). L’idée d’utiliser l’ADN, quant à elle, remonte aux travaux de recherche1 de
Sir Alec Jeffreys à l’université de Leicester en Angleterre publié en 1984 (Roberts, 2005).
Mais son utilisation et son développement n’ont pris de l’ampleur que dans les années 90 ;
avec la création de la première base de données nationale d’ADN établie en UK en 1995. De
même, l’iris comme base d’identification a été mentionné par Frank Buch en 1936 et mise
au point en 1994 par la publication de l’algorithme de Daugman (Roberts, 2005). En 1998,
zhang publia le premier article sur l empreinte palmaire (Roberts, 2005).
8
2. GENERALITE SUR LA BIOMETRIE :
Selon la RAND Public Safety and Justice : Toute caractéristique physique ou trait
personnel automatiquement mesurable, robuste et distinctif qui peut être employé
pour identifier un individu ou pour vérifier l’identité qu’un individu affirme.
On note que la biométrie telle que nous la connaissons aujourd'hui peut être
considérée comme l'extension de l'approche anthropométrique de Bertillon, bénéficiant de
l'automatisation et l'utilisation de fonctionnalités supplémentaires.
Dans les applications réelles, une utilisation pratique d’un trait biométrique pour la
mise en place d’un système de reconnaissance doit prendre en compte également trois
facteurs supplémentaires (Jain, et al., 2004):
9
la performance du système : qui se réfère à la précision et la vitesse de la
reconnaissance, ainsi qu’aux ressources nécessaires pour atteindre cette précision et
vitesse.
l'acceptabilité : un trait biométrique doit présenter un minimum de facilité
d’utilisation et d’acceptation par ses utilisateurs.
le contournement : un trait biométrique ne doit pas être facilement contournable.
3. LE SYSTEME BIOMETRIQUE :
10
données, la vérification quant à elle consiste à comparer ces informations uniquement aux
modèles correspondant à l'identité revendiquée (Delac & Grgic, 2004).
Où S est la fonction qui mesure le score de similarité entre les deux vecteurs de
caractéristiques XQ et XI et t définit le seuil de correspondance.
XQ
Les auteurs dans (Phillips, et al., 2002), ont défini un troisième mode de
reconnaissance appelé « watch-list » ou « liste de contrôle ». Ce mode est un autre scenario
d’identification non pas sur un ensemble fermé comme dans le cas classique (Closed-set
identification) mais sur un ensemble ouvert (Open-set identification) (Shan, et al., 2009).
Dans ce scénario, répondant à la question « suis-je recherché ? », il suffit de vérifier que
l’individu n’appartient pas à une liste d’identités donnée sans qu’il se trouve obligé d’en
revendiquer une. Un exemple de son application est de comparer l’identité d’un certain
passager avec une liste de terroristes connus dans le cadre de la surveillance nationale
(Bouridane, 2009).
11
3.2 Composition d’un système biométrique:
Tout système biométrique passe par deux phases principales:
1 Habituellement, plusieurs modèles d'un même individu sont stockées pour tenir compte des
variations observées dans le trait biométrique. De même, les modèles stockés peuvent être actualisés au
fil du temps (Jain, et al., 2004)
12
comparé à tous les modèles stockés dans la base de données pour identifier
l’utilisateur dans le cas d’un fonctionnement en mode « identification ».
Comme le montre les Figure 2et Figure 3 , un système biométrique simple se base
sur quatre Modules fondamentaux (Jain, et al., 2004) (Jain & Nandakumar, 2009):
1 Cette étape de saisie peut être supervisée ou non par un humain, selon l'application
2 On distingue quatre familles de crêtes : les coupures (interruption, arrêt, dérivation), les
divisions (bifurcation, trifurcation, double bifurcation, embranchement crochet) les anneaux (médian,
latéraux) et les ilots (interruption, arrêt, dérivation). On note que Les bifurcations et les fins de crêtes
permettent la reconstitution de toutes les minuties (Belguechi, 2006).
13
pomme de la main et de la plante du pied). Un prétraitement pour l’amélioration de la
qualité de la donnée acquise peut être effectué avant l’extraction des caractéristiques.
Exception La gestion
Utilisateur Administrateur système
d’exception
Modèle
(Enrôlement)
Contrôleur de qualité
Echantillon Résultat de la
Acquis reconnaissance
Module
Extracteur de Score de
Amélioration Matcher Application
caractéristiques Vecteur décision
caractéristique
« requête »
Figure 4- Composition générale d'un système biométrique (Jain & Nandakumar, 2009)
1 Cas d’identification
2 Cas de la vérification
14
3.3 Evaluation d’un système biométrique :
Du à différents facteurs tels que le changement de positionnement sur le capteur
d'acquisition, les déformations, le bruit …, il est impossible que deux modèles issus de la
même modalité biométrique, dans différentes sessions, coïncident exactement. Ainsi, une
notion de « score », quantifiant la similarité entre deux modèles fut introduite dans les
systèmes biométriques et plusieurs mesures d’évaluation de ces derniers sont prises en
considération.
15
général, Ce score de similarité s est comparé à un seuil d'acceptation « t ». Si « s » est
supérieur ou égal à « t », les deux échantillons comparés sont jugés provenant de la même
personne (appariement avec succès) sinon ils proviennent de deux personnes différentes.
Une « fausse correspondance » (False Match (FM)) : c’est l’erreur commise lorsque
le système accepte un modèle issu d’une personne censée ne pas être reconnue. En
d’autres termes, lorsque le système déclare correspondants deux modèles issus de
deux personnes différentes.
16
D0 : les deux modèles ne coïncident pas. En d’autres termes, la personne n’est pas qui
elle prétend être (identité revendiquée rejetée).
D1 : les deux modèles coïncident. En d’autres termes, la personne est vraiment qui
elle prétend être (identité revendiquée acceptée).
Figure 5-- Distributions des authentiques et des imposteurs (Jain, et al., 2004)
17
Ainsi les taux FMR et FNMR seront calculés comme suit :
18
Le taux de «faux rejet» (false reject rate FRR) : est le pourcentage de transactions
de vérification où le système rejette une personne ayant revendiqué une identité
correcte. En prenant en considération une seule tentative, le FRR est calculé comme
suit : FRR= FTA + FNMR * (1-FTA).
Le taux de «fausse acceptation» (false accept rate FAR) : est le pourcentage de
transactions de vérification où le système accepte une personne ayant revendiqué
une fausse identité. En prenant en considération une seule tentative, le FAR est
calculé comme suit : FAR= FMR * (1-FTA).
Un FRR et un FAR plus général prenant en compte les taux d’échec d’enrôlement
peuvent être définit comme suit : GFRR= FTE+ (1-FTE)* FRR et GFAR= FAR* (1-FTE).
19
Lorsque le système opère en mode authentification, ou en mode watch list on utilise
ce qu’on appelle une courbe ROC (“Receiver Operating Characteristic”). La courbe
ROC trace le taux de rejet correct en fonction du taux de fausse acceptation (1-FNMR
en fonction de FMR, 1-FRR en fonction de FAR ou CIR en fonction de FPIR).
Cependant cette courbe connaît ses limites à partir de certaines valeurs de FRR,
pour cela on utilise une courbe DET (“Detection Error Trade-off ”) qui elle
représente directement le taux de faux rejet en fonction de la fausse acceptation
(FNMR en fonction de FMR, FRR en fonction de FAR, FNIR en fonction de FPIR)
comme le montre la Figure 6-a. Plus cette courbe tend à épouser la forme du repère,
plus le système est performant (c’est-à-dire qu’il possède un taux de reconnaissance
global élevé).
En revanche, dans le cas d’un système utilisé en mode identification, on utilise ce que
l’on appelle une courbe CMC (“Cumulative Match Characteristic”). Cette courbe
donne le pourcentage de personnes reconnues en fonction d’une variable appelée
rang (le CIR en fonction de r). On dit qu’un système reconnaît au rang 1 lorsqu’il
choisit la plus proche image comme résultat de la reconnaissance. On dit qu’un
système reconnaît au rang 2, lorsqu’il choisit, parmi deux images, celle qui
correspond le mieux à l’image d’entrée, etc. On peut donc dire que plus le rang
augmente, plus la reconnaissance est d’un niveau de sécurité plus faible.
Voici une figure montrant des exemples de courbes ROC, DET et CMC :
20
Figure 6- Exemples de courbes d'évaluation de systèmes biométriques (a- courbes DET, b- courbes ROC, c-
courbes CMC)
3.3.5. CONCLUSION :
Nous pouvons remarquer que les termes FAR et FMR ainsi que le FFR et FNMR sont
employés généralement sans distinction. En pratique, FAR et FFR désignent FMR et FNMR
respectivement vu que le FTA n’est généralement pas pris en compte dans les tests des
chercheurs.
21
Figure 7-La courbe DTE: le taux FAR (%) en fonction du taux FRR (%) (Delac & Grgic, 2004)
De nos jours, la biométrie se trouve utiliser dans différents domaines de la vie afin
de fournir un niveau de sécurité plus élevé. Bien qu’elle soit intégrée dans des applications
civil ou commercial, l’application médico-légale dans le cadre de la science criminologique
en reste toujours la source, la base et le plus grand marché à qui elle doit son succès.
Définition de la criminalistique :
La criminalistique et la criminologie:
22
connaissance de ces facteurs et de ces processus, les moyens de lutte les meilleurs pour
contenir et, si possible, réduire ce mal social » [R. Gassin].
La criminalistique n’est pas sans rapport avec la criminologie. D’une part, elle puise
dans cette dernière des données qui l’aident à perfectionner les méthodes d’identification et
de recherche des délinquants. D’autre part, et à l’inverse, la criminologie trouve dans la
criminalistique des renseignements très précieux pour l’étude du crime et des criminels.
Par exemple, la criminologie étudie les criminels identiques grâce à la criminalistique, c’est
surtout le cas pour les récidivistes (Sun, 2001).
CRIMINALISTIQUE:
Dans le cas de l’identification des suspects, des preuves telles que les empreintes
digitales, les traces de morsures, et les échantillons de sang sont collectées des scènes de
crime et utilisées comme base pour confirmer la culpabilité ou l’innocence d’un suspect.
Dans le cas de l’identification des victimes, qui peut être une identification
individuelle ou en masse (celle des victimes de catastrophes), le but est de déterminer
l’identité des victimes en se basant sur les caractéristiques des cadavres. Elle peut être
réalisée par une comparaison et une correspondance des preuves antemortem (AM) et
postmortem (PM). Ces preuves peuvent être circonstancielles ou physiques :
Les preuves physiques quant à elles sont plus fiables. Elles comportent :
23
enregistrements ante-mortem. Les empreintes digitales sont eux aussi
considérées comme preuves externes précieuses.
les preuves internes : l’examen interne (autopsie) est souvent nécessaire pour
déterminer les causes du décès. Une autopsie peut également détecter des
évidences médicales qui peuvent aider dans l’identification telle qu’une
ancienne fracture antérieure, une chirurgie, des organes manquants (par
exemple, l'appendice, rein) ou des implants dentaires.
les preuves dentales : telles que les dents manquantes ou les dents plombées
qui peuvent offrir suffisamment de preuves pour identifier positivement une
victime sans avoir besoin d'informations supplémentaires
Voici un tableau comparant les types des preuves par rapport à leur précision, temps
nécessaire pour l’identification, la disponibilité des données ante-mortem, la robustesse à la
décomposition ainsi que l’importance des mécanismes et les appareils requis pour
l’identification :
Physique
Type de preuve Circonstancielle
Externe Interne génétique Dentale
Précision M H B H H
Temps pris pour l’id. C C L L C
Disponibilité des
enregistrements ante- H M B H M
mortems
Robustesse à la
M B B M H
décomposition
Mécanismes et appareils
B M H H M
requis
Tableau 1- Comparaison entre les types de preuves criminelles (Chen & Jain, 2009)
M : moyen, H : haut, B : bas, C : court, L : long
24
De là, nous pouvons constater que la reconnaissance biométrique comme définie
dans ce premier chapitre peut s’impliquer dans l’identification des cadavres, l’enquête
criminelle ainsi que la détermination de la parentalité entre individus et cela à travers trois
cas techniques types (Champod, 2009) (Dessimoz & Champod, 2009):
Cas2 : Un ensemble de traits biométriques laissés dans des situations et des endroits
d’intérêt pour une enquête est comparé à ceux disponibles issus d’un ensemble référence
de personnes connues (ou déclarées comme telles). C’est le cas, par exemple de traces
d’empreintes digitales ou palmaires ou de chaussures laissées sur les lieux des crimes. Ils
sont comparés à une base de données de criminels ou à une liste de suspects définie par la
police lors d’enquêtes. Dans ce cas, la comparaison se fait entre une donnée biométrique
d’une qualité dégradée et une base de données de haute qualité. Le cas inverse peut avoir
lieu dans le cas d’une comparaison d’une donnée d’un nouvel enregistrement à une base de
traces collectées de crimes non encore résolues.
D’un autre point de vue, Nous pouvons distinguer deux modes généraux de
fonctionnement dans ce domaine (Champod, 2009): le mode investigation (enquête), où les
marques et les traces sont « interrogées » pour fournir des pistes qui peuvent aider à cerner
la recherche, sans faire aucunes références à une source potentielle dès le départ. Les
questions types dans ce mode sont les suivants :
Peut-on relier les incidents criminels à travers les preuves biométriques collectées ?
25
A base des preuves physiques collectées peut-on faire des déductions sur le sexe,
l’âge, l’ethnie, l'appartenance ethnique, ou des apparences physiques sur la
personne dont ces preuves proviennent ?
En comparant ces données biométriques à une base des criminels, est-il possible de
fournir une courte liste de suspects ?
Dans le mode évaluation, les personnes suspectes sont appelées à fournir leurs
données biométriques afin de pouvoir les comparer aux données dont la source est
inconnue.
Figure 8- Schéma général d'un système biométrique criminalistique (Dessimoz & Champod, 2009)
26
connues et aident seulement à designer un suspect sans pouvoir l’accuser officiellement tel
le cas des morsures.
6.1 L’ADN :
L’acide désoxyribonucléique, ou l’ADN est une chaîne de nucléotides contenue dans
le noyau de nos cellules et qui peut être extraite de tous les tissus biologiques (sang, salive,
urine, sperme, cheveux (avec racines), os et des cellules de la peau laissées par contact …)
L’identification à base de l’ADN appelée aussi profilage de l’ADN fut introduite pour la
première fois en médecine légale en 1986 dans ce qu’on a appelé « l’affaire de Pichfork »,
mais cette technique ne prit son ampleur qu’en 1990 où des pratiques importantes
commencèrent à se développer.
Avant l’ADN, les liquides biologiques étaient analysés à travers des méthodes
simples telles que l’analyse du groupe sanguin, de différentes protéines ou enzymes. La
plupart de ces analyses furent vite abandonnées en faveurs du profilage ADN, appelé aussi
empreinte génétique, vu sa haute discrimination et robustesse (Champod, 2009).
L'analyse la plus commune de l'ADN est basée sur les séquences répétées en
tandem courtes, appelées aussi microsatellites ou STR (Short Tandem Repeats) qui ne font
pas partie des portions codant des protéines et qui présentent des caractères distinctifs.
Quand cette analyse d’ADN nucléaire se trouve impossible (généralement à cause de la
dégradation de la qualité de l’échantillon trouvé) une analyse de l’ADN mitochondrial
(contenu dans les mitochondries) peut être réalisée bien qu’elle présente moins de
discrimination. (Champod, 2009)
L’ADN présente une percée majeure dans la criminalistique pour l’identification des
personnes inconnues ou pour déterminer la source des échantillons biologiques laissées
dans les lieux de crime. La simplicité de la constitution des base de donnée des modèles
ADN a permis d’en développer dans la plupart des pays du monde (Champod, 2009). On
note que CODIS (Combined DNA Index System), développé par le FBI et la firme
privée SAIC, est le programme le plus utilisé pour le stockage et la
recherche des profils ADN (Hicks & Coquoz, 2009).
27
6.2 Les caractéristiques dentaires :
Les caractéristiques dentaires sont utilisées principalement dans l’identification des
cadavres et des restes humains dans les cas de personnes disparues ou de catastrophes de
masse. Elles varient des enregistrements dentaires standards (tels que les indications des
dents manquantes, les restaurations, les couronnes…etc.) aux radiographies dentaires (les
contours des dents, les positions relatives des dents adjacentes, les formes des travaux
dentaires). Ces caractéristiques anatomiques se trouvent robustes et montre une assez
bonne variabilité due aux différentes traces et formes laissées par le grand nombre
d’opérations dont les dents peuvent être sujets. Les données alphanumériques extraites de
ces caractéristiques peuvent êtres facilement organisées et stockées dans des bases de
données utilisées sur le plan opérationnel en cas de catastrophes en masse. Cependant,
toutes les tentatives d’utilisation d’intelligence artificielles pour faciliter l’identification
(telle que le «winID system»1et l’ «Odontosearch system»2) se basent sur des codes de
description dentaires extraits et rentrés par des experts humains et aucune procédure
d’extraction ou d’appariement automatiques n’est déjà proposée. (Champod, 2009) (Jain, et
al., 2009)
D’un autre part, la présence de documentations médicales (ex. Images rayon-X) ante-
mortem et leur comparaison avec les documents post-mortem peut être utile dans la
détermination des identités l'identité à travers l'analyse de la morphologie, les
1 http://www.WinID.com
2 http://www.jpac.pacom.mil/CIL/entry.htm
28
fractures, interventions médicales sur les os, et les formes des sinus frontaux. (Champod,
2009)
On note que la pluparts de ces concepts et techniques ne sont pas encore sujet de
recherche pour une automatisation avancée (Champod, 2009).
29
de tous le processus de traitement un peu plus tard dans les années soixante. Plusieurs
systèmes informatiques de comparaison d’empreintes digitales ont été développés dans de
nombreux pays durant la même période. Ces systèmes se basaient en grande partie sur
l’appariement des minuties et extrayient comme modèle leurs coordonnées (x, y), leurs
orientations et parfois les différences en crêtes entres elles. . Leur principal avantage est
leur habilité à couvrir tous les scenarios possibles (comparaison d’une seule empreinte ou
de la carte dix-impression à la base de données entière) (Jain, et al., 2009).
On rappelle qu’un AFIS fournit en principe une liste de meilleurs candidats mais
l’identification n’est complétée que manuellement via un expert (par le biais d'une interface
utilisateur dédiée) (Jain, et al., 2009).
Il est important de noter qu’il y a un grand écart en termes de qualité entre une
photographie bien prise d'une oreille et de son impression sur une porte. De là, la force de
l’évidence varie d'un cas à un autre selon la qualité et l’importance de la marque disponible.
La plupart des publications traitant cette technique étudient le cas de la photographie de
30
l’oreille plutôt que celui des empreintes latentes. Récemment, ce domaine d’identification
est devenu sujet d’une importante initiative de l’European Community à travers le projet
FearID1 qui exploite des approches d’acquisition semi-automatique et essaye de tester
d’autres automatiques.
Elles peuvent être laissées sur la scène de crime ou à l'intérieur des chaussures. Leur
analyse permet, dans le premier cas, de reproduire la séquence des événements et de
designer ou exclure un individu donné d'en être la source. Dans le second, elle peut aider à
déterminer le porteur d’une chaussure donnée .Leur utilisation dans les enquêtes
criminelles est antérieure à celle des empreintes digitales. Ces empreinte plantaires ont
montré une puissance discriminatoire très élevé et permettent, lorsqu’elles sont de qualité
suffisante, d’apporter une preuve puissante au tribunal (Champod, 2009).
C’est les marques faites lorsque la semelle d'une chaussure rentre en contact
avec une surface. En commettant un crime, on ne peut pas éviter de laisser ses marques de
chaussures dans la scène. Avec chaque pas, il y a toujours une sorte d’interaction avec la
surface qui peut être :
- une impression tridimensionnelle créée comme résultat de la pression
exercée sur la surface quand cette dernière est déformable (ex. neige, sable,
terrain…).
- un motif visible (2D) comme résultat de l’échange de matériaux (sang, la
boue, de peinture, et de l'eau) transféré de la semelle à la surface, quand cette
dernière est solide.
On note que les marques de chaussures ne sont pas toujours visibles ou détectables
par la technologie actuelle limitée, mais les chances sont excellentes qu’un grand
nombre d'entre elles le sera. Une étude dans (Alexandre, 1996) suppose que les
impressions de chaussures pourraient être localisées et récupérées des scènes de
crime dans, environ, 35% de cas. Les statistiques de Home Office du Royaume-Uni montrent
que 14,8% des scènes de crime suivies par les enquêteurs en 2004-2005 ont connues la
présence des empreintes de chaussure comme preuve.
1http://artform.hud.ac.uk/projects/fearid/fearid.htm?PHPSESSID = 9c4fd025eec23ee10262d9e
226ff73d0
31
L’utilisation de ces marques dans le cadre criminalistique peut aider à designer un
suspect, construire une perception des faits du crime ainsi qu’à établir le lien entre
plusieurs crimes (en particulier pour les cambriolages).
Elles peuvent être trouvées sur différents substrats (la peau d'une victime, un peu de
nourriture etc.…) et comparées ainsi à l’échantillon référence issu du suspect. Bien qu’elle
soit bien prise en compte par les tribunaux, cette modalité n’est pas un domaine actif des
recherches scientifiques (Champod, 2009). Un état de l’art de cette modalité peut être
trouvé dans (Dorion, 2005).
D’un autre part, on a remarqué la présence des marques de lèvres sur des objets
sujets d’en être en contact dans les scènes de crimes. Ces impression de lèvres ont étaient
démontrées stables et uniques pour chaque individu par Yasuo Tsuchihasi et Kazuo Suzuki
durant leurs études à l’université de Tokyo (Tsuchihasi, 1974). Et la « Cheiloscopy » ou
l’identification dans le cadre médico-légal à base de ces impressions a été proposé par le
professeur J. Kasprzak (Kasprzak, 2001) considéré comme le pionner de cette technique.
L’écriture et la signature :
32
état de l’art sur les principes et les approches utilisées par les experts criminalistiques pour
identifier la source de ces caractéristiques peut être trouve dans (Huber, 1999).
Les experts peuvent se faire une opinion à travers une variété de techniques
utilisées seules ou en combinaison :
33
La reconnaissance faciale : (Jain, et al., 2009) (Bromby, 2009)
La reconnaissance faciale est de plus en plus intégrée dans les enquêtes criminelles
que ca soit dans son cas le plus simple à travers les bases de données des criminels et les
images dessinées selon les descriptions des victimes ou dans son nouveau cas numérique
profitant des vidéos prises par les camera de surveillance. Elle est effectuée, dans ce
domaine à travers des experts spécialistes utilisant des approches basées sur :
34
L’analyse de la démarche : (Lynnerup & Peter K., 2009)
À l'heure actuelle, ces méthodes peuvent être utilisées efficacement pour exclure un
suspect quand les démarches et les mesures anthropométriques du suspect et de l'auteur
sont différentes. Mais leur similarité ne peut être traduite que par le fait que le suspect ne
peut pas être exclu d’être auteur de l’acte.
35
restreinte de candidats potentiels (généralement de 15 à 20), contrairement aux systèmes
biométriques traditionnels qui communiquent leurs conclusions sous forme de décision
binaire («accepté»/«rejetée» ou «identité»/ « non reconnu »).
Dans le cas de la criminalistique les conclusions des experts diffèrent selon les cas et
les circonstances. A titre d’exemple, quand il s’agit d’une comparaison d’empreinte digitale
de source inconnue avec une autre connue, la conclusion des spécialistes peut être : une
individualisation, une exclusion ou une non conclusion. Dans d’autres cas, comme la
reconnaissance faciale ou vocale d’autres conclusions probabilistes peuvent être aussi
prises en compte en faveur ou contre l'identité tels que: possible, probable ou très probable.
Pour cette raison, les types d’erreurs biométriques habituelles (FMR et FNMR) qui
constituent la base des mesures traditionnelles telles que les courbes ROC et DET
connaissent leurs limites dans ce domaine. Pour cela, une notion complémentaire appelée
LR (Likelihood Ratio), une mesure statistiques offrant une présentation équilibrée de la
force de la preuve a été introduite. Elle est particulièrement adaptée pour évaluer la
contribution des constatations médico-légales d'une manière équitable et équilibrée.
LR = P (E | S, I) / P (E | ¯S, I)
Où:
E : résultat de la comparaison (une mesure de similarité telle que le score) entre les
données biométriques de la source inconnue et celles de la source présumée.
S : La source présumée est vraiment la source de données biométriques inconnues
observées (également connu sous le nom de l’hypothèse –proposition- d’accusation).
¯S: La vraie source de données inconnues observées est quelqu’un d’autre dans la
population de donateurs potentiels de référence (également le nom de l’hypothèse –
proposition- de la défense).
I : Des informations générales pertinentes sur l'affaire comme des informations sur
la sélection de la source présumée et la nature de la population concernée.
36
courbe appelée courbe Tippett. Elles permettent de définir deux taux de résultats
trompeurs qui présentent des mesures d’efficacité assez intéressantes dans le domaine:
37
- Les objets et les positions limités que peut toucher ou prendre le criminel
durant la commission de son crime.
En principe cette variation de sélectivité est présente dans toutes les applications de
la biométrie mais les scenarios criminalistiques tendent à la maximiser.
Dans une reconnaissance biométrique civile le seul type de comparaison existant est
celui entre deux modèles de même degré de sélectivité, en d’autres termes de même niveau
de qualité. Ce dernier tend à être idéal et contrôlé grâce à un niveau acceptable de
coopération dans la plupart des ces cas.
En plus de la comparaison entre des modèles de qualité similaire (qu’elle soit idéale
dans le cas d’identification de victimes (cas1) ou mauvaise comme dans le cas de linkage
entre les preuves (cas 3)), il existe dans la reconnaissance criminalistique, une comparaison
entre des modèles de qualité complètement divergentes. C’est le cas de la reconnaissance
des marques et traces trouvées dans les lieux de crimes (cas 2) qui sont généralement d’une
qualité mauvaise (voir la Figure 8). Elles présentent dans la plupart des temps une partie
partielle non complète et difficile à orienter de la caractéristique biométrique. Ces marques
sont comparées aux modèles de référence dans les bases de données des criminels qui sont
de leurs parts d’une haute qualité.
Cette divergence de qualité entre les modèles comparés exige une méthodologie et
des approches de comparaison différentes de celle appliquées lors d’une reconnaissance
traditionnelle.
D’un autre part, nous pouvons remarquer que la plupart des systèmes opérationnels
dans ce domaine sont semi-automatique. L’automatisation dans ce domaine reste toujours
limitée aux cas d’empreinte digitales.
38
8. ACCEPTATION JURIDIQUE DES TECHNIQUES BIOMETRIQUES :
Il est évident que la criminalistique peut emprunter les fruits des sciences de tout
genre à tout moment. Bien entendu, dès que des techniques deviennent un des moyens de la
criminalistique, elles sont soumises à l’exigence de la légalité et de l’impartialité et doivent
être pratiquées en suivant une procédure strictement réglementée (Munagorri, 1999).
La norme Frye a été révisée suite à une décision de la cour suprême américaine dans
l’arrêt de Daubert (1993)1 qui a donné une interprétation de la règle fédérale de la preuve
(FRE : Federal Rule of Evidence). La nouvelle norme appelée norme de Daubert exige que le
juge agit toujours en tant que gardien, désormais, non seulement de la pertinence de
l'expertise scientifique au regard des faits de l'espèce, mais aussi de sa fiabilité. Ainsi, et
afin de mettre en œuvre la règle de preuve, les juges fédéraux doivent exercer une
évaluation préliminaire pour déterminer si le raisonnement ou la méthodologie qui sert de
base au témoignage est scientifiquement valide et peut être appliquée aux faits de la
cause (Munagorri, 1999). Cette évaluation comprend cinq critères (Munagorri,
1999) (Champod, 2009):
destiné à éviter les nausées pendant la grossesse (la Bendictine) fabriquée par les laboratoires Merrell
Dow Pharmaceuticals était à l'origine de malformations à la naissance.
39
suprême adopte la conception prônée par le philosophe des sciences Sir Karl
Popper: « Le critère du statut scientifique d'une théorie est sa réfutabilité, c'est-
à-dire son aptitude à se soumettre à une expérience scientifique susceptible
d'un résultat positif ou négatif » (Munagorri, 1999).
la technique ou la théorie a-t-elle fait l'objet d'une publication dans une revue
par les pairs. La Cour ajoute que la publication n'est pas une condition sine
qua non de la recevabilité. Mais le simple fait d'avoir été soumis à la critique
par le jeu des évaluations internes à la communauté scientifique est un gage de
la fiabilité de l'expertise.
Le taux d'erreur (connu ou potentiel) de la technique ou de la théorie lors de son
application doit être considéré par les juges.
L'existence et le maintien de normes et de contrôles.
La technique de la théorie a été généralement acceptée dans la communauté
scientifique. Ce qui correspond au critère de Frey d’acceptation générale.
40
9. CONCLUSION:
41
CHAPITRE 2: L’EMPREINTE PALMAIRE ET LES
APPROCHES DE RECONNAISSANCE
Comme nous l’avons cité dans le chapitre précédent, l’empreinte palmaire est une
des techniques de reconnaissance biométrique les plus utilisées en criminalistique. Son
importance est due à son taux de présence élevé sur les scènes de crime. Les spécialistes
assurent que 30 % des évidences collectées proviennent de la paume de la main sous forme
d’empreintes latentes souvent partielles (Laadjel, et al., 2010). Ainsi, la reconnaissance de
ces dernières joue un rôle important dans les enquêtes criminelles.
42
1. L’EMPREINTE PALMAIRE « VUE GENERALE »:
1.1 Définition :
On appelle paume de la main la partie intérieure de la main (partie non visible lorsque
la main est fermée) du poignet aux racines des doigts, comme le montre la Figure 10. Ainsi,
l’empreinte palmaire n’est autre que l’impression (image) de la paume de la main faite par la
pression de cette dernière sur une surface donnée. En d’autres termes, elle peut être définie
comme étant le modèle de la paume de la main illustrant les caractéristiques physiques du
motif de sa peau tel que les lignes (principales et rides), points, minutie et texture (Kumar, et
al., 2009).
Une identification palmaire peut être vue comme étant l’aptitude d’identifier une
personne parmi d’autres d’une manière unique à travers un algorithme approprié exploitant
les caractéristiques de l’empreinte palmaire (Kumar, et al., 2009).
43
La présence de crêtes élevées (raised ridges).
Un épiderme plus épais (ex. l’épaisseur de l’épiderme de la paume de la main est
de 0,8 mm alors qu’elle est de 0,07 à 0,12 pour le reste du corps) et de structure
plus complexe.
Une capacité sensorielle accrue.
L’absence de cheveux et de poils.
L’absence de glandes sébacées.
Dans de nombreux cas à travers l'histoire, l'examen des empreintes de la main a été la
seule méthode pour distinguer deux personnes illettrées ne sachant pas écrire leur propre
nom. Ainsi, l’impression par encre de la main sur le dos d'un contrat était une forme
d'identification acceptable. En 1858, Sir William Herschel, travaillant pour la fonction publique
de l'Inde, a utilisé cette méthode pour distinguer les employés de ceux qui prétendent l’être
lors de la distribution des salaires. Ce fut les premières captures enregistrées d’images de la
main et des doigts prises uniformément à des fins d'identification (NSTC, 2006).
Le premier système AFIS connu supportant les empreintes palmaires a été construit
par une société hongroise. À la fin de l’année 1994, des experts des États-Unis élaborèrent des
tests sur ce système palmaire et invitèrent la compagnie hongroise à participer à la conférence
de l'Association internationale pour l'identification (IAI). Cette technologie d’identification par
paume de la main et par empreintes digitales intégrée dans le système palmaire fut ensuite
achetée par une société américaine en 1997 (NSTC, 2006).
En 2004, le Connecticut, Rhode Island et la Californie, 3 états américains ont établi des
bases de données d'empreintes palmaires, qui ont permis aux organismes d'application de la
44
loi (law enforcement agencies) de soumettre les empreintes palmaires latentes non déjà
identifiées. L'Australie abrite actuellement le plus grand dépôt d’empreintes palmaires dans le
monde. Le nouveau système national australien d’identification automatique des empreintes
digitales (NAFIS) comprend 4,8 millions empreintes palmaires (NSTC, 2006).
À la suite de cette adhésion et aux changements des besoins des entreprises pour
l'application des lois, le FBI a annoncé la prochaine génération d’IAFIS (NGI) initiative. Une
composante majeure de l'initiative NGI est le développement de besoins et le déploiement d'un
service national intégré d’empreintes palmaires. Les organismes d'application de la loi
indiquent qu'au moins 30 pour cent des empreintes relevées des scènes de crime - à partir de
poignées de couteau, de poignées de pistolet, de volants, de vitres des fenêtres - sont des
empreintes palmaires et non pas digitales. Pour cette raison, la capture et la numérisation de
ces empreintes devient un domaine d'intérêt croissant pour ces organismes (NSTC, 2006).
TYPES DE RECONNAISSANCE :
45
L’empreinte palmaire est caractérisée par trois plis de flexion, dites lignes principales:
la ligne de tête, la ligne de vie et celle du cœur. La Figure 11 montre les différents plis de la
paume.
Ces plis ne varient que peu à travers le temps. Ils sont faciles à extraire par des
algorithmes de détection de contour. Leur positionnement et leur forme sont importants pour
la reconnaissance. Mais ils sont génétiquement liés (2 jumeaux ont la même forme de plis de
flexion) et restent peu distinctifs. Ainsi, seuls, ils ne peuvent pas fournir une information
suffisante pour une reconnaissance efficace.
Figure 12- Empreintes différentes avec des lignes principales similaires (Panigraphy, et al., 2008)
L’empreinte palmaire contient de nombreux autres plis qui diffèrent de ceux de flexion
du fait qu’ils sont plus minces et plus irréguliers. Certains d’entres eux sont congénitaux,
d’autres sont dus aux activités musculaires. Les lignes principales et les rides peuvent être
observées facilement sur les images capturées à basse résolution. Comme les lignes principales
seules ne fournissent pas une information distinctive suffisante, les rides jouent un rôle
important dans la reconnaissance palmaire. Combinées aux lignes principales, elles fournissent
une information distinctive pour la reconnaissance.
46
Les points représentant les deux extrémités de la paume de la main sont appelés point
de références. Ce sont les points a et b dans la Figure 13.
Les crêtes papillaires sont des épaississements permanents de l'épiderme (la couche
cellulaire extérieure de la peau). Elles se trouvent sur la face antérieure de la main (paume et
doigts) ainsi que sur la plante du pied. Ce sont des surfaces représentant les zones principales
de préhension et d’appui, simulant les bandes de roulement sur un pneu d'automobile. Elles
sont élevées au-dessus du niveau général de la peau dans des formes parallèles droites ou en
séries de courbes. Ces crêtes permettent de distinguer différents types de points pouvant être
considérés comme caractéristiques palmaires :
Les minuties :
Une minutie, appelée également point singulier local, est un point qui se situe sur un
changement de continuité des crêtes papillaires. On distingue quatre familles de minuties,
illustrées dans la Figure 14: les coupures (interruption, arrêt, dérivation), les divisions
(bifurcation, trifurcation, double bifurcation, embranchement crochet), les anneaux (médians,
latéraux) et les ilots (interruption, arrêt, dérivation). On note que Les bifurcations et les fins de
crêtes suffisent seules à la reconstitution de toutes les minuties.
47
Figure 14- Exemples de quatre familles de minuties (Belguechi, 2006)
On distingue deux types de points singuliers considérés comme globaux. Le premier est
le point centre, appelé aussi point core, qui est le lieu de courbure maximale des lignes
d’empreinte les plus internes. Le deuxième englobe les deltas qui sont proches du lieu où se
séparent deux lignes d’empreintes vérifiant les propriétés suivantes : ces lignes se séparent
suivant deux directions orthogonales et sont les lignes les plus internes vérifiant la propriété
précédente (se séparer suivant deux directions orthogonales). La Figure 15 montre un exemple
de point core et de point delta.
48
Figure 16- les caractéristiques d'une empreinte palmaire (a- image haute résolution, b- image basse résolution)
(Zhang, 2004)
Nous avons résumée, à travers le Tableau 2, les spécificités et les applications de chaque
type (Kong, 2007) (Konuk, 2007) (NSTC, 2006):
Approches
haute Approches Basse résolution
résolution
Résolution
≥400 dpi ≤150 dpi
requise
les minuties et ≥75 dpi Lignes principales1
Caractéristiques
les points ≥100 dpi Les rides
extraites
singuliers ≥125 dpi La texture (la plus appropriée)
Types Civiles et commerciales
Médico-légales
d’applications (ex. control d’accès temps réel)
Hors ligne En ligne
Type d’acquisition
Indirecte Directe
- Traditionnellement, un capteur (capacitif, optique,
ultrason, thermique)
Méthodes Par encre ou
- Récemment, les chercheurs utilisent 4 types de
d’acquisition latente
capteurs : les scanners CCD, les camera numériques,
les scanners et les cameras-vidéo numériques
Tableau 2- Tableau récapitulatif des approches de reconnaissance selon la résolution
Comme le montre le Tableau 2, les approches haute résolution sont des approches
utilisant des images de 400 dpi ou plus. Elles sont adaptées aux applications plutôt médico-
1 L’analyse des lignes principales se trouve un sujet intéressant pour une pré-classification de la BDD
en différentes catégories comme dans (Wu, et al., 2004) qui subdivise les modèles en 6 catégories ou comme
dans (Fang, et al., 2004) qui reprend le travail et divise une des catégories en 5 autres
49
légales telles que l’identification des criminels où la reconnaissance se fait hors ligne
(acquisition d’image par encre ou utilisation d’empreintes latentes). Bien qu’elles permettent
d’observer et d’extraire toutes les caractéristiques, les minuties et les points singuliers sont les
plus intéressantes dans la reconnaissance haute résolution. Les approches basse résolution
emploient des images de résolution de 150 dpi ou moins. Elles sont plutôt adaptées aux
applications civiles et commerciales, telles que le contrôle d'accès et l’authentification temps
réel où la reconnaissance se fait en ligne. Ces approches se basent généralement sur les
caractéristiques des lignes : les lignes principales1, les rides ainsi que la texture (les minuties et
les points singuliers ne sont pas observés sur ce type d’image)
1L’analyse des lignes principales se trouve un sujet intéressant pour une pré-classification de la BDD
de référence en différentes catégories comme dans (Wu, et al., 2004) qui subdivise les modèles en 6
catégories ou comme dans (Fang, et al., 2004) qui reprend le travail et divise une des catégories en 5 autres
2 Le terme classification est souvent utilisé pour designer le processus de correspondance dans le cas
de l’identification surtout
50
4.1 Acquisition d’image (la capture d’image):
L’image d’une empreinte peut être acquise par des procédés directs (online) ou
indirects (offline). Les premiers sont employés dans le cas de la reconnaissance basse
résolution. Contrairement aux deuxièmes qui sont employés dans celle haute.
L’image d’une empreinte acquise par des procédés indirects, l’est par le biais d’un objet
intermédiaire (Belguechi, 2006) :
L’empreinte acquise par encre: après l’avoir enduite d’encre, la paume de la main
est imprimée sur du papier. Cette ancienne technique a perduré pendant environ un
siècle et a été couramment utilisée dans les phases d’enrôlement. L’image ainsi
prise présente de larges crêtes mais souffre d’une grande déformation due à la
nature du processus d’acquisition.
Les empreintes latentes : elles sont formées suite à une légère trace laissée sur un
objet due à la sécrétion constante de la sueur. Les services de sécurité décèlent ce
type de détails sur les lieux de crime à l’aide d’une poudre spéciale.
Dans le cas des procédés directs, l’image est acquise moyennant un capteur. Une variété
de types de capteurs (capacitifs, optiques, ultrasons, et thermique) ont été développés pour
l’acquisition d’empreintes digitales. Bien que ces capteurs puissent être utilisés pour la capture
de l'image numérique de la surface de paume, leurs méthodologies de captures traditionnelles1
s'adaptent mal aux zones de capture large des empreintes palmaires. La haute définition dans
l’acquisition de l’empreinte palmaire n'étant toujours pas atteinte, elle reste un défit à relever
par les chercheurs (NSTC, 2006).
1 L’une des approches les plus courantes, employant un capteur capacitif, détermine chaque valeur
de pixel à la base de sa capacité mesurée. Ceci s’est rendu possible vu qu’une zone d'air (la vallée) a une
capacité nettement inférieure à une superficie de palme (crête). ). D’autres capteurs détectent les images en
utilisant des ultrasons à haute fréquence ou des dispositifs optiques qui emploient des prismes pour détecter
le changement dans la réflexion de la lumière lié à la peau. Les scanners thermiques quant à eux bénéficient
de la différence de température au fil du temps pour créer une image numérique (NSTC, 2006)
51
numériques et les caméras vidéo numériques. La Figure 18 montre un scanner d'empreintes
palmaires CCD développé par l'Université polytechnique de Hong Kong (Kong, 2007).
De manière générale, les scanners d'empreintes palmaires CCD capturent des images
de haute qualité et les alignent avec précision puisqu’ils possèdent des broches pour guider le
placement des mains. Cependant, ils ne sont pas adéquats pour une reconnaissance temps réel
vu le temps de balayage nécessaire assez long (Kong, 2007). La Figure 19 montre
l’amélioration apportée par un scanner CCD par rapport à un scanner numérique classique.
D’autre part, les appareils photo numériques et les caméras vidéo sont deux autres façons de
recueillir des images d'empreintes palmaires sans contact (Kong, 2007).
Etape 1: Binarisation de l’image (Voir Figure 20- passage de (a) vers (b)).
Application d'un filtre passe-bas à l’image originale. Cette dernière est convertie en une
image binaire en utilisant un seuil Tp afin de simplifier le traitement de l’image par la
suite. Mathématiquement, cette transformation peut être représentée comme suit :
52
Où O (x, y) et B (x, y) sont l’image originale et binaire, respectivement, L (x, y) peut être
n'importe quel filtre passe-bas, ( ex : filtre gaussien), et "*" représente l'opérateur de
convolution (Panigraphy, et al., 2008).
Etape 2 : Détection du contour de la main ou/et des doigts (Voir Figure 20- passage
de b vers c).
Etape 3 : Détection des points clés. Elle peut être implémentée de différentes
manières, dont l’approche à base de la tangente dans (Zhang, et al., 2003), celle à
base des ondelettes ainsi que celle à base de la bissectrice (Kong, 2007) (Voir
Figure 20- d).
Etape 4 : Etablissement du système de coordonnées moyennant les points clé. (Voir
Figure 20- e).
Etape 5 : Extraction de la partie centrale (région d’intérêt ROI1) ; après avoir établi
le système de coordonnés, la partie centrale est segmentée. La plupart des
algorithmes proposés extrait cette partie sous forme d’un carré tandis que certains
ont utilisé une forme circulaire ou la moitié d’une ellipse (Kong, 2007) (Voir Figure
20- f, RIO extraite dans (g))
Dans certains algorithmes, une correction de l'éclairage non uniforme est réalisée pour
améliorer la texture d'empreintes palmaires (Chen & Moon, 2008) (Voir Figure 20- h)
Le processus présenté ci-dessus est la base des prétraitements dans la plupart des
travaux de recherche (ex. : (Kong, et al., 2003), (Laadjel, et al., 2009), (Chen & Moon, 2008),
(Zhang, et al., 2007) et (Qu & Wang, 2010)). C’est le processus utilisé généralement dans la
reconnaissance basse résolution. Cependant, peu de travaux étudient des empreintes
1 Region Of Interest
53
complètes haute-résolution et exploitent ainsi ses caractéristiques telles que les points de
référence (datum point). Ces derniers sont exploités dans (Zhang & Shu, 1999)1 comme points
clés (déterminer à travers des projections directionnelles) pour tracer le système de
coordonnées, illustré dans la Figure 21-a. Ils sont utilisés par la suite dans le processus
d’extraction de caractéristiques (sans extraire de ROI). Li, quant à lui, dans (Li, et al., 2003)2 se
base sur des caractéristiques qu’il juge invariantes (orientation de la borne extérieure de la
paume de la main et le point final de la ligne de cœur, illustrés dans la Figure 21-b) pour
aligner les empreintes palmaires.
Figure 21- Exemples d'idées pour le prétraitement des empreintes palmaires haute-résolution : (a) à
base de points de références (Zhang & Shu, 1999) ; (b) à base de caractéristiques invariantes (Li, et al., 2003)
Une fois l’ensemble des caractéristiques défini, on peut l’utiliser pour représenter
l’image. L’identification se fait, par la suite, par une méthode de classification qui va comparer
cet ensemble de caractéristiques avec des enregistrements de références existants dans la base
de données spécifique et ainsi trouver la classe à laquelle appartient cette image
54
sous forme de matrice ou de vecteur à une ou plusieurs dimensions, les méthodes de
comparaison géométriques classiques entre les vecteurs (la distance euclidienne la mesure de
cosinus, la distance euclidienne de poids, et la distance de Hamming) restent les plus utilisées
(comme dans (Madasu, et al., 2009), (Wu, et al., 2002), (Zhang, 2004), (Lu, et al., 2003) , (Wu, et
al., 2002) ) .
On note qu’il existe plusieurs travaux visant à introduire des concepts de classification
plus évolués tels que les réseaux de neurone (Shanga, et al., 2006), Séparateurs à Vaste Marge
(SVM) (Boukhari & Benyettou, 2008) ou les chaines de Markov cachés (X. Wu, 2004). De même
que des travaux sur la conception de distances spécifiques à la reconnaissance palmaire telle
que la distance bit-a bit angulaire (Kong, 2007).
Dans ce qui va suivre (le paragraphe 5), nous détaillons plus ces deux dernières phases.
COMPLETES :
55
& Shu, 1999), Zhang se base sur l’observation que les lignes principales sont d’une flexion
assez réduite de sorte qu’elles peuvent être représentées par des petits segments droits. Il
applique des filtres de convolution directionnels améliorés pour les extraire tout en éliminant
ceux courts ou superposés, les représente par leurs points de fin et finit par appliquer un
appariement par une simple distance euclidienne pour la reconnaissance finale. Il renfonce
cette méthode dans (Zhang, et al., 2001) par une première phase de classification qui classe les
empreintes dans 6 catégories déterminées selon le nombre de points singuliers détectées –à
base de l’orientation des crêtes- dans la partie extérieure de la paume de la main. Une autre
approche plutôt multi-caractéristique combinant des caractéristiques globales et locales est
proposée par son équipe dans (Youa, et al., 2002). Elle consiste, dans un premier lieu, à
appliquer une approche statistique globale calculant l’énergie globale de la texture (GTE) –sur
les 4 directions- pour déterminer un ensemble de candidats éventuels. Une deuxième phase
plus fine se trouve nécessaire pour la reconnaissance. Elle est réalisée à travers une approche
structurelle qui extrait des points d’intérêt représentatifs, distinctifs et robustes au bruit par
l’operateur de Plessey1 pour les apparier, par la suite, d’une manière hiérarchique en
résolution par la distance de Hausdorff.
Durant la même année 2002, mais dans le but d’améliorer la discrimination fournie par
l’empreinte digitale, Duta propose dans (Duta, et al., 2002) l’extraction de points
caractéristiques étendus sur les lignes proéminantes plutôt que d’extraire ces lignes
explicitement (comme le fait Zhang). Il part de la supposition que c’est plus rapide à extraire de
même qu’il n’est pas nécessaire de considérer la connectivité entre les points pour un
appariement correcte. Il se contente d’attribuer à chaque point l’orientation de la ligne dont il
découle. Afin de prendre en charge le problème d’alignement durant l’appariement, Duta
développe son propre algorithme d’appariement.
A travers nos lectures, nous avons pu constater que cet axe de recherche a été presque
abandonné durant la dernière décennie. Ceci revient principalement au besoin du marché qui
privilège la basse-résolution pour une acquisition moins coûteuse et un traitement plus rapide.
La haute précision est laissée au domaine criminalistique qui n’exploite pas une empreinte
complète mais une partielle. Seul Jain reprend le sujet avant d’aborder la reconnaissance des
empreintes latentes partielles dans (Jain & Demirkus, 2008) en 2008. Il s’inspire de l’empreinte
digitale et considère celle palmaire comme un ensemble de crêtes où les plis constituent le
1Un des détecteurs de points d’intérêt connus (ex. d’autres détecteurs : Moravec, Harris ..)
56
bruit. Il leur applique un extracteur de minuties commercial1 VeriFinger et élimine les fausses
minuties2 à base d’une carte de plis3. L’appariement est aussi effectué par VeriFinger après
l’adaptation4 de l’empreinte en entrée.
On note qu’il existe une tendance dans les derniers travaux à traiter les empreintes
palmaires prises sans contact qu’elles soient acquises par une webcam ou parues dans une
séquence vidéo. Ce genre de travaux de recherche focalise sur la phase de prétraitement afin
de segmenter la main et en extraire la région d’intérêt (RIO) avant d’appliquer une des
approches de reconnaissance basse-résolution. Pour se faire, on profite de la forme de la main
ainsi que la couleur de la peau. A titre d’exemple, dans (Doublet, et al., 2007) et (Doublet, et al.,
2007) , les auteurs effectuent cette tâche à travers un outil d’apprentissage (réseau de
sur une pyramide d’échelle de l’empreinte (par downsampling) après élimination de bruit (crêtes dans ce
cas) par une gaussienne de lissage. Cette convolution est suivie par une application d’une transformée de
Ridon pour connecter les lignes de segments.
4 Par alignement à base du point début de la ligne du cœur et la division d’empreinte en 5 régions et
57
neurone) pour différencier les pixels appartenant à la peau de ceux du background. Rafael
pour sa part, dans (Kozik & Chora, 2010) , se contente d’un simple processus de seuillage des
couleurs RGB. Contrairement à Goh dans (Goh Kah Ong Michael, 2008) qui modélise les
couleurs de la peau par une distribution gaussienne dans l’espace chromatique de couleurs
avant d’appliquer son seuillage. Dans le même cadre (sans contact), d’autres travaux tels que
(Methani & Namboodiri, 2010) exploitent la séquence vidéo pour extraire plusieurs images de
la même empreinte et combinent les informations issues de chacune pour améliorer le contenu
de l’échantillon.
Dans ce qui suit nous allons présenter d’une manière globale les différentes catégories
d’approches basse-résolution citées ci-dessus en signalant leurs avantages et inconvénients.
Cette présentation est inspirée des lectures de quelques Surveys (Kong, et al., 2009)
(Krishneswari & Arumugam, 2010), thèses (Kong, 2007) (Laadjel, 2009) et articles dans le
domaine ( (Zhang, 2004), (Lu, et al., 2003) (Wu, et al., 2003) (Laadjel, et al., 2009) (Laadjel, et
al., 2008) (Caimao, et al., 2010) (Connie, et al., 2005), (Wu, et al., 2002) (Chen & Moon, 2008) (J.
You, 2004)).
Représentation :
Les lignes détectées peuvent être appariées directement ou représentées dans une
autre forme comme le montre la Figure 22 (a-image matrice où les pixels appartenant à des
lignes ont une valeur de 1, 0 sinon, b- un vecteur de magnitudes, c- un vecteurs où chaque
entrée définit les point de fin des segments) :
58
Figure 22- Exemples de représentation de lignes extraites
Les lignes principales détectées seules ne sont pas distinctives. Elles peuvent être
utilisées pour subdiviser la BDD en différentes catégories comme dans (Wu, et al., 2004) qui
subdivise les modèles en 6 catégories ou comme dans (Fang, et al., 2004) qui reprend le travail
et divise une des catégories en 5 autres.
Appariement :
Les avantages :
Elles ne nécessitent pas une résolution élevée (résolution nécessaire assez basse).
Elles ne perdent pas les informations structurales.
Avec les rides, les lignes principales présentent une méthode précise et performante pour
distinguer les individus (caractérise d’une manière exacte l’empreinte).
Les inconvénients :
59
5.2.2. LES APPROCHES STATISTIQUES1:
Les approches statistiques sont les approches les plus étudiées dans le domaine
d’extraction de caractéristiques et de reconnaissance des modèles.
Types et représentation :
Figure 23- Exemple de vecteur caractéristique dans le cas d''une approches statistiques locale
On peut avoir un ou plusieurs vecteurs selon le nombre de calculs utilisés. Ces vecteurs
peuvent être utilisés dans le même appariement ou dans un appariement hiérarchique.
Dans la Figure 24, des calculs statistiques sont appliqués sur des régions décomposées
par rayon (en rouge) ex. la somme des énergies des pixels dont la distance au centre est entre 0
1 Plusieurs articles parlent d’approches basées sur la texture comme catégorie séparée. Dans ce
rapport, nous avons considéré ces approches comme sorte d’approches statistiques. De même, les approches
de codage peuvent être vues ainsi.
60
et 10 pixels. D’autres calculs sont appliqués sur des régions décomposées par orientation (en
bleu) ex. la somme des énergies des pixels dont l’orientation est entre 0 et 10 degrés.
Globales : dans ces approches, des statistiques globales sont appliquées sur l’ensemble de
l’image telles que le centre de gravité, la densité. Ces statistiques sont utilisées plutôt dans
un cadre hiérarchique combinée à d’autres caractéristiques. Elles peuvent aussi être
utilisées dans le cadre d’une indexation des bases de données.
Appariement
Les méthodes utilisées pour l’appariement sont généralement les distances. Dans
quelques travaux les réseaux de neurones ont été utilisés (comme dans (Yang & Wang, 2010)).
Les avantages :
Ce sont des approches répandues dans l’analyse de texture. Ainsi plusieurs de ces
méthodes peuvent être exploitées.
Les caractéristiques statistiques sont faciles à extraire, représenter, et à apparier.
Les inconvénients :
61
5.2.3. LES APPROCHES BASEES SOUS ESPACE, PROJECTION :
Une Image Matrice I (M, N) étant vue comme un individu dans l’espace a M*N
dimension Xi (a1, a2, a3, a4, …. anm) on désire réduire sa dimension et pouvoir l’écrire comme Yi
(b1, b2, b3, b4, …, bc) avec c< mn. Cette réduction a comme but une représentation plus compacte
de l’image pour faciliter son appariement par la suite.
la même classe)
Dans ces approches, une phase d’apprentissage sur une base de données test est
nécessaire pour construire la matrice de transformation.
62
Les approches les plus utilisées sont Eigen Palm et FisherPalm. Cette dernière basée sur
la FLD ( Fisher’s Linear Discriminant ) est la meilleure en termes de capacité de classification
(Wu, et al., 2003).
Une combinaison de ces méthodes peut être efficace (Wu, et al., 2003) (Connie, et al.,
2003), elle se fait à travers une hybridation séquentielle (Dans le cas de la FLD elle peut même
être obligatoire pour éviter le problème de la singularité). Cette hybridation peut être de
plusieurs formes :
K-tranform + FLD
PCA + FLD
PPL + FLD
ICA + PCA
L’utilisation d’un filtre de Gabor comme première étape améliore la robustesse des
caractéristiques extraites envers les variations d’illumination (Laadjel, et al., 2008). Un filtre de
Gabor augmente la dimension du premier vecteur de caractéristiques et il s’avère nécessaire
d’appliquer une première projection avant l’apprentissage. (Dans (Laadjel, et al., 2008), le filtre
de Gabor était appliqué avant l’application de la FLD. Ceci a nécessite l’application d’une
première étape de réduction de dimension par PCA).
Remarque : le vecteur caractéristique est d’une dimension < c dans le cas de Fisher ( c
étant nombre de classe ).
Appariement :
Les distances sont les méthodes les plus utilisées pour l’appariement. Cependant, les
réseaux de neurones ou la Machine à vecteurs de support (SVM) peuvent être utilisés.
Les avantages :
Des approches répandues dans l’analyse de texture. Ainsi, plusieurs méthodes existantes
peuvent être utilisées
Des approches très prometteuses en termes d’efficacité.
Dans le cas de Fisher, une notion de meilleure classification est tenue en compte d’avance.
63
Les inconvénients :
Comme le montre la figure suivante (Figure 25), ce type d’approche repose sur la fusion
entre les scores issus de plusieurs approches profitant chacune d’un type de caractéristiques :
PCA Score A
Produit
Lignes Score B
Somme
Gabor Score C
Fusion et décision
Figure 25- Le schéma d’un module de fusion et décision de scores utilisé dans (Kumar & Zhang,
2005)(- Schéma illustratif des approches multi-caractéristiques à base de fusion des scores)
64
la suite, une approche plus fine, exploitant des informations plus spécifiques et plus détaillées
est appliquées afin de déterminer la décision finale.
Template
Approche1
Vecteur caractéristique
Décision
6. CONCLUSION :
Dans les approches structurelles à base des lignes, les caractéristiques extraites sont des
lignes représentées par leurs points de fin. La phase d’appariement calcule la distance
entre ces caractéristiques en fonction de leur localisation. Cette dernière devient
impossible dans le cas d’une empreinte partielle où seule une partie non alignée est
disponible. Ceci nécessite une recherche sur tous les alignements possibles qui est une
tâche très complexe.
65
Dans les approches statistiques, les blocs sur lesquelles sont appliqués les calculs
statistiques sont ordonnés et définis à base de leurs localisations qui devient elle aussi
impossible dans le cas d’empreinte partielle.
66
CHAPITRE 3 : LA RECONNAISSANCE PALMAIRE
DANS LE DOMAINE CRIMINALISTIQUE
Cette reconnaissance présente un défit pour les chercheurs du fait que ces
empreintes soient d’une qualité dégradée, ne couvrent qu’une partie de la surface de la
paume de la main, de plus qu’elles possèdent un background complexe (Jain & Feng, 2009).
Ces spécificités rendent impossibles l’application des approches usuelles, dont le concept se
base sur la complétude de l’empreinte (une comparaison full-to-full). Cependant, la
reconnaissance d’empreinte digitale, et à travers sa riche bibliographie, et par sa
ressemblance à celle palmaire, a attiré l’attention des chercheurs pour s’en inspirer et en
profiter dans leurs travaux sur la reconnaissance palmaire partielle.
67
1. ETAT DE L’ART DE RECONNAISSANCE D ’EMPREINTES DIGITALES :
Suite à nos différentes lecture (en particulier (Maltoni, et al., 2009)), nous avons pu
classifier les approches existantes dans la littérature de la reconnaissance biométrique par
empreinte digitale dans les catégories illustrées dans la Figure 27.
Dans ce qui va suivre, nous allons expliquer brièvement ces trois catégories
d’approches :
68
Figure 27- Taxonomie des différentes catégories d’approches de reconnaissance d’empreinte
digitale
69
1.1 Les approches à base d’intensité (par corrélation) :
Dans ces approches, les empreintes sont représentées sous forme d’images, plus
précisément matrices d’intensité de pixels. Il n’y pas de vraie extraction de vecteur
caractéristique. Le concept général de ces approches consiste à superposer deux images
d’empreinte et calculer les corrélations entre leurs pixels pour les différents alignements
possibles (voir Figure 28). La mesure intuitive de similarité est celle de la somme des
différences carrées entre les intensités des pixels (SSD (T, I)=||T-I||2= (T-I)t (T-I)= ||T||2+
||I||2- 2TtI ) qui est minimale quand la corrélation croisée (CC (T,I)= TtI) est maximale. Due
aux facteurs de déplacement et de la rotation, la mesure de similarité devient ainsi : S(T,I)=
Max Δx, Δy,ϴ CC(T, I(Δx, Δy,ϴ)).
Figure 28- Exemple de corrélation entre deux empreintes digitales. (c) est le resultat de la
corrélation entre (a) et (b).
1 Une corrélation dans le domaine spatial est équivalente à une multiplication dans le domaine
fréquentiel.
70
1.2 Les approches à base de minuties :
Ces approches sont les plus connues et les plus utilisées dans la reconnaissance, vu
leur ressemblance à celles utilisées par les experts en criminalistique ainsi que leur
acceptation juridique dans les tribunaux.
Dans ces approches les empreintes sont représentées, sous forme de vecteurs de
minuties (de taille variable) où chaque minutie est décrite par un certain nombre
d’attributs comme: la position dans l’image, l’orientation, le type (fin ou bifurcation), et un
poids basé sur la qualité de l’image au voisinage de la minutie.
D’autre part, une notion de structures locales a été introduite dans le cas
d’appariement local évitant toute la notion d’alignement. Cet appariement peut être
renforcé par une phase de consolidation dans le but de l’affiner.
1 Nous pouvons dire que l’extraction des minuties est un problème métrisé.
71
Appariement global Appariement local
Distinctivité Haute Moyenne
Relations spatiales Maintenues Perdues
Simplicité Moins simple Plus simple
Complexité de calcul Haute Réduite
Rapidité Lente Plus rapide
Tolérance aux distorsions Basse Haute
Ce problème d’appariement de points tel qu’il est défini ci-dessus a été largement
étudié donnant naissance à plusieurs familles d’approches y compris :
transformation among a specified group of space transformation that maps the first set onto (or
satisfactorily close to) second set of point. (http://www3.sympatico.ca/vpaquin/tutorial/tutorial1.htm)
72
Les approches de La Transformée de Hough : appelée aussi les approches à base de vote.
La base de ces approches revient à convertir le problème en un problème de détection
des pics des paramètres de transformation dans l’espace de Hough.
Les approches de relaxation : Elles consistent à ajuster itérativement le niveau de
confiance pour chaque pair de points en se basant sur leurs consistances avec les autres
pairs jusqu'à satisfaire un certain critère. Ces approches sont considérablement lentes
vu leur nature itérative.
Les approches de la recherche opérationnelle : Les approches d’élagage d’arbre (ex.
Branch and Bound) essayent de déterminer la correspondance entre les deux ensembles
par une recherche à travers un arbre des différents matchs. Différentes stratégies sont
appliquées pour réduire l’espace de recherche et réduire le temps d’exécution. Ces
approches tendent à imposer certaines conditions difficiles à satisfaire dans la
reconnaissance d’empreintes digitales. Le problème d’appariement de points peut être
aussi ramené à un problème d’affectation, d’appariement de graphes bipartis ou de
recherche d’arbre recouvrant minimale. Ce dernier a été déjà exploité dans la
reconnaissance d’empreintes digitales (dans (Oh & Ryu, 2004)).
Les approches de minimisation d’énergie : Ces approches définissent une fonction
associant une énergie à chaque solution. Les solutions optimales sont déterminées en
minimisant cette fonction moyennant un algorithme stochastique tel que les
algorithmes génétiques, le recuit simulé, les algorithmes mimétiques (Tan & Bhanu,
2006) (Sheng, et al., 2007). En général, ces méthodes sont lentes et inadéquates pour
une reconnaissance temps réel.
Afin de pallier à cet inconvénient, une phase de pré-alignement peut être introduite
réduisant le problème à un simple appariement. Ce pré-alignement peut être :
Un pré-alignement absolu : où chaque empreinte est alignée indépendamment des
autres empreintes dans la base. La technique la plus courante translate l’empreinte par
73
rapport à la position du point core. Cependant ce dernier est difficile à détecter. Le pré-
alignement absolu respectant la rotation est encore plus complexe. Pour le réaliser les
chercheurs utilisent des caractéristiques tels que: la forme de la silhouette externe,
l’orientation du segment du core delta, l’orientation moyenne dans certaines régions
autour du core, l’orientation des singularités.
Un pré-alignement relatif : où chaque empreinte est alignée par rapport à chaque
modèle dans la base de données. Ces algorithmes sont certainement plus rapides que
ceux sans pré-alignement. Cependant, les algorithmes avec pré-alignement absolu
restent plus rapides mais moins précis. Ce pré-alignement peut être exécuté de
différentes manières dont : la superposition des singularités, la corrélation des images
d’orientation ou la comparaison des caractéristiques des crêtes (longueur et
orientation). Ces méthodes peuvent être appliquées hybridées à travers une sélection
dynamique entre les différentes techniques simples.
Afin d’apparier globalement les minuties des empreintes digitales sans avoir recours
aux alignements, un système de coordonnées intrinsèques (ICS) peut être introduit.
Afin d’éviter l’alignement global et ses problèmes et pour faire face aux distorsions
locales, les chercheurs ont fait appel au concept d’appariement local. Il s’agit de comparer
les empreintes digitales selon des structures locales aux minuties qui se caractérisent par
des attributs invariants aux transformations globales (translation et rotation). Les premiers
travaux se sont basés sur un appariement local seul. Par la suite, ces approches ont été
renforcées par une phase ultérieure d’appariement global appelée phase de consolidation
(nous pouvons voir ces approches telles que définies comme des approches hybrides) et ont
connues plusieurs évolutions.
74
Pour chaque minutie voisine déterminer la distance en pixels, la distance en nombre de
crêtes, son orientation par rapport à celle centrale ainsi que l’angle de différence.
Un clustring géométrique des minuties où chaque cluster est représenté par une boite
rectangulaire englobant toutes les minuties associées. L’appariement se fait par une
recherche d’affectation optimale des minuties dans les clusters.
Bien que le score obtenu par la comparaison des structures locales puisse conduire à
une décision finale, il est courant d’introduire une phase de consolidation afin d’atteindre
un plus haut niveau de précision. Elle peut se faire à travers différentes méthodes telles
qu’une transformation simple. Cette dernière est un appariement global réalisé à partir de
la meilleure transformation résultante de l’appariement local. Un exemple de cette
transformation est celle alignant les minuties centrales des deux structures locales ayant le
plus haut score ou celle alignant deux minuties simultanément. La consolidation peut être
réalisée, également, par une transformation multiple, un consensus de transformation ou
une consolidation incrémentale dans un niveau plus évolué.
75
- Les K plus proches minuties voisines (évoluée) : Elles reprennent le même
principe que celui des anciennes structures. Elles se caractérisent par un
descripteur de taille fixe facile à apparier. Les travaux de recherche ont réglé
quelques problèmes liés tel que le problème d’inverser les minuties inversées
en cas de distances égales ou le problème de voisinage réduit (Jea &
Govindaraju, 2005) (Kwon, et al., 2006).
- Les minuties dans un rayon fixe (évoluée) : Elles reprennent le même principe
que celui des anciennes structures. Leur appariement est plus complexe à cause
de la variabilité de leurs descripteurs. Elles connaissent plusieurs types de
problèmes tels que le problème d’angles absolus et des erreurs de bord qui ont
été traitées dans plusieurs travaux de recherche (ex. (Chen, et al., 2006)).
- Les triangles de minuties1 : plusieurs caractéristiques invariantes peuvent être
extraites des triangles, dont les sommets coïncident avec des minuties tels
que : la longueur de chaque côté, le nombre de crêtes entre les sommets, le type
du triangle, la direction du triangle, le côté maximal, l’angle minimale et
médiane, la densité des minuties dans une surface locale, le nombre de crêtes à
travers les trois côtés ainsi que l’écart moyen des orientations locales autour de
chaque sommet.
- La texture : dans ce cas, les structures ne sont pas liées directement aux
minuties voisines. Leurs descripteurs cependant sont des informations sur
l’orientation prise sur des points échantillons autour de la minutie en question.
Le score de similarité dans ce cas peut être défini, par exemple, comme la
différence angulaire moyenne entre les informations d’orientation. Plusieurs
variantes sont conçues : en utilisant l’orientation moyenne locale par bloc et
non pas sur des points, en prenant en considération d’autres informations (la
fréquence, la variance aux niveaux de gris…), ou en combinant avec des
structures classiques ou des informations locales sur les crêtes.
76
au moment de l’enrôlement seulement résultant en un ensemble de minuties T. Durant la
phase de reconnaissance, pour chaque minutie de T une vérification de l’existence d’une
minutie correspondante est exécutée par une recherche locale dans l’empreinte en entrée I.
Les informations locales de la texture sont contenues, dans leur majorité, dans les
images (matrices) d’orientation et de fréquences. Plusieurs méthodes de reconnaissance,
proposées dans la littérature, se basent sur la corrélation entre les images d’orientation
alignées des deux empreintes digitales (Qi & Wang, 2005) (Zheng, et al., 2007). Cependant
le « Finger code » demeure la technique la plus populaire parmi les approches basées sur les
informations issues de la texture (Jain, et al., 2000).
77
Le « Finger Code » :
Dans sa version de base, réalisée par Jain en 2000 (Jain, et al., 2000), Il définit 80
cellules (5 bandes et 16 secteurs) et les décomposent utilisant un banc de 8 filtres de Gabor
(8 orientations, 1 échelle). De là, chaque empreinte digitale est représentée par un vecteur
de caractéristiques de taille fixe (de 640 éléments). L’appariement se résume par la suite
par un simple calcul de la distance euclidienne entre les FingerCode. Une illustration de la
technique est présentée dans la Figure 30.
Cette technique n’est pas aussi distinctive que les techniques à base de minuties. Elle
présente un problème critique sur le plan de l’alignement par rapport au point core. Dans le
cas où ce dernier ne peut pas être détecté d’une manière fiable ou se trouve au bord de la
surface disponible de l’empreinte, le FingerCode peut être incomplet ou incompatible par
rapport au modèle.
78
Figure 30- Illustration de la technique du "FingerCode". Vij : énergie révélée par le filtre j dans la
cellule i = l’écart moyen absolu (AAD) par rapport à la moyenne des réponses de du filtre j a tous les pixels de
la cellule i
Autres techniques :
Ils existent plusieurs autres techniques exploitant les informations contenues dans
la texture comme:
Utiliser les filtres de Gabor sur plusieurs positions (9 positions) fixes autours du point
core et utiliser la corrélation entre les réponses des filtres pour un alignement optimal
durant la phase d’appariement (Hamamoto, 1999).
79
Utiliser les caractéristiques dans le domaine des ondelettes évitant tout prétraitement
tel que la détection du point core (Tico, et al., 2001).
Utiliser un banc de filtres de Gabor puis extraire les caractéristiques LBP (Local Binary
Pattern) (Nanni & Alessandra, 2008).
Utiliser l’algorithme de la transformation de caractéristiques visuelles invariante à
l'échelle (SIFT) pour l’extraction et la construction de descripteurs SIFT des images
(Park, et al., 2008).
Les relations spatiales entres les lignes de crêtes furent la base des toutes premières
méthodes conçues dans le domaine dans les années 86. L’une d’elles introduit les
grammaires d’arbres pour classifier les modèles des lignes de crêtes. Une autre se base sur
la réalisation d’un graphe d’appariement incrémental pour comparer un ensemble de crêtes
modélisées en structure de graphe.
Durant les années 2006-2007, on a repris l’exploitation des propriétés des lignes de
crêtes à travers plusieurs travaux de recherche (Xie, et al., 2006) (Feng, et al., 2006) (Feng &
Cai, 2006). Cette exploitation a connu différentes formes dont:
L’association de ces propriétés des crêtes aux minuties pour assurer la phase de
consolidation. A titre d’exemple, une fois les minuties appariées dans une première
phase, un appariement spatial des points des crêtes est pris en considération pour
renforcer le score final.
La comparaison des informations sur les crêtes voisines avec toutes les crêtes ayant une
longueur et une inflexion similaires.
La définition d’un système de coordonnées à base des crêtes (RCS : Ridge Coordinate
system) dont l’origine est une minutie, l’orientation est celle de cette dernière et la
mesure des distances est celle de nombre de crêtes. L’encodage des relations
géométriques entre des points échantillons est réalisé par rapport à ce système (Feng &
Cai, 2006).
80
minimale de 800 dpi est nécessaire pour détecter les petits pores) ainsi que de robustes
algorithmes pour leur extraction.
Les méthodes prenant en considération tous les alignements possibles, telles que les
méthodes par corrélation ou les méthodes à base de minuties par appariement global (sans
pré-alignement) connaissent une complexité au niveau des calculs (Maltoni, et al., 2009).
Cette complexité croit relativement quand la proportion de la partie disponible de
l’empreinte en entrée est petite. Dans le cas de l’empreinte palmaire, cette proportion
(rapport entre la partie en entrée et l’empreinte complète) est encore plus petite
conduisant à plus de complexité. Cela écarte la possibilité d’utilisation de ce type de
techniques sur l’empreinte palmaire.
De leur part, les méthodes appliquant un pré-alignement telles que les méthodes à
base de minuties à appariement global (avec pré-alignement) se basent sur la présence de
quelques caractéristiques qui n’est pas toujours vrai dans le cas des empreintes partielles
(qu’elles soient digitales ou palmaires).
Ainsi, les méthodes à appariement local, qu’elles soient à base de minuties ou à base
de caractéristiques de texture paraissent les plus adaptées dans le cas de partialité des
empreintes. Elles ont fait l’objet de la plupart des études et d’articles dans la dernière
décennie et se voient les plus appropriées pour une application sur les empreintes
palmaires partielles latentes.
81
qui limite leur impact. Les algorithmes d’estimation de champ d’orientation
conventionnels peuvent estimer l’orientation d’une crête dans une empreinte
digitale d’une manière fiable ce qui est utilisée pour éliminer les plis et
récupérer les crêtes. Cependant les empreintes palmaires contiennent des
plis gras et un grand nombre de plis fins. Il n’est pas facile de récupérer les
crêtes en présence d’un grand nombre de plis. Ainsi, L’application des
algorithmes les plus efficaces –pour l’estimation de l’orientation- dans le
domaine d’empreinte digitale sur celle palmaire a montrée ses limites (Jain &
Feng, 2009).
La taille de l’image de l’empreinte palmaire est relativement plus grande que
celle digitale. Une empreinte digitale typique (500*500 pixels) contient 100
minuties alors qu’une empreinte palmaire typique (2000*2000 pixels)
contient jusqu'à 800 minuties. Ce qui rend le temps d’appariement 64 fois
plus lent (en supposant que la complexité d’un algorithme d’appariement de
minuties est de O(n2) ) (Jain & Feng, 2009)Par conséquent, cela nous
confirme que les méthodes de corrélation ou ceux à appariement globale
trouvent leurs limites devant la complexité des calculs résultants de la taille
de l’image d’empreinte palmaire.
82
Dans ce qui va suivre nous allons présenter une étude détaillée des travaux de
recherche abordant ce sujet. Bien qu’ils soient peu nombreux, leur étude nous a permis de
mieux comprendre cette problématique, réaliser une étude comparative de ces travaux
ainsi que souligner les points ouverts à la recherche dans ce sujet. On note que cette
présentation suit l’ordre chronologique de la réalisation des travaux.
Présentation générale :
Ce travail est le premier dans son genre. Il est composé de deux parties
indépendantes, la première porte sur la reconnaissance d’une empreinte palmaire complète
par l’adaptation d’une technique commerciale pour la reconnaissance de l’empreinte
digitale. La deuxième, celle qui nous intéresse, aborde la reconnaissance d’une empreinte
partielle.
Afin de reconnaitre l’empreinte palmaire partielle, Jain commence par une phase de
segmentation et d’amélioration de qualité. Il utilise un extracteur de minuties commercial
pour les empreintes digitales (VeriFinger 4.2 de Neurotechnologija) et introduit une carte
de plis pour éliminer les fausses minuties2. L’appariement est aussi réalisé par le VeriFinger.
Cet appariement n’étant pas efficace dans 70% des cas a poussé Jain à renforcer les
minuties par d’autres caractéristiques (SIFT : Scale-Invariant Feature Transform que l'on
peut traduire par « transformation de caractéristiques visuelles invariante à l'échelle »). Il
explique la non-efficacité des minuties par sa constatation dans la première partie (sur
l’empreinte complète) que la présence de crêtes et par conséquent de minuties n’est pas
uniforme dans toutes les parties de la main. La fusion de minuties et de caractéristiques
SIFT a montré son efficacité sur les empreintes partielles qu’elles soient générées à partir
d’empreintes complètes ou scannées partiellement. Nous pouvons illustrer le schéma
général du travail comme suit :
1 Department of Computer Science & Engineering, 3115 Engineering Building, Michigan State
University, East Lansing, MI
2 La notion des fausses minuties est une notion de la reconnaissance digitale. Elle désigne les
points non minuties détecté par l’algorithme de détection de minuties. Ils sont dus généralement aux
coupures des crêtes faites par les plis.
83
Image améliorée
(a)- segmentation et amélioration de contraste
Image améliorée
84
Figure 32- phase de segmentation et d’amélioration de contraste : (a) image originale, (b) coefficients de
Gabor, (c) carte des caractéristiques AAD à partir de (b), (d) Image après la convergence de l’ACM, (e) Image
après segmentation (Jain & Demirkus, 2008)
85
Figure 34- Elimination des fausses minuties : (a) une partie de l’empreinte, (b) la carte de plis
extraite de (a), (c) Les minuties extraites (364 minuties : les vertes désignent les bifurcations et les rouges les
fins de crêtes), (d) Après élimination des fausses minuties (260 minuties restantes) (Jain & Demirkus, 2008)
Lors de ses expérimentations, Jain constate que l’appariement par ces minuties
échoue dans 70% des cas où l’empreinte partielle ne contient pas de motifs de crêtes
fiables. C’est surtout le cas de la région intérieure de l’empreinte qui contient un grand
nombre de plis (voir la Figure 35). Pour améliorer la performance de son système il utilise
un ensemble additionnel de caractéristiques appelé SIFT. Cette technique extrait des points
caractéristiques répétables tels que les extrema locaux et génère des informations
contenant l’information de la texture telle que l’orientation. Jain utilise pour son
implémentation celle basique de Lowe (Lowe, 2004). On note que durant l’an 2008, le SIFT
est apparu comme piste exploitée par plusieurs chercheurs dans le domaine : il a été
appliqué sur l’empreinte digitale dans (Park, et al., 2008) et sur celle palmaire basse-
résolution dans (Chen & Moon, 2008).
Figure 35- Exemple d'appariement des minuties et des caractéristiques SIFT : nombre de minuties extraites :
19, nombre de points SIFT extraits : 407, nombre de points appariés avec succès est de 0 minuties et 38
points SIFT (Jain & Demirkus, 2008).
86
Détails des tests :
Utilisant un scanner optique Cross Match LSCAN 1000P, à partir de 100 paumes de
mains (50 personnes *2), Jain construit une base de données de 1000 empreintes complètes
où chaque personne contribue pour fournir 10 impressions (5 impression * deux sessions
avec un intervalle de 7 jours entre les sessions).
Pour obtenir des empreintes partielles, Jain utilise deux procédures différentes :
Les scores de l’appariement des minuties et celui des SIFT sont fusionnés par une
somme pondérée. Le tableau suivant montre les résultats des tests :
Les caractéristiques SIFT présentent un rank-1 meilleur dans le cas des empreintes
Synthetic-latents (91%). Cependant, les minuties restent plus stables et montrent une
meilleure performance sur les pseudo-latents (68%). Dans les deux cas, la fusion des scores
des minuties et des SIFT améliore la performance du système.
Les minuties connaissent leurs limites sur certaines régions telles que la
partie intérieure de main ce qui nécessite l’introduction d’autres
caractéristiques.
87
Une idée introduite dans ce travail consiste à exploiter la carte des plis pour
éliminer les fausses minuties.
Les minuties sont plus stables, dans le cas d’une mauvaise qualité
d’empreinte, c’est la raison pour laquelle elles présentent une meilleure
performance sur les pseudo-latentes.
Le grand nombre de points SIFT alourdi l’algorithme.
La fusion des scores issus de l’appariement des Minuties et des SIFT montre
un meilleur résultat que chacune employée seule.
le classement des empreintes partielles par nombre de minuties extraites
peut être utile pour déterminer leurs régions sources. Ceci peut être utilisé
pour faciliter l’alignement.
Présentation générale :
Dans ce travail, Jain, un des Pionnier de la biométrie, exploite son background et ses
connaissances en reconnaissance d’empreinte digitale et essaye de les adapter pour une
meilleure application sur l’empreinte palmaire.
88
Dans premier temps, Jain juge que la présence de plis dans les empreintes palmaires
affecte considérablement la procédure d’estimation de l’orientation et de la fréquence
utilisée pour les empreintes digitales. Pour cela, il a proposé une technique d’estimation de
l’orientation. Bien que la fréquence et l’orientation (deux paramètres liés) soient utilisées
pour l’amélioration de la qualité de l’image, Jain les utilise comme attributs de minuties.
Dans un deuxième temps, Jain s’inspire des travaux de (Feng, 2007) pour concevoir
ses descripteurs de minuties, qu’il appelle MinutiaCodes. Comme dans les méthodes
d’appariement local à base de minuties développée dans le cadre de la reconnaissance
digitale, Jain consolide sa technique par une phase d’appariement global. Et le score de ce
dernier est le nombre de minuties appariées.
Nous avons résumé les phases principales de son travail dans le schéma suivant :
(i)- Appariement de la
(e)- Construction des carte d’orientation
MinutiaCode
(g)-Appariement Global
des minuties
SM SD
89
Détails de la technique :
Afin de mieux estimer l’orientation des crêtes et par conséquent leurs fréquences,
Jain reprend le travail de Funada (Funada, et al., 1998) qui présente une technique pour
l’extraction des crêtes en éliminant les plis. Il y introduit une phase de lissage (amélioration
de l’estimation) par croissance de régions pour aboutir à une estimation plus robuste (voir
Figure 37).
Figure 37- Extraction des crêtes : (a) image originale, (b) application de la technique de Funada (c)
application de la technique de Jain (Jain & Feng, 2009)
Figure 38- extraction des minuties: (a) Image originale, (b) le champ d'orientation, (c) image améliorée, (d)
les crêtes et les minuties extraites
90
Partant des constatations de (Feng, 2007) qui confirme qu’un descripteur (de taille
variante) combinant les informations de la texture autour de la minutie aux informations
sur les minuties voisines peut fournir une haute précision, Jain définit son descripteur tout
en fixant sa longueur1. Il l’appelle MinutiaCode et le définit en combinant plusieurs
caractéristiques.
Comme nous le montrons dans la Figure 39, Le MinutiaCode est constitué des
informations sur les 32 secteurs considérées par rapport à une minutie centrale en
question. Pour chaque secteur, on retrouve les attributs suivants :
Le nombre de minuties voisines par type, il sert comme moyen pour le calcul
de la similarité entre les secteurs.
1 Ils sont conçus de taille fixe pour un appariement local plus rapide
91
Figure 39- Illustration de la construction du MinutiaCode
Ainsi, le score de l’appariement entre deux minuties est la somme pondérée des
scores de similarités entre les secteurs valides de leurs MinutiaCode. La pondération a
comme but de favoriser les secteurs avec minuties fiables. La similarité entre deux secteurs
ayant vérifié les conditions de direction et fréquence est le rapport entre les minuties
appariées avec succès par rapport à ceux devant l’être.
Afin de réaliser son appariement global pour calculer le score de l’appariement des
deux empreintes, Jain reprend son algorithme d’appariement glouton défini pour les
empreintes digitales dans (Jain, et al., 2007): Ayant le résultat de l’appariement local (les
scores de similarités entre tous les pairs de minuties)une correspondance une-à-une entre
toutes les minuties est établie et les pairs de minuties sont triés dans un ordre décroissant
selon leurs scores de similarités normalisés. Chacune des 5 meilleurs pairs de minuties est
utilisée pour aligner les deux ensembles de minuties. A leurs tours, les minuties sont
réexaminer et les minuties non appariés proches en position et en direction sont
considérées appariées. Le résultat est un ensemble de minuties appariées1.
Le score final de l’appariement est une fusion par somme pondérée entre le score
d’appariement des minuties et un score d’appariement des directions de crêtes favorisant
celui des minuties (S= 0.8 SM +0.2 SD)2. Les deux scores SM et SD prennent en charge la
92
qualité et non seulement la quantité des minuties et des blocs1 appariés (SM = SMn * SMq et SD
= SDn * SDq ) :
Pour construire sa base de test (10200 empreintes), Jain se sert d’une base de
données de 10 040 empreintes complètes fournie par la police de Michigan (MSP). Il la
renforce par 36 empreintes fournies aussi par la MSP (avec 54 empreintes latentes
correspondantes qui lui servent à construire la base des empreintes latentes de test) ainsi
que 8 empreintes fourni par Nobilis (accouplés aussi par 46 latentes). De plus il utilise un
scanner optique Cross Match LSCAN 1000P pour obtenir 116 empreintes.
Jain utilise deux sortes d’empreintes partielles pour tester son système :
Live-Scan partielle : Jain utilise la LSCAN 100P pour obtenir 150 empreintes
pseudo-latentes 50 de chacune des trois parties de la paume.
Latente : il récupère 100 empreintes latentes (54 de la MSP et 46 de la
Nabilis).
93
Rank-1 Rank-20
Pseudo-Latente (Live Scan) 78,7% 81,3%
Latentes 69% 76%
Tableau 5- Résultat des tests du travail de Jain 2009
Rank-1 Rank-20
Sans 74% 83%
Avec 78% 83%
La racine des doigts est la partie la plus facile à reconnaitre avec un rank-1
de 98%.
L’impact de la qualité de l’empreinte latente :
94
Les empreintes de bonne qualité ont tendance à présenter une meilleure
performance. Elles peuvent atteindre un rank-1 de 90%.
Comme c’est le cas sur les lieux des crimes, plusieurs empreintes sont
laissées par la même personne. Pour simuler ce scenario, un test où 3
empreintes latentes sont groupées est effectué. Le résultat est une
augmentation de précision allant jusqu'à 90%.
95
L’utilité des informations auxiliaires nous incite à penser à automatiser leur
détermination.
Présentation générale :
Dans ce travail, Laadjel s’inspire du travail d’Ito (Ito, et al., 2004) sur l’empreinte
digitale ayant montré son efficacité. Il réapplique le même concept sur l’empreinte
palmaire. Il vise dans son travail à reconnaitre des empreintes partielles bruitées par
l’application d’une technique de corrélation basée sur la composante phase de la
transformée de fourrier discrète 2D (POC : Phase-Only Correlation). Cette dernière est une
technique qui a connu son succès dans le domaine de recalage d’image1 à haute précision
pour les applications de la vision par ordinateur (Takita, et al., 2003). On note que cette
exploitation de la POC n’est pas la première pour l’équipe des auteurs. Bouridane avait déjà
utilisé la méthode pour la reconnaissance des marques de chaussures dans (Gueham, et al.,
2007).
1 Le recalage d’image est le processus de superposer deux ou plusieurs images de la même scène
prises à des moments différents, à partir de différents points de vue, et / ou par des capteurs différents.
C’est l’alignement géométrique de deux images (la recherche d'une transformation géométrique
permettant de passer d'une image à une autre) (Zitova & Flusser, 2003)
96
Ii : fi (x, y) : Fi (u, v) = Ai (u, v) e jϴi(u, v) où Ai est l’aptitude et ϴi(u,v) est la phase.
Figure 40- a : Poc entre une empreinte partielle et complète identique, b : Poc entre une empreinte
partielle et complète différentes (Laadjel, et al., 2009).
Ces propriétés rendent cette méthode adéquate pour ce cas de reconnaissance. Seule
la rotation n’est pas tolérée vu que la méthode est sensible aux distorsions non linéaires.
97
Détails des tests :
Laadjel construit une base de données en scannant 200 empreintes (une de la main
droite et une de celle gauche de 100 personnes). Il génère les empreintes partielles en
divisant chaque empreinte en 4 quarts.
Pour tester sa méthode, il utilise deux ensembles d’empreintes partielles obtenus en:
Appliquant un bruit gaussien de moyenne 0 et d’écart type 0.04 sur les 800
empreintes partielles pour construire le premier ensemble.
Brouillant les 800 empreintes partielles horizontalement et verticalement
par une motion de longueur de 22 pixels pour construire le deuxième
ensemble.
Le tableau suivant montre les résultats des tests sur les deux ensembles :
Cette approche présente une performance élevée dans le cas des empreintes
partielles brouillées avec un taux d’erreur EER de 0.03%.
Prendre en charge le problème de la rotation comme cela est fait dans (Ito, et
al., 2004) qui génère plusieurs exemples de la même empreinte avec
différente rotation.
Cette technique est très sensitive aux distorsions non-linéaires.
Le déplacement peut être estimé par rapport à la position du pique. Ce point
n’est pas exploité.
98
Dans (Ito, et al., 2004), Ito remarque la présence de piques supplémentaire
dans les hautes fréquences et utilise un filtre pour les éliminer. La question
qui nous vient à l’esprit est la suivante : « est ce que cela est spécifique à
l’empreinte digitale et n’est pas présent dans l’empreinte palmaire ? ». Des
tests doivent être effectués pour répondre à cette question.
Les tests sont réalisées en terme de EER et non pas en Rank-1, il est
souhaitable d’utiliser le deuxième pour rester dans le cadre criminalistique.
Les tests doivent être appliques sur des empreintes latentes et sur une base
de données plus variées.
Présentation générale :
A travers ce travail, Laadjel exploite les approches de reconnaissance basées sur les
caractéristiques locales invariantes à l’échelle et robustes aux transformations (rotation et
translation) pour la reconnaissance des empreintes palmaires partielles. Ces approches,
conçues pour être efficaces dans la détection, localisation et identification des objets dans
les images (Mikolajczyk & Schmid, 2005), ont inspiré plusieurs autres travaux de cette
équipe de recherche : Les descripteurs SIFT ont été exploités par cette équipe dans un
cadre criminalistique pour le recouvrement des traces de chaussures dans (Su, et al., 2007)
et dans (Nibouche, et al., 2009).
Dans ce travail, Laadjel assigne un descripteur SIFT, qu’il appelle Invariant Local
Minutiae Descriptor (ILMD), à chaque minutie extraite pour réaliser sa reconnaissance
d’empreintes partielles. Il utilise un appariement local de minuties sans consolidation. Le
système se montre efficace sur les empreintes partielles prenant en charge le problème de
rotation ainsi que celui de déplacement.
99
Amélioration de la qualité
d’image
Estimation de l’orientation
de chaque minutie
Construction de descripteur
SIFT pour chaque minutie
ILMD
Détails de la technique :
Afin d’améliorer la clarté des structures des crêtes et pour mieux extraire les
minuties sans en perdre ni en rajouter (cas de fausses minuties), une phase d’amélioration
de qualité de l’image doit être appliquée sur les empreintes. Pour cela Laadjel applique la
technique conçue par Hong pour les empreintes digitales (Hong, et al., 1998). Elle consiste à
appliquer un filtre de Gabor sur les images, après la normalisation, l’estimation
d’orientation locale et de fréquences et l’application d’un masque des régions. Le filtre
utilisé est défini comme étant:
Où
Le principe des approches à caractéristiques locales, dont le SIFT est une technique
de base, consiste à détecter des points clés possédant les propriétés suivantes : la localité (le
voisinage), la répétabilité, l’individualité (distinctiveness) et la robustesse aux différentes
dégradations. Pour chaque point un descripteur (appelé descripteur SIFT dans le cas de la
technique SIFT) est construit à base des histogrammes d’orientations calculées dans une
100
zone circulaire autour du point. Ces descripteurs présentent l’avantage d’être invariants aux
rotations, translation ainsi qu’à l’échelle.
Dans le cas de la technique SIFT classique, définie dans (Lowe, 2004), les points clés
sont définis comme étant les extrema (minima et maxima) locaux d’intensité dans un
voisinage de 9*9 dans l’espace des échelles1. Appliquée directement aux empreintes
palmaires, cette technique génère un nombre très importants de points clés qui ne sont pas
tous stables (ce qui peut entrainer des erreurs d’appariement). La représentation de ce
grand nombre de points clés avec leurs descripteurs exige une grande capacité de stockage.
Leurs appariement quant à lui est assez coûteux en ressources informatiques. Afin de
pallier à ces limites, Laadjel a proposé, dans cet article, d’utiliser les minuties comme
alternatif aux extrema du SIFT. Il a constaté que les minuties sont visuellement
significatives, géométriquement stables, robustes aux changements et de nombre moins
important que les extrema.
Pour faciliter l’extraction des minuties, le squelette de l’empreinte est obtenu après
sa binarisation et son amincissement (voir Figure 42). Pour extraire et définir l’ensemble
des minuties valides, Laadjel exploite les 8 voisins des pixels dans les squelettes des crêtes à
travers l’algorithme « Crossing Number (CN) », largement utilisé dans les empreintes
digitales. Il applique les règles heuristiques définies dans (Zhao & Tang, 2007) pour
l’empreinte digitale afin d’éliminer les fausses minuties. Pour minimiser le temps
d’appariement une indexation en fin ou bifurcations des minuties est effectuée.
1 On parle des images des différences des gaussiennes (DoG) sur différentes échelles.
101
Figure 42- Extraction des minuties : (a) empreinte partielle, (b) empreinte après amélioration de
qualité, (c) amincissement de l’empreinte, (d) extraction des minuties. (Laadjel, et al., 2010)
1 Assurer l’invariance à la translation est garanti par le calcul relatif à la position de la minutie de
ses propriétés.
102
Une fois l’histogramme construit, les orientations dominantes, qui correspondent au
plus haut pic ainsi qu’aux pics locaux (dont la hauteur dépasse 80% de l’hauteur du plus
haut pic de l’histogramme), sont assignées aux minuties.
Comme dans le travail (Lowe, 2004), Laadjel associe un descripteur SIFT à chaque
minutie. Ce dernier représente un ensemble d’histogrammes d’orientations (de 8 classes
chacun) construit à partir des informations de la texture (magnitude et orientation du
gradient) dans un voisinage de 16*16 pixels autour de la minutie. La construction détaillée
du descripteur est faite comme suit :
103
Figure 43- Schéma illustratif de la technique de construction d’un descripteur de minutie (ILMD), (a) : chaque
gradient est représenté par une flèche dont la longueur et la direction reflètent la magnitude et l’orientation
du gradient respectivement, le cercle bleu représente la fenêtre gaussienne pondérant les gradients. (b) : la
région autour de la minutie est subdivisée en 16 sous régions et les gradients sont accumulés dans des
histogrammes d’orientations pour chaque sous région; la longueur d’une flèche correspond à la somme des
magnitudes pondérées des gradients dont les orientations sont proches de sa direction. (c) l’ILMD un vecteur
de dimension 128, composé des valeurs des 8 classes des 16 histogrammes. (d) la formule de construction
des histogrammes avec interpolation tri linéaire.
104
Détails des tests :
Laadjel utilise dans ce travail la même base de données de son travail précédant
(Laadjel, et al., 2009) (200 empreintes scannées une de la main droite et une de celle gauche
de 100 personnes). Par contre, Il génère les empreintes partielles en divisant chaque
empreinte en :
Figure 44- Exemples des empreintes (complètes et partielles) de la base de données utilisée ; (a)
empreinte complète ; (b) les 4 empreintes partielles 4HP issues de (a) ; (b) les 4 empreintes partielles 4QP
issues de (a).
Pour tester sa méthode Laadjel effectue pour chacun des 3 ensembles 160 000
(800*200) appariements et se base sur le taux d’erreur (EER) pour mesurer la performance.
De plus, il compare sa méthode au SIFT classique où les points caractéristiques sont les
extrema locaux au lieu des minuties. Pour ce faire il applique, sur l’ensemble (4RP), un SIFT
avec sous-échantillonnage (D_SIFT) pour diminuer le nombre de points caractéristiques
extraits. Le tableau suivant montre les résultats des tests :
ILMD D_SIFT
4HP 4QP 4RP 4RP
EER 0.19% 0.62% 0.80% 0.21%
105
Cette technique est moins performante que la technique SIFT. De plus, sa
performance se dégrade avec la diminution de la taille.
106
Bien qu’il soit moins rapide, le D_SIFT présente toujours de meilleures
performances comparées à l’ILMD. Ceci nous pousse à penser à tester des
descripteurs SIFT plus évoluées
La stratégie de la technique SIFT présente de bon résultats ce qui nous
pousse à l’exploiter plus ; à travers l’extraction d’autres types de points
intéressants les moins importants et mieux dispersés sur l’empreinte (autres
que les extrema et les minuties : ex. les coins par Harris, par Moravec, par
Plessely.. et les tâches par Laplacienne de la gaussienne, le déterminants
Hessian..) ou le test d’autres variantes et extensions de descripteurs locaux
(ex. RIFT, G-RIF, SURF, HOG, PCA-SIFT et GLOH..)1.
Présentation générale :
Dans cet article, Dai travaille sur trois plans différents que nous avons illustrés dans
la Figure 45. Le premier consiste à concevoir une nouvelle technique d’estimation de
champs d’orientation. Il l’exploite dans l’amélioration de la qualité de l’image des crêtes
ainsi que pour la définition des orientations des crêtes et par conséquent des minuties. Le
deuxième consiste à extraire les différents types de caractéristiques (minuties, la carte de
fréquences, la carte des orientations et la carte des lignes principales) les tester et les
combiner pour une meilleure performance d’appariement. Puis, il définit, dans un troisième
plan, une nouvelle technique de fusion de score adaptée pour l’empreinte palmaire.
107
(θ, D) Estimation composite du
champ d’orientation
θ D
SP SM SO SD
Figure 45- La structure générale du travail de Dai, Les étapes en rouge sont les étapes où Dai
s’introduit.
Détails de la technique :
Comme dans le travail de Jain (Jain & Demirkus, 2008) Dai développe une nouvelle
technique d’estimation de champs d’orientation. Mais, contrairement à Jain, il ne se
contente pas d’exploiter la région croissante dans la phase de lissage. Il touche à la phase
d’estimation initiale à travers une hybridation de la transformée de fourrier discrète DFT et
sa nouvelle technique basée sur la transformée de radon1 (RTBM). Les méthodes
traditionnelles d’estimation initiale se basent sur le changement de niveau de gris et
traitent les bandes noires comme les blanches. Ces méthodes s’appliquent bien dans le cas
des empreintes digitales où le nombre de plis est petit mais trouvent leurs limites dans le
cas des empreintes palmaires riches en plis. Pour pallier à ce problème, Dai s’inspire de la
stratégie des experts de police, qui se concentrent sur les bandes noires seules dans leur
détermination de la direction des crêtes, pour développer sa nouvelle technique (RTMB)
prenant en charge les régions riches en plis. Cette dernière, étant coûteuse en termes de
calcul, Dai ne l’emploie que dans les régions denses en plis. Autrement (dans les autres
régions), il emploie la méthode traditionnelle DFT. Le schéma suivant (Figure 46) détaille
les étapes de l’algorithme « composite » d’estimation de champs d’orientation : l’extraction
1 La transformée de Radon est une robuste méthode pour la détection des lignes dans l’image.
108
des plis est faite par l’application de l’algorithme proposé dans (Huanga, et al., 2008) basée
lui aussi sur la transformée de Radon, l’application de la DFT est similaire à celle dans (Jain
& Feng, 2009) de même que la phase de lissage. La RTBM proposée part du principe que les
crêtes peuvent être assimilées à des petites lignes et qui peuvent être extraites par la
transformée de Radon pour déterminer leurs orientations.
Dans la deuxième partie de son travail, Dai s’intéresse à extraire et apparier les
différents types de caractéristiques existants dans l’empreinte. Il définit comme résultat
différents types de scores quantitatifs et qualitatifs pour chaque caractéristique :
109
base de gradient (Une grande différence est signe d’une mauvaise qualité). De sa part,
l’appariement des minuties est réalisé par une technique classique globale sans pré-
alignement conçue pour l’empreinte digitale. Cette technique est l’application de la
transformée de Hough pour déterminer les paramètres optimaux de transformation.
Comme dans (Jain & Feng, 2009), Dai considère comme score d’appariement SM le
produit d’un score de similarité quantitatif SMn et un autre qualitatif SMq. Il l’adapte en
considérant la somme des niveaux de confidence des minuties appariées avec succès
(Cp) au lieu du nombre de minuties (SMn = Cp/ (Cp +20) et SMq= Cp 2/ Cr * Cq où Cr et Cq la
somme des niveaux de confidence des minuties existantes dans les régions communes
dans l’empreinte de référence et celle en entrée respectivement). Nous avons construit
le schéma de la Figure 47 pour illustrer la phase d’extraction et l’appariement des
minuties.
110
La carte des densités (de fréquences) et les champs d’orientation : La carte de densité est
extraite simultanément avec le champ d’orientation dans l’algorithme d’estimation de
champs d’orientation (voir Figure 48). Comme Jain, Dai effectue un appariement bloc
par bloc des deux empreintes. Il définit un score prenant en compte la qualité
d’appariement: SD = SDn * SDq= Nd/ (Nd +900) * 1/Nb
où Nd représente le nombre de pairs de
Figure 48-Exemple (a) empreinte partielle (b) les champs d’orientation (c) La carte des densités (de
fréquences) (Dai & Zhou, 2011)
Les lignes principales : Dai extrait les lignes principales par la transformée générale de
Hough. Chaque point d’une ligne principale est caractérisé par son énergie et sa
direction (voir Figure 49). Dai juge que deux points d’énergie sont appariés avec succès
s’ils se trouvent dans la même position avec une différence d’orientation moins de . Le
score d’appariement des lignes Sp est un rapport entre la somme des énergies des points
appariés avec succès et la sommes de toutes les énergies des lignes dans la région
commune.
111
Figure 49- extraction des lignes principales: (a) image originale, (b) image des énergies des plis (c)
image des directions des plis (d) la carte des plis principale extraite (Dai & Zhou, 2011)
Dans la troisième partie de son travail, Dai Propose une heuristique de fusion des
scores pour obtenir une meilleure performance de décision. Cette proposition distingue les
deux modes de fonctionnement du système : la vérification et l’identification. La somme
pondérée suivie par un seuillage, étant une méthode classique de fusion, est équivalente à
une séparation de deux classes par un hyperplan dans l’espace des caractéristiques.
Cependant, cette hypothèse n’est pas forcement valide pour la plupart des cas de
vérification ; les authentiques et les imposteurs ne sont pas linéairement séparables. Pour
remédier à ce manque, Dai propose l’application de méthodes d’apprentissage statistiques
conventionnelles telles que la Machine à vecteurs de support (SVM) et règle de Neyman-
Pearson. Ces méthodes ne sont pas optimales pour l’identification vu leurs grand temps
d’exécution. La somme pondérée, quant à elle, reste le meilleur choix dans ce cas. Elle
présente de meilleures performances quand les caractéristiques sont indépendantes
autrement ses performances se dégradent. Partant de ce principe, Dai conçoit son
heuristique de fusion pour l’identification comme suit :
Comme les minuties et la carte de densité sont d’une corrélation réduite et ont une force
discriminatoire comparable, Dai les fusionne par une somme pondérée :
)* où est évalué sur une base d’apprentissage et pris
empiriquement à 0.65.
Bien que les lignes principales soient moins discriminatoires que les autres
caractéristiques, elles fournissent une information globale indépendante sur
112
l’empreinte. Les expérimentations montrent que les deux cas d’appariement avec succès
qu’il soit d’un authentique ou d’un imposteur peuvent fournir un score faible.
Cependant, seul l’appariement des authentiques atteint un score de similarité élevé.
Pour cela, lorsque le score est faible son impact doit être faible sur le score final
comme le montre la formule suivante :
Le champ d’orientation est d’une force discriminatoire très faible. Il est corrélé avec les
minuties qui considèrent l’orientation du point minutie lors de son appariement. Ainsi,
Dai introduit le score de similarité des champs d’orientation dans son heuristique d’une
manière n’influant pas le score général quand il est faible :
Afin de simuler les empreintes latentes, Dai obtient les empreintes partielles en
scannant des parties de l’empreinte. Pour chacune des 120 paumes il scanne deux
empreintes partielles de chaque partie de la paume (région interne, région racine, région
externe). Il construit ainsi une base de 720= 120*6 empreintes partielles pseudo-latentes.
113
Afin d’étudier la force discriminatoire des différentes caractéristiques ainsi que les
différentes combinaisons possibles, Dai effectue ses tests en appliquant la SVM pour la
vérification et la somme pondérée pour l’identification et obtient les résultats que nous
résumons dans le tableau suivant :
Pour prouver la performance de son heuristique par rapport aux méthodes de fusion
existantes, il effectue différents tests pour la vérification et l’identification et obtient les
résultats que nous résumons dans le tableau suivant :
Dai finit son travail par une comparaison de son travail à celui de Jain. Il utilise comme
méthode de fusion la SVM pour la vérification et son heuristique pour l’identification.
Nous résumons les résultats dans le tableau suivant :
114
La technique de reconnaissance proposée par Dai est plus performante que celle de
Jain que cela soit pour l’identification ou la vérification.
115
Critiques et améliorations proposées :
Les tests de la méthode proposée ont été appliqués sur une base
d’empreintes partielles plutôt contrôlées. Ils doivent toucher aux problèmes
de rotation, déplacement et au bruit pour prendre en considération un
contexte réel.
Tous les appariements des caractéristiques se font à base d’un alignement
des minuties. Ainsi ils sont tous liées à la méthode d’extraction et
d’appariement des minuties.
Nous avons dressé les tableaux suivants afin de résumer et comparer les différents
travaux étudiés. Comme le montre le Tableau 6, les travaux sur l’empreinte palmaire
partielle sont très récents. C’est durant les quatre dernières années que tous les travaux ont
été réalisés à raison d’un travail chaque année. Nous remarquons la présence de trois
équipes de recherche qui ont abordé le sujet.
(Jain & Demirkus, (Jain & Feng, (Laadjel, et al., (Laadjel, et al., (Dai & Zhou,
2008) 2009) 2009) 2010) 2011)
Publié un journal Livre de un journal
Un rapport Proceeding ICIP
dans IEEE Springer IEEE
Publié en 2008 Juin 2009 Novembre 2009 2010 Mai 2011
Auteurs -Moussadek
Publication
-Moussadek Laadjel
-K. Jain Laadjel -Ahmed
-Anil K. Jain
-Fellow -Fatih Kurugollu Bouridane -Jifeng Dai
-Meltem
-Jianjiang -Ahmed -Fatih Kurugollu -Jie Zhou
Dermiskus
Feng Bouridane -Omar
-Said Boussakta Nibouche,
-WeiQi Yan
Tableau 6- un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire latente
(publication)
Comme le montre le Tableau 7, tous les travaux s’inspire de l’empreinte digitale dans
leur conception d’approche de reconnaissance pour l’empreinte palmaire. Jain 2008, Jain
2009 et Dai 2011 exploitent des caractéristiques de l’empreinte digitale présentes dans
l’empreinte palmaire. Dans Jain 2008, les auteurs exploitent, en plus, d’autres
caractéristiques issues du domaine de reconnaissance d’objet par caractéristiques locales.
Laadjel de sa part, dans Laadjel 2009, applique une approche du domaine de recalage
116
d’image. Cette dernière est elle aussi déjà appliqué dans l’empreinte digitale et peut être vu
comme une approche de reconnaissance par corrélation. Comme dans Jain 2008, Laadjel
2010 combine des concepts de caractéristiques locales à ceux de l’empreinte digitale.
Par analogie à la classification des approches digitales, nous pouvons classer les
travaux précédant en considérant leurs approches d’appariement de base :
Nous pouvons signaler la présence d’un appariement par ligne principale dans Dai
2011 qui n’apparait pas comme approche pour l’empreinte digitale.
La fusion des scores d’appariement est un point qui a été abordée dans trois des
travaux existants (Jain 2008, Jain 2009, Dai 2011) ce qui montre son importance pour
améliorer la performance de la reconnaissance. Nous pouvons remarquer que Dai avait
consacré son travail pour la fusion et la comparaison entre les caractéristiques extraites.
Seul Jain, dans Jain 2008, développe une technique pour l’amélioration de la qualité
de l’empreinte. Tous les autres travaux se contentent de techniques déjà existantes pour
l’empreinte digitale (nous signalons que le champ d’orientation est un paramètre dans cette
amélioration. De là, nous pouvons dire que les travaux touchants à l’estimation de ce
champs touche implicitement à l’amélioration de la qualité).
117
Tous les travaux, Sauf celui de Laadjel 2009, se basent sur les minuties comme
caractéristique principale extraite. Cependant, Laadjel 2010, ne critique pas la technique
classique d’élimination des fausses minuties et la garde pour son approche.
(Jain & (Jain & (Laadjel, et (Laadjel, et (Dai & Zhou, 2011)
Demirkus, Feng, 2009) al., 2009) al., 2010)
2008)
Inspiration du Empreinte
Empreinte
travail digitale Empreinte
digitale
Empreinte (Ito, et al., digitale +
(VeriFing) + Empreinte digitale
digitale 2004) + caractéristiqu
caractéristiqu
recalage es locales
es locales
d’image
Généralités sur le travail
Classification apparieme
de nt local à
l’appariement base de
principal minuties appariement global
avec apparieme appariement (transformée de
appariement
consolidati nt par local à base Hough) +
VeriFing
on corrélation de minuties Appariement à base
+ de la texture
Apparieme
nt à base de
la texture
Fusion Minuties+Orientati
Minuties Minuties+
/ / on+ Fréquences+
+SIFT Orientation
Lignes principales
Amélioration (Hong, et al.,
de qualité 1998) Filtre de (Hong, et al.,
/ Filtre de Gabor
+ADD+ACM+ Gabor 1998)
CLAHE
Calcul du Amélioratio
De
champ n de
l’empreinte
d’orientation (Funada, et
digitale Amélioration de
al., 1998) / Gradient
Techniques
118
Comme le montre le Tableau 8, aucune standardisation aux niveaux des bases de
données et des tests utilisés n’existe. Chaque chercheur a conçu sa propre base de tests. Seul
Jain 2009 utilise des vraies empreintes latentes. Ainsi, nous pouvons dire que les autres
travaux se sont concentrés sur le problème de partialité plutôt que la dégradation de
qualité.
(Jain & (Jain & Feng, (Laadjel, et al., (Laadjel, et (Dai & Zhou,
Demirkus, 2009) 2009) al., 2010) 2011)
2008)
Résolution (dpi) 500 400, 500, 1000 500 500 500
Taille 500*500 / 1024*1024 1024*1024 2040*2040
Empreintes
100 / 100 100 13736
uniques
BDD des tests
Empreintes
1000 10200 200 200 14576
Complètes
Empreintes 800 + 800
Synthetic- 500 / introduction +rotation et /
Latentes de bruit bruit
Empreintes
Pseudo- 240 150 / / 720
Latentes
Empreintes
/ 100 / / /
Latentes
EER 0.03%
/ / 0.8% 5%
Résultats
0.38%
Rank-1 96% (synt.)
78.7%(Pseudo) 91.8%
82% / /
69% (latentes) (Pseudo)
(Pseudo)
Tableau 8-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire latente (Tests et
résultats)
Comme nous avons pu constater à travers notre étude, la plupart de ces travaux
s’inspire principalement de la reconnaissance digitale et applique directement des
approches conçues pour la reconnaissance de cette dernière pour une reconnaissance
d’empreinte palmaire partielle. Les caractéristiques principales exploitées étant les
minuties et les crêtes, les auteurs ont pris en charge les spécificités liées à la nature de ces
119
derniers dans l’empreinte palmaire. Ainsi, nous pouvons souligner les problèmes suivant
comme étant les problèmes principaux qu’ont visés les auteurs dans leurs travaux1
1. L’estimation initiale :
La méthode basée sur le gradient : l’idée de base de cette technique est que les crêtes et
les vallées peuvent être assimilées à des bandes noires et blanches. Par conséquent,
l’orientation des crêtes est perpendiculaire à celles du gradient. C’est la méthode
classique utilisée dans l’empreinte digitale comme dans (Hong, et al., 1998). Elle a été
reprise pour l’empreinte palmaire dans (Laadjel, et al., 2010).
La transformée discrète de Fourier : Cette technique suppose que les ondes sinusoïdales
peuvent représentées efficacement les bandes noires et blanches. Par conséquent, le pic
(point maximal) en domaine fréquentiel dans une région locale correspond aux lignes
centrales dans les bandes d’une image. Cette technique a été appliquée pour l’empreinte
palmaire dans (Funada, et al., 1998) et dans (Jain & Feng, 2009).
La Banque des filtres de Gabor : Cette technique partage les mêmes suppositions que
celle de Fourier. Dans le domaine fréquentiel, la méthode de la banque des filtres de
1 Sauf pour les travaux de Laadjel qui lui ne mentionne pas ces problèmes et ne les prend pas en
considération (Dans (Laadjel, et al., 2010) les minuties sont utilisées comme caractéristique principale
mais ces problèmes ne sont pas discutés)
120
Gabor multiplie le spectre de fréquence de la région locale par des filtres de Gabor et
choisit comme orientation locale des crêtes la direction du filtre dont la réponse est la
plus forte. Cette méthode est appliquée sur l’empreinte digitale mais se trouve très lente
pour une application sur l’empreinte palmaire dont la surface est large.
La technique composite : comme nous l’avons vu dans (Dai & Zhou, 2011), Dai critique
les trois précédentes méthodes et les considère non convenable aux spécificités des
empreintes palmaires. Il définit sa propre méthode en combinant la DFT sur les régions
à nombre réduit de plis et une méthode à base de la transformée de Radon dans les
régions riches en plis.
2. Le post lissage :
Une phase est nécessaire pour corriger les erreurs mineures dans le résultat de
l’estimation initiale. Plusieurs méthodes sont couramment utilisées telles que :
Comme les plis ne peuvent pas être supprimés complètement dans la phase
d’amélioration de qualité de l’image. Il en reste, qui vont provoquer des discontinuités au
niveau des crêtes et entrainer ainsi des détections de fausses minuties. Ces dernières
présentent l’inconvénient d’être non robuste et doivent par conséquent être éliminés. Cela
est dû au fait que beaucoup de ces plis change avec la saison et le climat (Dai & Zhou, 2011).
121
opposée se trouvant dans une petite région de voisinage (elle l’est considère fausses
minuties). Cette procédure part du principe que les plis sont étroits chose qui n’est pas
valide pour les empreintes palmaires où les plis sont plutôt épais dans plusieurs régions
(Dai & Zhou, 2011).
Augmenter la taille du voisinage pour prendre en charge les plis épais n’est pas une
solution envisageable. Une telle augmentation peut entrainer la perte de minuties valides en
les classant comme fausses. La solution proposée dans les travaux étudiés consiste à utiliser
les informations des plis elles même (la carte des plis) pour éliminer les points minuties qui
coïncident sur les plis. Et ainsi se débarrasser des fausses minuties (Dai & Zhou, 2011).
Comme le souligne Jain dans (Jain & Demirkus, 2008), la présence des minuties n’est
pas uniforme sur toute la surface de l’empreinte. Ceci nous pousse à penser à d’autres
caractéristiques ou points d’intérêt à extraire.
6. CONCLUSION :
A travers notre étude, nous avons remarqué que le nombre de travaux abordant la
reconnaissance de l’empreinte palmaire latente est faible. Ces travaux sont des adaptations
d’approches utilisées en reconnaissance digitale.
Jain, pionnier en reconnaissance digitale, initie les travaux sur l’empreinte latente
par une exploitation d’un extracteur commercial de minuties conçu pour l’empreinte digital.
Cette exploitation seule n’étant pas satisfaisante, il la renforce par les caractéristiques SIFT
déjà exploitées sur l’empreinte digitale (bien qu’elles soient conçues principalement pour la
reconnaissance d’objets). Dans son deuxième travail, Jain utilise son background sur la
reconnaissance digitale pour une application directe sur la reconnaissance d’empreinte
palmaire partielle à travers un appariement local de minuties avec consolidation. Il apporte
quelques adaptations concernant les orientations et les fausses minuties mais ne sort pas
du domaine digital.
122
être classée comme technique de reconnaissance digitale par corrélation. Dans un deuxième
travail, Laadjel s’inspire des techniques de reconnaissance d’objet par caractéristiques
invariantes. Il remplace les extrema utilisés dans la technique SIFT par les minuties. De
même, cette méthode peut être vue comme un appariement local à base de minuties (à base
de structure local évoluée-texture).
Le dernier travail que nous avons étudié, celui de Dai, visait de sa part l’étude des
différentes caractéristiques de l’empreinte digitale pouvant être extraite de l’empreinte
palmaire ainsi que leurs fusions.
Comme nous avons pu le constater, lors de l’application des approches digitales sur
l’empreinte palmaire, des adaptations liées aux spécificités de cette dernières ont du être
prises en charge (ex : les technique d’amélioration de la qualité de l’image, les techniques de
l’estimation des champs d’orientation, les techniques d’élimination des fausses minuties…).
Dans ces travaux, plusieurs caractéristiques telles que les minuties, les informations
de la texture (orientation et fréquence) et les lignes principales ont été exploitées
Cependant, d’autres caractéristiques et point d’intérêts (ex. les coins par Harris, par
Moravec, par Plessely.. et les tâches par Laplacienne de la gaussienne, le déterminants
Hessian..) issus du domaine de reconnaissance d’objet paraissent intéressants à explorer. La
reconnaissance de l’empreinte palmaire partielle peut, effectivement, être vue comme une
reconnaissance d’objet dans l’image. De plus, elle peut emprunter le concept des
descripteurs locaux invariants aux changements utilisé dans ce domaine. D’autre part, la
reconnaissance d’empreinte partielle peut être vue comme une application du recalage
d’image. Ceci nous incite à penser à l’application des techniques utilisées dans ce domaine
(autre que la POC).
123
CONCLUSION GENERALE
« Un problème sans solution est un problème mal posé », a dit Albert (Einstein)
Une des modalités les plus utilisée dans la reconnaissance biométriques est
l’empreinte palmaire. Elle est utilisée dans sa totalité, acquise directement en basse-
résolution, pour les reconnaissances civiles et commerciales exigeant un temps réel et un
coût faible. Et elle est exploitée dans son état latent partiel en haute-résolution pour les
enquêtes dans le cadre criminalistique.
Après avoir étudié la reconnaissance biométrique dans son cas le plus général suivi
de celui spécifique au cas criminalistique, nous avons présenté les limites de l’application
d’une approche conçue pour l’empreinte palmaire complète sur celle partielle. Puis nous
sommes passés aux problèmes à prendre en charge lors de l’adaptation des approches
conçues pour l’empreinte digitale. Puis en dernier lieu, nous avons dressé un état de l’art
des approches de reconnaissance d’empreinte latentes.
Cette étude approfondie de l’empreinte palmaire complète et partielle ainsi que celle
digitale nous a permis de souligner des grandes lignes pouvant être sujet à d’éventuels axes
de recherche :
124
L’élimination des fausses minuties: Les méthodes traditionnelles utilisées dans
cette procédure pour l’empreinte digitale reposent sur l’étroitesse des plis. Cela
n’est pas vérifié dans l’empreinte palmaire.
Chercher d’autres points caractéristiques intéressants qui soient dispersées
uniformément sur toute l’empreinte afin de remédier aux manques de minuties
dans certaines parties
L’automatisation de la classification des empreintes partielles suivant la partie
de la paume dont elles sont issues.
Exploiter plusieurs caractéristiques à la fois et aboutir à une meilleure fusion et
prendre en charge la qualité locale dans le score.
Exploiter les évolutions des approches de reconnaissance basées sur les
caractéristiques locales invariantes à l’échelle et robustes aux transformations
(rotation et translation). Ces dernières sont utilisées avec succès dans différentes
applications de traitement d’image telles que : la reconnaissance des objets, la
reconnaissance des textures, le recouvrement des images incomplètes et la
classification des objets en catégories... Leur efficacité dans la détection,
localisation et identification des objets dans les images est inspirante pour plus
d’exploitation dans la reconnaissance des empreintes partielles.
Etudier les approches utilisées dans le recalage d’image pour s’en inspirer dans
notre cas.
125
BIBLIOGRAPHIE
Alexander, A., Botti, F., Dessimoz, D. & Drygajlo, A., 2004. The effect of
mismatched recording conditions on human and automatic speaker recognition in forensic
applications. Forensic Science International, Decembre, Volume 146, p. S95–S99.
Alexandre, G., 1996. Computerized classification of the shoeprints of burglar’s
soles. Forensic Science International, 82(1), pp. 59-65.
Anon., s.d. Francisca Rojas. [En ligne]
Available at: http://www.police-scientifique.com/fransisca-rojas
[Accès le 12 Janvier 2012].
Bazen, A. M. & Gerez, S. H., 2001. An Intrinsic Coordinate System for Fingerprint. s.l.,
s.n., p. 198–204.
Bazen, A. M. et al., 2000. A Correlation-Based Fingerprint Verification System. s.l., s.n.
Belguechi, R., 2006. Contribution à la reconnaissance d'empreinte digitales par une
approche hybride, s.l.: s.n.
Benhammadi, F. et al., 2007. Fingerprint matching from minutiae texture maps.
Pattern Recognition, 40(1), p. 189–197.
Boukhari, W. & Benyettou, M., 2008. Identification Biométrique des Individus par
leurs Empreintes Palmaires « Palmprints » : Classification par la Méthode des Séparateurs à
Vaste Marge (SVM).
Bouridane, A., 2009. Imaging for Forensics and Security- From Theory to Practice.
s.l.:Spring.
Brass, P. & Knauer, C., 2000. Testing the congruence of d–dimensional point sets. s.l.,
s.n., pp. 310-314.
Bromby, M. C., 2009. Face, Forensic Evidence of. Dans: Encyclopedia of Biometrics.
s.l.:Springer.
Caimao, Y., Dongmei, S., Di, L. & Siu-Ye, C., 2010. A Research on Feature Selection
and Fusion in Palmprint Recognition. Emerging Techniques and Challenges for Hand-Based
Biometrics (ETCHB), 2010 International Workshop on, pp. 1-6.
Champod, C., 2009. Earprints, Forensic Evidence of. Dans: Encyclopedia of
Biometrics. s.l.:Spring.
126
Champod, C., 2009. Forensic Applications, Overview. Dans: Encyclopedia of
Biometrics. s.l.:Spring.
Chen, H. & Jain, A. K., 2009. Automatic Forensic Dental Identification. Dans:
Handbook of Biometrics. s.l.:Springer.
Chen, J. & Moon, Y.-S., 2008. Using SIFT Features in Palmprint Authentication.
Pattern Recognition, 2008. ICPR 2008. 19th International Conference on, pp. 1- 4.
Chen, J. & Moon, Y.-S., 2008. Using SIFT Features in Palmprint Authentication.
Chen, J. & Moon, Y.-S., 2008. Using SIFT Features in Palmprint Authentication. s.l.,
s.n., pp. 1-4.
Chen, X., Tian, J. & Yang, X., 2006. A new algorithm for distorted fingerprints
matching based on normalized fuzzy similarity measure. IEEE Transactions on Image
Processing, 15(3), p. 767–776.
Connie, T., Teoh Beng Jin, A., Goh Kah, M. & Ngo Chek Ling, D., 2005. An
automated palmprint recognition system. Image and Vision Computing, Volume 23, p. 501–
515.
Connie, T., Teoh, A., Goh, M. & Ngo, D., 2003. Palmprint Recognition with PCA and
ICA. Image and Vision Computing , p. 232–227.
Dai, J. & Zhou, J., 2011. Multifeature-Based High-Resolution Palmprint Recognition.
IEEE Transactions on Pattern Analysis and Machine Intelligence,, Mai, 33(5), pp. 945-957.
Dass, S. C., Pankanti, S., Prabhakar, S. & Zhu, Y., 2009. Individuality of
Fingerprints. Dans: Encyclopedia of Biometrics. s.l.:Springer.
de Chazal, P., Flynn, J. & Reilly, R. B., 2005. Automated Processing of Shoeprint
Images Based on the Fourier Transform for Use in Forensic Science. IEEE Trans. On Pattern
Analysis and Machine Intelligence, 27(3), pp. 341-350.
Delac, K. & Grgic, M., 2004. A survey of biometric recongnition methods.
Zadar,Croatia, s.n.
Dessimoz, D. & Champod, C., 2009. Linkages between Biometrics and Forensic.
Dans: Handbook of Biometrics. s.l.:Springer.
Dorion, R. B. J., 2005. Bitemark evidence. New York: Marcel Dekker.
Doublet, J., Lepetit, O. & Revenu, M., 2007. Contactless palmprint authentication
using circular gabor filter and approximate String matching. s.l., s.n., pp. 511-516.
Doublet, J., Revenu, M. & Lepetit, O., 2007. Robust GrayScale Distribution
Estimation for Contactless Palmprint Recognition. s.l.:Biometrics: Theory, Applications, and
Systems, 2007. BTAS 2007. First IEEE International Conference on.
127
Duta, N., Jain, A. K. & Mardia, K. V., 2002. Matching of palmprints. Pattern
Recognition Letters , Volume 23, p. 477–485.
Fang, L., Leung, M. K. & Shikhare, T., 2004. Palmprint Classification.
Feng, J., 2007. Combining minutiae descriptors for fingerprint matching. Pattern
Recognition, Volume 41, p. 342 – 352.
Feng, J. & Cai, A., 2006. Fingerprint Representation and Matching in Ridge
Coordinate System. s.l., s.n., p. 485–488.
Feng, J., Ouyang, Z. & Cai, A., 2006. Fingerprint matching using ridges. Pattern
Recognition, 39(11), p. 2131–2140.
Funada, J.-i.et al., 1998. Feature Extraction Method for Palmprint Considering
Elimination of Creases. s.l., s.n., pp. 1849- 1854.
Goh Kah Ong Michael, T. C. A. B. J. T., 2008. Touch-less palm print biometrics: Novel
design and implementation. s.l.:Image and Vision Computing 26.
Gueham, M., Bouridane, A. & Crookes, D., 2007. Automatic recognition of partial
shoeprints based on phase-only corelation. s.l., s.n., pp. IV - 441 - IV - 444 .
Hamamoto, Y., 1999. A Gabor Filter-Based Method for Fingerprint Identification.
Dans: in Intelligent Biometric Techniques in Fingerprint & Face Recognition. s.l.:CRC Press,
pp. 137 - 151.
Hicklin, R. A., 2009. Anatomy of Friction Ridge Skin. Dans: Encyclopedia of
Biometrics. s.l.:Springer.
Hicks, T. & Coquoz, R., 2009. Forensic DNA Evidence. Dans: Encyclopedia of
Biometrics. s.l.:s.n.
Hong, L., Wan, Y. & Jain, A., 1998. Fingerprint Image Enhancement: Algorithm and
Performance Evaluation. IEEE Transactions on Pattern Analysis and Machine Intelligence,
Aout, 20(8), pp. 777- 789.
Huanga, D.-S., Jiaa, W. & Zhang, D., 2008. Palmprint verification based on principal
lines. Pattern Recognition , Issue 41, p. 1316 – 1328.
Huber, R. H. A., 1999. Handwriting Identification: Facts and Fundamentals. Boca
Raton, FL: CRC Press.
Ito, K. et al., 2005. A Fingerprint Recognition Algorithm Using Phase-Based Image
Matching for Low-Quality Fingerprints. s.l., s.n., p. 33–36.
Ito, K. et al., 2004. A fingerprint matching algorithm using phase only correlation.
IEICE Trans Fundam Electron Commun Comput Sci (Inst Electron Inf Commun Eng), E87-A(3),
pp. 682-691.
128
J. You, W. K. D. Z. a. K. C., 2004. On hierarchical palmprint coding with multiple
features for personal identification in large databases. IEEE Transactions on Circuits and
Systems for Video Technology.
Jain, A. K. & Demirkus, M., 2008. On Latent Palmprint Matching.
Jain, A. K. & Feng, J., 2009. Latent Palmprint Matching. IEEE Transactions on pattern
analysis and machine intelligence, Juin, 31(6), pp. 1032-1047.
Jain, A. K., Feng, J., Nagar, A. & Nandakumar, K., 2007. On Matching Latent
Fingerprints. s.l., s.n., pp. 1-8.
Jain, A. K., Flynn, P. & Ross, A. A., 2009. Handbook of Biometric. s.l.:Springer.
Jain, A. K. & Nandakumar, K., 2009. Biometric System Design, Overview. Dans: S. Z.
Li, éd. Encyclopedia of Biometrics. s.l.:Springer, p. 135.
Jain, A. K., Prabhakar, S., Hong, L. & Pankanti, S., 2000. Filterbank-based
fingerprint matching. IEEE Transactions on Image Processing, Volume 9, p. 846–859.
Jain, A. K., Ross, A. & Prabhakar, S., 2004. An Introduction to Biometric
Recognition. IEEE Transactions on Circuits and Systems for Video Technology, Special Issue on
Image- and Video-Based, January.14(1).
Jang, J. & Kim, H., 2009. Performance Mesures. Dans: Encyclopedia of Biometrics.
s.l.:Springer.
Jea, T.-Y. & Govindaraju, V., 2005. A minutia-based partial fingerprint recognition
system. Pattern Recognition, 38(10), p. 1672–1684.
Kasprzak, J. L. B., 2001. Cheiloscopy. Human Identification on the Basis of Lip
Prints (in Polish).
Kong, A. W. K., 2007. Palmprint Identification Based on Generalization of IrisCode
(thèse), Waterloo, Ontario, Canada: Electrical and Computer Engineering.
Kong, A., Zhang, D. & Kamel, M., 2009. A survey of palmprint recognition. Volume
42.
Kong, W. K., Zhang, D. & Li, W., 2003. Palmprint feature extraction using 2-D Gabor
fillters. Pattern Recognition, 36(10), pp. 2339-2347.
Konuk, B., 2007. Palmprint recognition based on 2D Gabor Filters (thèse), s.l.: s.n.
Kozik, R. & Chora, M., 2010. Combined Shape and Texture Information for Palmprint
Biometrics. s.l.:Journal of Information Assurance and Security 5.
Krishneswari, K. & Arumugam, S., 2010. A Review on Palm Print Verification
System. International Journal of Computer Information Systems and Industrial Management
Applications (IJCISIM), Volume 2, pp. 113-120.
129
Kumar, A., Mundra, T. S. & Kumar, A., 2009. Anatomy of Hand. Dans: Encyclopedia
of Biometrics. s.l.:Springer.
Kumar, A. & Zhang, D., 2005. Personal authentication using multiple palmprint
representation. Pattern Recognition.
Kwon, D., Yun, I. D., Kim, D. H. & Lee, S. U., 2006. Fingerprint Matching Method
Using Minutiae Clustering and Warping. s.l., s.n., p. 525–528.
Laadjel, M., 2009. Human recognition based on palm patterns (thèse, Submitted in
accordance with the requirements for the degree of). s.l.:Queen's University of Belfast The
School of Electronics, Electrical Engineering and Computer Science.
Laadjel, M. et al., 2010. Partial Palmprint Matching Using Invariant Local Minutiae
Descriptors. Dans: Transactions on data hiding and multimedia security V. Verlag Berlin
Heidelberg: Springer, p. 1–17.
Laadjel, M., Bouridane, A., Kurugoll, F. & Boussakta, S., 2008. Palmprint
Recognition using Fisher-Gabor Feature Extraction. Acoustics, Speech and Signal Processing,
2008. ICASSP 2008. IEEE International Conference on, pp. 1709- 1712.
Laadjel, M., Kurugollu, F., Bouridane, A. & Boussakta, S., 2009. Degraded partial
palmprint recognition for foreinsic investigations. ICIP'09 Proceedings of the 16th IEEE
international conference on Image processing, pp. 1497-1500.
Laadjel, M., Kurugollu, F., Bouridane, A. & Yan, W., 2009. Palmprint Recognition
Based on Subspace Analysis of Gabor Filter Bank. Advances in multimedia information
processing - PCM 2009, Volume 5879/2009, pp. 719-730.
Lindoso, A., Entrena, L., Liu-Jimenez, J. & Millan, E. S., 2007. Correlation-Based
Fingerprint Matching with Orientation Field Alignment. s.l., s.n., p. 713–721.
Li, W., Zhang, D. & Xu, Z., 2003. Image alignment based on invariant features for
palmprint identification. Signal Processing: Image Communication, 18(5), p. 373–379.
Lowe, D. G., 2004. Distinctive Image Features from Scale-Invariant Keypoints.
International Journal of Computer Vision, 2004..
Lu, G., Zhang, D. & Wang, K., 2003. Palmprint recognition using eigenpalms
features. Pattern Recognition Letters 24 (2003) 1463–1467, Volume 24, p. 1463–1467.
Lynnerup, N. & Peter K., L., 2009. Gait, Forensic Evidence of. Dans: Encyclopedia of
Biometrics. s.l.:Springer.
Madasu, H., Gupta, H. M., Mittal, N. & Vasikarla, S., 2009. An Authentication System
Based on Palmprint. s.l., s.n., pp. 399- 404.
130
Maltoni, D., Maio, D., Jain, A. K. & Prabhakar, S., 2009. Handbook of Fingerprint
Recognition. s.l.:Springer.
Methani, C. & Namboodiri, A. M., 2010. Video Based Palmprint Recognition.
s.l.:2010 International Conference on Pattern Recognition.
Mikolajczyk, K. & Schmid, C., 2005. A Performance Evaluation of Local Descriptors.
IEEE Transactions on pattern analysis and machine intelligence, Octobre, 27(10), pp. 1615-
1630.
Morizet, N., 2009. Reconnaissance Biométrique par Fusion Multimodale du Visage et
de l’Iris, Paris: s.n.
Motorola, 2006. An introduction to biometrics, s.l.: s.n.
Munagorri, M. R. E. d., 1999. La recevabilité d'une expertise scientifique aux États-
Unis. Revue internationale de droit comparé., 51(3).
Nanni, L. & Alessandra, L., 2008. Local binary patterns for a hybrid fingerprint
matcher. Pattern Recognition, 41(11), p. 3461–3466.
Nibouche, O. et al., 2009. Retrieval of shoemarks using harris points and sift
descriptor. s.l., s.n., pp. 2897- 2900 .
NSTC, 2006. Palm Print Recognition, s.l.:
http://www.biometricscatalog.org/NSTCSubcommittee..
Oh, C. & Ryu, Y., 2004. Study on the center of rotation method based on minimum
spanning tree matching algorithm for fingerprint recognition. Optical Engineering, 43(4), p.
822–829.
Panigraphy, S. K., Jena, D. & Jena, S. K., 2008. A Rotational- and Translational-
Invariant Palmprint Recognition System. Tiruchirapalli, s.n., pp. 380-383.
Park, U., Pankantia, S. & Jain, A. K., 2008. Fingerprint Verification Using SIFT
Features.
Park, U., Pankanti, S. & Jain, A. K., 2008. Novel Fingerprint Verification System
Using SIFT. s.l., s.n.
Phillips, P. J. et al., 2002. Face Recognition Vendor Test 2002:Overview and
Summary, s.l.: s.n.
Prabhakar, S., Pankanti, S. & Jain, A. K., 2003. Biometric Recognition:Security and
Privacy Concerns. IEEE Security and Privacy Magazine, March/April, 1(2), pp. 33-42.
Qi, J. & Wang, Y., 2005. A robust fingerprint matching method. Pattern Recognition,
38(10), p. 1665–1671.
131
Qu, Z. & Wang, Z.-y., 2010. Research on Preprocessing of Palmprint Image Based on
Adaptive Threshold and Euclidian Distance. s.l., s.n., pp. 4238- 4242.
Roberts, C., 2005. Biometrics, s.l.: s.n.
Ross, A., Jain, A. K. & Reisman, J., 2003. A hybrid fingerprint matcher. Pattern
Recognition, 36(7), p. 1661–1673.
Ross, A., Reisman, J. & Jain, A. K., 2002. Fingerprint Matching Using Feature Space
Correlation. s.l., Springer.
Shanga, L., Huang, D.-S., Dua, J.-X. & Zhenga, C.-H., 2006. Palmprint recognition
using FastICA algorithm and radial basis probabilistic neural network. Neurocomputing,
69(13-15), p. 1782–1786.
Shan, S., Chen, X. & Gao, W., 2009. Performance Evaluation, Overview. Dans:
Encyclopedia of Biometrics. s.l.:springer.
Sheng, W., Howells, G., Fairhurst, M. C. & Deravi, F., 2007. A memetic fingerprint
matching algorithm. IEEE Transactions on Information Forensics and Security, 2(3), p. 402–
412.
Shuai, X., Zhang, C. & Hao, P., 2007. The Optimal ROS-Based Symmetric Phase-Only
Filter for Fingerprint Verification,”. s.l., s.n., p. 381–384.
Stosz, J. D. & Alyea, L. A., 1994. Automated System for Fingerprint Authentication
Using Pores and Ridge Structure. s.l., s.n., p. 210–223.
Su, H., Crookes, D., Bouridane, A. & Gueham, M., 2007. Shoeprint Image Retrieval
Based on Local Image Features. s.l., IEEE Computer Society Washington, DC, USA ©2007 , pp.
387-392.
Sun, F., 2001. La criminologie et la criminalistique. s.l.:s.n.
Takita, K. et al., 2003. High -accuracy Subpixel Image Registration Based on Phase-
Only Correlation. IEICE Trans. Fundamentals, E-86 A(8).
Tan, X. & Bhanu, B., 2006. Fingerprint matching by genetic algorithms. Pattern
Recognition, 39(3), p. 465–477.
Tico, M., Kuosmanen, P. & Saarinen, J., 2001. Wavelet domain features for
fingerprint recognition. Electronics Letters, 37(1), p. 21–22.
Tsuchihasi, Y., 1974. Studies on Personal Identification by Means of Lip Prints.
Udupa, R., Garg, G. & Sharma, P. K., 2001. Fast and Accurate Fingerprint
Verification. s.l., s.n., pp. 192-197.
132
Wenxin, L., Zhang, D. & Zhuoqun, X., 2002. Palmprint identification by Fourier
transform. International journal of pattern recognition and artificial intelligence, 16(4), pp.
417-432.
Wong, K., Chekima, A., Dargham, J. & Sainarayanan, G., 2008. Palmprint
identification using Sobel operator. Control, Automation, Robotics and Vision.
Wu, X., Wang, K. & Zhang, D., 2002. Fuzzy Directional Element Energy Feature
(FDEEF) Based Palmprint Identification. s.l., s.n., pp. 95-98.
Wu, X., Zhang, D. & Wanga, K., 2004. Palmprint classification using principal lines.
Pattern Recognition.
Wu, X., Zhang, D. & Wang, K., 2003. Fisherpalms based palmprint recognition.
Pattern Recognition Letters, Volume 24, p. 2829–2838.
X. Wu, K. W. a. D. Z., 2004. HMMs based palmprint identification. s.l.:Lecture Notes in
Computer Science.
Xie, X., Su, F. & Cai, A., 2006. Ridge-Based Fingerprint Recognition. s.l., s.n., p. 273–
279.
Yahagi, H., Igaki, S. & Yamagishi, F., 1990. Moving-window algorithm for fast
fingerprint verification. s.l., s.n., pp. 343- 348.
Yang, W.-l. & Wang, L.-l., 2010. Research Of PalmPrint Identification Method Using
Zernike Moment And Neural Network. s.l., s.n., pp. 1310- 1313 .
Youa, J., Lia, W. & Zhanga, D., 2002. Hierarchical palmprint identification via
multiple feature extraction. Pattern Recognition 35, p. 847–859.
Zhang, D. D., 2004. Line features extraction and representation. Dans: Palmprint
Authentification. s.l.:Springer.
Zhang, D. D., 2004. Palmprint authentication. s.l.:Springer.
Zhang, D., Kong, A. & Lu, G., 2006. A study of identical twins palmprint for personal
verification, s.l.: s.n.
Zhang, D., Kong, W.-K. & You, J., 2003. On-line palmprint identification. IEEE
Transactions on Pattern Analysis and Machine Intelligence.
Zhang, D. & Shu, W., 1999. Two novel characteristics in palmprint verification:
datum point invariance and line feature matching. Pattern Recognition, 32(4), p. 691–702.
Zhang, D., Shu, W., Rong, G. & Bina, Z., 2001. Automatic palmprint verification.
International Journal of Image and Graphics, 1(1), pp. 135-151.
Zhang, L., Guo, Z., Wang, Z. & Zhang, D., 2007. Palmprint verification usiong
complex wavelat transform. s.l., s.n., pp. II - 417 - II - 420.
133
Zhao, F. & Tang, X., 2007. Preprocessing and postprocessing for skeleton-based
fingerprint minutiae extraction. Pattern Recognition, Volume 40, p. 1270 – 1281.
Zheng, X., Wang, Y. & Zhao, X., 2007. A Robust Matching Method for Distorted
Fingerprints. s.l., s.n., p. 377–380.
Zhou, J. & Gu, J., 2004. A Model-based Method for the Computation of Fingerprints
Orientation Field. IEEE Transactions on Image Processing, 13(6), pp. 821- 835.
Zitova, B. & Flusser, J., 2003. Image registration methods: a survey. Image and
Vision Computing, Volume 21, p. 977–1000.
134