Vous êtes sur la page 1sur 146

Ministère de l’Enseignement Supérieur et de la Recherche scientifique

Ecole nationale Supérieure d’Informatique (ESI)


Oued-Smar, Alger
Ecole Doctorale STIC
Sciences et Technologies de l’Information et de la Communication

Mémoire
En vue de l’obtention du diplôme de
MAGISTER EN INFORMATIQUE
Option : Informatique Répartie et Mobile (IRM)

Thème

« Reconnaissance de la paume de la main »

Réalisé par Encadré par


- TOUKA FAISAL PR. KARIMA BENATCHBA
PR. MOULOUD KOUDIL

SOUTENU LE 23/ 10/2012 DEVANT UN JURY CONSTITUE DE:

Mr. Amar BALLA Professeur (ESI, Alger) Président


Mme. Fatima BENBOUZID SI-TAYEB Maitre Conférence A (ESI, Alger) Examinatrice
Mr. Malik SI MOHAMMED Professeur (UMM Tizi-Ouzou) Examinateur
Mlle. Karima BENATCHBA Professeur (ESI, Alger) Directrice de mémoire

Promotion : 2009/2010

i
DEDICACE

Au nom d'Allah, le Tout Miséricordieux, le Très Miséricordieux


Dans le sentier d'Allah

A l’âme de ma grand-mère qui ma appris à aimer le savoir.


Aux âmes des martyres de la liberté qui m’ont appris le vrai sens de la
vie.
A mon père, A ma mère,
A mon frère et ma sœur.

Je dédie ce modeste travail.

ii
REMERCIMENTS

Louange à Allah, Seigneur de l’univers.


Avec un grand plaisir et une entière satisfaction, je tiens à présenter mon entière
reconnaissance aux personnes qui m’ont aidé et encouragé dans la réalisation de ce travail :

Mes plus vifs remerciements vont à ma famille pour m’avoir soutenue tout au long des
années. Qu’elle trouve ici l’expression de ma sincère gratitude.

Je tiens à remercier mes encadreurs, Mlle. Karima BENATCHBA et Mr. Mouloud KOUDIL, pour
avoir bien accepté de m’encadrer et de m’accompagner dans ce sujet.

Je suis redevable aux membres de mon jury pour avoir accepté de juger mon travail.

Merci à tous les membres du laboratoire LMCS qui m’étaient une deuxième famille.

Merci à tous ceux qui ont contribué de près ou de loin à la réalisation de ce travail.

Merci à tous ceux qui ont cru en moi et m'ont encouragée durant ce long projet.

iii
RESUME

L’empreinte palmaire est une modalité de reconnaissance biométrique très


importante de part sa force discriminatoire, sa robustesse à travers le temps et son
acceptabilité par les utilisateurs. Ceci en a fait un sujet de plusieurs travaux de recherche
récents visant l’exploitation de son image complète dans le domaine civil et commercial.
Cependant peu de travaux abordent sa reconnaissance dans le cadre d’enquête criminelle
où sa présence est plutôt sous une forme d’empreinte partielle latente.

A travers ce travail, nous allons toucher à cette reconnaissance d’empreinte


palmaire latente par une présentation comparative des travaux de recherche étudiant cette
problématique pour en sortir les différents axes et propositions de recherche potentiels.

Afin de bien comprendre ces travaux et leurs bases et concepts, il nous a fallu
étudier le domaine biométrique en général ainsi que celui criminalistique en particulier. De
plus, une étude de la reconnaissance de l’empreinte palmaire dans sa forme complète était
nécessaire pour éclaircir les limites d’application de telles approches dans notre cas. De
même, la nature de la peau de la paume de la main similaire à celle des doigts nous a
poussés à étudier les approches de reconnaissance digitale. Cette dernière étude nous a été
très importante pour mettre le point sur la source des approches appliquées sur
l’empreinte palmaire partielle et voir les défis introduits par cette dernière.

Mots Clés : Biométrie, criminalistique, empreinte palmaire, latente, partielle,


empreinte digitale, minuties.

iv
ABSTRACT

Palmprint is an important biometric modality because of its discriminatory power,


robustness over time and its acceptability by users. Thus, several recent research works
addresses its complete image recognition in civil and commercial matters. However, few
studies address recognition in the context of criminal investigation where its presence is
rather a form of latent partial print.

In this work, we will study this latent palmprint recognition through a comparative
presentation of research studying this problem in order to underline the different potential
research axes and proposals.

To understand this works and their foundations and concepts, we had to study the
biometric field in general as well as forensics one in particular. In addition, a study of the
palmprint recognition in its complete form was necessary to clarify the limits of
applicability of such approaches in our case. Moreover, the similar skin nature of hand palm
and finger pushed us to explore fingerprint recognition approaches. This latest study was
very important to put the point on the source of the applied approaches on the partial
palmprint and to see the challenges introduced by the latter.

Keywords: Biometrics, forensics, palmprint, latent, partial, fingerprint, minutiae.

v
SOMMAIRE

RESUME............................................................................................................................... IV

ABSTRACT ............................................................................................................................V

SOMMAIRE ......................................................................................................................... VI

LISTE DES TABLEAUX ..................................................................................................... IX

LISTE DES FIGURES ...........................................................................................................X

INTRODUCTION GENERALE............................................................................................ 1

CHAPITRE 1 : LA BIOMETRIE ET LA CRIMINALISTIQUE........................................ 4

1. Historique de la biométrie: .............................................................................................................. 6

2. Généralité sur la biométrie: ............................................................................................................. 9

3. le système biométrique :................................................................................................................ 10


3.1 Modes de fonctionnement d’un système biométrique : ................................................................. 10
3.2 Composition d’un système biométrique: ............................................................................................... 12
3.3 Evaluation d’un système biométrique : .................................................................................................. 15
3.3.1. Les facteurs de variation intra-classes: ........................................................................................... 15
3.3.2. La notion de « score » de similarité : ................................................................................................ 15
3.3.3. Mesures de performance d’un système biométrique :............................................................ 16
3.3.4. Les mesures de performance graphiques: ..................................................................................... 19
3.3.5. Conclusion : ................................................................................................................................................... 21

4. La criminalistique comme domaine d’application de la biométrie: .................................. 22

5. Les cas d’utilisation de la reconnaissance biométrique dans la criminalistique: ......... 23

6. Les modalités utilisées dans le domaine Criminalistique: .................................................. 26


6.1 L’ADN : .................................................................................................................................................................... 27

vi
6.2 Les caractéristiques dentaires : .................................................................................................................. 28
6.3 Les tissus mous et l’anthropologie: .......................................................................................................... 28
6.4 Les marques et les traces : ............................................................................................................................ 29
6.5 Les enregistrements digitaux (reconnaissance à distance): ........................................................ 33

7. Les différences et défis introduits par la criminalistique : .................................................. 35

8. Acceptation juridique des techniques biométriques :........................................................... 39

9. Conclusion: ........................................................................................................................................ 41

CHAPITRE 2: L’EMPREINTE PALMAIRE ET LES APPROCHES DE


RECONNAISSANCE ....................................................................................................................... 42

1. L’empreinte palmaire « Vue générale »: ................................................................................... 43


1.1 Définition : ............................................................................................................................................................ 43
1.2 Anatomie et développement de la peau palmaire : .......................................................................... 43

2. Historique de la reconnaissance palmaire : ............................................................................. 44

3. Les caractéristiques biométriques d’une empreinte palmaire et les types de


reconnaissance:....................................................................................................................................................... 45

4. Vue générale du processus de reconnaissance palmaire: .................................................... 50


4.1 Acquisition d’image (la capture d’image): ............................................................................................ 51
4.1.1. Prétraitement de l’image :...................................................................................................................... 52
4.1.2. Extraction de caractéristiques et appariement (Matching) : ................................................ 54

5. Les approches de reconnaissance des empreintes palmaires complètes:....................... 55


5.1 La reconnaissance haute résolution: ....................................................................................................... 55
5.2 La reconnaissance basse résolution: ....................................................................................................... 57
5.2.1. Les approches à base des lignes : ....................................................................................................... 58
5.2.2. Les approches statistiques: ................................................................................................................... 60
5.2.3. Les approches basées sous espace, projection : .......................................................................... 62
5.2.4. Les Approches multi-caractéristiques : ........................................................................................... 64

6. Conclusion : ....................................................................................................................................... 65

CHAPITRE 3 : LA RECONNAISSANCE PALMAIRE DANS LE DOMAINE


CRIMINALISTIQUE....................................................................................................................... 67

1. Etat de l’art de reconnaissance d’empreintes digitales : ...................................................... 68

vii
1.1 Les approches à base d’intensité (par corrélation) : ........................................................................ 70
1.2 Les approches à base de minuties : .......................................................................................................... 71
1.2.1. Appariement global : ................................................................................................................................ 72
1.2.2. Appariement local : ................................................................................................................................... 74
1.3 Les approches à base de caractéristiques non-minuties : ............................................................. 77
1.3.1. Les informations (globales et locales) issues de la texture : ................................................. 77
1.3.2. Les attributs géométriques et les relations spatiales entres les lignes de crêtes : ..... 80
1.3.3. Les caractéristiques du troisième niveau : .................................................................................... 80

2. Les limites des approches de reconnaissance des empreintes digitales pour


l’application sur celles palmaires : .................................................................................................................... 81

3. Travaux antérieurs sur l’empreinte latente partielle : ......................................................... 82


3.1 Le travail de Jain 2008 : .................................................................................................................................. 83
3.2 Le travail de Jain 2009 : .................................................................................................................................. 88
3.3 Le travail de Laadjel 2009 : .......................................................................................................................... 96
3.4 Le travail de Laadjel 2010 : .......................................................................................................................... 99
3.5 Le travail de Dai 2011 : .................................................................................................................................107

4. Comparaison des travaux antérieurs :..................................................................................... 116

5. Les problèmes soulevés dans ces travaux : ............................................................................ 119

6. Conclusion : ..................................................................................................................................... 122

CONCLUSION GENERALE ............................................................................................124

BIBLIOGRAPHIE ............................................................................................................126

viii
LISTE DES TABLEAUX

Tableau 1- Comparaison entre les types de preuves criminelles (Chen & Jain, 2009)
...................................................................................................................................................................................... 24
Tableau 2- Tableau récapitulatif des approches de reconnaissance selon la
résolution................................................................................................................................................................. 49
Tableau 3- Tableau comparatif entre les approches d'appariement locales et globales
...................................................................................................................................................................................... 72
Tableau 4- Résultat des tests du travail de Jain 2008 ............................................................. 87
Tableau 5- Résultat des tests du travail de Jain 2009 ............................................................. 94
Tableau 6- un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire
latente (publication) ........................................................................................................................................ 116
Tableau 7-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire
latente (techniques de reconnaissance)................................................................................................... 118
Tableau 8-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire
latente (Tests et résultats)............................................................................................................................. 119

ix
LISTE DES FIGURES

Figure 1- Des exemples de traits biométriques classés en catégories ............................. 10


Figure 2- Phase d'enrôlement dans un système biométrique (Prabhakar, et al., 2003)
...................................................................................................................................................................................... 12
Figure 3- Phase de reconnaissance dans un système biométrique (Prabhakar, et al.,
2003) ......................................................................................................................................................................... 13
Figure 4- Composition générale d'un système biométrique (Jain & Nandakumar,
2009) ......................................................................................................................Erreur ! Signet non défini.
Figure 5-- Distributions des authentiques et des imposteurs (Jain, et al., 2004) ........ 17
Figure 6- Exemples de courbes d'évaluation de systèmes biométriques ....................... 21
Figure 7-La courbe DTE: le taux FAR (%) en fonction du taux FRR (%) (Delac &
Grgic, 2004) ............................................................................................................................................................ 22
Figure 8- Schéma général d'un système biométrique criminalistique (Dessimoz &
Champod, 2009).................................................................................................................................................... 26
Figure 9- Un exemple d'estimation de LR (Alexander, et al., 2004) .................................. 37
Figure 10- La paume de la main ...................................................................................................... 43
Figure 11- La paume de main et ses plis ...................................................................................... 46
Figure 12- Empreintes différentes avec des lignes principales similaires (Panigraphy,
et al., 2008) ............................................................................................................................................................. 46
Figure 13- a et b: les points de référence de l'empreinte palmaire ................................... 47
Figure 14- Exemples de quatre familles de minuties (Belguechi, 2006)......................... 48
Figure 15- les points singuliers (Belguechi, 2006) .................................................................. 48
Figure 16- les caractéristiques d'une empreinte palmaire (Zhang, 2004) ................... 49
Figure 17- Processus de reconnaissance ..................................................................................... 50
Figure 18- Un Scanner d'empreinte palmaire CCD (Kong, 2007) ...................................... 52
Figure 19- Scanner CCD Vs Scanner numérique (Kong, 2007) ........................................... 52
Figure 20 Etapes de prétraitement (Chen & Moon, 2008).................................................... 53
Figure 21- Exemples d'idées pour le prétraitement des empreintes palmaires haute-
résolution ............................................................................................................................................................... 54
Figure 22- Exemples de représentation de lignes extraites ................................................. 59

x
Figure 23- Exemple de vecteur caractéristique dans le cas d''une approches
statistiques locale ................................................................................................................................................. 60
Figure 24- Exemple de plusieurs vecteurs caractéristiques (R, ϴ) ................................... 61
Figure 25- Le schéma d’un module de fusion et décision de scores utilisé dans
(Kumar & Zhang, 2005)(- Schéma illustratif des approches multi-caractéristiques à base de
fusion des scores) ................................................................................................................................................. 64
Figure 26- Schéma illustratif des approches multi-caractéristiques hiérarchiques .. 65
Figure 27- Taxonomie des différentes catégories d’approches de reconnaissance
d’empreinte digitale ............................................................................................................................................ 69
Figure 28- Exemple de corrélation entre deux empreintes digitales. .............................. 70
Figure 30- Exemple d'attributs d'une structure locale........................................................... 75
Figure 31- Illustration de la technique du "FingerCode". Vij : énergie révélée par le
filtre j dans la cellule i = l’écart moyen absolu (AAD) par rapport à la moyenne des réponses
de du filtre j a tous les pixels de la cellule i ................................................................................................ 79
Figure 32- - La structure générale du travail de Jain 2008 ................................................... 84
Figure 33- phase de segmentation et d’amélioration de contraste : (Jain & Demirkus,
2008) ......................................................................................................................................................................... 85
Figure 34- extraction des plis (Jain & Demirkus, 2008)......................................................... 85
Figure 35- Elimination des fausses minuties (Jain & Demirkus, 2008) ........................... 86
Figure 36- Exemple d'appariement des minuties et des caractéristiques SIFT (Jain &
Demirkus, 2008). .................................................................................................................................................. 86
Figure 37- La structure générale de l’approche de Jain 2009 ............................................. 89
Figure 38- Extraction des crêtes (Jain & Feng, 2009) ............................................................. 90
Figure 39- extraction des minuties: .............................................................................................. 90
Figure 40- Illustration de la construction du MinutiaCode .................................................. 92
Figure 41- a : Poc entre une empreinte partielle et complète identique, b : Poc entre
une empreinte partielle et complète différentes (Laadjel, et al., 2009). ........................................ 97
Figure 42- La structure générale de l’approche de Laadjel 2010 ................................... 100
Figure 43- Extraction des minuties (Laadjel, et al., 2010) ................................................ 102
Figure 44- Schéma illustratif de la technique de construction d’un descripteur de
minutie (ILMD),.................................................................................................................................................. 104
Figure 45- Exemples des empreintes (complètes et partielles) de la base de données
utilisée ................................................................................................................................................................... 105

xi
Figure 46- La structure générale du travail de Dai, Les étapes en rouge sont les
étapes où Dai s’introduit. ............................................................................................................................... 108
Figure 47- Les étapes de l’algorithme composite d’estimation de champs
d’orientation ........................................................................................................................................................ 109
Figure 48- Schéma détaillant la phase d'extraction et d'appariement de minuties 110
Figure 49-Exemple (a) empreinte partielle (b) les champs d’orientation (c) La carte
des densités (de fréquences) (Dai & Zhou, 2011) ................................................................................ 111
Figure 50- extraction des lignes principales: (a) image originale, (b) image des
énergies des plis (c) image des directions des plis (d) la carte des plis principale extraite
(Dai & Zhou, 2011)............................................................................................................................................ 112

xii
INTRODUCTION GENERALE

L’empreinte digitale représente l’évidence la plus répandue et la plus connue de nos


jours. Cependant, les agents de la police criminelle assurent que 30% des traces collectées
sur les lieux de crimes proviennent des empreintes palmaires. Ce taux élevé de présence de
cette trace a incité la communauté scientifique à se diriger vers une étude plus approfondie
de cette modalité biométrique. Cette étude a toujours comme but le développement
d’approches automatiques pour l’identification de la source des marques laissées sur les
scènes de crime, issues des empreintes palmaires.

La reconnaissance d’empreinte palmaire dans le cas usuel, civil ou commercial, n’est


autre qu’un processus de comparaison de deux images d’empreintes complètes de qualité
contrôlée. Cependant, dans le cas d’enquête criminelle, les marques d’empreinte palmaire
collectées, dite empreintes latentes, sont partielles, de mauvaise qualité et sans forme
structurelle définies (ni point de référence aidant à l’aligner et l’orienter). On parle ainsi de
comparaison d’empreinte latente (partielle) aux empreintes complètes. Cette différence
d’objectifs et de données a rendu difficile l’adaptation des approches conçues pour le cas
usuel d’empreinte complète et a obligé les chercheurs à exploiter d’autres pistes.

D’autre part, la nature de l’empreinte palmaire similaire à celle digitale a incité les
chercheurs à exploiter les concepts et les approches conçues pour la reconnaissance digitale.
A titres d’exemples, des points caractéristiques robustes communs, telles que les minuties,
ayant déjà prouvés leurs efficacités peuvent être utilisées pour identifier les empreintes
palmaires latentes. L’utilisation des minuties ne présente pas la seule stratégie adaptable
dans notre cas. Plusieurs autres notions déjà appliquées dans la reconnaissance digitale
peuvent être exploitées. Les descripteurs invariants aux transformations conçus en principe
pour la reconnaissance des objets dans les images et les approches de recalages d’images le
sont aussi. Malgré cette variété apparente de choix et d’idées, la reconnaissance
d’empreintes palmaires latentes reste peu abordée dans les travaux de recherche.

1
Les objectifs principaux de notre présent travail sont:

 Présenter les spécificités de l’empreinte palmaires latentes et les limites de l’application


directe des approches conçues pour l’empreinte complète. Ceci nous pousse à dresser un
état de l’art de la reconnaissance palmaire dans son cas complet.
 Présenter les points communs et les différences de l’empreinte digitale et celle palmaire.
Ceci nous pousse à dresser un état de l’art de la reconnaissance digitale.
 Etudier les travaux déjà existants dans la reconnaissance de l’empreinte palmaire
latente. Cette étude doit mettre en avant les concepts inspirant chacun des chercheurs,
les adaptations apportées, les défis relevés, leurs conclusions et recommandations ainsi
que des propositions d’amélioration. Elle doit se conclure par une phase comparative
résumant les techniques vues dans chaque phase de la reconnaissance.
 Souligner les problématiques et les challenges pouvant être considérées comme pistes
ouvertes de recherche.
 Recenser les domaines pouvant être exploités dans la reconnaissance de l’empreinte
palmaire latente.

Dans ce rapport, nous allons essayer d’atteindre ces objectifs. A travers trois
chapitres, plusieurs notions et concepts de la biométrie et de la criminalistique ainsi que de
l’empreinte palmaires vont être abordés :

 Le premier chapitre : va présenter la biométrie comme solution pour la


reconnaissance des individus ainsi que la notion du système biométrique et
ses méthodes d’évaluation. Il va étudier son application dans le domaine
médico-légal qui fut une des premières dans un cadre officiel. Il met le point
sur ses spécificités et ses cas d’utilisations ainsi que les défis introduits par ce
contexte.
 Avant d’étudier la reconnaissance de l’empreinte palmaire partielle dans un
cadre criminalistique, Le deuxième chapitre présente l’empreinte palmaire
complète comme modalité biométrique, ses caractéristiques exploitées dans
les différents types de reconnaissance ainsi que le processus général de sa
reconnaissance. Il se concentre par la suite sur les différentes approches de
reconnaissance existantes afin de mettre en avance leurs limites dans le
contexte partiel.
 Le troisième chapitre rentre dans le vif du sujet. Il porte sur les travaux
existants dans la reconnaissance de l’empreinte palmaire partielle. Afin de

2
pouvoir mettre le point sur l’inspiration de chacun d’entre eux, Il dresse un
état de l’art sur la reconnaissance digitale. Il passe par la suite vers une
présentation détaillée de ces travaux pour pouvoir les comparer et tirer les
différents problèmes soulevés qui sont toujours sujet de recherche dans le
domaine.

Nous terminerons ce document par une conclusion générale où nous tracerons des
perspectives et des propositions en vue pour ce travail tout en espérant que ce rapport
servira d'une introduction pour une recherche plus approfondie dans le domaine.

3
CHAPITRE 1 : LA BIOMETRIE ET LA
CRIMINALISTIQUE

Depuis l’aube des temps, la reconnaissance des individus a pris une importance dans
la vie humaine. Son intérêt a évolué de la simple association des personnes aux événements
ou aux transactions dans un cadre social ou commercial, à l’identification à grande échelle
dans le cadre de la sécurité des nations. Et comme tous les domaines, elle a tiré profit du
développement technologique qu’a connu le monde. On est ainsi arrivé à concevoir des
systèmes de reconnaissance, dits biométriques, complètement automatisés profitant de
plus en plus des traits physiques, morphologiques ou même comportementaux de l’être
humain.

L’une des premières applications dans un cadre officiel du concept de la


reconnaissance biométrique fut dans le domaine médico-légal. Vucetich établit la première
identification d’un criminel par sa trace d’empreinte digitale en 1892. Il déclara coupable
une femme appelée Rojas d’avoir assassiné ses deux fils grâce à ses empreintes sanglantes
laissées sur la porte du lieu du crime. Cette première utilisation de preuves biométriques a
permis d’innocenter un suspect en plus de confondre un assassin1.

Depuis ce temps, l’utilisation des empreintes digitales est devenue décisive dans
l’individualisation des personnes impliquées dans des infractions pénales par les experts de
la criminalistique. Cette utilisation de données biométriques ne s’est pas limitée aux
empreintes digitales. En 1986, et pour la première fois, l'ADN va confondre l'auteur d'un
double meurtre dans ce qu’on appelle l’affaire « Colin Pitchfork » (Champod, 2009).

1 Le 29 Juin 1892, en Argentine, Ponciano Caraballo, 6 ans, et sa sœur Felisa, quatre ans sont tués
à l'aide d'un couteau de cuisine. Leur mère révèle qu'elle a été brutalement attaquée par son voisin,
Ramon Velazquez, travaillant comme vacher. A la suite d'une dispute, celui-ci a tué ses deux enfants avec
un couteau de cuisine. Il l'a ensuite frappée avec une pelle avant de prendre la fuite. Le 8 juillet 1892, soit
neuf jours après les faits, des constatations sont réalisées sur la scène de crime par une équipe de
policiers de La Plata (pour laquelle travaillait Juan Vucetich). Ceux-ci mettent en évidence des traces
digitales sanglantes sur la porte du lieu du crime. Ils découpent des morceaux de bois de la porte
supportant les traces papillaires. Les enquêteurs prélèvent aussi les empreintes digitales de Francisca
Rojas et de Ramon Velazquez pour les comparer avec les traces sanglantes. En effet, les traces digitales,
qui au vu de leur emplacement sont celles de l'auteur, sont identifiées avec les empreintes de Francisca
Rojas. (Anon., n.d.)

4
D’autres preuves biométriques deviennent de plus en plus répandues ; l’empreinte
palmaire, les traces des chaussures, les empreintes auriculaires, les informations fournies
par les enregistrements vidéos de surveillance tels que les images de visages, la démarche,
la voix…

Dans ce chapitre, nous allons suivre l’évolution de la reconnaissance biométrique


dans l’ « historique de la biométrie », mettre le point sur le concept et les bases de la
reconnaissance automatique ainsi que sur les différentes modalités dans les « Généralité sur
la biométrie ». Une étude détaillée d’un système biométrique sera dressée dans « Le système
biométrique ». Cette étude va comporter une distinction des différents modes de
fonctionnement ainsi qu’une décomposition générale en modules d’un système
biométrique. De plus elle touchera les mesures d’évaluation de ces systèmes. Nous allons
passer par la suite vers l’étude des spécificités que rajoute le domaine médio- légal sur la
reconnaissance biométrique. Pour se faire, nous allons introduire le contexte des sciences
criminologiques et sa terminologie dans « la définition de la criminalistique ». Par la suite
nous mettrons le point sur « les cas d’utilisation de la biométrie dans la criminalistique »
Ainsi que « les modalisés biométriques spécifiques à la criminalistiques ». Nous essayerons
d’étudier la particularité d’un système biométrique liée à ce domaine dans « Les différences
et défis introduits par la criminalistique ». Et nous conclurons ce chapitre par un passage sur
« l’acceptation juridique des techniques biométriques ».

5
1. HISTORIQUE DE LA BIOMETRIE :

L’identification personnelle a été utilisée en Egypte antique. On mesurait, alors, les


caractéristiques physiques comme la taille, la couleur des yeux, les cicatrices afin de
distinguer les personnes. On pense que l’utilisation de la preuve archéologique par
empreintes digitales, du moins pour associer les personnes aux événements ou aux
transactions, remonte à la Chine ancienne, la Babylonie et en Assyrie (Motorola, 2006)

Mais ce n’est que vers la fin du 19e siècle que l'étude de la biométrie fut utilisée
officiellement et cela pour poursuivre des criminels. Alphonse Bertillon, un anthropologue
et commissaire au sein de la police française, tira profit de la stabilité de la longueur des os
durant l’âge adulte, sa variabilité entre individus ainsi que la possibilité de la mesurer avec
une précision raisonnable : il proposa un enregistrement de mesures multiples des corps
(anthropométriques) constitué de onze mesures précises (la taille de l’individu, l’envergure,
la hauteur du buste, la hauteur et la largeur de la tête, la largeur et la longueur de l’oreille
droite, la longueur du pied gauche, celle du médius gauche, de l’articulaire gauche et celle de
la coudée gauche) pour caractérisé chaque criminel arrêté. Cet enregistrement était
complété par une image photographique et un relevé de marques particulières (Champod,
2009). Connu sous le nom «Bertillonnage1 », ce système fut adopté par plusieurs autorités
de police dans le monde entier durant les années 90 du 19eme siècle (Motorola, 2006).
Cependant, ses limitations furent rapidement remarquées et le rendent vite obsolète (Les
gens peuvent bien partager les mêmes mesures physiques. Ces dernières sont aussi
corrélées et d’une distribution irrégulière(Champod, 2009).

Durant ce temps, la quête d'un identifiant physique unique et spécifique à chaque


individu a connu un intérêt important (Motorola, 2006). En 1880, Herschel, un
administrateur colonial en inde, proposa dans une publication l’usage de l’empreinte
digitale pour l’identification des individus. A la même période, Faulds, médecin
missionnaire au Japon, le proposa à des fins investigatrices. Quelques années plus tard,
l’empreinte digitale devint une alternative crédible au bertillonnage quand l'anthropologue
britannique, Sir Francis Galton, publia son axiome basique (en 1892). Il démontra la

1 Bertillon affirme qu'en prenant quatorze mensurations (taille, pieds, mains, nez, oreilles, etc.)

sur n'importe quel individu, il n'y a qu'une seule chance sur deux cent quatre-vingt-six millions pour
qu'on retrouve les mêmes mesures chez une autre personne

6
durabilité et la permanence de l’empreinte digitale tout au long de la vie1 ainsi que sa force
distinctive2 et la possibilité d’une classification fiable3 (Champod, 2009). Galton définit,
également, les caractéristiques connu sous le nom de «minuties» qui sont encore utilisées
aujourd'hui pour démontrer la correspondance entre deux impressions faites par le même
doigt (Motorola, 2006).

Les modèles et les expérimentations de Galton constituent la base du premier fichier


d'empreintes digitales établi en 1891 par Juan Vucetich, un agent de la police argentine, qui
est devenu le premier à utiliser une empreinte sanglante pour prouver l'identité d'un
meurtrier lors d'une enquête criminelle (Motorola, 2006).

En 1897, Sir Edward Henry, un officier de la police britannique siégeant en tant


qu'inspecteur général de la police du Bengale en Inde, s’est également intéressé à
l'utilisation des empreintes digitales pour l’identification des criminels. Il faut signaler qu’à
ce moment là la police du Bengale utilisait le bertillonnage. En se basant sur les
observations de Galton, Henry et ses collègues ont mis en place un système de classification
modifié permettant de classifier les empreintes digitales capturées (sur des formulaires en
papier en utilisant un tampon encreur), les archiver et les référencer pour une comparaison
ultérieure avec des milliers d'autres. En 1901, ce système a été adopté au Royaume-Uni par
Scotland Yard et son utilisation s'est ensuite propagée dans le monde entier4 pour devenir
la méthode standard de détection et de vérification d'identité dans les enquêtes criminelles
(Motorola, 2006).

A partir des années 40, on a commencé à automatiser l’identification des personnes.


En 1946, on a vu l’introduction de la technologie AFIS « Système d'identification
automatique par empreintes digitales » pour stocker des fichiers de criminels au sein du FBI
(Roberts, 2005). Avec le développement des ordinateurs et de la technologie numérique
dans les années 1960, les empreintes digitales ont pris une nouvelle dimension. Le service
d'empreintes digitales du Royaume-Uni enregistre désormais 120.000 séries d'empreintes
digitales chaque année - un volume de documents qui était tout simplement ingérable avant
l'informatisation (Motorola, 2006).

1 En se basant sur le travail et les données de Herschel


2 Il publia le premier modèle statistique de la variabilité de l’empreinte digitale et estima la
chance que deux personnes aient des empreintes identiques par 1 sur 64 milliards
3 En 3 modèles.
4 Sauf en Amérique du Sud, où le système Vucetich est resté utilisé.

7
Depuis, plusieurs technologies biométriques automatiques sont apparues : La
reconnaissance faciale en 1977, l’identification rétinienne un an après, la fréquence de
frappe au clavier en 1980 ainsi que la vérification automatique de la signature en 1883
(Roberts, 2005). L’idée d’utiliser l’ADN, quant à elle, remonte aux travaux de recherche1 de
Sir Alec Jeffreys à l’université de Leicester en Angleterre publié en 1984 (Roberts, 2005).
Mais son utilisation et son développement n’ont pris de l’ampleur que dans les années 90 ;
avec la création de la première base de données nationale d’ADN établie en UK en 1995. De
même, l’iris comme base d’identification a été mentionné par Frank Buch en 1936 et mise
au point en 1994 par la publication de l’algorithme de Daugman (Roberts, 2005). En 1998,
zhang publia le premier article sur l empreinte palmaire (Roberts, 2005).

Ainsi, les premières applications de la biométrie furent destinées au contexte


médico-légal. La biométrie toucha par la suite le domaine gouvernemental pour atteindre
de nos jours le domaine civil et commercial. Aujourd’hui, la technologie biométrique
utilisant des techniques informatiques de pointe devient largement adoptée en tant que
mesure de sécurité de premier ordre pour la vérification d'identité temps réel que cela soit
dans le contexte où la présence est physique (cas des aéroports) ou virtuelle comme dans
les applications e-commerce sur internet. Elle propose ainsi une alternative plus pratique et
plus sécurisée que les techniques traditionnelles2 de reconnaissance ayants connues leurs
limites.

En un siècle, la biométrie a évolué d'un ruban à mesurer, et des techniques d'encre


et de pad nécessitant de vastes ressources de classement manuel et d'archivage, en un
processus de traitement et de lecture biométrique numérique automatisée. Cela s’est
produit grâce à la capacité de stockage informatique, les techniques de recherche et de
correspondance automatique, ainsi que les systèmes d’archivage et d'accès vaste à travers
le monde des liens (internet) (Motorola, 2006).

Un historique plus détaillé et un calendrier de faits sont fournis dans (Roberts,


2005)

1 Comme étant La technique du polymorphisme de longueur des fragments de restriction


« RFLP ».
2 Traditionnellement, il existe deux approches pour identifier un individu. Une première fondée
sur une connaissance (knowledge-based) tel qu’un mot de passe ou un code PIN et une seconde basée sur
une possession (token- based) qui peut s’agir d’une pièce d’identité, une clef ou un badge, etc

8
2. GENERALITE SUR LA BIOMETRIE :

Le terme biométrie/biométriques provient des mots grecs « Bios » (la vie) et


« Metrikos » (mesure). Il peut avoir deux définitions principales qui se complètent (Morizet,
2009):

 Selon le CLUSIF (CLUb de la Sécurité des systèmes d’Information Français.) : La


biométrie est la science qui étudie à l’aide des mathématiques, les variations
biologiques à l’intérieur d’un groupe déterminé.

 Selon la RAND Public Safety and Justice : Toute caractéristique physique ou trait
personnel automatiquement mesurable, robuste et distinctif qui peut être employé
pour identifier un individu ou pour vérifier l’identité qu’un individu affirme.

Une technologie biométrique est donc une méthode d’identification automatique


d’une personne en se basant sur une caractéristique physique ou comportementale. En
d’autre terme la biométrie identifie la personne à partir de «qui elle est» plutôt que « ce
qu'elle a» ou «ce qu'elle sait » (Bouridane, 2009).

On note que la biométrie telle que nous la connaissons aujourd'hui peut être
considérée comme l'extension de l'approche anthropométrique de Bertillon, bénéficiant de
l'automatisation et l'utilisation de fonctionnalités supplémentaires.

Afin d’être considéré comme technique de reconnaissance biométrique, un trait


humain physiologique ou comportemental doit répondre à un certain nombre d’exigences
biométriques (Delac & Grgic, 2004):

 L'universalité (Universality) : Tout le monde devrait l'avoir;


 L’unicité/Le critère distinctif (Distinctiveness): Deux personnes ne devraient pas
avoir les mêmes caractéristiques;
 La permanence/la robustesse (Permanence) : Il devrait être invariant sur une
période de temps;
 Le recouvrement (Collectability): il doit être enregistrable et mesurable.

Dans les applications réelles, une utilisation pratique d’un trait biométrique pour la
mise en place d’un système de reconnaissance doit prendre en compte également trois
facteurs supplémentaires (Jain, et al., 2004):

9
 la performance du système : qui se réfère à la précision et la vitesse de la
reconnaissance, ainsi qu’aux ressources nécessaires pour atteindre cette précision et
vitesse.
 l'acceptabilité : un trait biométrique doit présenter un minimum de facilité
d’utilisation et d’acceptation par ses utilisateurs.
 le contournement : un trait biométrique ne doit pas être facilement contournable.

La Figure 1 suivante regroupe et classifie quelques traits biométriques répandus :

les techniques morphologiques


les techniques comportementatles

•L'odeur •La signature •Les empreintes


•Le sang •La dynamique de digitales
les techniques biologiques

•La salive frappe •La géometrie de la


•L'urine •La démarche main
•L'ADN •La voix •L'iris
•Le visage
•Les empreintes
palmaires
•La forme de l'oreille

Figure 1- Des exemples de traits biométriques classés en catégories

3. LE SYSTEME BIOMETRIQUE :

Un système biométrique est essentiellement un système de reconnaissance de


formes qui identifie une personne à base d’un vecteur de caractéristiques provenant d'un
trait spécifique physiologique ou comportemental d’une personne. Ce vecteur de
caractéristiques est généralement stocké dans une base de données (ou enregistré sur une
carte à puce donnée à l'individu) après avoir été extrait.

3.1 Modes de fonctionnement d’un système biométrique :


Selon son utilisation, un système biométrique peut fonctionner dans deux modes:
vérification ou identification. Si l'identification consiste à comparer les informations
biométriques acquises aux modèles correspondant à tous les utilisateurs dans la base de

10
données, la vérification quant à elle consiste à comparer ces informations uniquement aux
modèles correspondant à l'identité revendiquée (Delac & Grgic, 2004).

Un problème de vérification peut être formalisé mathématiquement comme suit (Jain,


et al., 2004) :

Etant donnés, en entrée, un vecteur de caractéristiques XQ (extrait de la donnée


biométrique) et une identité revendiquée I. Déterminer à quelle classe (w1 ou w2)
appartient le pair (I, XQ) où w1 indique que la revendication est vraie (un authentique) et w2
indique le cas contraire (un imposteur).

XQ est comparé à XI ; le modèle correspondant à l’utilisateur I dans la base de


données pour déterminer sa catégorie :

Où S est la fonction qui mesure le score de similarité entre les deux vecteurs de
caractéristiques XQ et XI et t définit le seuil de correspondance.

Le problème d’identification quant à lui peut être formulé de la manière suivante


(Jain, et al., 2004) :

Etant donné un vecteur de caractéristiques déterminer l’identité Ik ; k ∈ {1, 2,


3,…N, N+1} où I1, I2,….IN désignent les identités inscrites dans le système et IN+1 désigne le
cas de rejet (quand aucune identité ne correspond à l’utilisateur)

XQ

Les auteurs dans (Phillips, et al., 2002), ont défini un troisième mode de
reconnaissance appelé « watch-list » ou « liste de contrôle ». Ce mode est un autre scenario
d’identification non pas sur un ensemble fermé comme dans le cas classique (Closed-set
identification) mais sur un ensemble ouvert (Open-set identification) (Shan, et al., 2009).
Dans ce scénario, répondant à la question « suis-je recherché ? », il suffit de vérifier que
l’individu n’appartient pas à une liste d’identités donnée sans qu’il se trouve obligé d’en
revendiquer une. Un exemple de son application est de comparer l’identité d’un certain
passager avec une liste de terroristes connus dans le cadre de la surveillance nationale
(Bouridane, 2009).

11
3.2 Composition d’un système biométrique:
Tout système biométrique passe par deux phases principales:

 l’enrôlement (inscription, enregistrement): c’est la phase où un utilisateur


est enregistré dans le système pour la première fois. Comme le montre la Figure
2, durant cette phase, une ou plusieurs modalités biométriques sont capturées,
traitées et stockées sous forme de modèles1. Un modèle est une représentation
plus compacte mais toujours expressive, sous forme d’un vecteur de
caractéristiques. Cet enrôlement peut s’accompagner par l’ajout d’information
biographique (Morizet, 2009). Selon l'application, le modèle peut être stocké
dans la base de données centrale du système biométrique ou enregistré sur une
carte à puce délivrée à l’utilisateur (Jain, et al., 2004).

Figure 2- Phase d'enrôlement dans un système biométrique (Prabhakar, et al., 2003)

 La reconnaissance (vérification ou authentification): C’est la phase


fonctionnelle principale dans un système biométrique. Comme le montre la
Figure 3, durant cette phase, une saisie de la donnée biométrique est effectuée.
Le trait biométrique utilisé est scanné et représenté sous forme numérique. Afin
de faciliter la correspondance par la suite, cette donnée est traitée par un
extracteur de caractéristiques pour générer un vecteur de
caractéristiques (modèle). Ce vecteur est comparé au modèle associé à l’identité
revendiquée par l’utilisateur dans le cas d’un fonctionnement en mode
« Vérification » et une décision de (Vrai ou faux) est prise. Il est, par contre,

1 Habituellement, plusieurs modèles d'un même individu sont stockées pour tenir compte des
variations observées dans le trait biométrique. De même, les modèles stockés peuvent être actualisés au
fil du temps (Jain, et al., 2004)

12
comparé à tous les modèles stockés dans la base de données pour identifier
l’utilisateur dans le cas d’un fonctionnement en mode « identification ».

Figure 3- Phase de reconnaissance dans un système biométrique (Prabhakar, et al., 2003)

Comme le montre les Figure 2et Figure 3 , un système biométrique simple se base
sur quatre Modules fondamentaux (Jain, et al., 2004) (Jain & Nandakumar, 2009):

 Le module « Capteur biométrique» (ou Lecteur biométrique), intégré à l’interface


utilisateur, acquiert (scanne, saisie) les données biométriques de l’individu pour en
produire une représentation numérique1. Un exemple est le capteur d'empreintes
digitales qui prend en image la structure des crêtes et des vallées du doigt de
l’utilisateur. Un control de qualité peut être effectué afin de s’assurer que la donnée
acquise est d’une qualité satisfaisante et suffisante pour le fonctionnement du système.

 Le module « Extracteur de caractéristiques » qui traite les données acquises pour en


extraire un ensemble de caractéristiques discriminatoires et les représenter sous forme
de vecteur caractéristique appelé modèle (template). Dans le cas de l’empreinte digitale,
à titre d’exemple, ce vecteur peut être constitué de la position et l’orientation des
minuties2 (des points critiques distinctifs spécifiques aux peaux épaisses du doigt, de la

1 Cette étape de saisie peut être supervisée ou non par un humain, selon l'application
2 On distingue quatre familles de crêtes : les coupures (interruption, arrêt, dérivation), les
divisions (bifurcation, trifurcation, double bifurcation, embranchement crochet) les anneaux (médian,
latéraux) et les ilots (interruption, arrêt, dérivation). On note que Les bifurcations et les fins de crêtes
permettent la reconstitution de toutes les minuties (Belguechi, 2006).

13
pomme de la main et de la plante du pied). Un prétraitement pour l’amélioration de la
qualité de la donnée acquise peut être effectué avant l’extraction des caractéristiques.

 Le module d’appariement (matching, correspondance) compare le vecteur des


caractéristiques extraites (feature vectors) aux modèles stockés pour générer des scores
de correspondances. Un exemple peut, dans le cas de l’empreinte digitale, être le
nombre de minuties correspondantes entre le vecteur en entrée et celui stocké. Ce
module intègre un sous module de décision dans lequel l'identité de l'utilisateur est
déterminée1 ou celle revendiquée est acceptée ou rejetée2.

 Le module « base de données du système » : utilisé par le système biométrique pour


stocker les données biométriques des utilisateurs inscrits.

Un schéma plus général et plus détaillé d’un système biométrique, prenant en


considération les modules facultatifs, tel que le contrôleur de qualité et le module
d’amélioration de qualité, peut être le suivant (Erreur ! Source du renvoi introuvable.):

Exception La gestion
Utilisateur Administrateur système
d’exception

Interface Identité Base de données Seuil de


Capteur utilisateur revendiquée des correspondance
biométrique (Vérification) modèles

Modèle
(Enrôlement)
Contrôleur de qualité
Echantillon Résultat de la
Acquis reconnaissance
Module
Extracteur de Score de
Amélioration Matcher Application
caractéristiques Vecteur décision
caractéristique
« requête »

Figure 4- Composition générale d'un système biométrique (Jain & Nandakumar, 2009)

1 Cas d’identification
2 Cas de la vérification

14
3.3 Evaluation d’un système biométrique :
Du à différents facteurs tels que le changement de positionnement sur le capteur
d'acquisition, les déformations, le bruit …, il est impossible que deux modèles issus de la
même modalité biométrique, dans différentes sessions, coïncident exactement. Ainsi, une
notion de « score », quantifiant la similarité entre deux modèles fut introduite dans les
systèmes biométriques et plusieurs mesures d’évaluation de ces derniers sont prises en
considération.

3.3.1. LES FACTEURS DE VARIATION INTRA-CLASSES:

Dans la biométrie, on appelle variation intra-classes la différence entre deux


modèles extraits de la même modalité dans des sessions différentes. Ces variations peuvent
être classées en deux catégories : intrinsèque et extrinsèque où la première désigne le
changement de la modalité biométrique elle-même à travers le temps, tandis que la
seconde concerne les changements dus aux facteurs externes, surtout durant la phase de
capture (Shan, et al., 2009). On peut citer quelques causes de variations (Prabhakar, et al.,
2003) :

 La déformation de la modalité elle-même.


 Le bruit, introduit par le système d'acquisition lui-même. Un exemple, dans le
cas de l’empreinte digitale, peut être un ancien imprimé laissé sur
le dispositif d'acquisition.
 Le changement des conditions environnementales.
 Les conditions d'imagerie imparfaite comme le mauvais éclairage.
 la mauvaise interaction des utilisateurs avec le système d’acquisition et le
changement de positionnement de la modalité.
 Les erreurs de prétraitement et d'extraction de caractéristiques provenant
des algorithmes imparfaits utilisés. Ces erreurs sont propagées d’une étape à
l’autre.

3.3.2. LA NOTION DE « SCORE » DE SIMILARITE :

Le problème de variation intra-classe décrit ci-dessus a pour conséquence que deux


modèles de la même modalité ne sont jamais identiques (Prabhakar, et al., 2003). Ainsi, le
résultat d’une opération de correspondance entre deux modèles ne peut pas être une valeur
booléenne (vrai ou faux) comme on l’imagine mais plutôt une valeur numérique qui
quantifie leur similarité. Cette valeur « s » est appelée score de correspondance. Dans le cas

15
général, Ce score de similarité s est comparé à un seuil d'acceptation « t ». Si « s » est
supérieur ou égal à « t », les deux échantillons comparés sont jugés provenant de la même
personne (appariement avec succès) sinon ils proviennent de deux personnes différentes.

3.3.3. MESURES DE PERFORMANCE D’UN SYSTEME BIOMETRIQUE :

Les variations intra-classe ainsi que le choix du seuil de correspondance influent


forcement sur la précision des résultats et peuvent même falsifier les décisions des
systèmes biométriques. Ainsi, un système biométrique peut commettre plusieurs types
d'erreurs que nous allons détaillés dans ce qui suit (Jang & Kim, 2009) (Jain, et al., 2004).

Les erreurs les plus importantes sont celles commises au niveau de la


correspondance :

 Une « fausse correspondance négative » (False Non-Match (FNM)) : c’est l’erreur


commise lorsque le système rejette un modèle issu d’une personne censée être
reconnue. En d’autres termes, lorsque le système déclare non correspondant deux
modèles issus de la même personne.

 Une « fausse correspondance » (False Match (FM)) : c’est l’erreur commise lorsque
le système accepte un modèle issu d’une personne censée ne pas être reconnue. En
d’autres termes, lorsque le système déclare correspondants deux modèles issus de
deux personnes différentes.

A partir de ces erreurs, on définit ce qu’on appelle le taux de la fausse


correspondance (FMR : False Non-Match Rate) et le taux de fausse correspondance
négative (FNMR : False Non-Match Rate) qui sont les probabilités que ces deux erreurs
(FNM et FM) aient lieu. Ces deux taux sont deux mesures importantes qui évaluent un
système de reconnaissance.

Mathématiquement, étant donné, un utilisateur « I » (dont le modèle correspondant


dans la base de données est XI ) présentant en entrée : un vecteur de caractéristiques XQ.
Nous pouvons formuler les erreurs précédentes comme suit :

Soient les deux hypothèses suivantes :


H0 : l’entrée XQ ne provient pas du même utilisateur « I » que XI.
H1 : l’entrée XQ provient du même utilisateur « I » que XI.

Et les deux décisions associées suivantes :

16
D0 : les deux modèles ne coïncident pas. En d’autres termes, la personne n’est pas qui
elle prétend être (identité revendiquée rejetée).
D1 : les deux modèles coïncident. En d’autres termes, la personne est vraiment qui
elle prétend être (identité revendiquée acceptée).

Comme déjà mentionné, XQ est comparé à XI. Si le score de correspondance


est supérieur au seuil « t » alors le système prend la décision D1 sinon c’est la décision D0
qui est prise.
De là :
L’erreur FM: D1 est décidé alors que H0 est vrai ( D1 H0 )
L’erreur FNM: D0 est décidé alors que H1 est vrai ( D0 H1 )
Ainsi :
FMR est la probabilité que l’erreur FM ait lieu (FMR= P (D1/H0)).
FNMR est la probabilité que l’erreur FNM ait lieu (FNMR= P (D0 / H1)).

On note que 1-FNMR est appelé la force du test de l’hypothèse.

Pour évaluer la précision du processus de correspondance, on collecte les scores


générés par des pairs de modèles provenant de la même personne (la distribution des
authentiques p( /H1) et ceux générés par des pairs de modèles provenant de
personnes différentes (la distribution des imposteurs p( /H0) comme le montre la
figure suivante (Figure 5):

Figure 5-- Distributions des authentiques et des imposteurs (Jain, et al., 2004)

17
Ainsi les taux FMR et FNMR seront calculés comme suit :

FMR= désigne la surface en couleur dans la Figure 5

et FNMR= désigne la surface raillée dans la Figure 5

De plus, on peut aussi mesurer deux autres taux d’erreurs :

 Le taux d’ « échec d’enrôlement / d’inscription » (FTE « failure to enroll ») : qui


mesure le pourcentage de fois où les utilisateurs ne parviennent pas à accomplir
leurs inscriptions dans le système de reconnaissance. Un échec d’inscription a lieu
quand un utilisateur n’arrive pas à présenter son trait biométrique ou présente un
trait d’une qualité inacceptable. Dans ce dernier cas, plus le système exige des
échantillons de meilleures qualités à l’inscription plus le taux FTE est grand mais
ceci améliore la performance de l’appariement dans un stade ultérieur.

 Le taux de « échec d’acquisition / de capture» (FTC « failure to capture »/ FTA


« failure to acquire) : qui mesure le pourcentage de fois que le dispositif
biométrique ne parvient pas à capturer automatiquement un échantillon durant la
phase de reconnaissance. Il est calculé automatiquement par le dispositif
biométrique1. Cet échec se produit généralement lorsque l’utilisateur ne peut pas
présenter son trait biométrique pour une raison ou une autre ou que l’échantillon
acquis est de mauvaise qualité. Dans ce dernier cas, plus la qualité de l’échantillon
exigée est élevée plus le FTC est grand mais ceci améliore la performance de
l’appariement dans un stade ultérieur.

 Les mesures de performance dans le cas de la vérification:

Dans le cas de la vérification, le vecteur de caractéristiques extrait de la modalité


présentée par l’utilisateur est comparé avec le modèle stocké correspondant à l‘identité
revendiquée. Une décision d’« acceptation » ou de « rejet » est prise selon le résultat de la
comparaison. L’évaluation2 du système complet doit inclure les taux d’erreurs
d’appariement et ceux d’échec d’acquisition. Ce qui définit les taux suivants :

1 Si cette fonctionnalité y est intégrée


2Dans l’évaluation du système, nous considérons l’unité d’opération comme étant une transaction
qui peut se limiter à une seule tentative comme elle peut inclure plusieurs.

18
 Le taux de «faux rejet» (false reject rate FRR) : est le pourcentage de transactions
de vérification où le système rejette une personne ayant revendiqué une identité
correcte. En prenant en considération une seule tentative, le FRR est calculé comme
suit : FRR= FTA + FNMR * (1-FTA).
 Le taux de «fausse acceptation» (false accept rate FAR) : est le pourcentage de
transactions de vérification où le système accepte une personne ayant revendiqué
une fausse identité. En prenant en considération une seule tentative, le FAR est
calculé comme suit : FAR= FMR * (1-FTA).

Un FRR et un FAR plus général prenant en compte les taux d’échec d’enrôlement
peuvent être définit comme suit : GFRR= FTE+ (1-FTE)* FRR et GFAR= FAR* (1-FTE).

 Les mesures de performance dans le cas de l’identification:

Contrairement à la vérification, lors d’une opération d’identification, l’utilisateur ne


revendique aucune identité. Une liste d’identités candidates est retournée après la
comparaison du vecteur caractéristique extrait à tous les modèles stockés dans la base de
données. Trois mesures de performances ont été définies selon l’application :

 Le taux de correcte identification (correct identification rate CIR) : la proportion


d’identifications des utilisateurs déjà inscrits où l’identité correcte se trouve dans la
liste retournée. Un taux d’identification au rang « r » est la probabilité que l’identité
de l’utilisateur soit parmi les r premières identités retournées.
 Le FNIR (false-negative identification-error rate) : la proportion d’identifications
des utilisateurs déjà inscrits où l’identité correcte n’apparait pas dans la liste
retournée : FNIR= FTA+ (1-FTA)* FNMR.
 Le FPIR (false-positive identification-error rate) : la proportion d’identifications
des utilisateurs non inscrits où la liste retournée n’est pas vide. Pour une base de
données de taille N : FPIR= (1-FTA) * [1- (1-FMR) N ].

3.3.4. LES MESURES DE PERFORMANCE GRAPHIQUES:

Selon la nature (verification, identification ou watch list) du système biométrique, il


existe deux sortes de courbe permettant de comparer plusieurs systèmes dans les mêmes
conditions ou faire la comparaison du fonctionnement d’un système dans différentes
conditions (Jang & Kim, 2009) (Morizet, 2009):

19
 Lorsque le système opère en mode authentification, ou en mode watch list on utilise
ce qu’on appelle une courbe ROC (“Receiver Operating Characteristic”). La courbe
ROC trace le taux de rejet correct en fonction du taux de fausse acceptation (1-FNMR
en fonction de FMR, 1-FRR en fonction de FAR ou CIR en fonction de FPIR).
Cependant cette courbe connaît ses limites à partir de certaines valeurs de FRR,
pour cela on utilise une courbe DET (“Detection Error Trade-off ”) qui elle
représente directement le taux de faux rejet en fonction de la fausse acceptation
(FNMR en fonction de FMR, FRR en fonction de FAR, FNIR en fonction de FPIR)
comme le montre la Figure 6-a. Plus cette courbe tend à épouser la forme du repère,
plus le système est performant (c’est-à-dire qu’il possède un taux de reconnaissance
global élevé).

 En revanche, dans le cas d’un système utilisé en mode identification, on utilise ce que
l’on appelle une courbe CMC (“Cumulative Match Characteristic”). Cette courbe
donne le pourcentage de personnes reconnues en fonction d’une variable appelée
rang (le CIR en fonction de r). On dit qu’un système reconnaît au rang 1 lorsqu’il
choisit la plus proche image comme résultat de la reconnaissance. On dit qu’un
système reconnaît au rang 2, lorsqu’il choisit, parmi deux images, celle qui
correspond le mieux à l’image d’entrée, etc. On peut donc dire que plus le rang
augmente, plus la reconnaissance est d’un niveau de sécurité plus faible.

Voici une figure montrant des exemples de courbes ROC, DET et CMC :

20
Figure 6- Exemples de courbes d'évaluation de systèmes biométriques (a- courbes DET, b- courbes ROC, c-
courbes CMC)

3.3.5. CONCLUSION :

Nous pouvons remarquer que les termes FAR et FMR ainsi que le FFR et FNMR sont
employés généralement sans distinction. En pratique, FAR et FFR désignent FMR et FNMR
respectivement vu que le FTA n’est généralement pas pris en compte dans les tests des
chercheurs.

Un système biométrique opérationnel essaye d’élaborer un compromis entre le taux


de fausse acceptation (FAR) et le taux de faux rejet (FRR) selon l’application (Prabhakar, et
al., 2003). En effet, les deux taux sont des fonctions du seuil t: Si les concepteurs du système
baissent le seuil t afin de rendre le système plus tolérant aux variations d'entrée et de bruit :
le taux de fausse acceptation augmente. D’autre part, s’ils augmentent le t pour rendre le
système plus sécurisé, alors le taux de faux rejet augmente en conséquence (Prabhakar, et
al., 2003). Comme le montre la Figure 7, un meilleur compromis est « FRR=FAR » qui
constitue un point de mesure de performance courant connu sous le nom de taux d’erreur
égale (“Equal Error Rate” ou EER) (Morizet, 2009).

21
Figure 7-La courbe DTE: le taux FAR (%) en fonction du taux FRR (%) (Delac & Grgic, 2004)

4. LA CRIMINALISTIQUE COMME DOMAINE D ’APPLICATION DE LA BIOMETRIE :

De nos jours, la biométrie se trouve utiliser dans différents domaines de la vie afin
de fournir un niveau de sécurité plus élevé. Bien qu’elle soit intégrée dans des applications
civil ou commercial, l’application médico-légale dans le cadre de la science criminologique
en reste toujours la source, la base et le plus grand marché à qui elle doit son succès.

 Définition de la criminalistique :

La criminalistique est une science criminelle qui se réfère à


l’application des principes et disciplines scientifiques et des méthodes techniques dans
une enquête en relation avec une activité criminelle, afin d'établir l'existence d'un crime, ou
de déterminer l'identité de son auteur et son modus operandi. Il est donc logique que ce
domaine se trouve un terrain fertile pour l'utilisation des données physiologiques ou
comportementales biométriques pour trier et éventuellement individualiser les
protagonistes impliqués dans les infractions. Bien que la classification manuelle des
mesures physiques (anthropométrie), et des traces laissées et relevées des scènes de
crime (traces de doigts, consacre,...) a connu un large succès, une approche automatique est
toujours nécessaire pour faciliter et accélérer la détermination de la liste candidate des
éventuels criminels dans les grandes bases de données (Sun, 2001) (Jain, et al., 2009).

 La criminalistique et la criminologie:

En plus de la criminalistique, les sciences criminelles couvrent un large domaine qui


englobe la criminologie, le droit pénal ou la politique criminelle, la pénologie, la sociologie
pénale, la prophylaxie, et bien d’autres. (Sun, 2001). Une confusion très courante est celle
faite entre la criminalistique et la criminologie. Cette dernière est plutôt « … une science qui
étudie les facteurs et les processus de l’action criminelle et qui détermine, à partir de la

22
connaissance de ces facteurs et de ces processus, les moyens de lutte les meilleurs pour
contenir et, si possible, réduire ce mal social » [R. Gassin].

La criminalistique n’est pas sans rapport avec la criminologie. D’une part, elle puise
dans cette dernière des données qui l’aident à perfectionner les méthodes d’identification et
de recherche des délinquants. D’autre part, et à l’inverse, la criminologie trouve dans la
criminalistique des renseignements très précieux pour l’étude du crime et des criminels.
Par exemple, la criminologie étudie les criminels identiques grâce à la criminalistique, c’est
surtout le cas pour les récidivistes (Sun, 2001).

5. LES CAS D ’UTILISATION DE LA RECONNAISSANCE BIOMETRIQUE DANS LA

CRIMINALISTIQUE:

Le concept de l’identification est utilisé dans la criminalistique à deux


fins principales: l’identification des suspects et celles des victimes (Chen & Jain, 2009) :

Dans le cas de l’identification des suspects, des preuves telles que les empreintes
digitales, les traces de morsures, et les échantillons de sang sont collectées des scènes de
crime et utilisées comme base pour confirmer la culpabilité ou l’innocence d’un suspect.

Dans le cas de l’identification des victimes, qui peut être une identification
individuelle ou en masse (celle des victimes de catastrophes), le but est de déterminer
l’identité des victimes en se basant sur les caractéristiques des cadavres. Elle peut être
réalisée par une comparaison et une correspondance des preuves antemortem (AM) et
postmortem (PM). Ces preuves peuvent être circonstancielles ou physiques :

Les preuves circonstancielles comprennent les vêtements de la victime, les bijoux


ainsi que le contenu des poches. Une éventuelle description identique ante-mortem fournie,
peut aider à une identification correcte de la victime. Cependant, les évidences
circonstancielles peuvent être facilement attribuées aux mauvaises personnes surtout dans
le cas d’une identification de victimes de catastrophes.

Les preuves physiques quant à elles sont plus fiables. Elles comportent :

 les preuves externes : le sexe, l'âge estimé, la taille, la carrure, la couleur de


peau, les traits spécifiques (cicatrices, grains de beauté, tatouages) : elles
sont particulièrement utiles quand elles correspondent à des

23
enregistrements ante-mortem. Les empreintes digitales sont eux aussi
considérées comme preuves externes précieuses.

 les preuves internes : l’examen interne (autopsie) est souvent nécessaire pour
déterminer les causes du décès. Une autopsie peut également détecter des
évidences médicales qui peuvent aider dans l’identification telle qu’une
ancienne fracture antérieure, une chirurgie, des organes manquants (par
exemple, l'appendice, rein) ou des implants dentaires.

 les preuves dentales : telles que les dents manquantes ou les dents plombées
qui peuvent offrir suffisamment de preuves pour identifier positivement une
victime sans avoir besoin d'informations supplémentaires

 les preuves génétiques : une identification génétique consiste à comparer des


échantillons d'ADN de l’individu avec l’ADN ante-mortem, ou avec des
échantillons d'ADN provenant de l’un des ancêtres ou des descendants de la
personne dont l’identité est soupçonnée. Elle est particulièrement utile
lorsque les corps des victimes sont gravement mutilés.

Voici un tableau comparant les types des preuves par rapport à leur précision, temps
nécessaire pour l’identification, la disponibilité des données ante-mortem, la robustesse à la
décomposition ainsi que l’importance des mécanismes et les appareils requis pour
l’identification :

Physique
Type de preuve Circonstancielle
Externe Interne génétique Dentale
Précision M H B H H
Temps pris pour l’id. C C L L C
Disponibilité des
enregistrements ante- H M B H M
mortems
Robustesse à la
M B B M H
décomposition
Mécanismes et appareils
B M H H M
requis
Tableau 1- Comparaison entre les types de preuves criminelles (Chen & Jain, 2009)
M : moyen, H : haut, B : bas, C : court, L : long

24
De là, nous pouvons constater que la reconnaissance biométrique comme définie
dans ce premier chapitre peut s’impliquer dans l’identification des cadavres, l’enquête
criminelle ainsi que la détermination de la parentalité entre individus et cela à travers trois
cas techniques types (Champod, 2009) (Dessimoz & Champod, 2009):

 Cas1: Un ensemble de traits biométriques en question provenant d'un individu


inconnu (vivant ou mort), est comparé à ceux issus d’un ensemble référence de personnes
connues (ou déclarées comme telles). C’est le cas, par exemple, de l’identification des
cadavres utilisant les empreintes digitales ou la détermination de la parentalité à travers le
DNA. Dans ce cas, les données biométriques des deux sources se trouvent de haute qualité
ce qui facilite leur comparaison automatique.

 Cas2 : Un ensemble de traits biométriques laissés dans des situations et des endroits
d’intérêt pour une enquête est comparé à ceux disponibles issus d’un ensemble référence
de personnes connues (ou déclarées comme telles). C’est le cas, par exemple de traces
d’empreintes digitales ou palmaires ou de chaussures laissées sur les lieux des crimes. Ils
sont comparés à une base de données de criminels ou à une liste de suspects définie par la
police lors d’enquêtes. Dans ce cas, la comparaison se fait entre une donnée biométrique
d’une qualité dégradée et une base de données de haute qualité. Le cas inverse peut avoir
lieu dans le cas d’une comparaison d’une donnée d’un nouvel enregistrement à une base de
traces collectées de crimes non encore résolues.

 Cas3 : Une comparaison entre des données biométriques de personnes non


identifiées afin de détecter une liaison possible entre des incidents pertinents. C’est le cas
des tueurs en séries par exemples. Dans ce cas, la comparaison se fait entre des données de
qualité dégradée (ex. empreintes latentes).

Le schéma général d’un système biométrique criminalistique (dans Figure 8) illustre


ces trois cas de figures et met en avant l’utilisation de la reconnaissance biométrique dans le
cas criminalistique.

D’un autre point de vue, Nous pouvons distinguer deux modes généraux de
fonctionnement dans ce domaine (Champod, 2009): le mode investigation (enquête), où les
marques et les traces sont « interrogées » pour fournir des pistes qui peuvent aider à cerner
la recherche, sans faire aucunes références à une source potentielle dès le départ. Les
questions types dans ce mode sont les suivants :
 Peut-on relier les incidents criminels à travers les preuves biométriques collectées ?

25
 A base des preuves physiques collectées peut-on faire des déductions sur le sexe,
l’âge, l’ethnie, l'appartenance ethnique, ou des apparences physiques sur la
personne dont ces preuves proviennent ?
 En comparant ces données biométriques à une base des criminels, est-il possible de
fournir une courte liste de suspects ?
Dans le mode évaluation, les personnes suspectes sont appelées à fournir leurs
données biométriques afin de pouvoir les comparer aux données dont la source est
inconnue.

Figure 8- Schéma général d'un système biométrique criminalistique (Dessimoz & Champod, 2009)

6. LES MODALITES UTILISEES DANS LE DOMAINE CRIMINALISTIQUE :

La criminalistique est un large terme, qui englobe plusieurs stratégies et techniques


se complétant afin de reconnaitre une personne en lien avec un crime ou un désastre
(criminel ou victime). Certaines de ces techniques sont utilisées depuis très longtemps et
ont ainsi connues un cumules d’expériences. Elles ont été sujettes à une littérature
professionnelle volumineuse telles le cas de l’empreinte digitale qui est devenue une des
principales preuves utilisées et acceptées judiciairement. D’autres sont récentes et peu

26
connues et aident seulement à designer un suspect sans pouvoir l’accuser officiellement tel
le cas des morsures.

Nous citons quelques techniques dans ce qui suit:

6.1 L’ADN :
L’acide désoxyribonucléique, ou l’ADN est une chaîne de nucléotides contenue dans
le noyau de nos cellules et qui peut être extraite de tous les tissus biologiques (sang, salive,
urine, sperme, cheveux (avec racines), os et des cellules de la peau laissées par contact …)
L’identification à base de l’ADN appelée aussi profilage de l’ADN fut introduite pour la
première fois en médecine légale en 1986 dans ce qu’on a appelé « l’affaire de Pichfork »,
mais cette technique ne prit son ampleur qu’en 1990 où des pratiques importantes
commencèrent à se développer.

Avant l’ADN, les liquides biologiques étaient analysés à travers des méthodes
simples telles que l’analyse du groupe sanguin, de différentes protéines ou enzymes. La
plupart de ces analyses furent vite abandonnées en faveurs du profilage ADN, appelé aussi
empreinte génétique, vu sa haute discrimination et robustesse (Champod, 2009).

L'analyse la plus commune de l'ADN est basée sur les séquences répétées en
tandem courtes, appelées aussi microsatellites ou STR (Short Tandem Repeats) qui ne font
pas partie des portions codant des protéines et qui présentent des caractères distinctifs.
Quand cette analyse d’ADN nucléaire se trouve impossible (généralement à cause de la
dégradation de la qualité de l’échantillon trouvé) une analyse de l’ADN mitochondrial
(contenu dans les mitochondries) peut être réalisée bien qu’elle présente moins de
discrimination. (Champod, 2009)

L’ADN présente une percée majeure dans la criminalistique pour l’identification des
personnes inconnues ou pour déterminer la source des échantillons biologiques laissées
dans les lieux de crime. La simplicité de la constitution des base de donnée des modèles
ADN a permis d’en développer dans la plupart des pays du monde (Champod, 2009). On
note que CODIS (Combined DNA Index System), développé par le FBI et la firme
privée SAIC, est le programme le plus utilisé pour le stockage et la
recherche des profils ADN (Hicks & Coquoz, 2009).

27
6.2 Les caractéristiques dentaires :
Les caractéristiques dentaires sont utilisées principalement dans l’identification des
cadavres et des restes humains dans les cas de personnes disparues ou de catastrophes de
masse. Elles varient des enregistrements dentaires standards (tels que les indications des
dents manquantes, les restaurations, les couronnes…etc.) aux radiographies dentaires (les
contours des dents, les positions relatives des dents adjacentes, les formes des travaux
dentaires). Ces caractéristiques anatomiques se trouvent robustes et montre une assez
bonne variabilité due aux différentes traces et formes laissées par le grand nombre
d’opérations dont les dents peuvent être sujets. Les données alphanumériques extraites de
ces caractéristiques peuvent êtres facilement organisées et stockées dans des bases de
données utilisées sur le plan opérationnel en cas de catastrophes en masse. Cependant,
toutes les tentatives d’utilisation d’intelligence artificielles pour faciliter l’identification
(telle que le «winID system»1et l’ «Odontosearch system»2) se basent sur des codes de
description dentaires extraits et rentrés par des experts humains et aucune procédure
d’extraction ou d’appariement automatiques n’est déjà proposée. (Champod, 2009) (Jain, et
al., 2009)

6.3 Les tissus mous et l’anthropologie:


On appelle tissu mou tous tissus du corps autres que les os ; tels que les muscles, la
graisse, le tissu fibreux, les vaisseaux sanguins ou tout autre tissu de soutien du corps. Leur
analyse y compris l’analyse des cicatrices, des plaies incisées, des marques de brûlures, des
traumas et des interventions médicales/chirurgicales est typique pour l’aide à la
reconnaissance soit en mode enquête ou en mode identification. (Champod, 2009)

En absence de tissu, l’anthropologie médico-légale peut intervenir et devient une


partie essentielle des enquêtes médico-légales et archéologiques. Suite à une récupération
des restes de squelettes non identifiées, l’anthropologie médico-légale peut aider dans
l’identification de l’origine, l’ethnie, la stature, l’âge...etc. de la personne décédée. De même,
une reconstruction cranio-faciale du crâne peut aider dans cette enquête. (Champod, 2009)

D’un autre part, la présence de documentations médicales (ex. Images rayon-X) ante-
mortem et leur comparaison avec les documents post-mortem peut être utile dans la
détermination des identités l'identité à travers l'analyse de la morphologie, les

1 http://www.WinID.com
2 http://www.jpac.pacom.mil/CIL/entry.htm

28
fractures, interventions médicales sur les os, et les formes des sinus frontaux. (Champod,
2009)

On note que la pluparts de ces concepts et techniques ne sont pas encore sujet de
recherche pour une automatisation avancée (Champod, 2009).

6.4 Les marques et les traces :


Dans son principe d’échange appelé « Locard’s exchange principle », Locard suggère,
en 1920, que la police médico-légale peut profiter des traces (les fibres, la peinture, les
résidus de décharge d’armes à feu, la poussière, les taches de sang, etc…) et des marques
(empreintes digitales, empreintes palmaires, marques de chaussures, les traces des outils
etc…) échangés entre les acteurs (victime ou offenseur), et les objets associés ou les scènes
impliquées dans des activités criminelles. La recherche
systématique (potentiellement aidée par des techniques de détection), la préservation et
l'analyse de ces marques et traces aideront à établir la relation entre les acteurs, les
objets ou scènes, et de reconstruire le cours d'activités (scenario d’acte criminel).
(Champod, 2009)

Nous en citons quelques unes :

 Les empreintes digitales :

En principe l’utilisation des empreintes digitales en criminalistique s'est d'abord


dirigée vers les systèmes d'identification basés sur les cartes décadactylaires1 de qualité
raisonnable obtenues d'individus vivants ou morts. L'utilisation des empreintes de qualité
inférieure (dans le cadre des enquêtes) à partir des marques récupérées sur les scènes de
crime, à titre d’exemple, a été considérée comme un effet secondaire bénéfique, mais sans
être approché systématiquement dès le début (Jain, et al., 2009).

Avec l'augmentation du nombre de cartes décadactylaires et les difficultés de la


recherche manuelle des empreinte latentes, le développement des systèmes de stockage,
recherche, extraction et traitement automatique (analogique ou numérique) devient
nécessaire. Ainsi, et avec les avancées technologiques, les systèmes manuels ont été
améliorés par l'utilisation des systèmes de récupération de cartes perforées, l'ajout de
fichiers vidéo pour les images (bandes Ampex) et puis la numérisation et l’automatisation

1 Les empreintes des 10 doigts

29
de tous le processus de traitement un peu plus tard dans les années soixante. Plusieurs
systèmes informatiques de comparaison d’empreintes digitales ont été développés dans de
nombreux pays durant la même période. Ces systèmes se basaient en grande partie sur
l’appariement des minuties et extrayient comme modèle leurs coordonnées (x, y), leurs
orientations et parfois les différences en crêtes entres elles. . Leur principal avantage est
leur habilité à couvrir tous les scenarios possibles (comparaison d’une seule empreinte ou
de la carte dix-impression à la base de données entière) (Jain, et al., 2009).

On rappelle qu’un AFIS fournit en principe une liste de meilleurs candidats mais
l’identification n’est complétée que manuellement via un expert (par le biais d'une interface
utilisateur dédiée) (Jain, et al., 2009).

 Les empreintes auriculaires : (Champod, 2009) (Champod, 2009) (Jain, et al.,


2009)

Considéré par Bertillon comme la partie la plus identifiable de l’individu, l’oreille et


sa morphologie ont été rapidement utilisées dans des fins d’identification criminalistique
que ça soit en tant que photographies (ou des images fixes à partir d’enregistrement vidéo)
ou marques auriculaires laissées sur les scènes de crime. Ces marques qui correspondent à
la forme de l’organe externe, sont généralement laissées sur les surfaces où l'on a
appliqué son oreille pour écouter (les points d’accès portes ou fenêtres) à cause des
sécrétions provenant principalement des glandes sébacées couvrant les oreilles. Elles sont
détectées par les mêmes techniques que celle utilisées pour détecter les empreintes
digitales (ex. application de poudre sur les surfaces suspectes). L’analyse de l’empreinte
auriculaire peut être utile dans la phase d’enquête pour relire les faits ou pour évaluer la
taille de sa source. Elle peut être utile d’une manière évaluative associant l’empreinte
directement à sa source.

La comparaison des empreintes auriculaires est traditionnellement complétée par


des examinateurs qualifiés en utilisant la méthode subjective classique de superposition
exploitant la puissance de la combinaison œil-cerveau de l’être humain pour analyser les
points de pression et les mesures.

Il est important de noter qu’il y a un grand écart en termes de qualité entre une
photographie bien prise d'une oreille et de son impression sur une porte. De là, la force de
l’évidence varie d'un cas à un autre selon la qualité et l’importance de la marque disponible.
La plupart des publications traitant cette technique étudient le cas de la photographie de

30
l’oreille plutôt que celui des empreintes latentes. Récemment, ce domaine d’identification
est devenu sujet d’une importante initiative de l’European Community à travers le projet
FearID1 qui exploite des approches d’acquisition semi-automatique et essaye de tester
d’autres automatiques.

 Les empreintes plantaires :

Elles peuvent être laissées sur la scène de crime ou à l'intérieur des chaussures. Leur
analyse permet, dans le premier cas, de reproduire la séquence des événements et de
designer ou exclure un individu donné d'en être la source. Dans le second, elle peut aider à
déterminer le porteur d’une chaussure donnée .Leur utilisation dans les enquêtes
criminelles est antérieure à celle des empreintes digitales. Ces empreinte plantaires ont
montré une puissance discriminatoire très élevé et permettent, lorsqu’elles sont de qualité
suffisante, d’apporter une preuve puissante au tribunal (Champod, 2009).

 Les marques de chaussures : (Bouridane, 2009) (de Chazal, et al., 2005)

C’est les marques faites lorsque la semelle d'une chaussure rentre en contact
avec une surface. En commettant un crime, on ne peut pas éviter de laisser ses marques de
chaussures dans la scène. Avec chaque pas, il y a toujours une sorte d’interaction avec la
surface qui peut être :
- une impression tridimensionnelle créée comme résultat de la pression
exercée sur la surface quand cette dernière est déformable (ex. neige, sable,
terrain…).
- un motif visible (2D) comme résultat de l’échange de matériaux (sang, la
boue, de peinture, et de l'eau) transféré de la semelle à la surface, quand cette
dernière est solide.

On note que les marques de chaussures ne sont pas toujours visibles ou détectables
par la technologie actuelle limitée, mais les chances sont excellentes qu’un grand
nombre d'entre elles le sera. Une étude dans (Alexandre, 1996) suppose que les
impressions de chaussures pourraient être localisées et récupérées des scènes de
crime dans, environ, 35% de cas. Les statistiques de Home Office du Royaume-Uni montrent
que 14,8% des scènes de crime suivies par les enquêteurs en 2004-2005 ont connues la
présence des empreintes de chaussure comme preuve.

1http://artform.hud.ac.uk/projects/fearid/fearid.htm?PHPSESSID = 9c4fd025eec23ee10262d9e

226ff73d0

31
L’utilisation de ces marques dans le cadre criminalistique peut aider à designer un
suspect, construire une perception des faits du crime ainsi qu’à établir le lien entre
plusieurs crimes (en particulier pour les cambriolages).

Il existe plusieurs systèmes1 de classification et d'identifications de marques de


chaussures ; certains sont informatisés tandis que d’autres sont manuels. Mais aucun
système, mis en œuvre, commercial ou autre, n’effectue le processus
d'identification complet d’une manière automatique. Malheureusement, et vu la nature de
cette preuve et sa mauvaise acceptation juridique, elle n’est pas un sujet d’intérêt de la
communauté scientifique.

 Les traces de morsures :

Elles peuvent être trouvées sur différents substrats (la peau d'une victime, un peu de
nourriture etc.…) et comparées ainsi à l’échantillon référence issu du suspect. Bien qu’elle
soit bien prise en compte par les tribunaux, cette modalité n’est pas un domaine actif des
recherches scientifiques (Champod, 2009). Un état de l’art de cette modalité peut être
trouvé dans (Dorion, 2005).

D’un autre part, on a remarqué la présence des marques de lèvres sur des objets
sujets d’en être en contact dans les scènes de crimes. Ces impression de lèvres ont étaient
démontrées stables et uniques pour chaque individu par Yasuo Tsuchihasi et Kazuo Suzuki
durant leurs études à l’université de Tokyo (Tsuchihasi, 1974). Et la « Cheiloscopy » ou
l’identification dans le cadre médico-légal à base de ces impressions a été proposé par le
professeur J. Kasprzak (Kasprzak, 2001) considéré comme le pionner de cette technique.

 L’écriture et la signature :

L'écriture et la signature sont des caractéristiques biométriques d’une longue


histoire dans la science médico-légale. L'expert légiste tente d'évaluer les similitudes et les
différences existantes entre les échantillons de référence et ceux à examiner par une
estimation subjective de l'individualité et de la variabilité des données disponibles. À
l'heure actuelle, le développement des techniques automatiques de reconnaissance de
signature sont toujours dans leurs premiers pas surtout dans le domaine médico-légal. Un

1 Exemples de systèmes semi-automatique: SHOE-FIT, SHOE©, Alexandre’s System, REBEZO,


TREADMARKTM, and SICAR. C’est deux derniers sont déjà commercialisés même.
Il existe des systèmes complètement automatique comme SmART, deChazal’s System et Zhang’s
System mais qui sont toujours dans le stage initial.

32
état de l’art sur les principes et les approches utilisées par les experts criminalistiques pour
identifier la source de ces caractéristiques peut être trouve dans (Huber, 1999).

6.5 Les enregistrements digitaux (reconnaissance à


distance):
Les enregistrements digitaux audio et/ou vidéo fournis, à titre d’exemple, par les
caméras de surveillance ou les appels téléphoniques (GSM) présentent une source et une
base pour plusieurs techniques de reconnaissance utilisées dans le domaine criminalistique.
Nous en citons quelques unes :

 La reconnaissance vocale : (Champod, 2009) (Jain, et al., 2009)

La reconnaissance vocale dite de locuteur : peut être définie comme un processus


analysant les signaux de parole afin de déterminer si un individu donné en est la source.
Cette technique a pris de l’importance dans le domaine criminalistique depuis que le
téléphone est devenu l’outil type pour la communication entre individus en général et pour
la commission de certaines infractions criminelles (trafic de drogues, extorsion,
harcèlement sexuel, appels canulars) en particulier.

Les experts peuvent se faire une opinion à travers une variété de techniques
utilisées seules ou en combinaison :

– La comparaison auditive : évaluant les caractéristiques vocales tels que : la


voix (timbre et la hauteur..), le discours (articulation, vitesse d'élocution..),
le langage (la prosodie, le style..) et le linguistique (syntaxe, souffle..).
– Les techniques semi-automatique : incluant la comparaison visuelle de
spectrogramme et les méthodes d’extraction des paramètres spécifiques
(ex. les fréquences des formants, moyenne des fréquences fondamentale,
contour de ton)
– Les techniques automatiques : plusieurs approches automatiques utilisant
des caractérisations de paramètres ou des modélisations statistiques sont
appliquées pour la reconnaissance vocale dans le domaine médico-légal.
Mais elles se trouvent très sensibles aux conditions d’enregistrement et de
transmission. Ces derniers ne sont jamais idéals dans ce domaine, ce qui
limite l’efficacité de cette catégorie de techniques.

33
 La reconnaissance faciale : (Jain, et al., 2009) (Bromby, 2009)

La reconnaissance faciale est de plus en plus intégrée dans les enquêtes criminelles
que ca soit dans son cas le plus simple à travers les bases de données des criminels et les
images dessinées selon les descriptions des victimes ou dans son nouveau cas numérique
profitant des vidéos prises par les camera de surveillance. Elle est effectuée, dans ce
domaine à travers des experts spécialistes utilisant des approches basées sur :

- L'analyse morphologique des structures faciales : basée sur une nomenclature


(ex. none, petit, moyen, grand, absent, épaisse..) pour la description des
aspects physiologiques tels que : le nez, le front, l’oreille….Cette approche est
subjective et sensible aux changements dus à l’âge ou aux expressions du
visage.
- Les mesures anthropométriques : cette approche peut être décrite comme la
quantification des proportions physiologiques entre des points de repère
particuliers du visage (ex. le milieu de la racine des cheveux, le point le plus
antérieur du front, le point le plus profond de la racine du nez…). Cette
méthode est uniquement utilisée pour la comparaison des visages avec la
même orientation
- La superposition d'image : cette approche se base sur une juxtaposition des
deux images à comparer ou sur une animation de ces dernières (où la
première image disparait pour que la deuxième apparaisse facilitant ainsi
leur comparaison). Les deux images doivent être prises dans les mêmes
conditions d’acquisition (orientation, taille, et pose).

Ces trois approches principales utilisées dans le domaine ne considèrent toujours


pas la reconnaissance automatique qui reste un sujet ouvert et important de recherche
surtout que cette reconnaissance automatique permettra de profiter des autres critères tels
que l’iris et les lèvres…

La preuve judiciaire basée sur la reconnaissance faciale est souvent considérée


comme un outil de confirmation pour d'autres méthodes d'identification. Considérée seule,
sa valeur est inférieure aux autres formes d'identifiants biométriques (empreintes digitales
et l'ADN notamment). Comme décidé par la cour d’appel de la Section pénale du Royaume-
Uni dans l’arrêt R. c Gray ([2003] EWCA Crim 1001), une méthodologie d'évaluation
adéquate pour la reconnaissance du visage, basée sur des données statistiques fiables, est
nécessaire.

34
 L’analyse de la démarche : (Lynnerup & Peter K., 2009)

L'analyse médico-légale de la démarche ne diffère de celle générale qu’en termes de


capture d’imagerie utilisée ; elle est presque toujours acquise à partir de CCTV, et vise un
auteur essayant plutôt de cacher son identité.

Théoriquement, Il est possible de générer des modèles informatiques pouvant


identifier les personnes à partir de leurs démarches avec plus de 90% de réussite, mais ces
modèles sont encore basés sur un petit nombre de personnes et nécessitent des conditions
optimales rarement trouvées en dehors du laboratoire. Pratiquement, la description de la
silhouette du sujet est l’alternative utilisée.

À l'heure actuelle, ces méthodes peuvent être utilisées efficacement pour exclure un
suspect quand les démarches et les mesures anthropométriques du suspect et de l'auteur
sont différentes. Mais leur similarité ne peut être traduite que par le fait que le suspect ne
peut pas être exclu d’être auteur de l’acte.

Au fur et à mesure du développement des sciences naturelles, la criminalistique


élargit son domaine profitant de plus en plus des critères et caractéristiques biométriques
humaines. Il faut signaler qu’une technique seule ne peut pas devenir un moyen unique de
la criminalistique. Elle doit se développer en tant que techniques multidisciplinaires pour
qu’elle soit qualifiée de techniques de la criminalistique

7. LES DIFFERENCES ET DEFIS INTRODUITS PAR LA CRIMINALISTIQUE :

L'application de la biométrie dans la science médico-légale est différente de celle


dans d'autres domaines (tels que le contrôle d'accès). Cela est dû principalement à la nature
de données et caractéristiques biométriques disponibles (en termes de qualité et
quantité) à l'expert en criminalistique (surtout quand il s’agit de marques et traces
collectées) ainsi qu’aux exigences liées au domaine comme la haute sécurité.

Voici quelques différences et défis introduits aux systèmes de reconnaissance dans


ce domaine (inspirés de ce qui est présenté dans (Jain, et al., 2009):

 Un système de tri et non de décision :

En pratique, les systèmes de reconnaissance biométrique dans le domaine


criminalistique sont utilisés en tant que système de tri sans mécanisme de décision intégré
sur la véracité de l’identification. Cet outil de classement présente aux experts une liste

35
restreinte de candidats potentiels (généralement de 15 à 20), contrairement aux systèmes
biométriques traditionnels qui communiquent leurs conclusions sous forme de décision
binaire («accepté»/«rejetée» ou «identité»/ « non reconnu »).

 Types de conclusion différents et mesures complémentaires :

Dans le cas de la criminalistique les conclusions des experts diffèrent selon les cas et
les circonstances. A titre d’exemple, quand il s’agit d’une comparaison d’empreinte digitale
de source inconnue avec une autre connue, la conclusion des spécialistes peut être : une
individualisation, une exclusion ou une non conclusion. Dans d’autres cas, comme la
reconnaissance faciale ou vocale d’autres conclusions probabilistes peuvent être aussi
prises en compte en faveur ou contre l'identité tels que: possible, probable ou très probable.

Pour cette raison, les types d’erreurs biométriques habituelles (FMR et FNMR) qui
constituent la base des mesures traditionnelles telles que les courbes ROC et DET
connaissent leurs limites dans ce domaine. Pour cela, une notion complémentaire appelée
LR (Likelihood Ratio), une mesure statistiques offrant une présentation équilibrée de la
force de la preuve a été introduite. Elle est particulièrement adaptée pour évaluer la
contribution des constatations médico-légales d'une manière équitable et équilibrée.

Formellement, le LR peut être définie comme suit:

LR = P (E | S, I) / P (E | ¯S, I)

Où:

E : résultat de la comparaison (une mesure de similarité telle que le score) entre les
données biométriques de la source inconnue et celles de la source présumée.
S : La source présumée est vraiment la source de données biométriques inconnues
observées (également connu sous le nom de l’hypothèse –proposition- d’accusation).
¯S: La vraie source de données inconnues observées est quelqu’un d’autre dans la
population de donateurs potentiels de référence (également le nom de l’hypothèse –
proposition- de la défense).
I : Des informations générales pertinentes sur l'affaire comme des informations sur
la sélection de la source présumée et la nature de la population concernée.

Cette notion de vraisemblance LR permet de définir de nouvelles mesures de


performances pour le domaine criminalistique. Ces mesures sont obtenues à partir de
l'analyse des distributions de LR (dans des cas simulant S et ¯ S donnés) présentée par une

36
courbe appelée courbe Tippett. Elles permettent de définir deux taux de résultats
trompeurs qui présentent des mesures d’efficacité assez intéressantes dans le domaine:

- RMED (Rate of Misleading Evidence in favor of Defense) qui désigne la


proportion de LR< 1 parmi tous les LR calculées sous l’hypothèse « S ».
- RMEP (Rate of Misleading Evidence in favor of Prosecution) qui désigne la
proportion de LR> 1 parmi tous les LR calculées sous l’hypothèse « ¯S ».

La figure suivante illustre ces notions :

Figure 9- Un exemple d'estimation de LR (Alexander, et al., 2004)

 Une sélectivité très variante :

Dans le domaine criminalistique, la qualité des données biométriques disponibles


varie extrêmement selon les cas influençant ainsi leur degré de sélectivité. Cette dernière
n’est autre que la force discriminatoire des caractéristiques permettant la distinction entre
les données de sources différentes. Dans un cas d’identification, la donnée est acquise
directement de la source permettant ainsi une qualité idéale et contrôlée pour la
reconnaissance ce qui se rapproche du cas traditionnel civil.

Par contre, dans le cas de crime et d’enquête plusieurs facteurs influencent et


limitent la donnée et dégradent sa qualité ainsi que sa quantité disponible et par
conséquent sa discrimination. Nous pouvons citer quelques facteurs tels que :
- La disponibilité de la personne et son niveau de coopération : l’attitude
principale d’un criminel est de cacher son identité en se concentrant à ne pas
laisser aucune caractéristique ou trace biométrique sur le lieu de crime.
- Le critère invasif de l’acquisition.

37
- Les objets et les positions limités que peut toucher ou prendre le criminel
durant la commission de son crime.

En principe cette variation de sélectivité est présente dans toutes les applications de
la biométrie mais les scenarios criminalistiques tendent à la maximiser.

 Types de comparaison différents :

Dans une reconnaissance biométrique civile le seul type de comparaison existant est
celui entre deux modèles de même degré de sélectivité, en d’autres termes de même niveau
de qualité. Ce dernier tend à être idéal et contrôlé grâce à un niveau acceptable de
coopération dans la plupart des ces cas.

En plus de la comparaison entre des modèles de qualité similaire (qu’elle soit idéale
dans le cas d’identification de victimes (cas1) ou mauvaise comme dans le cas de linkage
entre les preuves (cas 3)), il existe dans la reconnaissance criminalistique, une comparaison
entre des modèles de qualité complètement divergentes. C’est le cas de la reconnaissance
des marques et traces trouvées dans les lieux de crimes (cas 2) qui sont généralement d’une
qualité mauvaise (voir la Figure 8). Elles présentent dans la plupart des temps une partie
partielle non complète et difficile à orienter de la caractéristique biométrique. Ces marques
sont comparées aux modèles de référence dans les bases de données des criminels qui sont
de leurs parts d’une haute qualité.

Cette divergence de qualité entre les modèles comparés exige une méthodologie et
des approches de comparaison différentes de celle appliquées lors d’une reconnaissance
traditionnelle.

 Modes de fonctionnement différents :

Dans un contexte criminalistique, la reconnaissance s’exécute généralement en


mode offline sans exigence sur la durée du processus (pas de notion de temps réel dans ce
genre de systèmes) ce qui élimine les contraintes temporelles sur les algorithmes utilisés.

D’un autre part, nous pouvons remarquer que la plupart des systèmes opérationnels
dans ce domaine sont semi-automatique. L’automatisation dans ce domaine reste toujours
limitée aux cas d’empreinte digitales.

38
8. ACCEPTATION JURIDIQUE DES TECHNIQUES BIOMETRIQUES :

Il est évident que la criminalistique peut emprunter les fruits des sciences de tout
genre à tout moment. Bien entendu, dès que des techniques deviennent un des moyens de la
criminalistique, elles sont soumises à l’exigence de la légalité et de l’impartialité et doivent
être pratiquées en suivant une procédure strictement réglementée (Munagorri, 1999).

La question de recevabilité est cruciale lorsqu’un élément scientifique va être utilisé


dans le mode d'évaluation, surtout quand il est prévu de présenter une preuve
d'identification dans une salle de tribunal (Champod, 2009).

Aux États-Unis, le critère de recevabilité se basait traditionnellement sur la règle


Frye (1923), qui invite le juge - à agir comme un gardien - pour confirmer que le savoir de
l'expert correspond aux connaissances généralement admises par la communauté de
spécialistes concernée. A travers ce critère de Frye appelé aussi « General Acceptance
Standard », plusieurs types de preuves d’identification tels que les empreintes digitales,
l’écriture manuelle, et l'ADN ont gagné leur acceptation et sont reconnus par les tribunaux.
Cependant, d’autres types, comme l’empreinte auriculaire, n’ont toujours pas réussi à
passer ce test de Frye (Champod, 2009).

La norme Frye a été révisée suite à une décision de la cour suprême américaine dans
l’arrêt de Daubert (1993)1 qui a donné une interprétation de la règle fédérale de la preuve
(FRE : Federal Rule of Evidence). La nouvelle norme appelée norme de Daubert exige que le
juge agit toujours en tant que gardien, désormais, non seulement de la pertinence de
l'expertise scientifique au regard des faits de l'espèce, mais aussi de sa fiabilité. Ainsi, et
afin de mettre en œuvre la règle de preuve, les juges fédéraux doivent exercer une
évaluation préliminaire pour déterminer si le raisonnement ou la méthodologie qui sert de
base au témoignage est scientifiquement valide et peut être appliquée aux faits de la
cause (Munagorri, 1999). Cette évaluation comprend cinq critères (Munagorri,
1999) (Champod, 2009):

 la technique ou la théorie de l'expert peut être (et a été) testée. En d’autres


termes la théorie de l'expert doit pouvoir être contestée objectivement. La Cour

1 Dans l'affaire Daubert, du nom de la victime, la question était de savoir si un médicament

destiné à éviter les nausées pendant la grossesse (la Bendictine) fabriquée par les laboratoires Merrell
Dow Pharmaceuticals était à l'origine de malformations à la naissance.

39
suprême adopte la conception prônée par le philosophe des sciences Sir Karl
Popper: « Le critère du statut scientifique d'une théorie est sa réfutabilité, c'est-
à-dire son aptitude à se soumettre à une expérience scientifique susceptible
d'un résultat positif ou négatif » (Munagorri, 1999).
 la technique ou la théorie a-t-elle fait l'objet d'une publication dans une revue
par les pairs. La Cour ajoute que la publication n'est pas une condition sine
qua non de la recevabilité. Mais le simple fait d'avoir été soumis à la critique
par le jeu des évaluations internes à la communauté scientifique est un gage de
la fiabilité de l'expertise.
 Le taux d'erreur (connu ou potentiel) de la technique ou de la théorie lors de son
application doit être considéré par les juges.
 L'existence et le maintien de normes et de contrôles.
 La technique de la théorie a été généralement acceptée dans la communauté
scientifique. Ce qui correspond au critère de Frey d’acceptation générale.

Aujourd'hui aux Etats-Unis d'Amérique, au niveau fédéral, c’est la norme Daubert


qui est en vigueur bien que certains états membres peuvent toujours appliquer Frye (ou les
décisions étatiques similaires). Daubert a conduit à une augmentation du nombre de
contestations devant le tribunal et a forcé la communauté médico-légale à exposer en détail
les fondements de ses disciplines (de la communauté), même dans les zones qui avaient
gagné l'acceptation dans les tribunaux des États-Unis pendant de nombreuses années
(Champod, 2009).

En Europe, il n'existe aucune règle spécifique concernant la recevabilité des preuves


scientifiques. C’est le principe de l'évaluation libre par les juges qui domine. Par conséquent,
il n'est pas surprenant de voir actuellement, un débat restreint dans la jurisprudence
européenne en ce qui concerne la recevabilité de la preuve d'identification (Champod,
2009).

40
9. CONCLUSION:

Comme nous avons pu constater à travers ce chapitre, le scenario criminalistique le


plus important à étudier et qui n’est pas similaire au cas civil est celui de l’enquête
criminelle où l’on cherche à évaluer ou déterminer un suspect donné.

A travers l’histoire, on a pu démontrer qu’un crime n’est jamais complet.


Pratiquement le criminel ne peut jamais commettre son acte sans laisser des preuves
derrière lui. Ces preuves sont principalement des données biométriques fournies à travers
les marques, traces ou enregistrements laissés et puis captés dans le lieu de crime. Elles
sont exploitées par la police médico-légale pour déterminer l’identité de l’acteur.

Cette exploitation des évidences biométriques n’est autre que l’application de la


reconnaissance biométrique dans le domaine médico-légal. Le contexte criminel n’est pas
sans influence sur cette application. D’un côté, les techniques et les algorithmes utilisés
doivent s’adapter aux exigences et spécificités liées au domaine tel que la dégradation de
qualité et de quantité (donnée non complète) ainsi que l’importance de la précision sans
restriction temporelle. D’une autre part, dans ce domaine, aucune comparaison pour choisir
une modalité à utiliser n’est établie. On est plutôt limités par la disponibilité de cette
dernière et on est sensé profiter au maximum de la moindre preuve. Le seul critère qui
donne une importance à une modalité et à son étude est sa tendance d’apparition sur les
scènes de crime. Ceci a mis les empreintes digitales et palmaires en avant dans les travaux
de recherche ayant pour objectif l’automatisation de la reconnaissance des empreintes dans
les conditions criminelles (la dégradation de qualité et la partialité).

41
CHAPITRE 2: L’EMPREINTE PALMAIRE ET LES
APPROCHES DE RECONNAISSANCE

Comme nous l’avons cité dans le chapitre précédent, l’empreinte palmaire est une
des techniques de reconnaissance biométrique les plus utilisées en criminalistique. Son
importance est due à son taux de présence élevé sur les scènes de crime. Les spécialistes
assurent que 30 % des évidences collectées proviennent de la paume de la main sous forme
d’empreintes latentes souvent partielles (Laadjel, et al., 2010). Ainsi, la reconnaissance de
ces dernières joue un rôle important dans les enquêtes criminelles.

La reconnaissance de l’empreinte complète, pour sa part, est un domaine de


recherche qui a connu beaucoup de succès. Plusieurs approches ont été développées et
beaucoup de système ont été mis en œuvre dans des contextes civils ou commerciaux.
Cependant, nous n’avons vu aucune de ces approches appliquées dans la reconnaissance de
l’empreinte palmaire partielle. Ceci nous a poussés à étudier ces approches de
reconnaissance usuelle pour mettre le point sur les difficultés d’une telle application.

A travers ce chapitre nous allons introduire l’empreinte palmaire comme modalité


biométrique de reconnaissance dans « l’empreinte palmaire : vue générale », présenter
l’historique de son exploitation dans la biométrie dans « Historique de la reconnaissance
palmaire », citer ses différentes caractéristiques pouvant être exploitées dans les différents
modes de reconnaissance biométrique dans « Les caractéristiques biométriques d’une
empreinte palmaire et les types de reconnaissance: » avant de reprendre la présentation du
processus détaillé de reconnaissance dans le contexte palmaire. De plus, nous allons mettre
en évidence les approches et techniques déjà existantes dans une présentation générale de
leurs plus importantes catégories montrant leurs avantages et inconvénients. Nous allons
conclure ce chapitre par la présentation de différentes limites de ces approches usuelles
dans le domaine criminalistique.

42
1. L’EMPREINTE PALMAIRE « VUE GENERALE »:

Avant de parler de la reconnaissance biométrique des empreintes palmaires, nous


allons présenter les généralités concernant cette modalité, son anatomie et ces spécificités.

1.1 Définition :
On appelle paume de la main la partie intérieure de la main (partie non visible lorsque
la main est fermée) du poignet aux racines des doigts, comme le montre la Figure 10. Ainsi,
l’empreinte palmaire n’est autre que l’impression (image) de la paume de la main faite par la
pression de cette dernière sur une surface donnée. En d’autres termes, elle peut être définie
comme étant le modèle de la paume de la main illustrant les caractéristiques physiques du
motif de sa peau tel que les lignes (principales et rides), points, minutie et texture (Kumar, et
al., 2009).

Figure 10- La paume de la main

Une identification palmaire peut être vue comme étant l’aptitude d’identifier une
personne parmi d’autres d’une manière unique à travers un algorithme approprié exploitant
les caractéristiques de l’empreinte palmaire (Kumar, et al., 2009).

1.2 Anatomie et développement de la peau palmaire :


Comme la peau des doigts, de la plante et des doigts des pieds, la peau de la paume de la
main est une peau dite de friction1 (connue par les anatomistes comme étant la peau épaisse,
volar ou chauve). Elle présente une texture de fin plissements des sillons et des crêtes
papillaires augmentant l’habilité pour saisir et tenir les objets. La peau de friction se différencie
de celle du reste du corps par (Hicklin, 2009):

1 Friction ridge skin

43
 La présence de crêtes élevées (raised ridges).
 Un épiderme plus épais (ex. l’épaisseur de l’épiderme de la paume de la main est
de 0,8 mm alors qu’elle est de 0,07 à 0,12 pour le reste du corps) et de structure
plus complexe.
 Une capacité sensorielle accrue.
 L’absence de cheveux et de poils.
 L’absence de glandes sébacées.

Les caractéristiques individuelles de la peau épaisse sont déterminées durant le


développement fœtal en se basant sur une combinaison de facteurs génétiques et aléatoires
(comme la vitesse de croissance des doigts, l'alimentation du fœtus, la pression sanguine, ...).
Ainsi, grâce à ces facteurs aléatoires les plis caractérisant la paume de la main ne sont pas
génétiquement déterministes. Même les jumeaux identiques qui partagent les mêmes
séquences d'ADN ont des paumes différentes (Zhang, et al., 2006). Ces motifs complexes
uniques, robustes et distinctifs représentent ainsi une information riche pour l'identification
personnelle.

2. HISTORIQUE DE LA RECONNAISSANCE PALMAIRE :

Dans de nombreux cas à travers l'histoire, l'examen des empreintes de la main a été la
seule méthode pour distinguer deux personnes illettrées ne sachant pas écrire leur propre
nom. Ainsi, l’impression par encre de la main sur le dos d'un contrat était une forme
d'identification acceptable. En 1858, Sir William Herschel, travaillant pour la fonction publique
de l'Inde, a utilisé cette méthode pour distinguer les employés de ceux qui prétendent l’être
lors de la distribution des salaires. Ce fut les premières captures enregistrées d’images de la
main et des doigts prises uniformément à des fins d'identification (NSTC, 2006).

Le premier système AFIS connu supportant les empreintes palmaires a été construit
par une société hongroise. À la fin de l’année 1994, des experts des États-Unis élaborèrent des
tests sur ce système palmaire et invitèrent la compagnie hongroise à participer à la conférence
de l'Association internationale pour l'identification (IAI). Cette technologie d’identification par
paume de la main et par empreintes digitales intégrée dans le système palmaire fut ensuite
achetée par une société américaine en 1997 (NSTC, 2006).

En 2004, le Connecticut, Rhode Island et la Californie, 3 états américains ont établi des
bases de données d'empreintes palmaires, qui ont permis aux organismes d'application de la

44
loi (law enforcement agencies) de soumettre les empreintes palmaires latentes non déjà
identifiées. L'Australie abrite actuellement le plus grand dépôt d’empreintes palmaires dans le
monde. Le nouveau système national australien d’identification automatique des empreintes
digitales (NAFIS) comprend 4,8 millions empreintes palmaires (NSTC, 2006).

En avril 2002, un article sur la technologie des empreintes palmaire et la capacité du


système intégré d’identification automatique par empreintes digitales l’IAFIS a été soumis au
Sous-comité du Service d'identification (IS), bureau de conseil politique(APB) du services
d'information de justice de criminel (CJIS). Le Groupe de travail conjoint a œuvré ensuite «pour
une adhésion forte de la planification, d'évaluation des coûts, et le développement d’un
système d’empreintes palmaires intégré à la Division de (CJIS) du FBI (NSTC, 2006).

À la suite de cette adhésion et aux changements des besoins des entreprises pour
l'application des lois, le FBI a annoncé la prochaine génération d’IAFIS (NGI) initiative. Une
composante majeure de l'initiative NGI est le développement de besoins et le déploiement d'un
service national intégré d’empreintes palmaires. Les organismes d'application de la loi
indiquent qu'au moins 30 pour cent des empreintes relevées des scènes de crime - à partir de
poignées de couteau, de poignées de pistolet, de volants, de vitres des fenêtres - sont des
empreintes palmaires et non pas digitales. Pour cette raison, la capture et la numérisation de
ces empreintes devient un domaine d'intérêt croissant pour ces organismes (NSTC, 2006).

3. LES CARACTERISTIQUES BIOMETRIQUES D ’UNE EMPREINTE PALMAIRE ET LES

TYPES DE RECONNAISSANCE :

L’empreinte palmaire présente différents types de caractéristiques qui peuvent être


exploitées dans la reconnaissance des individus (Panigraphy, et al., 2008) (Zhang, 2004)
(Belguechi, 2006):

 Des caractéristiques géométriques :

Comme toute image, l’empreinte palmaire présente des caractéristiques géométriques


telles que : la longueur, la largeur, et la surface. Ces caractéristiques ne sont pas distinctives
mais peuvent tout de même être utiles pour une première vérification.

 Les lignes principales (Plis de flexion) :

45
L’empreinte palmaire est caractérisée par trois plis de flexion, dites lignes principales:
la ligne de tête, la ligne de vie et celle du cœur. La Figure 11 montre les différents plis de la
paume.

Figure 11- La paume de main et ses plis

Ces plis ne varient que peu à travers le temps. Ils sont faciles à extraire par des
algorithmes de détection de contour. Leur positionnement et leur forme sont importants pour
la reconnaissance. Mais ils sont génétiquement liés (2 jumeaux ont la même forme de plis de
flexion) et restent peu distinctifs. Ainsi, seuls, ils ne peuvent pas fournir une information
suffisante pour une reconnaissance efficace.

Figure 12- Empreintes différentes avec des lignes principales similaires (Panigraphy, et al., 2008)

 Les rides (Plis secondaires) :

L’empreinte palmaire contient de nombreux autres plis qui diffèrent de ceux de flexion
du fait qu’ils sont plus minces et plus irréguliers. Certains d’entres eux sont congénitaux,
d’autres sont dus aux activités musculaires. Les lignes principales et les rides peuvent être
observées facilement sur les images capturées à basse résolution. Comme les lignes principales
seules ne fournissent pas une information distinctive suffisante, les rides jouent un rôle
important dans la reconnaissance palmaire. Combinées aux lignes principales, elles fournissent
une information distinctive pour la reconnaissance.

 Les points de référence (Datum points) :

46
Les points représentant les deux extrémités de la paume de la main sont appelés point
de références. Ce sont les points a et b dans la Figure 13.

Figure 13- a et b: les points de référence de l'empreinte palmaire

Ils servent de point de repère lors de l’alignement et l’extraction des caractéristiques de


l’empreinte palmaire. La taille de cette dernière peut être aussi estimée grâce à ces deux points.

 Les crêtes papillaires:

Les crêtes papillaires sont des épaississements permanents de l'épiderme (la couche
cellulaire extérieure de la peau). Elles se trouvent sur la face antérieure de la main (paume et
doigts) ainsi que sur la plante du pied. Ce sont des surfaces représentant les zones principales
de préhension et d’appui, simulant les bandes de roulement sur un pneu d'automobile. Elles
sont élevées au-dessus du niveau général de la peau dans des formes parallèles droites ou en
séries de courbes. Ces crêtes permettent de distinguer différents types de points pouvant être
considérés comme caractéristiques palmaires :

 Les minuties :

Une minutie, appelée également point singulier local, est un point qui se situe sur un
changement de continuité des crêtes papillaires. On distingue quatre familles de minuties,
illustrées dans la Figure 14: les coupures (interruption, arrêt, dérivation), les divisions
(bifurcation, trifurcation, double bifurcation, embranchement crochet), les anneaux (médians,
latéraux) et les ilots (interruption, arrêt, dérivation). On note que Les bifurcations et les fins de
crêtes suffisent seules à la reconstitution de toutes les minuties.

47
Figure 14- Exemples de quatre familles de minuties (Belguechi, 2006)

 Les points singuliers :

On distingue deux types de points singuliers considérés comme globaux. Le premier est
le point centre, appelé aussi point core, qui est le lieu de courbure maximale des lignes
d’empreinte les plus internes. Le deuxième englobe les deltas qui sont proches du lieu où se
séparent deux lignes d’empreintes vérifiant les propriétés suivantes : ces lignes se séparent
suivant deux directions orthogonales et sont les lignes les plus internes vérifiant la propriété
précédente (se séparer suivant deux directions orthogonales). La Figure 15 montre un exemple
de point core et de point delta.

Figure 15- les points singuliers (Belguechi, 2006)

Comme le montre la Figure 16, selon la résolution utilisée dans l’acquisition de


l’empreinte, une ou plusieurs de ces caractéristiques peuvent être observées et par
conséquence exploitées dans la reconnaissance palmaires des individus. Cela a permis de
classifier les approches de reconnaissance en deux grandes catégories principales : approches
haute résolution et approches basse résolution.

48
Figure 16- les caractéristiques d'une empreinte palmaire (a- image haute résolution, b- image basse résolution)
(Zhang, 2004)

Nous avons résumée, à travers le Tableau 2, les spécificités et les applications de chaque
type (Kong, 2007) (Konuk, 2007) (NSTC, 2006):

Approches
haute Approches Basse résolution
résolution
Résolution
≥400 dpi ≤150 dpi
requise
les minuties et ≥75 dpi Lignes principales1
Caractéristiques
les points ≥100 dpi Les rides
extraites
singuliers ≥125 dpi La texture (la plus appropriée)
Types Civiles et commerciales
Médico-légales
d’applications (ex. control d’accès temps réel)
Hors ligne En ligne
Type d’acquisition
Indirecte Directe
- Traditionnellement, un capteur (capacitif, optique,
ultrason, thermique)
Méthodes Par encre ou
- Récemment, les chercheurs utilisent 4 types de
d’acquisition latente
capteurs : les scanners CCD, les camera numériques,
les scanners et les cameras-vidéo numériques
Tableau 2- Tableau récapitulatif des approches de reconnaissance selon la résolution

Comme le montre le Tableau 2, les approches haute résolution sont des approches
utilisant des images de 400 dpi ou plus. Elles sont adaptées aux applications plutôt médico-

1 L’analyse des lignes principales se trouve un sujet intéressant pour une pré-classification de la BDD
en différentes catégories comme dans (Wu, et al., 2004) qui subdivise les modèles en 6 catégories ou comme
dans (Fang, et al., 2004) qui reprend le travail et divise une des catégories en 5 autres

49
légales telles que l’identification des criminels où la reconnaissance se fait hors ligne
(acquisition d’image par encre ou utilisation d’empreintes latentes). Bien qu’elles permettent
d’observer et d’extraire toutes les caractéristiques, les minuties et les points singuliers sont les
plus intéressantes dans la reconnaissance haute résolution. Les approches basse résolution
emploient des images de résolution de 150 dpi ou moins. Elles sont plutôt adaptées aux
applications civiles et commerciales, telles que le contrôle d'accès et l’authentification temps
réel où la reconnaissance se fait en ligne. Ces approches se basent généralement sur les
caractéristiques des lignes : les lignes principales1, les rides ainsi que la texture (les minuties et
les points singuliers ne sont pas observés sur ce type d’image)

Notons qu’au début de la recherche sur la reconnaissance par empreintes palmaires, la


reconnaissance à haute résolution a été mise au point, mais presque toute la recherche actuelle
est axée sur l'approche à basse résolution en raison des applications potentielles (Kong, 2007).

4. VUE GENERALE DU PROCESSUS DE RECONNAISSANCE PALMAIRE:

Comme tout système de reconnaissance biométrique, le processus de reconnaissance


palmaire passe par 4 phases principales (voir Figure 17) : l’acquisition d’image qui consiste à
capturer l’image de la paume de la main, le prétraitement où un système de coordonnées est
établi afin d’aligner l’image et segmenter la partie nécessaire pour en extraire les
caractéristiques (cette étape dépend du type d’application), l’extraction des caractéristiques, et
l’appariement (matching) qui compare deux vecteurs de caractéristiques. La dernière étape
peut être une classification2 qui détermine l’identité de l’individu ( la classification comporte en
elle-même un ensemble d’appariements)

Acquisition Prétraitement de Extraction de


appariement
d'image l'image caractéristiques

Figure 17- Processus de reconnaissance

1L’analyse des lignes principales se trouve un sujet intéressant pour une pré-classification de la BDD
de référence en différentes catégories comme dans (Wu, et al., 2004) qui subdivise les modèles en 6
catégories ou comme dans (Fang, et al., 2004) qui reprend le travail et divise une des catégories en 5 autres

2 Le terme classification est souvent utilisé pour designer le processus de correspondance dans le cas

de l’identification surtout

50
4.1 Acquisition d’image (la capture d’image):
L’image d’une empreinte peut être acquise par des procédés directs (online) ou
indirects (offline). Les premiers sont employés dans le cas de la reconnaissance basse
résolution. Contrairement aux deuxièmes qui sont employés dans celle haute.

L’image d’une empreinte acquise par des procédés indirects, l’est par le biais d’un objet
intermédiaire (Belguechi, 2006) :

 L’empreinte acquise par encre: après l’avoir enduite d’encre, la paume de la main
est imprimée sur du papier. Cette ancienne technique a perduré pendant environ un
siècle et a été couramment utilisée dans les phases d’enrôlement. L’image ainsi
prise présente de larges crêtes mais souffre d’une grande déformation due à la
nature du processus d’acquisition.
 Les empreintes latentes : elles sont formées suite à une légère trace laissée sur un
objet due à la sécrétion constante de la sueur. Les services de sécurité décèlent ce
type de détails sur les lieux de crime à l’aide d’une poudre spéciale.

Afin d’automatiser le processus de reconnaissance, ces empreinte acquises sur papier


sont par la suite scannées afin d’être numérisées.

Dans le cas des procédés directs, l’image est acquise moyennant un capteur. Une variété
de types de capteurs (capacitifs, optiques, ultrasons, et thermique) ont été développés pour
l’acquisition d’empreintes digitales. Bien que ces capteurs puissent être utilisés pour la capture
de l'image numérique de la surface de paume, leurs méthodologies de captures traditionnelles1
s'adaptent mal aux zones de capture large des empreintes palmaires. La haute définition dans
l’acquisition de l’empreinte palmaire n'étant toujours pas atteinte, elle reste un défit à relever
par les chercheurs (NSTC, 2006).

Actuellement, Les chercheurs utilisent quatre types différents de capteurs pour


recueillir des images d'empreintes palmaires : les scanners d'empreintes palmaires CCD
(Charge-Coupled Device, ou dispositif à transfert de charge), les scanners, les appareils photos

1 L’une des approches les plus courantes, employant un capteur capacitif, détermine chaque valeur
de pixel à la base de sa capacité mesurée. Ceci s’est rendu possible vu qu’une zone d'air (la vallée) a une
capacité nettement inférieure à une superficie de palme (crête). ). D’autres capteurs détectent les images en
utilisant des ultrasons à haute fréquence ou des dispositifs optiques qui emploient des prismes pour détecter
le changement dans la réflexion de la lumière lié à la peau. Les scanners thermiques quant à eux bénéficient
de la différence de température au fil du temps pour créer une image numérique (NSTC, 2006)

51
numériques et les caméras vidéo numériques. La Figure 18 montre un scanner d'empreintes
palmaires CCD développé par l'Université polytechnique de Hong Kong (Kong, 2007).

Figure 18- Un Scanner d'empreinte palmaire CCD (Kong, 2007)

De manière générale, les scanners d'empreintes palmaires CCD capturent des images
de haute qualité et les alignent avec précision puisqu’ils possèdent des broches pour guider le
placement des mains. Cependant, ils ne sont pas adéquats pour une reconnaissance temps réel
vu le temps de balayage nécessaire assez long (Kong, 2007). La Figure 19 montre
l’amélioration apportée par un scanner CCD par rapport à un scanner numérique classique.
D’autre part, les appareils photo numériques et les caméras vidéo sont deux autres façons de
recueillir des images d'empreintes palmaires sans contact (Kong, 2007).

Figure 19- Scanner CCD Vs Scanner numérique (Kong, 2007)

4.1.1. PRETRAITEMENT DE L ’IMAGE :

Avant l'extraction de caractéristiques, il est nécessaire d'obtenir une sous-image de


l'image acquise d'empreinte palmaire et d'éliminer les variations causées par la rotation et la
translation. Les cinq étapes principales communes de prétraitement de l'image d'empreinte
palmaire sont comme suit :

 Etape 1: Binarisation de l’image (Voir Figure 20- passage de (a) vers (b)).
Application d'un filtre passe-bas à l’image originale. Cette dernière est convertie en une
image binaire en utilisant un seuil Tp afin de simplifier le traitement de l’image par la
suite. Mathématiquement, cette transformation peut être représentée comme suit :

52
Où O (x, y) et B (x, y) sont l’image originale et binaire, respectivement, L (x, y) peut être
n'importe quel filtre passe-bas, ( ex : filtre gaussien), et "*" représente l'opérateur de
convolution (Panigraphy, et al., 2008).

 Etape 2 : Détection du contour de la main ou/et des doigts (Voir Figure 20- passage
de b vers c).
 Etape 3 : Détection des points clés. Elle peut être implémentée de différentes
manières, dont l’approche à base de la tangente dans (Zhang, et al., 2003), celle à
base des ondelettes ainsi que celle à base de la bissectrice (Kong, 2007) (Voir
Figure 20- d).
 Etape 4 : Etablissement du système de coordonnées moyennant les points clé. (Voir
Figure 20- e).
 Etape 5 : Extraction de la partie centrale (région d’intérêt ROI1) ; après avoir établi
le système de coordonnés, la partie centrale est segmentée. La plupart des
algorithmes proposés extrait cette partie sous forme d’un carré tandis que certains
ont utilisé une forme circulaire ou la moitié d’une ellipse (Kong, 2007) (Voir Figure
20- f, RIO extraite dans (g))

Dans certains algorithmes, une correction de l'éclairage non uniforme est réalisée pour
améliorer la texture d'empreintes palmaires (Chen & Moon, 2008) (Voir Figure 20- h)

Figure 20 Etapes de prétraitement (Chen & Moon, 2008)

Le processus présenté ci-dessus est la base des prétraitements dans la plupart des
travaux de recherche (ex. : (Kong, et al., 2003), (Laadjel, et al., 2009), (Chen & Moon, 2008),
(Zhang, et al., 2007) et (Qu & Wang, 2010)). C’est le processus utilisé généralement dans la
reconnaissance basse résolution. Cependant, peu de travaux étudient des empreintes

1 Region Of Interest

53
complètes haute-résolution et exploitent ainsi ses caractéristiques telles que les points de
référence (datum point). Ces derniers sont exploités dans (Zhang & Shu, 1999)1 comme points
clés (déterminer à travers des projections directionnelles) pour tracer le système de
coordonnées, illustré dans la Figure 21-a. Ils sont utilisés par la suite dans le processus
d’extraction de caractéristiques (sans extraire de ROI). Li, quant à lui, dans (Li, et al., 2003)2 se
base sur des caractéristiques qu’il juge invariantes (orientation de la borne extérieure de la
paume de la main et le point final de la ligne de cœur, illustrés dans la Figure 21-b) pour
aligner les empreintes palmaires.

Figure 21- Exemples d'idées pour le prétraitement des empreintes palmaires haute-résolution : (a) à
base de points de références (Zhang & Shu, 1999) ; (b) à base de caractéristiques invariantes (Li, et al., 2003)

4.1.2. EXTRACTION DE CARACTERISTIQUES ET APPARIEMENT (MATCHING) :

Cette étape consiste à extraire les caractéristiques significatives de la segmentation ROI


pour la modélisation et la vérification dans une étape ultérieure du processus. Elle constitue le
cœur du processus de reconnaissance. C’est pourquoi elle a fait l’objet de plusieurs travaux de
recherche et plusieurs approches ont vu le jour (ex. : (Laadjel, et al., 2008), (Huanga, et al.,
2008), (Zhang, 2004), (Lu, et al., 2003) , (Wu, et al., 2002) et (Chen & Moon, 2008)).

Une fois l’ensemble des caractéristiques défini, on peut l’utiliser pour représenter
l’image. L’identification se fait, par la suite, par une méthode de classification qui va comparer
cet ensemble de caractéristiques avec des enregistrements de références existants dans la base
de données spécifique et ainsi trouver la classe à laquelle appartient cette image

Selon les caractéristiques extraites, la représentation dans la base de données (le


modèle) et la méthode d’appariement adéquates sont choisies3. Qu’elles soient représentées

1 Repris dans (Zhang, 2004)


2 Repris dans (Zhang, 2004)
3 Plus de détails dans le paragraphe suivant

54
sous forme de matrice ou de vecteur à une ou plusieurs dimensions, les méthodes de
comparaison géométriques classiques entre les vecteurs (la distance euclidienne la mesure de
cosinus, la distance euclidienne de poids, et la distance de Hamming) restent les plus utilisées
(comme dans (Madasu, et al., 2009), (Wu, et al., 2002), (Zhang, 2004), (Lu, et al., 2003) , (Wu, et
al., 2002) ) .

On note qu’il existe plusieurs travaux visant à introduire des concepts de classification
plus évolués tels que les réseaux de neurone (Shanga, et al., 2006), Séparateurs à Vaste Marge
(SVM) (Boukhari & Benyettou, 2008) ou les chaines de Markov cachés (X. Wu, 2004). De même
que des travaux sur la conception de distances spécifiques à la reconnaissance palmaire telle
que la distance bit-a bit angulaire (Kong, 2007).

Dans ce qui va suivre (le paragraphe 5), nous détaillons plus ces deux dernières phases.

5. LES APPROCHES DE RECONNAISSANCE DES EMPREINTES PALMAIRES

COMPLETES :

La tendance actuelle d’adopter la reconnaissance biométrique dans des applications


civiles et commerciales a orienté toute la recherche biométrique vers cet axe. Ainsi, la plupart
des travaux de recherche dans la reconnaissance palmaire porte sur la reconnaissance basse-
résolution (ex. (Konuk, 2007), (Shanga, et al., 2006), (Wenxin, et al., 2002), (Laadjel, et al.,
2009), (Shanga, et al., 2006) et (Wong, et al., 2008)). Cette dernière se trouve, comme déjà
signalé auparavant, la plus adéquate pour ce type d’applications (ex. le contrôle d'accès) où la
reconnaissance se fait en temps réel et se base sur une comparaison d’images complète-
complète (full-to-full image comparaison).

Peu de travaux prennent en compte la haute résolution pour une reconnaissance


d’empreinte palmaire complète. Dans ce cas une adaptation d’une des approches utilisées pour
les empreintes basse-résolution semble logique. Cela part du principe que les caractéristiques
observées à une basse résolution le sont forcement en augmentant cette dernière.

5.1 La reconnaissance haute résolution:


Le plus important des travaux de recherche prenant en considération les spécificités de
l’empreinte haute résolution est celui de Zhang et ses collaborateurs1. Dans son article (Zhang

1 Repris dans son livre « Palmprint Authentification » en 2004 (Zhang, 2004)

55
& Shu, 1999), Zhang se base sur l’observation que les lignes principales sont d’une flexion
assez réduite de sorte qu’elles peuvent être représentées par des petits segments droits. Il
applique des filtres de convolution directionnels améliorés pour les extraire tout en éliminant
ceux courts ou superposés, les représente par leurs points de fin et finit par appliquer un
appariement par une simple distance euclidienne pour la reconnaissance finale. Il renfonce
cette méthode dans (Zhang, et al., 2001) par une première phase de classification qui classe les
empreintes dans 6 catégories déterminées selon le nombre de points singuliers détectées –à
base de l’orientation des crêtes- dans la partie extérieure de la paume de la main. Une autre
approche plutôt multi-caractéristique combinant des caractéristiques globales et locales est
proposée par son équipe dans (Youa, et al., 2002). Elle consiste, dans un premier lieu, à
appliquer une approche statistique globale calculant l’énergie globale de la texture (GTE) –sur
les 4 directions- pour déterminer un ensemble de candidats éventuels. Une deuxième phase
plus fine se trouve nécessaire pour la reconnaissance. Elle est réalisée à travers une approche
structurelle qui extrait des points d’intérêt représentatifs, distinctifs et robustes au bruit par
l’operateur de Plessey1 pour les apparier, par la suite, d’une manière hiérarchique en
résolution par la distance de Hausdorff.

Durant la même année 2002, mais dans le but d’améliorer la discrimination fournie par
l’empreinte digitale, Duta propose dans (Duta, et al., 2002) l’extraction de points
caractéristiques étendus sur les lignes proéminantes plutôt que d’extraire ces lignes
explicitement (comme le fait Zhang). Il part de la supposition que c’est plus rapide à extraire de
même qu’il n’est pas nécessaire de considérer la connectivité entre les points pour un
appariement correcte. Il se contente d’attribuer à chaque point l’orientation de la ligne dont il
découle. Afin de prendre en charge le problème d’alignement durant l’appariement, Duta
développe son propre algorithme d’appariement.

A travers nos lectures, nous avons pu constater que cet axe de recherche a été presque
abandonné durant la dernière décennie. Ceci revient principalement au besoin du marché qui
privilège la basse-résolution pour une acquisition moins coûteuse et un traitement plus rapide.
La haute précision est laissée au domaine criminalistique qui n’exploite pas une empreinte
complète mais une partielle. Seul Jain reprend le sujet avant d’aborder la reconnaissance des
empreintes latentes partielles dans (Jain & Demirkus, 2008) en 2008. Il s’inspire de l’empreinte
digitale et considère celle palmaire comme un ensemble de crêtes où les plis constituent le

1Un des détecteurs de points d’intérêt connus (ex. d’autres détecteurs : Moravec, Harris ..)

56
bruit. Il leur applique un extracteur de minuties commercial1 VeriFinger et élimine les fausses
minuties2 à base d’une carte de plis3. L’appariement est aussi effectué par VeriFinger après
l’adaptation4 de l’empreinte en entrée.

5.2 La reconnaissance basse résolution:


Les approches de reconnaissance d’empreintes palmaires basse-résolution peuvent
être classifiées et catégorisées selon le type de caractéristiques extraites et utilisées dans
l’appariement. Dans un cas de résolution très basse (comme le montre le Tableau 2), seules les
lignes principales et les rides peuvent êtres extraites (75 dpi suffisent pour l’extraction des
premières et 100 dpi sont nécessaires aux rides). L’extraction de ces caractéristiques
structurales a donné naissance aux approches basée sur les lignes (ex. (Zhang, 2004)). D’un
autre part et avec une résolution de 150 dpi, une exploitation des informations présentes dans
l’empreinte palmaire vu comme image de texture peut être effectuée. Cette dernière peut
fournir plusieurs informations qui peuvent être exploitées dans plusieurs approches. Des
caractéristiques statistiques peuvent être extraites de cette texture donnant naissance aux
approches dites statistiques (ex. (Wu, et al., 2002) (Chen & Moon, 2008)). Une autre philosophie
peut être utilisée qui est celles des projections réduisant les dimensions. On a affaire dans ce
cas aux approches basées sur l’apparence (sous espace) (ex. (Lu, et al., 2003) (Wu, et al., 2003)
(Laadjel, et al., 2009) (Laadjel, et al., 2008) (Caimao, et al., 2010) (Connie, et al., 2005)). De plus,
ces notions et ces caractéristiques peuvent être utilisées en fusion dans des approches dites
multi-caractéristiques (ex. (Kumar & Zhang, 2005)).

On note qu’il existe une tendance dans les derniers travaux à traiter les empreintes
palmaires prises sans contact qu’elles soient acquises par une webcam ou parues dans une
séquence vidéo. Ce genre de travaux de recherche focalise sur la phase de prétraitement afin
de segmenter la main et en extraire la région d’intérêt (RIO) avant d’appliquer une des
approches de reconnaissance basse-résolution. Pour se faire, on profite de la forme de la main
ainsi que la couleur de la peau. A titre d’exemple, dans (Doublet, et al., 2007) et (Doublet, et al.,
2007) , les auteurs effectuent cette tâche à travers un outil d’apprentissage (réseau de

1Conçu pour les empreintes digitales


2Toute minutie localisée sur un plis est considérée fausse.
3Cette carte est construite par application d’une convolution par 8 filtres directionnels spécifiques

sur une pyramide d’échelle de l’empreinte (par downsampling) après élimination de bruit (crêtes dans ce
cas) par une gaussienne de lissage. Cette convolution est suivie par une application d’une transformée de
Ridon pour connecter les lignes de segments.
4 Par alignement à base du point début de la ligne du cœur et la division d’empreinte en 5 régions et

considération de la somme des 5 scores

57
neurone) pour différencier les pixels appartenant à la peau de ceux du background. Rafael
pour sa part, dans (Kozik & Chora, 2010) , se contente d’un simple processus de seuillage des
couleurs RGB. Contrairement à Goh dans (Goh Kah Ong Michael, 2008) qui modélise les
couleurs de la peau par une distribution gaussienne dans l’espace chromatique de couleurs
avant d’appliquer son seuillage. Dans le même cadre (sans contact), d’autres travaux tels que
(Methani & Namboodiri, 2010) exploitent la séquence vidéo pour extraire plusieurs images de
la même empreinte et combinent les informations issues de chacune pour améliorer le contenu
de l’échantillon.

Dans ce qui suit nous allons présenter d’une manière globale les différentes catégories
d’approches basse-résolution citées ci-dessus en signalant leurs avantages et inconvénients.
Cette présentation est inspirée des lectures de quelques Surveys (Kong, et al., 2009)
(Krishneswari & Arumugam, 2010), thèses (Kong, 2007) (Laadjel, 2009) et articles dans le
domaine ( (Zhang, 2004), (Lu, et al., 2003) (Wu, et al., 2003) (Laadjel, et al., 2009) (Laadjel, et
al., 2008) (Caimao, et al., 2010) (Connie, et al., 2005), (Wu, et al., 2002) (Chen & Moon, 2008) (J.
You, 2004)).

5.2.1. LES APPROCHES A BASE DES LIGNES :

Les approches à base de lignes utilisent les méthodes classiques de détection de


contour (Canny ou Sobel) à base des dérivés premières et secondes ou des méthodes
implémentées spécialement pour l’empreinte palmaire.

 Représentation :

Les lignes détectées peuvent être appariées directement ou représentées dans une
autre forme comme le montre la Figure 22 (a-image matrice où les pixels appartenant à des
lignes ont une valeur de 1, 0 sinon, b- un vecteur de magnitudes, c- un vecteurs où chaque
entrée définit les point de fin des segments) :

58
Figure 22- Exemples de représentation de lignes extraites

Les lignes principales détectées seules ne sont pas distinctives. Elles peuvent être
utilisées pour subdiviser la BDD en différentes catégories comme dans (Wu, et al., 2004) qui
subdivise les modèles en 6 catégories ou comme dans (Fang, et al., 2004) qui reprend le travail
et divise une des catégories en 5 autres.

 Appariement :

La méthode principalement utilisée pour l’appariement est : la distance.

 Les avantages :

Ces approches présentent les avantages majeurs suivants :

 Elles ne nécessitent pas une résolution élevée (résolution nécessaire assez basse).
 Elles ne perdent pas les informations structurales.
 Avec les rides, les lignes principales présentent une méthode précise et performante pour
distinguer les individus (caractérise d’une manière exacte l’empreinte).

 Les inconvénients :

Les lignes et les rides présentent les inconvénients suivants :

 Elles sont difficiles à extraire.


 Elles sont difficiles et lourdes à représenter.
 Elles sont difficiles à apparier.
 Les lignes principales seules ne sont pas discriminantes.

59
5.2.2. LES APPROCHES STATISTIQUES1:

Les approches statistiques sont les approches les plus étudiées dans le domaine
d’extraction de caractéristiques et de reconnaissance des modèles.

Dans le cas de la reconnaissance palmaire, elles ont été appliquées :

 Directement sur l’image dans son domaine spatial.


 Sur l’image dans son domaine fréquentiel (après l’application de Fourier).
 Après sa décomposition par les ondelettes ou Gabor (multi résolution, multi-
échelle)(Cette dernière a montrée des résultats assez satisfaisants (Laadjel, et
al., 2008)).

 Types et représentation :

Les approches statistiques peuvent être :

 locales : après une décomposition de l’image en blocs adjacents ou imbriqués (carrés ou


circulaires), des statistiques simples peuvent être appliquées sur chaque bloc (ex :
moyenne, variance, énergie..) et le résultat constitue une composante dans le vecteur de
caractéristiques.

Figure 23- Exemple de vecteur caractéristique dans le cas d''une approches statistiques locale

On peut avoir un ou plusieurs vecteurs selon le nombre de calculs utilisés. Ces vecteurs
peuvent être utilisés dans le même appariement ou dans un appariement hiérarchique.

Dans la Figure 24, des calculs statistiques sont appliqués sur des régions décomposées
par rayon (en rouge) ex. la somme des énergies des pixels dont la distance au centre est entre 0

1 Plusieurs articles parlent d’approches basées sur la texture comme catégorie séparée. Dans ce

rapport, nous avons considéré ces approches comme sorte d’approches statistiques. De même, les approches
de codage peuvent être vues ainsi.

60
et 10 pixels. D’autres calculs sont appliqués sur des régions décomposées par orientation (en
bleu) ex. la somme des énergies des pixels dont l’orientation est entre 0 et 10 degrés.

Figure 24- Exemple de plusieurs vecteurs caractéristiques (R, ϴ)

 Globales : dans ces approches, des statistiques globales sont appliquées sur l’ensemble de
l’image telles que le centre de gravité, la densité. Ces statistiques sont utilisées plutôt dans
un cadre hiérarchique combinée à d’autres caractéristiques. Elles peuvent aussi être
utilisées dans le cadre d’une indexation des bases de données.

 Appariement

Les méthodes utilisées pour l’appariement sont généralement les distances. Dans
quelques travaux les réseaux de neurones ont été utilisés (comme dans (Yang & Wang, 2010)).

 Les avantages :

Les approches statistiques présentent quelques avantages dont on peut citer :

 Ce sont des approches répandues dans l’analyse de texture. Ainsi plusieurs de ces
méthodes peuvent être exploitées.
 Les caractéristiques statistiques sont faciles à extraire, représenter, et à apparier.

 Les inconvénients :

Ces approches présentent quelques inconvénients :

 Elles sont liées à la décomposition.


 Elles ne reflètent aucune information structurale
 Elles ne sont pas assez performantes pour une identification avec certitude.

61
5.2.3. LES APPROCHES BASEES SOUS ESPACE, PROJECTION :

Ces approches voient l’image dans sa totalité comme un vecteur de caractéristiques.


Elles se basent sur le principe de réduction de dimension (l’extraction des caractéristiques
algébriques):

Une Image Matrice I (M, N) étant vue comme un individu dans l’espace a M*N
dimension Xi (a1, a2, a3, a4, …. anm) on désire réduire sa dimension et pouvoir l’écrire comme Yi
(b1, b2, b3, b4, …, bc) avec c< mn. Cette réduction a comme but une représentation plus compacte
de l’image pour faciliter son appariement par la suite.

Lors d’une telle réduction on peut viser comme but :

 La liberté des sous espace : Cela se voit dans l’analyse en composantes


indépendantes (ICA : Independent Component Analysis) qui vise l’indépendance
en premier lieu. On désire dans ce cas avoir des sous espaces de destination (é1,
é2, é3, é4, …, éc) libres. Ie Yi =b1 é1+ b2 é2 + b3 é3 +b4 é4 …+ bc éc) avec ∀ éi , éi ne
peut pas être exprimé en fonction des autres éj.
 La conservation des informations telle le cas de l’analyse en composantes
principales (PCA : Principal Component Analysis) qui permet une reconstitution
optimale de l’image et minimise l’erreur de passage inverse. Elle cherche la non-
corrélation.
 Une meilleure classification : telle le cas du critère de ficher qui prend en
compte les classes qui vont être construites lors de la création de la matrice de
passage. Ce critère est utilisé dans l’analyse discriminante linéaire (LDA Linear
Discriminants Analysis).
Cette méthode se base sur la connaissance des classes X1, X2,… Xc qui
comportent les images issues de chaque individu pour construire une classe.
N empreintes (x1, x2, x3, x4, …. Xn)
C classes X1, X2,… X c |Xi|= Ni
Fisher cherche la matrice de transformation qui maximise la diversité entre les
classes et minimise celle dans la même classe. (Critère de Fisher Max arg |J(w)|=

où SB présente la matrice de dispersion entre les classe et Sw celle dans

la même classe)

Dans ces approches, une phase d’apprentissage sur une base de données test est
nécessaire pour construire la matrice de transformation.

62
Les approches les plus utilisées sont Eigen Palm et FisherPalm. Cette dernière basée sur
la FLD ( Fisher’s Linear Discriminant ) est la meilleure en termes de capacité de classification
(Wu, et al., 2003).

Une combinaison de ces méthodes peut être efficace (Wu, et al., 2003) (Connie, et al.,
2003), elle se fait à travers une hybridation séquentielle (Dans le cas de la FLD elle peut même
être obligatoire pour éviter le problème de la singularité). Cette hybridation peut être de
plusieurs formes :

 K-tranform + FLD
 PCA + FLD
 PPL + FLD
 ICA + PCA

L’utilisation d’un filtre de Gabor comme première étape améliore la robustesse des
caractéristiques extraites envers les variations d’illumination (Laadjel, et al., 2008). Un filtre de
Gabor augmente la dimension du premier vecteur de caractéristiques et il s’avère nécessaire
d’appliquer une première projection avant l’apprentissage. (Dans (Laadjel, et al., 2008), le filtre
de Gabor était appliqué avant l’application de la FLD. Ceci a nécessite l’application d’une
première étape de réduction de dimension par PCA).

Remarque : le vecteur caractéristique est d’une dimension < c dans le cas de Fisher ( c
étant nombre de classe ).

 Appariement :

Les distances sont les méthodes les plus utilisées pour l’appariement. Cependant, les
réseaux de neurones ou la Machine à vecteurs de support (SVM) peuvent être utilisés.

 Les avantages :

Ces approches appelées aussi approches d’apparence sont :

 Des approches répandues dans l’analyse de texture. Ainsi, plusieurs méthodes existantes
peuvent être utilisées
 Des approches très prometteuses en termes d’efficacité.
 Dans le cas de Fisher, une notion de meilleure classification est tenue en compte d’avance.

63
 Les inconvénients :

Ces approches ont, également, leurs inconvénients tels que :

 La nécessité d’une phase d’apprentissage.


 La dépendance de la matrice de transformation à la base de données d’entrainement.

5.2.4. LES APPROCHES MULTI-CARACTERISTIQUES :

Afin d’améliorer les performances des systèmes de reconnaissance en termes de


précision et de rapidité, des approches multi-caractéristiques peuvent être exploitées à travers
les deux philosophies suivantes :

 La fusion au niveau des scores :

Comme le montre la figure suivante (Figure 25), ce type d’approche repose sur la fusion
entre les scores issus de plusieurs approches profitant chacune d’un type de caractéristiques :

PCA Score A
Produit

Lignes Score B
Somme

Gabor Score C

Fusion et décision

Figure 25- Le schéma d’un module de fusion et décision de scores utilisé dans (Kumar & Zhang,
2005)(- Schéma illustratif des approches multi-caractéristiques à base de fusion des scores)

Ce type d’approche vise l’augmentation du niveau de précision de la reconnaissance.

 La hiérarchie d’appariement (Cas de l’identification) :

Afin d’augmenter la performance de l’identification dans les grandes bases de données,


le concept d’hiérarchie1 peut être exploitée. Un appariement en deux phases peut augmenter
relativement la rapidité de la recherche. Comme le montre la figure suivante (Figure 26), un
ensemble de candidats éventuels est déterminé à travers l’application d’une première
approche d’extraction de caractéristiques généralement globales (ex. statistique globale). Par

1 (Pas loin de l’indexation)

64
la suite, une approche plus fine, exploitant des informations plus spécifiques et plus détaillées
est appliquées afin de déterminer la décision finale.

Template

Approche1

Vecteur caractéristique

Ensemble de Matching 1 Base de données


candidats

Matching 2 Approche 2 Template


Vecteur
caractéristique

Décision

Figure 26- Schéma illustratif des approches multi-caractéristiques


hiérarchiques

6. CONCLUSION :

Comme mentionné auparavant, le processus de reconnaissance palmaire dans son cas


usuel (basse-résolution) commence par une phase de prétraitement assurant l’alignement de
l’image et l’extraction d’une région d’intérêt avec un système de coordonnées analogue dans
tous les échantillons. Ce prétraitement se base, dans son concept général, sur la détection de
points clés. Dans le cas d’une trace laissée sur les lieux de crimes, la chance de présence de ces
points est très réduite. Ainsi, leur détection n’est pas toujours assurée de même que la
disponibilité de toute la région d’intérêt.

De leur part, les approches de reconnaissance basse-résolution extraient les


caractéristiques et les enregistrent en fonction du système de cordonnées liées à la région
d’intérêt :

 Dans les approches structurelles à base des lignes, les caractéristiques extraites sont des
lignes représentées par leurs points de fin. La phase d’appariement calcule la distance
entre ces caractéristiques en fonction de leur localisation. Cette dernière devient
impossible dans le cas d’une empreinte partielle où seule une partie non alignée est
disponible. Ceci nécessite une recherche sur tous les alignements possibles qui est une
tâche très complexe.

65
 Dans les approches statistiques, les blocs sur lesquelles sont appliqués les calculs
statistiques sont ordonnés et définis à base de leurs localisations qui devient elle aussi
impossible dans le cas d’empreinte partielle.

 Pour les approches de projection, la disponibilité de l’empreinte complète est essentielle


pour l’application des méthodes.

Ainsi, l’application directe de ces approches dans la reconnaissance des empreintes


latentes partielles nécessite une révision générale approfondie pour pouvoir les réadapter.
Cette révision et cette adaptation ne semble pas efficace. Une analyse de la littérature dans la
reconnaissance palmaire montre que les chercheurs n’ont pas exploité cet axe et se sont dirigés
vers d’autres domaines pour régler le problème de la partialité des empreintes.

66
CHAPITRE 3 : LA RECONNAISSANCE PALMAIRE
DANS LE DOMAINE CRIMINALISTIQUE

Quand on parle de reconnaissance biométrique à base d’empreinte palmaire dans le


domaine criminalistique (cas d’enquête), on parle forcement de la reconnaissance des
marques des paumes de mains laissées sur les lieux de crime qui sont plutôt des
empreintes palmaires latentes.

Cette reconnaissance présente un défit pour les chercheurs du fait que ces
empreintes soient d’une qualité dégradée, ne couvrent qu’une partie de la surface de la
paume de la main, de plus qu’elles possèdent un background complexe (Jain & Feng, 2009).
Ces spécificités rendent impossibles l’application des approches usuelles, dont le concept se
base sur la complétude de l’empreinte (une comparaison full-to-full). Cependant, la
reconnaissance d’empreinte digitale, et à travers sa riche bibliographie, et par sa
ressemblance à celle palmaire, a attiré l’attention des chercheurs pour s’en inspirer et en
profiter dans leurs travaux sur la reconnaissance palmaire partielle.

En plus de la ressemblance dans la nature des empreintes due à l’épaisseur de la


peau, la reconnaissance des empreintes palmaires latentes partage quelques problèmes
avec celle des empreintes digitales (tel que Le background complexe, La structure pauvre
des crêtes, la partialité de l’image (Jain & Feng, 2009) ). Ces problèmes sont, quant à eux,
déjà étudiés d’une manière extensive. Ainsi la plupart des travaux sur l’empreinte palmaire
latente sont des applications des techniques déjà conçues pour l’empreinte digitale.

Dans ce chapitre, nous allons présenter brièvement les différentes approches de


reconnaissances d’empreintes digitales dans « état de l’art de la reconnaissance digitale ».
Par la suite, nous allons déterminer leurs limites pour une application sur la reconnaissance
palmaire. Nous arrivons vers la fin de ce chapitre à présenter en détails les différents
travaux réalisées sur la reconnaissance des empreintes palmaires latentes, les comparer
pour terminer par citer les différents problèmes soulevés dans ces travaux.

67
1. ETAT DE L’ART DE RECONNAISSANCE D ’EMPREINTES DIGITALES :

La reconnaissance des empreintes digitales est un problème difficile vue la large


variation des différentes impressions issues du même doigt. Cette grande variation intra-
classes est due à différents facteurs tels que : le déplacement (translation globale), la
rotation, le chevauchement partiel, la pression, les conditions de la peau (la sécheresse, les
maladies, la sueur, les saletés, la graisse, l’humidité), le bruit ainsi que les erreurs
d’extraction interne au processus.

Suite à nos différentes lecture (en particulier (Maltoni, et al., 2009)), nous avons pu
classifier les approches existantes dans la littérature de la reconnaissance biométrique par
empreinte digitale dans les catégories illustrées dans la Figure 27.

Les approches de reconnaissance d’empreinte digitale sont classées en trois grandes


catégories selon le type de caractéristiques extraites et leurs représentations: Dans les
approches à base d’intensité, dite par corrélation1, on se base sur les intensités des pixels
comme caractéristiques à apparier. Les approches à base de minuties, quant à elles,
utilisent les minuties comme caractéristique extraite de base (Ces approches sont
reclassées par la suite selon le type d’appariement utilisé). Toutes les approches qui restent
sont regroupées dans une catégorie appelée approches à base de caractéristiques non-
minuties où différents autres types de caractéristiques sont extraites (texture, attribut
géométriques et relation entre les crêtes, caractéristiques de troisième niveau).

Dans ce qui va suivre, nous allons expliquer brièvement ces trois catégories
d’approches :

1 Appelée ainsi a cause du seul type d’appariement utilisé.

68
Figure 27- Taxonomie des différentes catégories d’approches de reconnaissance d’empreinte
digitale

69
1.1 Les approches à base d’intensité (par corrélation) :
Dans ces approches, les empreintes sont représentées sous forme d’images, plus
précisément matrices d’intensité de pixels. Il n’y pas de vraie extraction de vecteur
caractéristique. Le concept général de ces approches consiste à superposer deux images
d’empreinte et calculer les corrélations entre leurs pixels pour les différents alignements
possibles (voir Figure 28). La mesure intuitive de similarité est celle de la somme des
différences carrées entre les intensités des pixels (SSD (T, I)=||T-I||2= (T-I)t (T-I)= ||T||2+
||I||2- 2TtI ) qui est minimale quand la corrélation croisée (CC (T,I)= TtI) est maximale. Due
aux facteurs de déplacement et de la rotation, la mesure de similarité devient ainsi : S(T,I)=
Max Δx, Δy,ϴ CC(T, I(Δx, Δy,ϴ)).

Figure 28- Exemple de corrélation entre deux empreintes digitales. (c) est le resultat de la
corrélation entre (a) et (b).

Ces méthodes connaissent des limites dues aux facteurs suivants :


 La distorsion non linéaire : ce facteur est pris en considération dans certains travaux
(Bazen, et al., 2000) (Yahagi, et al., 1990) par le calcul de la corrélation d’une manière
locale en divisant l’image en blocs chevauchés ou non qui peuvent couvrir toute l’image
ou se contenter de couvrir quelques régions intéressantes.
 La grande complexité des algorithmes : qui a poussé les chercheurs à se diriger vers le
domaine fréquentiel1 (Ito, et al., 2005) (Shuai, et al., 2007)(ex. SPOF : Symmetric Phase
Only Filter) ou à utiliser des heuristiques pour la recherche de la corrélation maximale
(Lindoso, et al., 2007).
 La grande variance intra-classes en termes de luminosité, contraste et l’épaisseur des
crêtes.

1 Une corrélation dans le domaine spatial est équivalente à une multiplication dans le domaine

fréquentiel.

70
1.2 Les approches à base de minuties :
Ces approches sont les plus connues et les plus utilisées dans la reconnaissance, vu
leur ressemblance à celles utilisées par les experts en criminalistique ainsi que leur
acceptation juridique dans les tribunaux.

Dans ces approches les empreintes sont représentées, sous forme de vecteurs de
minuties (de taille variable) où chaque minutie est décrite par un certain nombre
d’attributs comme: la position dans l’image, l’orientation, le type (fin ou bifurcation), et un
poids basé sur la qualité de l’image au voisinage de la minutie.

Le problème critique dans ces approches1 est le problème d’alignement et celui


d’appariement. Un alignement correct requière un recouvrement du déplacement et de
rotation de l’image et comporte une certaine prise en charge des autres transformations
géométriques (la mise à l'échelle, tolérance à la distorsion). Ce qui nécessite un temps
d’exécution important. L’appariement quant à lui peut être un appariement global qui
localise les minuties dans l’image ou un appariement local qui ne prend en considération
aucune localisation globale des minuties.

L’appariement global dans sa conception prend en comptes tous les alignements


possibles que cela soit durant l’appariement dans les méthodes sans pré-alignement ou à
travers une phase de pré-alignement qu’elle soit absolue ou relative. Afin d’éviter le
problème d’alignement dans ces approches un système de coordonnées intrinsèques a été
proposé dans certains travaux (Bazen & Gerez, 2001).

D’autre part, une notion de structures locales a été introduite dans le cas
d’appariement local évitant toute la notion d’alignement. Cet appariement peut être
renforcé par une phase de consolidation dans le but de l’affiner.

Comme le montre le tableau suivant (Tableau 3) comparant l’appariement locale et


globale, l’appariement global est plus distinctif et maintient les relations spatiales.
Cependant, l’appariement local est plus simple, plus rapide, plus tolérant aux distorsions et
d’une complexité réduite.

1 Nous pouvons dire que l’extraction des minuties est un problème métrisé.

71
Appariement global Appariement local
Distinctivité Haute Moyenne
Relations spatiales Maintenues Perdues
Simplicité Moins simple Plus simple
Complexité de calcul Haute Réduite
Rapidité Lente Plus rapide
Tolérance aux distorsions Basse Haute

Tableau 3- Tableau comparatif entre les approches d'appariement locales et globales

1.2.1. APPARIEMENT GLOBAL :

Dans cette catégorie d’approches, l’attribut le plus important dans le descripteur


d’une minutie est la localisation de cette dernière dans l’image: ses coordonnées par
rapport à un système de coordonnées global. Ainsi, il est important d’aligner correctement
l’image afin de maximiser le nombre de minuties appariées. Cet alignement peut être
effectué explicitement dans une phase antérieure (pré-alignement) ou implicitement à
travers une recherche du meilleur alignement durant l’appariement.

a. Appariement global sans pré-alignement :

Dans ce cas, le problème d’appariement peut être vu comme un appariement de


modèles de points (Point Pattern Matching) qui peut être défini1 comme :

«Étant donnés deux ensembles de points dans un espace d-dimensionnel, on


veut déterminer s’il existe une transformation, parmi un groupe spécifique de
transformations d’espace, qui mappe le premier ensemble sur (ou
suffisamment proche) le deuxième ».

Ce problème d’appariement de points tel qu’il est défini ci-dessus a été largement
étudié donnant naissance à plusieurs familles d’approches y compris :

 Les approches de la géométrie algébrique classique : dans leurs conceptions, ces


approches ne prennent pas en considération les spécificités des minuties (Brass &
Knauer, 2000). C’est pourquoi ils ne sont pas efficaces en étant appliqués tel quel.
Cependant, il y a eu des recherches pour s’en inspirer afin de concevoir des algorithmes
ad-hoc (Udupa, et al., 2001).

1 Given 2 sets of point in d-dimensional space, we need to determine whether ther is a

transformation among a specified group of space transformation that maps the first set onto (or
satisfactorily close to) second set of point. (http://www3.sympatico.ca/vpaquin/tutorial/tutorial1.htm)

72
 Les approches de La Transformée de Hough : appelée aussi les approches à base de vote.
La base de ces approches revient à convertir le problème en un problème de détection
des pics des paramètres de transformation dans l’espace de Hough.
 Les approches de relaxation : Elles consistent à ajuster itérativement le niveau de
confiance pour chaque pair de points en se basant sur leurs consistances avec les autres
pairs jusqu'à satisfaire un certain critère. Ces approches sont considérablement lentes
vu leur nature itérative.
 Les approches de la recherche opérationnelle : Les approches d’élagage d’arbre (ex.
Branch and Bound) essayent de déterminer la correspondance entre les deux ensembles
par une recherche à travers un arbre des différents matchs. Différentes stratégies sont
appliquées pour réduire l’espace de recherche et réduire le temps d’exécution. Ces
approches tendent à imposer certaines conditions difficiles à satisfaire dans la
reconnaissance d’empreintes digitales. Le problème d’appariement de points peut être
aussi ramené à un problème d’affectation, d’appariement de graphes bipartis ou de
recherche d’arbre recouvrant minimale. Ce dernier a été déjà exploité dans la
reconnaissance d’empreintes digitales (dans (Oh & Ryu, 2004)).
 Les approches de minimisation d’énergie : Ces approches définissent une fonction
associant une énergie à chaque solution. Les solutions optimales sont déterminées en
minimisant cette fonction moyennant un algorithme stochastique tel que les
algorithmes génétiques, le recuit simulé, les algorithmes mimétiques (Tan & Bhanu,
2006) (Sheng, et al., 2007). En général, ces méthodes sont lentes et inadéquates pour
une reconnaissance temps réel.

b. Appariement global avec pré-alignement :

Intégrer l’alignement dans la phase d’appariement, comme vu ci-dessus, conduit


certainement à concevoir des algorithmes plus robustes qui prennent en charge
généralement des données incomplètes et bruitées. Cependant leur complexité en termes
de calculs diminue leur débit1 de reconnaissance (augmente le temps de traitement).

Afin de pallier à cet inconvénient, une phase de pré-alignement peut être introduite
réduisant le problème à un simple appariement. Ce pré-alignement peut être :
 Un pré-alignement absolu : où chaque empreinte est alignée indépendamment des
autres empreintes dans la base. La technique la plus courante translate l’empreinte par

1 Nombre de transaction par unité de temps

73
rapport à la position du point core. Cependant ce dernier est difficile à détecter. Le pré-
alignement absolu respectant la rotation est encore plus complexe. Pour le réaliser les
chercheurs utilisent des caractéristiques tels que: la forme de la silhouette externe,
l’orientation du segment du core delta, l’orientation moyenne dans certaines régions
autour du core, l’orientation des singularités.
 Un pré-alignement relatif : où chaque empreinte est alignée par rapport à chaque
modèle dans la base de données. Ces algorithmes sont certainement plus rapides que
ceux sans pré-alignement. Cependant, les algorithmes avec pré-alignement absolu
restent plus rapides mais moins précis. Ce pré-alignement peut être exécuté de
différentes manières dont : la superposition des singularités, la corrélation des images
d’orientation ou la comparaison des caractéristiques des crêtes (longueur et
orientation). Ces méthodes peuvent être appliquées hybridées à travers une sélection
dynamique entre les différentes techniques simples.

c. Système de coordonnées intrinsèque :

Afin d’apparier globalement les minuties des empreintes digitales sans avoir recours
aux alignements, un système de coordonnées intrinsèques (ICS) peut être introduit.

1.2.2. APPARIEMENT LOCAL :

Afin d’éviter l’alignement global et ses problèmes et pour faire face aux distorsions
locales, les chercheurs ont fait appel au concept d’appariement local. Il s’agit de comparer
les empreintes digitales selon des structures locales aux minuties qui se caractérisent par
des attributs invariants aux transformations globales (translation et rotation). Les premiers
travaux se sont basés sur un appariement local seul. Par la suite, ces approches ont été
renforcées par une phase ultérieure d’appariement global appelée phase de consolidation
(nous pouvons voir ces approches telles que définies comme des approches hybrides) et ont
connues plusieurs évolutions.

a. Appariement local Sans consolidation (régionale) :

C’est les premières approches d’appariement local. Le concept de base est de


compter le nombre de minuties se trouvant dans des régions données. Nous pouvons citer à
titre d’exemple :
 Le nombre d’occurrence par type de minuties voisines qui est un nombre invariant. Ce
nombre est facile à apparier mais connait une difficulté sur le plan de distinction de
types.

74
 Pour chaque minutie voisine déterminer la distance en pixels, la distance en nombre de
crêtes, son orientation par rapport à celle centrale ainsi que l’angle de différence.
 Un clustring géométrique des minuties où chaque cluster est représenté par une boite
rectangulaire englobant toutes les minuties associées. L’appariement se fait par une
recherche d’affectation optimale des minuties dans les clusters.

b. Appariement local Avec consolidation :

Bien que le score obtenu par la comparaison des structures locales puisse conduire à
une décision finale, il est courant d’introduire une phase de consolidation afin d’atteindre
un plus haut niveau de précision. Elle peut se faire à travers différentes méthodes telles
qu’une transformation simple. Cette dernière est un appariement global réalisé à partir de
la meilleure transformation résultante de l’appariement local. Un exemple de cette
transformation est celle alignant les minuties centrales des deux structures locales ayant le
plus haut score ou celle alignant deux minuties simultanément. La consolidation peut être
réalisée, également, par une transformation multiple, un consensus de transformation ou
une consolidation incrémentale dans un niveau plus évolué.

Les structures locales employées peuvent être vu comme :


 Structures locales classiques (Distances et angles invariants) : Elles encodent la relation
entre une minutie et ses minuties voisines en termes de distances et d’angles invariants
à travers deux stratégies principales:
- Fixer le nombre de voisin à K-voisins
- Fixer le rayon R (considérer toutes les voisines vi où la distance D(M, vi)< R)

Figure 29- Exemple d'attributs d'une structure locale

 Structures locales évoluées : Les structures locales évoluées constituent la base de la


plupart des algorithmes de reconnaissance conçus depuis l’an 2000. Elles se basent
généralement sur des attributs liés aux minuties voisines. Les bases de ces structures
peuvent être classifiées comme suit :

75
- Les K plus proches minuties voisines (évoluée) : Elles reprennent le même
principe que celui des anciennes structures. Elles se caractérisent par un
descripteur de taille fixe facile à apparier. Les travaux de recherche ont réglé
quelques problèmes liés tel que le problème d’inverser les minuties inversées
en cas de distances égales ou le problème de voisinage réduit (Jea &
Govindaraju, 2005) (Kwon, et al., 2006).
- Les minuties dans un rayon fixe (évoluée) : Elles reprennent le même principe
que celui des anciennes structures. Leur appariement est plus complexe à cause
de la variabilité de leurs descripteurs. Elles connaissent plusieurs types de
problèmes tels que le problème d’angles absolus et des erreurs de bord qui ont
été traitées dans plusieurs travaux de recherche (ex. (Chen, et al., 2006)).
- Les triangles de minuties1 : plusieurs caractéristiques invariantes peuvent être
extraites des triangles, dont les sommets coïncident avec des minuties tels
que : la longueur de chaque côté, le nombre de crêtes entre les sommets, le type
du triangle, la direction du triangle, le côté maximal, l’angle minimale et
médiane, la densité des minuties dans une surface locale, le nombre de crêtes à
travers les trois côtés ainsi que l’écart moyen des orientations locales autour de
chaque sommet.
- La texture : dans ce cas, les structures ne sont pas liées directement aux
minuties voisines. Leurs descripteurs cependant sont des informations sur
l’orientation prise sur des points échantillons autour de la minutie en question.
Le score de similarité dans ce cas peut être défini, par exemple, comme la
différence angulaire moyenne entre les informations d’orientation. Plusieurs
variantes sont conçues : en utilisant l’orientation moyenne locale par bloc et
non pas sur des points, en prenant en considération d’autres informations (la
fréquence, la variance aux niveaux de gris…), ou en combinant avec des
structures classiques ou des informations locales sur les crêtes.

c. Appariement local asymétrique :

Afin de réduire le temps de reconnaissance total, une technique asymétrique peut


être employée. Son principe consiste à isoler la phase de prétraitement et d’extraction de
minuties qui sont les tâches consommatrices de temps. Elles sont exécutées sur les modèles

1 Afin de limiter le nombre de triangles : la triangulation de Delaunay s’est avérée avoir la

meilleur stabilité structurale sous perturbation aléatoire de positions.

76
au moment de l’enrôlement seulement résultant en un ensemble de minuties T. Durant la
phase de reconnaissance, pour chaque minutie de T une vérification de l’existence d’une
minutie correspondante est exécutée par une recherche locale dans l’empreinte en entrée I.

1.3 Les approches à base de caractéristiques non-minuties :


Bien qu’elles comportent la majorité de l’information discriminatoire de l’empreinte
digitale, les minuties ne constituent pas toujours le meilleur compromis entre la précision et
la robustesse. Dans le cas des images de qualité faible, une extraction fiable des minuties est
assez difficile. De même, quand une petite partie de l’empreinte est disponible, le nombre
de minuties existantes devient très réduit. Par conséquent, les chercheurs ont pensé à
utiliser d’autres caractéristiques telles que les informations globales ou locales de la
texture, les attributs géométriques et les relations spatiales des lignes de crêtes ainsi que les
caractéristiques du troisième ordre. Ces caractéristiques peuvent être utilisées en
combinaison avec les minuties afin d’augmenter la précision et la robustesse.

1.3.1. LES INFORMATIONS (GLOBALES ET LOCALES ) ISSUES DE LA TEXTURE :

Les informations locales et globales de la texture représentent une alternative


importante des minuties et constituent ainsi un domaine de recherche très actif. La texture
d’une image peut être définie comme étant la répétition spatiale d’éléments principaux. Elle
se caractérise par des propriétés telles que l’échelle, la symétrie, l’isotropie ainsi que
l’orientation et la fréquence. Ces deux dernières propriétés représentent les attributs les
plus critiques dans la description des lignes de crêtes.

L’analyse globale de la texture fusionne des caractéristiques provenant de plusieurs


régions différentes dans une mesure globale. Par conséquent, la majorité des informations
spatiales disponibles sont perdues. Cependant l’analyse locale s’est montrée plus efficace.

Les informations locales de la texture sont contenues, dans leur majorité, dans les
images (matrices) d’orientation et de fréquences. Plusieurs méthodes de reconnaissance,
proposées dans la littérature, se basent sur la corrélation entre les images d’orientation
alignées des deux empreintes digitales (Qi & Wang, 2005) (Zheng, et al., 2007). Cependant
le « Finger code » demeure la technique la plus populaire parmi les approches basées sur les
informations issues de la texture (Jain, et al., 2000).

77
 Le « Finger Code » :

Une région d’intérêt de l’empreinte digitale est définie et découpée en mosaïque


autour du point core (comme le montre la Figure 30-d). Le vecteur caractéristique est
composé d’une énumération ordonnée1 des caractéristiques extraites des informations
locales contenues dans chaque secteur spécifié par le découpage en mosaïque. Les
informations de texture locale de chaque secteur sont décomposées en canaux séparés à
l'aide d'un banc de filtres de Gabor. En effet, le banc de filtres de Gabor est une technique
bien connue pour la capture d’informations de texture utiles dans les canaux passe-bande
spécifiques ainsi que pour la décomposition de ces informations en composants bi-
orthogonales en termes de fréquences spatiales.

Dans sa version de base, réalisée par Jain en 2000 (Jain, et al., 2000), Il définit 80
cellules (5 bandes et 16 secteurs) et les décomposent utilisant un banc de 8 filtres de Gabor
(8 orientations, 1 échelle). De là, chaque empreinte digitale est représentée par un vecteur
de caractéristiques de taille fixe (de 640 éléments). L’appariement se résume par la suite
par un simple calcul de la distance euclidienne entre les FingerCode. Une illustration de la
technique est présentée dans la Figure 30.

Cette technique n’est pas aussi distinctive que les techniques à base de minuties. Elle
présente un problème critique sur le plan de l’alignement par rapport au point core. Dans le
cas où ce dernier ne peut pas être détecté d’une manière fiable ou se trouve au bord de la
surface disponible de l’empreinte, le FingerCode peut être incomplet ou incompatible par
rapport au modèle.

Plusieurs variantes du « FingerCode » ont été développées parmi les quelles:


 Le découpage en mosaïque est appliqué après un alignement par minuties (Ross, et al.,
2003).
 L’utilisation d’une corrélation des caractéristiques spatiales pour aligner et apparier le
FingerCode simultanément (Ross, et al., 2002).
 L’extraction des codes semblable au FingerCode autour de chaque minutie
(Benhammadi, et al., 2007).

1 Afin de préserver les relations globales entre les caractéristiques extraites

78
Figure 30- Illustration de la technique du "FingerCode". Vij : énergie révélée par le filtre j dans la
cellule i = l’écart moyen absolu (AAD) par rapport à la moyenne des réponses de du filtre j a tous les pixels de
la cellule i

 Autres techniques :

Ils existent plusieurs autres techniques exploitant les informations contenues dans
la texture comme:
 Utiliser les filtres de Gabor sur plusieurs positions (9 positions) fixes autours du point
core et utiliser la corrélation entre les réponses des filtres pour un alignement optimal
durant la phase d’appariement (Hamamoto, 1999).

79
 Utiliser les caractéristiques dans le domaine des ondelettes évitant tout prétraitement
tel que la détection du point core (Tico, et al., 2001).
 Utiliser un banc de filtres de Gabor puis extraire les caractéristiques LBP (Local Binary
Pattern) (Nanni & Alessandra, 2008).
 Utiliser l’algorithme de la transformation de caractéristiques visuelles invariante à
l'échelle (SIFT) pour l’extraction et la construction de descripteurs SIFT des images
(Park, et al., 2008).

1.3.2. LES ATTRIBUTS GEOMETRIQUES ET LES RELATIONS SPATIALES ENTRES LES


LIGNES DE CRETES :

Les relations spatiales entres les lignes de crêtes furent la base des toutes premières
méthodes conçues dans le domaine dans les années 86. L’une d’elles introduit les
grammaires d’arbres pour classifier les modèles des lignes de crêtes. Une autre se base sur
la réalisation d’un graphe d’appariement incrémental pour comparer un ensemble de crêtes
modélisées en structure de graphe.

Durant les années 2006-2007, on a repris l’exploitation des propriétés des lignes de
crêtes à travers plusieurs travaux de recherche (Xie, et al., 2006) (Feng, et al., 2006) (Feng &
Cai, 2006). Cette exploitation a connu différentes formes dont:
 L’association de ces propriétés des crêtes aux minuties pour assurer la phase de
consolidation. A titre d’exemple, une fois les minuties appariées dans une première
phase, un appariement spatial des points des crêtes est pris en considération pour
renforcer le score final.
 La comparaison des informations sur les crêtes voisines avec toutes les crêtes ayant une
longueur et une inflexion similaires.
 La définition d’un système de coordonnées à base des crêtes (RCS : Ridge Coordinate
system) dont l’origine est une minutie, l’orientation est celle de cette dernière et la
mesure des distances est celle de nombre de crêtes. L’encodage des relations
géométriques entre des points échantillons est réalisé par rapport à ce système (Feng &
Cai, 2006).

1.3.3. LES CARACTERISTIQUES DU TROISIEME NIVEAU :

L’arrangement des pores de sueur le long de l’empreinte digitale est une


caractéristique qui a été exploitée et qui semble plus discriminatoire. Cependant, et comme
souligné par plusieurs recherches (tels que (Stosz & Alyea, 1994)), la détection de ces pores
d’une manière fiable requiert des scanners de très haute résolution (Une résolution

80
minimale de 800 dpi est nécessaire pour détecter les petits pores) ainsi que de robustes
algorithmes pour leur extraction.

2. LES LIMITES DES APPROCHES DE RECONNAISSANCE DES EMPREINTES

DIGITALES POUR L ’APPLICATION SUR CELLES PALMAIRES :

Comme vu précédemment, la reconnaissance des empreintes digitales a connu


plusieurs techniques qui ont chacune des avantages et des inconvénients. Certaines sont
plus adaptées dans le cas de partialités que d’autres.

Les méthodes prenant en considération tous les alignements possibles, telles que les
méthodes par corrélation ou les méthodes à base de minuties par appariement global (sans
pré-alignement) connaissent une complexité au niveau des calculs (Maltoni, et al., 2009).
Cette complexité croit relativement quand la proportion de la partie disponible de
l’empreinte en entrée est petite. Dans le cas de l’empreinte palmaire, cette proportion
(rapport entre la partie en entrée et l’empreinte complète) est encore plus petite
conduisant à plus de complexité. Cela écarte la possibilité d’utilisation de ce type de
techniques sur l’empreinte palmaire.

De leur part, les méthodes appliquant un pré-alignement telles que les méthodes à
base de minuties à appariement global (avec pré-alignement) se basent sur la présence de
quelques caractéristiques qui n’est pas toujours vrai dans le cas des empreintes partielles
(qu’elles soient digitales ou palmaires).

Ainsi, les méthodes à appariement local, qu’elles soient à base de minuties ou à base
de caractéristiques de texture paraissent les plus adaptées dans le cas de partialité des
empreintes. Elles ont fait l’objet de la plupart des études et d’articles dans la dernière
décennie et se voient les plus appropriées pour une application sur les empreintes
palmaires partielles latentes.

Les algorithmes d’extraction et appariement conçus pour l’empreinte digitale


peuvent être appliqués directement. Cependant, les caractéristiques spécifiques de
l’empreinte palmaire doivent être également prises en considération afin d’atteindre une
haute précision et un appariement rapide. Nous pouvons citer parmi ces spécificités :

 La présence des plis : bien qu’ils soient fréquemment présents dans


l’empreinte digitale, ils sont généralement trop fins et en nombre réduit ce

81
qui limite leur impact. Les algorithmes d’estimation de champ d’orientation
conventionnels peuvent estimer l’orientation d’une crête dans une empreinte
digitale d’une manière fiable ce qui est utilisée pour éliminer les plis et
récupérer les crêtes. Cependant les empreintes palmaires contiennent des
plis gras et un grand nombre de plis fins. Il n’est pas facile de récupérer les
crêtes en présence d’un grand nombre de plis. Ainsi, L’application des
algorithmes les plus efficaces –pour l’estimation de l’orientation- dans le
domaine d’empreinte digitale sur celle palmaire a montrée ses limites (Jain &
Feng, 2009).
 La taille de l’image de l’empreinte palmaire est relativement plus grande que
celle digitale. Une empreinte digitale typique (500*500 pixels) contient 100
minuties alors qu’une empreinte palmaire typique (2000*2000 pixels)
contient jusqu'à 800 minuties. Ce qui rend le temps d’appariement 64 fois
plus lent (en supposant que la complexité d’un algorithme d’appariement de
minuties est de O(n2) ) (Jain & Feng, 2009)Par conséquent, cela nous
confirme que les méthodes de corrélation ou ceux à appariement globale
trouvent leurs limites devant la complexité des calculs résultants de la taille
de l’image d’empreinte palmaire.

Nous pouvons déduire que la reconnaissance palmaire partielle peut se baser


sur les techniques de reconnaissance d’empreintes digitales à base de minuties et
d’appariement local où de texture. Cependant, et pour pallier aux problèmes issus
des spécificités de ces empreintes une adaptation doit être effectuée.

3. TRAVAUX ANTERIEURS SUR L ’EMPREINTE LATENTE PARTIELLE :

La reconnaissance des empreintes palmaires latentes présente plusieurs défis aux


chercheurs. Leur partialité, mauvaise qualité et leur background complexe sont les plus
importantes difficultés à surmonter. Cependant, ces empreintes présentent l’avantage d’être
de haute-résolution (> 500 dpi) permettant une observation plus fine des détails de
l’empreinte. Dans ce cas, et comme c’est le cas pour l’empreinte digitale, l’empreinte
palmaire peut être vue comme un ensemble de crêtes papillaires bruitées par des plis
mutables ou immutables (robuste comme les lignes principales et les rides). Ceci permet
l’extraction de points caractéristiques plus robustes et plus critiques ayant prouvé leur
efficacité sur l’empreinte digitale telles que les minuties (Dass, et al., 2009).

82
Dans ce qui va suivre nous allons présenter une étude détaillée des travaux de
recherche abordant ce sujet. Bien qu’ils soient peu nombreux, leur étude nous a permis de
mieux comprendre cette problématique, réaliser une étude comparative de ces travaux
ainsi que souligner les points ouverts à la recherche dans ce sujet. On note que cette
présentation suit l’ordre chronologique de la réalisation des travaux.

3.1 Le travail de Jain 2008 :


Le travail, présenté dans l’article intitulé « On Latent Palmprint Matching », est
réalisé par Anil K. Jain et Meltem Dermiskus en 2008 au sein du département des sciences
informatiques et d’ingénierie de l’université de Michigan1 (Jain & Demirkus, 2008).

 Présentation générale :

Ce travail est le premier dans son genre. Il est composé de deux parties
indépendantes, la première porte sur la reconnaissance d’une empreinte palmaire complète
par l’adaptation d’une technique commerciale pour la reconnaissance de l’empreinte
digitale. La deuxième, celle qui nous intéresse, aborde la reconnaissance d’une empreinte
partielle.

Afin de reconnaitre l’empreinte palmaire partielle, Jain commence par une phase de
segmentation et d’amélioration de qualité. Il utilise un extracteur de minuties commercial
pour les empreintes digitales (VeriFinger 4.2 de Neurotechnologija) et introduit une carte
de plis pour éliminer les fausses minuties2. L’appariement est aussi réalisé par le VeriFinger.
Cet appariement n’étant pas efficace dans 70% des cas a poussé Jain à renforcer les
minuties par d’autres caractéristiques (SIFT : Scale-Invariant Feature Transform que l'on
peut traduire par « transformation de caractéristiques visuelles invariante à l'échelle »). Il
explique la non-efficacité des minuties par sa constatation dans la première partie (sur
l’empreinte complète) que la présence de crêtes et par conséquent de minuties n’est pas
uniforme dans toutes les parties de la main. La fusion de minuties et de caractéristiques
SIFT a montré son efficacité sur les empreintes partielles qu’elles soient générées à partir
d’empreintes complètes ou scannées partiellement. Nous pouvons illustrer le schéma
général du travail comme suit :

1 Department of Computer Science & Engineering, 3115 Engineering Building, Michigan State
University, East Lansing, MI
2 La notion des fausses minuties est une notion de la reconnaissance digitale. Elle désigne les

points non minuties détecté par l’algorithme de détection de minuties. Ils sont dus généralement aux
coupures des crêtes faites par les plis.

83
Image améliorée
(a)- segmentation et amélioration de contraste

Image améliorée

(f)- Extraction des (c)- Extraction des (b)- Extraction


caractéristiques SIFT minuties par VeriFinger des plis
Ensemble de minuties

(d)- Elimination des


fausses minuties Carte de plis

(g)- Appariement des (e)- Appariement des


caractéristiques SIFT minuties par VeriFinger
SSIFT SM

(h)- Fusion de Scores

Figure 31- - La structure générale du travail de Jain 2008

 Détails de la technique (partie reconnaissance partielle) :

Dans un premier temps, une phase de segmentation et d’amélioration de contraste


est appliquée sur les empreintes, comme le montre la Figure 32. Elle se base sur
l’amélioration de qualité de Hong (Hong, et al., 1998) conçue principalement pour les
empreintes digitales. Cette amélioration est réalisée par un filtre de Gabor où les
paramètres orientation et fréquence constitue l’élément critique du processus. Elle est
suivie par la réalisation de la carte des écarts absolus moyens sur l’image (les grandes
valeurs désignent les parties denses en crêtes). Comme cette carte ne permet pas de
marquer la partie intérieure pauvre en crête ni celle central qui n’a pas de contact complet
avec le capteur, un algorithme de model de contour actif est utilisé pour fournir le contour
complet de l’empreinte et segmenter ainsi l’image. Après cette amélioration, une égalisation
d’histogramme adaptative avec limitation de contraste (CLAHE) est utilisée pour améliorer
le contraste de l’image en niveau de gris. Elle divise l’image en régions et applique une
égalisation à chaque région séparément.

84
Figure 32- phase de segmentation et d’amélioration de contraste : (a) image originale, (b) coefficients de
Gabor, (c) carte des caractéristiques AAD à partir de (b), (d) Image après la convergence de l’ACM, (e) Image
après segmentation (Jain & Demirkus, 2008)

Après avoir amélioré la qualité de l’empreinte pour une meilleure extraction de


caractéristiques, Jain implémente un algorithme multi-résolution pour détecter les régions
des plis de flexion qui sont de différentes largeurs et orientations. Comme le montre la Des
images à 3 échelles sont utilisées pour détecter les plis à différentes largeurs et des filtres à
8 directions pour les différentes orientations. Une carte des plis de l’empreinte est le
résultat de cette phase.

Figure 33- extraction des plis (Jain & Demirkus, 2008)

Un extracteur de minuties commercial VeriFinger est utilisé pour extraire les


minuties. La carte de plis est utilisée pour en éliminer les fausses minuties qui se trouvent
sur les plis (voir Figure 34)

85
Figure 34- Elimination des fausses minuties : (a) une partie de l’empreinte, (b) la carte de plis
extraite de (a), (c) Les minuties extraites (364 minuties : les vertes désignent les bifurcations et les rouges les
fins de crêtes), (d) Après élimination des fausses minuties (260 minuties restantes) (Jain & Demirkus, 2008)

Lors de ses expérimentations, Jain constate que l’appariement par ces minuties
échoue dans 70% des cas où l’empreinte partielle ne contient pas de motifs de crêtes
fiables. C’est surtout le cas de la région intérieure de l’empreinte qui contient un grand
nombre de plis (voir la Figure 35). Pour améliorer la performance de son système il utilise
un ensemble additionnel de caractéristiques appelé SIFT. Cette technique extrait des points
caractéristiques répétables tels que les extrema locaux et génère des informations
contenant l’information de la texture telle que l’orientation. Jain utilise pour son
implémentation celle basique de Lowe (Lowe, 2004). On note que durant l’an 2008, le SIFT
est apparu comme piste exploitée par plusieurs chercheurs dans le domaine : il a été
appliqué sur l’empreinte digitale dans (Park, et al., 2008) et sur celle palmaire basse-
résolution dans (Chen & Moon, 2008).

Figure 35- Exemple d'appariement des minuties et des caractéristiques SIFT : nombre de minuties extraites :
19, nombre de points SIFT extraits : 407, nombre de points appariés avec succès est de 0 minuties et 38
points SIFT (Jain & Demirkus, 2008).

86
 Détails des tests :

Utilisant un scanner optique Cross Match LSCAN 1000P, à partir de 100 paumes de
mains (50 personnes *2), Jain construit une base de données de 1000 empreintes complètes
où chaque personne contribue pour fournir 10 impressions (5 impression * deux sessions
avec un intervalle de 7 jours entre les sessions).

Pour obtenir des empreintes partielles, Jain utilise deux procédures différentes :

 Synthetic-Latent : dans ce cas, Jain génère 500 empreintes partielles à partir


des empreintes complètes. Il développe un model d’une région d’intérêt et en
sélectionne aléatoirement un point qui sert comme location central pour
générer une sous image de 500*500 contenant un minimum de 70% de
l’empreinte.
 Pseudo-Latent : dans ce cas, Jain a collecté 240 empreintes partielles à partir
de 20 paumes différentes (10 personnes * 2 paumes * 12 empreintes
partielles). Ces empreintes sont collectées par des scannes partielles
d’empreintes sans restriction ni contrôle.

Les scores de l’appariement des minuties et celui des SIFT sont fusionnés par une
somme pondérée. Le tableau suivant montre les résultats des tests :

Rank-1 SIFT Minuties Fusion


Synthetic-Latent 91% 82% (0.8 SIFT+ 0.2 Min) 96%
Pseudo-Latent 61% 68% (0.25 SIFT+ 0.75 Min) 82%
Tableau 4- Résultat des tests du travail de Jain 2008

Les caractéristiques SIFT présentent un rank-1 meilleur dans le cas des empreintes
Synthetic-latents (91%). Cependant, les minuties restent plus stables et montrent une
meilleure performance sur les pseudo-latents (68%). Dans les deux cas, la fusion des scores
des minuties et des SIFT améliore la performance du système.

 Conclusions et recommandations tirées :

Nous pouvons tirer les conclusions suivantes :

 Les minuties connaissent leurs limites sur certaines régions telles que la
partie intérieure de main ce qui nécessite l’introduction d’autres
caractéristiques.

87
 Une idée introduite dans ce travail consiste à exploiter la carte des plis pour
éliminer les fausses minuties.
 Les minuties sont plus stables, dans le cas d’une mauvaise qualité
d’empreinte, c’est la raison pour laquelle elles présentent une meilleure
performance sur les pseudo-latentes.
 Le grand nombre de points SIFT alourdi l’algorithme.
 La fusion des scores issus de l’appariement des Minuties et des SIFT montre
un meilleur résultat que chacune employée seule.
 le classement des empreintes partielles par nombre de minuties extraites
peut être utile pour déterminer leurs régions sources. Ceci peut être utilisé
pour faciliter l’alignement.

 Critiques et améliorations proposées :

Nous pouvons mentionner les propositions suivantes :

 Prendre en charge la rotation: le travail présenté utilise un outil d’extraction


et d’appariement de minuties exigeant un réalignement et une pré-rotation
manuelle.
 Tester la méthode sur une plus large base de données: Celle utilisée dans ce
travail est trop limitée (100 paumes de main)
 Tester la méthode sur des empreintes latentes.
 Comparer la technique d’amélioration de qualité développée à d’autres
méthodes.

3.2 Le travail de Jain 2009 :


Le travail, présenté dans l’article intitulé « Latent Palmprint Matching », est réalisé
par Anil K. Jain, Fellow, et Jianjiang Feng en 2009 au sein du département des sciences
informatiques et d’ingénierie de l’université de Michigan (Jain & Feng, 2009). Cet article est
apparu dans le journal « IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE
INTELLIGENCE, VOL. 31, NO. 6», en juin 2009.

 Présentation générale :

Dans ce travail, Jain, un des Pionnier de la biométrie, exploite son background et ses
connaissances en reconnaissance d’empreinte digitale et essaye de les adapter pour une
meilleure application sur l’empreinte palmaire.

88
Dans premier temps, Jain juge que la présence de plis dans les empreintes palmaires
affecte considérablement la procédure d’estimation de l’orientation et de la fréquence
utilisée pour les empreintes digitales. Pour cela, il a proposé une technique d’estimation de
l’orientation. Bien que la fréquence et l’orientation (deux paramètres liés) soient utilisées
pour l’amélioration de la qualité de l’image, Jain les utilise comme attributs de minuties.

Dans un deuxième temps, Jain s’inspire des travaux de (Feng, 2007) pour concevoir
ses descripteurs de minuties, qu’il appelle MinutiaCodes. Comme dans les méthodes
d’appariement local à base de minuties développée dans le cadre de la reconnaissance
digitale, Jain consolide sa technique par une phase d’appariement global. Et le score de ce
dernier est le nombre de minuties appariées.

Jain ne se contente pas de ce score pour la décision finale. Il y introduit la notion de


qualité de cet appariement et fusionne le tout avec le score d’un appariement des champs
d’orientation (directions) de crêtes. A travers ses expérimentations approfondies, il montre
l’impact de la qualité de l’empreinte latente, des régions dont elles découlent, des
informations auxiliaires et de la fusion de plusieurs empreintes latentes sur la
reconnaissance.

Nous avons résumé les phases principales de son travail dans le schéma suivant :

(θ, D) Estimation composite du


champ d’orientation

(c)- Extraction des θ


(b)- Extraction
des plis minuties (h)-Définition de la
carte d’orientation
(d)- Elimination des
fausses minuties

(i)- Appariement de la
(e)- Construction des carte d’orientation
MinutiaCode

(f)- Appariement local


des minuties

(g)-Appariement Global
des minuties
SM SD

(g)- Fusion des scores

Score d’appariement final

Figure 36- La structure générale de l’approche de Jain 2009

89
 Détails de la technique :

Afin de mieux estimer l’orientation des crêtes et par conséquent leurs fréquences,
Jain reprend le travail de Funada (Funada, et al., 1998) qui présente une technique pour
l’extraction des crêtes en éliminant les plis. Il y introduit une phase de lissage (amélioration
de l’estimation) par croissance de régions pour aboutir à une estimation plus robuste (voir
Figure 37).

Figure 37- Extraction des crêtes : (a) image originale, (b) application de la technique de Funada (c)
application de la technique de Jain (Jain & Feng, 2009)

Le système développé se base sur les minuties comme caractéristiques principales


d’appariement. La méthode d’extraction n’est pas mentionnée dans l’article du fait qu’elle
parait évidente ou classique. Elle est réalisée après une phase de prétraitement non
détaillée (amélioration de qualité, binarisation, amincissement, extraction de crêtes)(voir
Figure 38). Pour éliminer les fausses minuties, il fait appel au même procédé, par carte de
plis, décrit dans (Jain & Demirkus, 2008). Les minuties restantes sont par la suite classifiées
en minuties non- fiables (si elle forme une paire opposante avec une minutie dans son
voisinage proche) et fiables sinon. On parle de pair de minuties opposantes si elles sont
proches et de directions opposées.

Figure 38- extraction des minuties: (a) Image originale, (b) le champ d'orientation, (c) image améliorée, (d)
les crêtes et les minuties extraites

90
Partant des constatations de (Feng, 2007) qui confirme qu’un descripteur (de taille
variante) combinant les informations de la texture autour de la minutie aux informations
sur les minuties voisines peut fournir une haute précision, Jain définit son descripteur tout
en fixant sa longueur1. Il l’appelle MinutiaCode et le définit en combinant plusieurs
caractéristiques.

Comme nous le montrons dans la Figure 39, Le MinutiaCode est constitué des
informations sur les 32 secteurs considérées par rapport à une minutie centrale en
question. Pour chaque secteur, on retrouve les attributs suivants :

 La qualité du secteur, selon qu’il soit foreground (avant-plan) ou pas, le


secteur en question est considéré comme valide ou non. Lors de
l’appariement, seul les pairs de MinutiaCode ayant plus que 16 pairs de
secteurs valides simultanément sont comparés sinon ils sont considéré non-
appariés.

 La direction moyenne et la fréquence moyenne des crêtes du secteur sont


utilisées pour déterminer les pairs de secteurs candidats pour l’appariement.
Pour être considérés candidats et calculer leurs similarité deux secteurs
doivent avoir une différence en direction moyenne de crêtes ne dépassant
pas le /6 et celle en fréquence ne dépassant pas 3. Comme nous pouvons le
constater, la direction et la fréquence des crêtes jouent un rôle important
dans l’appariement local des minuties.

 Le nombre de minuties voisines par type, il sert comme moyen pour le calcul
de la similarité entre les secteurs.

1 Ils sont conçus de taille fixe pour un appariement local plus rapide

91
Figure 39- Illustration de la construction du MinutiaCode

Ainsi, le score de l’appariement entre deux minuties est la somme pondérée des
scores de similarités entre les secteurs valides de leurs MinutiaCode. La pondération a
comme but de favoriser les secteurs avec minuties fiables. La similarité entre deux secteurs
ayant vérifié les conditions de direction et fréquence est le rapport entre les minuties
appariées avec succès par rapport à ceux devant l’être.
Afin de réaliser son appariement global pour calculer le score de l’appariement des
deux empreintes, Jain reprend son algorithme d’appariement glouton défini pour les
empreintes digitales dans (Jain, et al., 2007): Ayant le résultat de l’appariement local (les
scores de similarités entre tous les pairs de minuties)une correspondance une-à-une entre
toutes les minuties est établie et les pairs de minuties sont triés dans un ordre décroissant
selon leurs scores de similarités normalisés. Chacune des 5 meilleurs pairs de minuties est
utilisée pour aligner les deux ensembles de minuties. A leurs tours, les minuties sont
réexaminer et les minuties non appariés proches en position et en direction sont
considérées appariées. Le résultat est un ensemble de minuties appariées1.

Le score final de l’appariement est une fusion par somme pondérée entre le score
d’appariement des minuties et un score d’appariement des directions de crêtes favorisant
celui des minuties (S= 0.8 SM +0.2 SD)2. Les deux scores SM et SD prennent en charge la

1 Dont le résultat d’appariement est positif.


2 Les valeurs utilisées sont choisies empiriquement.

92
qualité et non seulement la quantité des minuties et des blocs1 appariés (SM = SMn * SMq et SD
= SDn * SDq ) :

 Le score de similarité quantitatif des minuties SMn = M/ (M+20) où M est le


nombre de minuties appariées et 20 n’est qu’une estimation du nombre
minimale de minuties devant l’être.
 Le score de similarité qualitatif des minuties SMq= SD * M / (M+NL) * M /
(M+NF) où SD est la moyenne de similarité de tous les descripteurs des
minuties appariées. NL et NF est le nombre de minuties non appariées dans
les deux empreintes (latente et complète).
 Le score de similarité quantitatif de la direction des crêtes : SDn= Nb/
(Nb +900) où Nb est le nombre de pairs de blocs ayant une différence
d’orientation inferieur à /8.
 Le score de similarité qualitatif de la direction des crêtes SDq= 1-2 Dd/
où Dd est la moyenne des différences des orientations des tous les blocs.

 Détails des tests :

Pour construire sa base de test (10200 empreintes), Jain se sert d’une base de
données de 10 040 empreintes complètes fournie par la police de Michigan (MSP). Il la
renforce par 36 empreintes fournies aussi par la MSP (avec 54 empreintes latentes
correspondantes qui lui servent à construire la base des empreintes latentes de test) ainsi
que 8 empreintes fourni par Nobilis (accouplés aussi par 46 latentes). De plus il utilise un
scanner optique Cross Match LSCAN 1000P pour obtenir 116 empreintes.

Jain utilise deux sortes d’empreintes partielles pour tester son système :

 Live-Scan partielle : Jain utilise la LSCAN 100P pour obtenir 150 empreintes
pseudo-latentes 50 de chacune des trois parties de la paume.
 Latente : il récupère 100 empreintes latentes (54 de la MSP et 46 de la
Nabilis).

Les résultats des tests sont montrés dans le tableau suivant :

1 Le score de similarité en direction est calculé par similarité de bloc.

93
Rank-1 Rank-20
Pseudo-Latente (Live Scan) 78,7% 81,3%
Latentes 69% 76%
Tableau 5- Résultat des tests du travail de Jain 2009

Comme le montre le Tableau 5, la technique développée présente un meilleur rank-1


sur les empreintes Pseudo-Latente que sur les empreintes latentes. Ceci revient au fait que
la première catégorie d’empreinte est de meilleure qualité.

Jain compare sa technique d’estimation des champs d’orientation à celui de Funada


(Funada, et al., 1998) et prouve que sa proposition donne une meilleure précision pour les
deux types d’empreintes latentes testées. Il compare aussi son système à celui proposé
dans (Jain & Demirkus, 2008). En constatant que le score de ce dernier, basé sur les
minuties seules, présente un rank-1 de 67.5% pour des empreintes Live scan testé sur une
base de 240 empreintes seulement. Il juge que son travail donne de meilleurs résultats
(pour un rank-1 de 78.7%). Nous notons que pour les mêmes conditions, combinées aux
SIFT, le système de (Jain & Demirkus, 2008) présente un rank-1 de 82.5%.

Jain réalise plusieurs autres tests tel que :


 L’utilité d’introduire les informations auxiliaires fournis par les experts
telles que le type de la main la région de l’empreinte et l’orientation dans la
reconnaissance des empreintes latentes

Rank-1 Rank-20
Sans 74% 83%
Avec 78% 83%

Pour un rank-1 cette introduction d’information améliore le résultat.


Cependant, elle n’a aucun impact sur le résultat pour un rank-20
 L’impact de la région dont découle l’empreinte partielle (Live-Scan).

interne Externe Racine de doigts


Rank-1 52% 86% 98%

La racine des doigts est la partie la plus facile à reconnaitre avec un rank-1
de 98%.
 L’impact de la qualité de l’empreinte latente :

Bonne Mauvaise Très mauvaise


Rank-1 90% 68% 24%

94
Les empreintes de bonne qualité ont tendance à présenter une meilleure
performance. Elles peuvent atteindre un rank-1 de 90%.
 Comme c’est le cas sur les lieux des crimes, plusieurs empreintes sont
laissées par la même personne. Pour simuler ce scenario, un test où 3
empreintes latentes sont groupées est effectué. Le résultat est une
augmentation de précision allant jusqu'à 90%.

 Conclusions et recommandations tirées :

De ce travail, nous pouvons tirer les conclusions et les informations suivantes :

 Dans les applications criminalistiques, les experts interviennent sur


différents plans et peuvent fournir des informations supplémentaires aux
systèmes (type de la main, la partie de la main dont découle l’empreinte,
l’orientation de cette dernière). Ils peuvent également effectuer des
corrections manuelles sur les minuties extraites par les algorithmes. Ces
interventions peuvent améliorer relativement les résultats de ces systèmes.
 Pratiquement, les experts examinent généralement jusqu'à 20 candidats
fournis par le système automatique. Dans les cas les plus critiques, ils
peuvent arriver jusqu'à tester 100. Ainsi, la performance du système peut
être acceptée s’il présente un rank-20 élevé.
 La qualité de l’empreinte latente joue un rôle important dans la
reconnaissance. D’où l’importance de la conception d’une meilleure
technique d’amélioration de qualité.
 La performance de la reconnaissance d’une empreinte partielle issue de la
région des racines des doigts est beaucoup plus élevée de celle interne. La
région externe quant à elle présente une meilleure performance que celle
interne mais reste moins que celle des racines des doigts.

 Critiques et améliorations proposées :

Nous pouvons mentionner les propositions suivantes :

 Pour prouver sa performance l’amélioration de qualité d’empreinte réalisée à


l’aide de la nouvelle technique doit être comparée à celle classique de Houg
(Hong, et al., 1998) pour l’empreinte digitale.
 Pour prouver la performance du système complet, une vraie comparaison
aux autres techniques doit être réalisée.

95
 L’utilité des informations auxiliaires nous incite à penser à automatiser leur
détermination.

3.3 Le travail de Laadjel 2009 :


Le travail, présenté dans l’article intitulé « Degraded Partial Palmprint Recognition
For Forensic Investigations », a été réalisé en 2009 par Moussadek Laadjel, Fatih Kurugollu,
Ahmed Bouridane de l’université « Queen's University Belfast » et Said Boussakta de
l’université de « Newcsatle upon Tyne » (Laadjel, et al., 2009). Cet article est apparu en
novembre 2009 dans les pages 1497-1500 du proceeding : « ICIP'09 Proceedings of the 16th
IEEE international conference on Image processing ».

 Présentation générale :

Dans ce travail, Laadjel s’inspire du travail d’Ito (Ito, et al., 2004) sur l’empreinte
digitale ayant montré son efficacité. Il réapplique le même concept sur l’empreinte
palmaire. Il vise dans son travail à reconnaitre des empreintes partielles bruitées par
l’application d’une technique de corrélation basée sur la composante phase de la
transformée de fourrier discrète 2D (POC : Phase-Only Correlation). Cette dernière est une
technique qui a connu son succès dans le domaine de recalage d’image1 à haute précision
pour les applications de la vision par ordinateur (Takita, et al., 2003). On note que cette
exploitation de la POC n’est pas la première pour l’équipe des auteurs. Bouridane avait déjà
utilisé la méthode pour la reconnaissance des marques de chaussures dans (Gueham, et al.,
2007).

 Principe et Détails de la technique :

La POC est une technique d’appariement par corrélation dans le domaine


fréquentiel. Elle se base sur la composante phase de la transformée de fourrier discrète 2D
qui s’est montrée plus informative que le spectre.

La théorie fondamentale de cet appariement est la suivante :

Etant données deux images I1 et I2 et soient f1 et f2 leur représentation spatiale et F1


et F2 celle fréquentielle (transformée de Fourier discrète 2D):

1 Le recalage d’image est le processus de superposer deux ou plusieurs images de la même scène
prises à des moments différents, à partir de différents points de vue, et / ou par des capteurs différents.
C’est l’alignement géométrique de deux images (la recherche d'une transformation géométrique
permettant de passer d'une image à une autre) (Zitova & Flusser, 2003)

96
Ii : fi (x, y) : Fi (u, v) = Ai (u, v) e jϴi(u, v) où Ai est l’aptitude et ϴi(u,v) est la phase.

La fonction POC est définie comme étant :


r f1 f2 (x, y)= Ф-1 {(F1 (u, v). F1* (u, v))/ (F2 (u, v). F2* (u, v))}= Ф-1{ }
où Ф-1 est la fonction inverse de Fourier.
Si f1 (x, y) = f2 (x, y) alors r f1 f2 (x, y)=1 sinon r f1 f2 (x, y)=0. Ceci se traduit par la
présence d’un pique à l’origine dans le graphe comme le montre la Figure 40

Figure 40- a : Poc entre une empreinte partielle et complète identique, b : Poc entre une empreinte
partielle et complète différentes (Laadjel, et al., 2009).

Par sa définition, la fonction POC présente les propriétés intéressantes suivantes :


 Invariante aux translations, dans le cas de deux images non alignées (de
point de vu déplacement seul le pique est translaté en gardant sa valeur.
 Invariante aux changements d’illumination.
 Résistante aux bruits supplémentaires, bien que le pique de corrélation
diminue d’allure, il reste discriminatoire.

Ces propriétés rendent cette méthode adéquate pour ce cas de reconnaissance. Seule
la rotation n’est pas tolérée vu que la méthode est sensible aux distorsions non linéaires.

En remarquant la diminution de la valeur du pique de corrélation d’une manière


relative à l’augmentation du bruit sans changement en forme, Laadjel propose une nouvelle
mesure (autre que l’ampleur de la pique) pour améliorer la discrimination du pique de
corrélation et renforce ainsi la résistance de la technique au bruit. Cette mesure est définie
comme le rapport de la valeur du pique maximal (pique de corrélation) dans une région de
taille 11*11 pixels au pique maximal à l’extérieur de cette région: nr f1 f2 (x, y)= arg_max (r f1
f2 (x, y))/ arg_max (à l’extérieur du lobe).

97
 Détails des tests :

Laadjel construit une base de données en scannant 200 empreintes (une de la main
droite et une de celle gauche de 100 personnes). Il génère les empreintes partielles en
divisant chaque empreinte en 4 quarts.

Pour tester sa méthode, il utilise deux ensembles d’empreintes partielles obtenus en:
 Appliquant un bruit gaussien de moyenne 0 et d’écart type 0.04 sur les 800
empreintes partielles pour construire le premier ensemble.
 Brouillant les 800 empreintes partielles horizontalement et verticalement
par une motion de longueur de 22 pixels pour construire le deuxième
ensemble.

Le tableau suivant montre les résultats des tests sur les deux ensembles :

E1 : empreintes bruitées E2 : empreintes brouillées


EER 0.38% 0.03%

Cette approche présente une performance élevée dans le cas des empreintes
partielles brouillées avec un taux d’erreur EER de 0.03%.

 Conclusions et recommandations tirées :

La méthode proposée prend en considération la partialité, le bruit et la dégradation


de qualité sans mettre l’accent sur la translation ni toucher à la rotation. Elle présente des
résultats intéressants dans le cas d’empreinte brouillées mais est moins attractif pour le
bruit gaussien.

 Critiques et améliorations proposées :

Nous pouvons mentionner les propositions suivantes :

 Prendre en charge le problème de la rotation comme cela est fait dans (Ito, et
al., 2004) qui génère plusieurs exemples de la même empreinte avec
différente rotation.
 Cette technique est très sensitive aux distorsions non-linéaires.
 Le déplacement peut être estimé par rapport à la position du pique. Ce point
n’est pas exploité.

98
 Dans (Ito, et al., 2004), Ito remarque la présence de piques supplémentaire
dans les hautes fréquences et utilise un filtre pour les éliminer. La question
qui nous vient à l’esprit est la suivante : « est ce que cela est spécifique à
l’empreinte digitale et n’est pas présent dans l’empreinte palmaire ? ». Des
tests doivent être effectués pour répondre à cette question.
 Les tests sont réalisées en terme de EER et non pas en Rank-1, il est
souhaitable d’utiliser le deuxième pour rester dans le cadre criminalistique.
 Les tests doivent être appliques sur des empreintes latentes et sur une base
de données plus variées.

3.4 Le travail de Laadjel 2010 :


Le travail, présenté dans l’article intitulé « Partial Palmprint Matching Using
Invariant Local Minutiae Descriptors», est réalisé en 2010 par Moussadek Laadjel, Ahmed
Bouridane, Fatih Kurugollu, Omar Nibouche, WeiQi Yan de l’université « Queen's University
Belfast » (Laadjel, et al., 2010). Cet article est apparu en 2010 dans les 17 premières pages
d’un livre de Springer intitulé « Transactions on data hiding and multimedia security V».

 Présentation générale :

A travers ce travail, Laadjel exploite les approches de reconnaissance basées sur les
caractéristiques locales invariantes à l’échelle et robustes aux transformations (rotation et
translation) pour la reconnaissance des empreintes palmaires partielles. Ces approches,
conçues pour être efficaces dans la détection, localisation et identification des objets dans
les images (Mikolajczyk & Schmid, 2005), ont inspiré plusieurs autres travaux de cette
équipe de recherche : Les descripteurs SIFT ont été exploités par cette équipe dans un
cadre criminalistique pour le recouvrement des traces de chaussures dans (Su, et al., 2007)
et dans (Nibouche, et al., 2009).

Dans ce travail, Laadjel assigne un descripteur SIFT, qu’il appelle Invariant Local
Minutiae Descriptor (ILMD), à chaque minutie extraite pour réaliser sa reconnaissance
d’empreintes partielles. Il utilise un appariement local de minuties sans consolidation. Le
système se montre efficace sur les empreintes partielles prenant en charge le problème de
rotation ainsi que celui de déplacement.

Nous pouvons présenter un schéma général du travail comme suit :

99
Amélioration de la qualité
d’image

Extraction des minuties

Estimation de l’orientation
de chaque minutie

Construction de descripteur
SIFT pour chaque minutie

ILMD

Appariement des ILMD

Figure 41- La structure générale de l’approche de Laadjel 2010

 Détails de la technique :

Afin d’améliorer la clarté des structures des crêtes et pour mieux extraire les
minuties sans en perdre ni en rajouter (cas de fausses minuties), une phase d’amélioration
de qualité de l’image doit être appliquée sur les empreintes. Pour cela Laadjel applique la
technique conçue par Hong pour les empreintes digitales (Hong, et al., 1998). Elle consiste à
appliquer un filtre de Gabor sur les images, après la normalisation, l’estimation
d’orientation locale et de fréquences et l’application d’un masque des régions. Le filtre
utilisé est défini comme étant:

Et ( ) l’écart type de l’enveloppe gaussienne calculé en fonction de la fréquence


de crêtes, et : l’orientation locale des crêtes.

Le principe des approches à caractéristiques locales, dont le SIFT est une technique
de base, consiste à détecter des points clés possédant les propriétés suivantes : la localité (le
voisinage), la répétabilité, l’individualité (distinctiveness) et la robustesse aux différentes
dégradations. Pour chaque point un descripteur (appelé descripteur SIFT dans le cas de la
technique SIFT) est construit à base des histogrammes d’orientations calculées dans une

100
zone circulaire autour du point. Ces descripteurs présentent l’avantage d’être invariants aux
rotations, translation ainsi qu’à l’échelle.

Dans le cas de la technique SIFT classique, définie dans (Lowe, 2004), les points clés
sont définis comme étant les extrema (minima et maxima) locaux d’intensité dans un
voisinage de 9*9 dans l’espace des échelles1. Appliquée directement aux empreintes
palmaires, cette technique génère un nombre très importants de points clés qui ne sont pas
tous stables (ce qui peut entrainer des erreurs d’appariement). La représentation de ce
grand nombre de points clés avec leurs descripteurs exige une grande capacité de stockage.
Leurs appariement quant à lui est assez coûteux en ressources informatiques. Afin de
pallier à ces limites, Laadjel a proposé, dans cet article, d’utiliser les minuties comme
alternatif aux extrema du SIFT. Il a constaté que les minuties sont visuellement
significatives, géométriquement stables, robustes aux changements et de nombre moins
important que les extrema.

Pour faciliter l’extraction des minuties, le squelette de l’empreinte est obtenu après
sa binarisation et son amincissement (voir Figure 42). Pour extraire et définir l’ensemble
des minuties valides, Laadjel exploite les 8 voisins des pixels dans les squelettes des crêtes à
travers l’algorithme « Crossing Number (CN) », largement utilisé dans les empreintes
digitales. Il applique les règles heuristiques définies dans (Zhao & Tang, 2007) pour
l’empreinte digitale afin d’éliminer les fausses minuties. Pour minimiser le temps
d’appariement une indexation en fin ou bifurcations des minuties est effectuée.

1 On parle des images des différences des gaussiennes (DoG) sur différentes échelles.

101
Figure 42- Extraction des minuties : (a) empreinte partielle, (b) empreinte après amélioration de
qualité, (c) amincissement de l’empreinte, (d) extraction des minuties. (Laadjel, et al., 2010)

Pour assurer l’invariance à la rotation1, la construction des descripteurs de chaque


minutie est réalisée par rapport à son orientation. Il est donc important de déterminer cette
dernière d’une manière précise. Laadjel dans son travail applique une technique, analogue à
celle utilisée dans (Lowe, 2004), basée sur les gradients locaux de l’image pour assigner une
ou plusieurs orientations à chaque minutie. Elle consiste à:

 Calculer les composantes du gradient comme suit :

Le module (la magnitude) du gradient :

La direction (l’orientation) du gradient :

Où est l’image brouillée par une gaussienne d’écart type .

 Puis construire un histogramme d’orientations de 36 classes (10 degrés chacune) à


partir des orientations des point d’échantillon autour de la minutie dans une fenêtre W.
Chaque point rajouté est pondéré par sa magnitude et sa distance de la minutie (cette
distance est traduite par une gaussienne d’écart type ).

1 Assurer l’invariance à la translation est garanti par le calcul relatif à la position de la minutie de

ses propriétés.

102
 Une fois l’histogramme construit, les orientations dominantes, qui correspondent au
plus haut pic ainsi qu’aux pics locaux (dont la hauteur dépasse 80% de l’hauteur du plus
haut pic de l’histogramme), sont assignées aux minuties.

Comme dans le travail (Lowe, 2004), Laadjel associe un descripteur SIFT à chaque
minutie. Ce dernier représente un ensemble d’histogrammes d’orientations (de 8 classes
chacun) construit à partir des informations de la texture (magnitude et orientation du
gradient) dans un voisinage de 16*16 pixels autour de la minutie. La construction détaillée
du descripteur est faite comme suit :

 Comme vu précédemment dans le calcul de l’orientation de la minutie, la magnitude et


l’orientation du gradient sont calculées à partir de l’image brouillée. Cette orientation
est recalculée relativement à celle de la minutie et toutes les coordonnées du voisinage
sont prises relativement à la position de la minutie.
 Afin d’éviter les changements soudains dans le descripteur avec les petits changements
dans la position de la fenêtre et afin de donner moins d’importance aux gradients loin de
la minutie, la magnitude de chaque échantillon est pondérée par une gaussienne d’écart
type .
 Subdiviser le voisinage de la minutie en 16 sous régions (4*4) de 4*4 pixels chacune,
comme nous le montrons dans la Figure 43. Pour chaque sous région, un histogramme
de 8 classes d’orientations est construit où la magnitude pondérée de chaque
échantillon est rajoutée selon sa classe d’orientation. Afin d’éviter tous les effets des
bornes, une interpolation tri linéaire est appliquée, lors de la construction de
l’histogramme, pour distribuer la magnitude de chaque gradient dans les classes
adjacentes.

103
Figure 43- Schéma illustratif de la technique de construction d’un descripteur de minutie (ILMD), (a) : chaque
gradient est représenté par une flèche dont la longueur et la direction reflètent la magnitude et l’orientation
du gradient respectivement, le cercle bleu représente la fenêtre gaussienne pondérant les gradients. (b) : la
région autour de la minutie est subdivisée en 16 sous régions et les gradients sont accumulés dans des
histogrammes d’orientations pour chaque sous région; la longueur d’une flèche correspond à la somme des
magnitudes pondérées des gradients dont les orientations sont proches de sa direction. (c) l’ILMD un vecteur
de dimension 128, composé des valeurs des 8 classes des 16 histogrammes. (d) la formule de construction
des histogrammes avec interpolation tri linéaire.

 Normaliser le descripteur afin de réduire l’effet du changement de l’illumination (rendre


le descripteur invariant aux petits changements d’illumination).

Comme score d’appariement, Laadjel considère le nombre de minuties appariées


avec succès et selon ses expérimentations un score de sept suffit pour décider que les deux
empreintes sont issues de la même personne. Pour ce faire, il utilise la distance euclidienne
comme mesure de comparaison. Cette dernière est faite selon les indexes des minuties (Les
minuties indexées « fin » sont comparées seulement avec celles de même type. Ceci
s’applique aussi sur les minuties indexées « bifurcation »). Pour éviter les faux
appariements, les deux minuties de référence (appartenant à l’empreinte complète) les plus
proches à la minutie en entrée sont comparées ; si elles ne différent pas significativement,
on considère que l’appariement a échoué.

104
 Détails des tests :

Laadjel utilise dans ce travail la même base de données de son travail précédant
(Laadjel, et al., 2009) (200 empreintes scannées une de la main droite et une de celle gauche
de 100 personnes). Par contre, Il génère les empreintes partielles en divisant chaque
empreinte en :

 4 quart-empreintes ; obtenant ainsi 800 empreintes partielles dont la surface


est inferieure à 25% (4QP).
 4 demi-empreintes ; obtenant ainsi 800 empreintes partielles dont la surface
est inferieure à 50% (4HP).
 4 empreintes aléatoires créées moyennant 4 masques différents ; obtenant
ainsi 800 empreintes partielles aléatoires (4RP). De plus, une rotation est
appliquée sur ces empreintes aléatoirement de 15°, 30°, 45° et 90° puis une
translation horizontale et verticale sont appliquées.

Figure 44- Exemples des empreintes (complètes et partielles) de la base de données utilisée ; (a)
empreinte complète ; (b) les 4 empreintes partielles 4HP issues de (a) ; (b) les 4 empreintes partielles 4QP
issues de (a).

Pour tester sa méthode Laadjel effectue pour chacun des 3 ensembles 160 000
(800*200) appariements et se base sur le taux d’erreur (EER) pour mesurer la performance.
De plus, il compare sa méthode au SIFT classique où les points caractéristiques sont les
extrema locaux au lieu des minuties. Pour ce faire il applique, sur l’ensemble (4RP), un SIFT
avec sous-échantillonnage (D_SIFT) pour diminuer le nombre de points caractéristiques
extraits. Le tableau suivant montre les résultats des tests :

ILMD D_SIFT
4HP 4QP 4RP 4RP
EER 0.19% 0.62% 0.80% 0.21%

105
Cette technique est moins performante que la technique SIFT. De plus, sa
performance se dégrade avec la diminution de la taille.

 Conclusions et recommandations tirées :

Nous pouvons tirer les conclusions suivantes :

 Assigner une position et une orientation à minutie, assure l’invariance de la


méthode aux translations et rotations de l’empreinte. Ceci est dû au fait que
toutes les propriétés de la minutie sont calculées par rapport à sa position et
son orientation.
 La technique ILMD est nettement plus rapide (16 fois plus) que la technique
SIFT. Cela revient au nombre de points extraits et comparés par les deux
techniques comme le montre le tableau suivant :

SIFT D_SIFT ILLMD


Nombre de points moyen 40 000 2 000 500
Nombre d’opérations moyen 40 000 2 000 5002
2 2

 Critiques et améliorations proposées :

Nous pouvons mentionner les propositions suivantes :

 Dans son amélioration de qualité et son calcul d’orientations, Laadjel ne


prend pas les spécificités de l’empreinte palmaire en considération.
 Lors de son élimination des fausses minuties, Laadjel ne prend pas les
spécificités des plis dans l’empreinte palmaire. Il se contente d’une méthode
classique utilisée pour l’empreinte digitale. Utiliser la carte des plis peut être
intéressant.
 Prendre en compte la qualité de l’image autour de la minutie ainsi qu’un
score relatif au nombre de minuties extraites sont des points à tester et qui
semblent prometteurs.
 Les tests sont réalisées en terme de EER et non pas en Rank-1, il est
souhaitable d’utiliser le deuxième.
 Les tests doivent être appliques sur des empreintes latentes et sur une base
de données plus variées.
 Le bruit doit être pris en charge dans des tests ultérieurs (appliquer du bruit
sur les empreintes partielles testées).

106
 Bien qu’il soit moins rapide, le D_SIFT présente toujours de meilleures
performances comparées à l’ILMD. Ceci nous pousse à penser à tester des
descripteurs SIFT plus évoluées
 La stratégie de la technique SIFT présente de bon résultats ce qui nous
pousse à l’exploiter plus ; à travers l’extraction d’autres types de points
intéressants les moins importants et mieux dispersés sur l’empreinte (autres
que les extrema et les minuties : ex. les coins par Harris, par Moravec, par
Plessely.. et les tâches par Laplacienne de la gaussienne, le déterminants
Hessian..) ou le test d’autres variantes et extensions de descripteurs locaux
(ex. RIFT, G-RIF, SURF, HOG, PCA-SIFT et GLOH..)1.

3.5 Le travail de Dai 2011 :


Le travail, présenté dans l’article intitulé « Multifeature-Based High-Resolution
Palmprint Recognition», est réalisé en 2011 par Jifeng Dai et Jie Zhou dans le cadre du
programme de développement National 863 Hi-Tech de la chine (Dai & Zhou, 2011). Cet
article est apparu en mai 2011 dans les pages 945 - 957 du journal intitulé « Pattern
Analysis and Machine Intelligence, IEEE Transactions on ».

 Présentation générale :

Dans cet article, Dai travaille sur trois plans différents que nous avons illustrés dans
la Figure 45. Le premier consiste à concevoir une nouvelle technique d’estimation de
champs d’orientation. Il l’exploite dans l’amélioration de la qualité de l’image des crêtes
ainsi que pour la définition des orientations des crêtes et par conséquent des minuties. Le
deuxième consiste à extraire les différents types de caractéristiques (minuties, la carte de
fréquences, la carte des orientations et la carte des lignes principales) les tester et les
combiner pour une meilleure performance d’appariement. Puis, il définit, dans un troisième
plan, une nouvelle technique de fusion de score adaptée pour l’empreinte palmaire.

1 Un article à étudier dans ce domaine est (Mikolajczyk & Schmid, 2005).

107
(θ, D) Estimation composite du
champ d’orientation

θ D

Extraction des Extraction Définition de la Définition de la


lignes principales des minuties carte d’orientation carte de Densité

Appariement des Appariement Appariement de la Appariement de la


lignes principales des minuties carte d’orientation carte de Densité

SP SM SO SD

Fusion des scores

Score d’appariement final

Figure 45- La structure générale du travail de Dai, Les étapes en rouge sont les étapes où Dai
s’introduit.

 Détails de la technique :

Comme dans le travail de Jain (Jain & Demirkus, 2008) Dai développe une nouvelle
technique d’estimation de champs d’orientation. Mais, contrairement à Jain, il ne se
contente pas d’exploiter la région croissante dans la phase de lissage. Il touche à la phase
d’estimation initiale à travers une hybridation de la transformée de fourrier discrète DFT et
sa nouvelle technique basée sur la transformée de radon1 (RTBM). Les méthodes
traditionnelles d’estimation initiale se basent sur le changement de niveau de gris et
traitent les bandes noires comme les blanches. Ces méthodes s’appliquent bien dans le cas
des empreintes digitales où le nombre de plis est petit mais trouvent leurs limites dans le
cas des empreintes palmaires riches en plis. Pour pallier à ce problème, Dai s’inspire de la
stratégie des experts de police, qui se concentrent sur les bandes noires seules dans leur
détermination de la direction des crêtes, pour développer sa nouvelle technique (RTMB)
prenant en charge les régions riches en plis. Cette dernière, étant coûteuse en termes de
calcul, Dai ne l’emploie que dans les régions denses en plis. Autrement (dans les autres
régions), il emploie la méthode traditionnelle DFT. Le schéma suivant (Figure 46) détaille
les étapes de l’algorithme « composite » d’estimation de champs d’orientation : l’extraction

1 La transformée de Radon est une robuste méthode pour la détection des lignes dans l’image.

108
des plis est faite par l’application de l’algorithme proposé dans (Huanga, et al., 2008) basée
lui aussi sur la transformée de Radon, l’application de la DFT est similaire à celle dans (Jain
& Feng, 2009) de même que la phase de lissage. La RTBM proposée part du principe que les
crêtes peuvent être assimilées à des petites lignes et qui peuvent être extraites par la
transformée de Radon pour déterminer leurs orientations.

Figure 46- Les étapes de l’algorithme composite d’estimation de champs d’orientation

Dans la deuxième partie de son travail, Dai s’intéresse à extraire et apparier les
différents types de caractéristiques existants dans l’empreinte. Il définit comme résultat
différents types de scores quantitatifs et qualitatifs pour chaque caractéristique :

 Les minuties : L’extraction des minuties se fait après un prétraitement d’image


consistant à : améliorer la qualité des crêtes (en appliquant le filtre de Gabor avec
comme paramètre l’orientation et la fréquence calculées dans la phase d’estimation
d’orientation), binariser l’image, amincir les crêtes pour extraire leur squelette. Chaque
minutie extraite est définie par sa position (x, y) et son orientation θ. Les fausses
minuties sont éliminées par la suite moyennant la carte des plis déjà extraite dans la
phase précédente. Un niveau de confidence est attribué à chaque minutie selon la
qualité de l’image dans son voisinage. Cette dernière est déterminée par la différence
entre l’orientation locale estimée par la nouvelle technique hybride et celle classique à

109
base de gradient (Une grande différence est signe d’une mauvaise qualité). De sa part,
l’appariement des minuties est réalisé par une technique classique globale sans pré-
alignement conçue pour l’empreinte digitale. Cette technique est l’application de la
transformée de Hough pour déterminer les paramètres optimaux de transformation.
Comme dans (Jain & Feng, 2009), Dai considère comme score d’appariement SM le
produit d’un score de similarité quantitatif SMn et un autre qualitatif SMq. Il l’adapte en
considérant la somme des niveaux de confidence des minuties appariées avec succès
(Cp) au lieu du nombre de minuties (SMn = Cp/ (Cp +20) et SMq= Cp 2/ Cr * Cq où Cr et Cq la
somme des niveaux de confidence des minuties existantes dans les régions communes
dans l’empreinte de référence et celle en entrée respectivement). Nous avons construit
le schéma de la Figure 47 pour illustrer la phase d’extraction et l’appariement des
minuties.

Figure 47- Schéma détaillant la phase d'extraction et d'appariement de minuties

110
 La carte des densités (de fréquences) et les champs d’orientation : La carte de densité est
extraite simultanément avec le champ d’orientation dans l’algorithme d’estimation de
champs d’orientation (voir Figure 48). Comme Jain, Dai effectue un appariement bloc
par bloc des deux empreintes. Il définit un score prenant en compte la qualité
d’appariement: SD = SDn * SDq= Nd/ (Nd +900) * 1/Nb
où Nd représente le nombre de pairs de

blocs appariés avec succès, Nb le nombre de blocs dans la région commune, et la


fréquence dans l’empreinte de référence et celle en entrée respectivement. Les mêmes
formules de scores sont appliquées pour l’appariement de la carte d’orientations.

Figure 48-Exemple (a) empreinte partielle (b) les champs d’orientation (c) La carte des densités (de
fréquences) (Dai & Zhou, 2011)

 Les lignes principales : Dai extrait les lignes principales par la transformée générale de
Hough. Chaque point d’une ligne principale est caractérisé par son énergie et sa
direction (voir Figure 49). Dai juge que deux points d’énergie sont appariés avec succès
s’ils se trouvent dans la même position avec une différence d’orientation moins de . Le

score d’appariement des lignes Sp est un rapport entre la somme des énergies des points
appariés avec succès et la sommes de toutes les énergies des lignes dans la région
commune.

111
Figure 49- extraction des lignes principales: (a) image originale, (b) image des énergies des plis (c)
image des directions des plis (d) la carte des plis principale extraite (Dai & Zhou, 2011)

Dans la troisième partie de son travail, Dai Propose une heuristique de fusion des
scores pour obtenir une meilleure performance de décision. Cette proposition distingue les
deux modes de fonctionnement du système : la vérification et l’identification. La somme
pondérée suivie par un seuillage, étant une méthode classique de fusion, est équivalente à
une séparation de deux classes par un hyperplan dans l’espace des caractéristiques.
Cependant, cette hypothèse n’est pas forcement valide pour la plupart des cas de
vérification ; les authentiques et les imposteurs ne sont pas linéairement séparables. Pour
remédier à ce manque, Dai propose l’application de méthodes d’apprentissage statistiques
conventionnelles telles que la Machine à vecteurs de support (SVM) et règle de Neyman-
Pearson. Ces méthodes ne sont pas optimales pour l’identification vu leurs grand temps
d’exécution. La somme pondérée, quant à elle, reste le meilleur choix dans ce cas. Elle
présente de meilleures performances quand les caractéristiques sont indépendantes
autrement ses performances se dégradent. Partant de ce principe, Dai conçoit son
heuristique de fusion pour l’identification comme suit :

 Comme les minuties et la carte de densité sont d’une corrélation réduite et ont une force
discriminatoire comparable, Dai les fusionne par une somme pondérée :
)* où est évalué sur une base d’apprentissage et pris
empiriquement à 0.65.
 Bien que les lignes principales soient moins discriminatoires que les autres
caractéristiques, elles fournissent une information globale indépendante sur

112
l’empreinte. Les expérimentations montrent que les deux cas d’appariement avec succès
qu’il soit d’un authentique ou d’un imposteur peuvent fournir un score faible.
Cependant, seul l’appariement des authentiques atteint un score de similarité élevé.
Pour cela, lorsque le score est faible son impact doit être faible sur le score final
comme le montre la formule suivante :

 Le champ d’orientation est d’une force discriminatoire très faible. Il est corrélé avec les
minuties qui considèrent l’orientation du point minutie lors de son appariement. Ainsi,
Dai introduit le score de similarité des champs d’orientation dans son heuristique d’une
manière n’influant pas le score général quand il est faible :

 Détails des tests :

Dai construit une base de données (THUPALMLAB) de 14 576 empreintes complètes


(de taille 2040* 2040) issues de 13 736 paumes de main. Il utilise un scanner de paume
Hisign pour construire la première partie de la base constituée de 960 empreintes
collectées de 120 paumes (chaque paume est capturée 8 fois). La deuxième partie est
constituée de 13 616 empreintes encrées issues de 13 616 paumes fournies par le
département de science dans la police chinoise.

Afin de simuler les empreintes latentes, Dai obtient les empreintes partielles en
scannant des parties de l’empreinte. Pour chacune des 120 paumes il scanne deux
empreintes partielles de chaque partie de la paume (région interne, région racine, région
externe). Il construit ainsi une base de 720= 120*6 empreintes partielles pseudo-latentes.

 Pour prouver l’efficacité de sa technique composite d’estimation de champ


d’orientation, Dai la compare à la technique d’estimation proposée dans (Jain & Feng,
2009). Il implémente le système de Jain dans toutes les autres phases pour les deux
techniques. Nous résumons le résultat de ses tests dans le tableau suivant :

Technique composite Technique de Jain


Rank-1 84.4 % 82%
Rank-10 90.7 % 88.1 %
EER 6% 6.5 %

Comme le montre les résultats, La technique composite d’estimation d’orientation de


Dai est plus performante que celle de Jain sur tous les plans.

113
 Afin d’étudier la force discriminatoire des différentes caractéristiques ainsi que les
différentes combinaisons possibles, Dai effectue ses tests en appliquant la SVM pour la
vérification et la somme pondérée pour l’identification et obtient les résultats que nous
résumons dans le tableau suivant :

Minuties+ Minuties+ Minuties+ Toutes les


Minuties
ligne Orientation Densité caractéristiques
Rank-1 70% 80% 84.5 % 89.5 % 89.5 %
Rank-10 87% 92% 90.5 % 93% 94%
EER 5% 5.1 % 7% 5.1 % 5.1 %

La fusion de toutes les caractéristiques améliore significativement la qualité de la


reconnaissance. De plus, une fusion des minuties avec la densité tend à présenter les mêmes
performances que celles de toutes les caractéristiques.

 Pour prouver la performance de son heuristique par rapport aux méthodes de fusion
existantes, il effectue différents tests pour la vérification et l’identification et obtient les
résultats que nous résumons dans le tableau suivant :

Règle de Somme linéaire L’heuristique


SVM
Neyman-Pearson pondérée proposée
Rank-1 90.9% 88.2% 89.4% 91.8%
Rank-10 93.9% 94% 94% 94.3%
EER 5.1% 6% 6% 5%

L’heuristique proposée se montre plus performante par rapport aux méthodes


existantes testées pour l’identification.

 Dai finit son travail par une comparaison de son travail à celui de Jain. Il utilise comme
méthode de fusion la SVM pour la vérification et son heuristique pour l’identification.
Nous résumons les résultats dans le tableau suivant :

Technique de Jain Technique de Dai


Rank-1 82 % 91.8 %
Rank-10 88.1 % 94.2 %
EER 7.5 % 5%

114
La technique de reconnaissance proposée par Dai est plus performante que celle de
Jain que cela soit pour l’identification ou la vérification.

 Conclusions et recommandations tirées :

De ce travail, nous pouvons tirer les conclusions suivantes :

 La technique composite d’estimation d’orientation montre de meilleures


performances par rapport aux techniques déjà existantes. Ceci peut être
expliqué par la prise en considération des spécificités de l’empreinte
palmaire.
 Les forces discriminatoires des différentes caractéristiques de l’empreinte
palmaire peuvent être ordonnées comme suit : les minuties, la carte de
densité, le champ d’orientation puis les lignes principales en dernier. Cela
diffère des constations faites sur les empreintes digitales où le champ
d’orientation est plus discriminatoire que la carte des densités. Ceci revient à
la nature des crêtes dans l’empreinte palmaire qui présente une plus large
marge de distance et une distribution de densité variée. Cependant
l’orientation de ces crêtes tend à avoir un modèle similaire pour les
différentes personnes.
 Combiner la carte de densité avec les minuties présente les mêmes
améliorations obtenu lors de la combinaison de toutes les caractéristiques.
Ceci revient à leurs hautes forces discriminatoires ainsi que leur haute
indépendance.
 La corrélation entre les minuties et les champs d’orientation est relativement
haute.
 Pour la vérification, la SVM montre de meilleures performances de
reconnaissance. Cependant l’heuristique proposée dans l’article montre une
meilleure reconnaissance en mode identification.
 La méthode proposée se trouve plus adéquate en vérification et en
identification que la méthode de Jain. Ceci revient à l’application de la
nouvelle technique composite d’estimation du champ d’orientation, la
combinaison de plusieurs caractéristiques et la nouvelle heuristique de
fusion proposée.

115
 Critiques et améliorations proposées :

Nous pouvons mentionner les propositions suivantes :

 Les tests de la méthode proposée ont été appliqués sur une base
d’empreintes partielles plutôt contrôlées. Ils doivent toucher aux problèmes
de rotation, déplacement et au bruit pour prendre en considération un
contexte réel.
 Tous les appariements des caractéristiques se font à base d’un alignement
des minuties. Ainsi ils sont tous liées à la méthode d’extraction et
d’appariement des minuties.

4. COMPARAISON DES TRAVAUX ANTERIEURS :

Nous avons dressé les tableaux suivants afin de résumer et comparer les différents
travaux étudiés. Comme le montre le Tableau 6, les travaux sur l’empreinte palmaire
partielle sont très récents. C’est durant les quatre dernières années que tous les travaux ont
été réalisés à raison d’un travail chaque année. Nous remarquons la présence de trois
équipes de recherche qui ont abordé le sujet.

(Jain & Demirkus, (Jain & Feng, (Laadjel, et al., (Laadjel, et al., (Dai & Zhou,
2008) 2009) 2009) 2010) 2011)
Publié un journal Livre de un journal
Un rapport Proceeding ICIP
dans IEEE Springer IEEE
Publié en 2008 Juin 2009 Novembre 2009 2010 Mai 2011
Auteurs -Moussadek
Publication

-Moussadek Laadjel
-K. Jain Laadjel -Ahmed
-Anil K. Jain
-Fellow -Fatih Kurugollu Bouridane -Jifeng Dai
-Meltem
-Jianjiang -Ahmed -Fatih Kurugollu -Jie Zhou
Dermiskus
Feng Bouridane -Omar
-Said Boussakta Nibouche,
-WeiQi Yan
Tableau 6- un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire latente
(publication)

Comme le montre le Tableau 7, tous les travaux s’inspire de l’empreinte digitale dans
leur conception d’approche de reconnaissance pour l’empreinte palmaire. Jain 2008, Jain
2009 et Dai 2011 exploitent des caractéristiques de l’empreinte digitale présentes dans
l’empreinte palmaire. Dans Jain 2008, les auteurs exploitent, en plus, d’autres
caractéristiques issues du domaine de reconnaissance d’objet par caractéristiques locales.
Laadjel de sa part, dans Laadjel 2009, applique une approche du domaine de recalage

116
d’image. Cette dernière est elle aussi déjà appliqué dans l’empreinte digitale et peut être vu
comme une approche de reconnaissance par corrélation. Comme dans Jain 2008, Laadjel
2010 combine des concepts de caractéristiques locales à ceux de l’empreinte digitale.

Par analogie à la classification des approches digitales, nous pouvons classer les
travaux précédant en considérant leurs approches d’appariement de base :

 Les approches par corrélations : Laadjel 2009.


 Les approches à base de minuties :
 Global: Dai 2011
 Local:
- Sans consolidation : Laadjel 2010 (Dans ce cas la structure local est à
base des informations de la texture)
- Avec consolidation : Jain 2009 (Dans ce cas la structure local est à base
des informations de la texture)
 Les approches à base de caractéristiques non-minuties :
 La texture : Jain 2009, Dai 2011 et Jain 2008 (Dans ces travaux, un appariement à
base de la densité ou l’orientation est utilisé).

Nous pouvons signaler la présence d’un appariement par ligne principale dans Dai
2011 qui n’apparait pas comme approche pour l’empreinte digitale.
La fusion des scores d’appariement est un point qui a été abordée dans trois des
travaux existants (Jain 2008, Jain 2009, Dai 2011) ce qui montre son importance pour
améliorer la performance de la reconnaissance. Nous pouvons remarquer que Dai avait
consacré son travail pour la fusion et la comparaison entre les caractéristiques extraites.

Seul Jain, dans Jain 2008, développe une technique pour l’amélioration de la qualité
de l’empreinte. Tous les autres travaux se contentent de techniques déjà existantes pour
l’empreinte digitale (nous signalons que le champ d’orientation est un paramètre dans cette
amélioration. De là, nous pouvons dire que les travaux touchants à l’estimation de ce
champs touche implicitement à l’amélioration de la qualité).

Comme le montre toujours le Tableau 7, la procédure de l’estimation du champ


d’orientation a été adaptée pour répondre aux spécificités de l’empreinte palmaire dans le
travail de Jain 2009 et celui de Dai 2011. Cependant les autres travaux ne soulèvent pas ce
problème.

117
Tous les travaux, Sauf celui de Laadjel 2009, se basent sur les minuties comme
caractéristique principale extraite. Cependant, Laadjel 2010, ne critique pas la technique
classique d’élimination des fausses minuties et la garde pour son approche.

(Jain & (Jain & (Laadjel, et (Laadjel, et (Dai & Zhou, 2011)
Demirkus, Feng, 2009) al., 2009) al., 2010)
2008)
Inspiration du Empreinte
Empreinte
travail digitale Empreinte
digitale
Empreinte (Ito, et al., digitale +
(VeriFing) + Empreinte digitale
digitale 2004) + caractéristiqu
caractéristiqu
recalage es locales
es locales
d’image
Généralités sur le travail

Classification apparieme
de nt local à
l’appariement base de
principal minuties appariement global
avec apparieme appariement (transformée de
appariement
consolidati nt par local à base Hough) +
VeriFing
on corrélation de minuties Appariement à base
+ de la texture
Apparieme
nt à base de
la texture
Fusion Minuties+Orientati
Minuties Minuties+
/ / on+ Fréquences+
+SIFT Orientation
Lignes principales
Amélioration (Hong, et al.,
de qualité 1998) Filtre de (Hong, et al.,
/ Filtre de Gabor
+ADD+ACM+ Gabor 1998)
CLAHE
Calcul du Amélioratio
De
champ n de
l’empreinte
d’orientation (Funada, et
digitale Amélioration de
al., 1998) / Gradient
Techniques

classique Jain 2009


par la
(Hong, et al.,
région
1998)
croissante
Caractéristiqu Minuties + minuties+
es extraites Minuties + Orientation fréquence de
/ Minuties
SIFT (direction) crêtes+ plis + carte
de crêtes d’orientation
Elimination Classique
Carte des
des minuties Carte des plis / (calcul de Carte de plis
plis
distance)
Tableau 7-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire latente
(techniques de reconnaissance)

118
Comme le montre le Tableau 8, aucune standardisation aux niveaux des bases de
données et des tests utilisés n’existe. Chaque chercheur a conçu sa propre base de tests. Seul
Jain 2009 utilise des vraies empreintes latentes. Ainsi, nous pouvons dire que les autres
travaux se sont concentrés sur le problème de partialité plutôt que la dégradation de
qualité.

(Jain & (Jain & Feng, (Laadjel, et al., (Laadjel, et (Dai & Zhou,
Demirkus, 2009) 2009) al., 2010) 2011)
2008)
Résolution (dpi) 500 400, 500, 1000 500 500 500
Taille 500*500 / 1024*1024 1024*1024 2040*2040
Empreintes
100 / 100 100 13736
uniques
BDD des tests

Empreintes
1000 10200 200 200 14576
Complètes
Empreintes 800 + 800
Synthetic- 500 / introduction +rotation et /
Latentes de bruit bruit
Empreintes
Pseudo- 240 150 / / 720
Latentes
Empreintes
/ 100 / / /
Latentes
EER 0.03%
/ / 0.8% 5%
Résultats

0.38%
Rank-1 96% (synt.)
78.7%(Pseudo) 91.8%
82% / /
69% (latentes) (Pseudo)
(Pseudo)
Tableau 8-un tableau récapitulatif des travaux antérieurs sur l'empreinte palmaire latente (Tests et
résultats)

5. LES PROBLEMES SOULEVES DANS CES TRAVAUX :

Comme nous avons pu constater à travers notre étude, la plupart de ces travaux
s’inspire principalement de la reconnaissance digitale et applique directement des
approches conçues pour la reconnaissance de cette dernière pour une reconnaissance
d’empreinte palmaire partielle. Les caractéristiques principales exploitées étant les
minuties et les crêtes, les auteurs ont pris en charge les spécificités liées à la nature de ces

119
derniers dans l’empreinte palmaire. Ainsi, nous pouvons souligner les problèmes suivant
comme étant les problèmes principaux qu’ont visés les auteurs dans leurs travaux1

 Estimation du champ d’orientation :

L’estimation du champ d’orientation est un point critique dans l’amélioration de


qualité de l’image et l’appariement des minuties. Il est la base pour l’estimation de la
fréquence et constitue avec cette dernière les paramètres nécessaires pour les filtres utilise
dans l’amélioration de la qualité. De plus, le champ d’orientation est un attribut important
dans la définition et l’appariement des minuties. La présence massive de plis dans les
empreintes palmaire introduit un défi dans l’estimation de ce champ. Cela conduit à la
définition de nouvelles techniques d’estimation prenant en charge les spécificités des
empreintes palmaires.

La plupart des algorithmes d’estimation de l’orientation sont constitués de deux


étapes :

1. L’estimation initiale :

Cette phase peut être réalisée à travers plusieurs techniques :

 La méthode basée sur le gradient : l’idée de base de cette technique est que les crêtes et
les vallées peuvent être assimilées à des bandes noires et blanches. Par conséquent,
l’orientation des crêtes est perpendiculaire à celles du gradient. C’est la méthode
classique utilisée dans l’empreinte digitale comme dans (Hong, et al., 1998). Elle a été
reprise pour l’empreinte palmaire dans (Laadjel, et al., 2010).

 La transformée discrète de Fourier : Cette technique suppose que les ondes sinusoïdales
peuvent représentées efficacement les bandes noires et blanches. Par conséquent, le pic
(point maximal) en domaine fréquentiel dans une région locale correspond aux lignes
centrales dans les bandes d’une image. Cette technique a été appliquée pour l’empreinte
palmaire dans (Funada, et al., 1998) et dans (Jain & Feng, 2009).

 La Banque des filtres de Gabor : Cette technique partage les mêmes suppositions que
celle de Fourier. Dans le domaine fréquentiel, la méthode de la banque des filtres de

1 Sauf pour les travaux de Laadjel qui lui ne mentionne pas ces problèmes et ne les prend pas en

considération (Dans (Laadjel, et al., 2010) les minuties sont utilisées comme caractéristique principale
mais ces problèmes ne sont pas discutés)

120
Gabor multiplie le spectre de fréquence de la région locale par des filtres de Gabor et
choisit comme orientation locale des crêtes la direction du filtre dont la réponse est la
plus forte. Cette méthode est appliquée sur l’empreinte digitale mais se trouve très lente
pour une application sur l’empreinte palmaire dont la surface est large.

 La technique composite : comme nous l’avons vu dans (Dai & Zhou, 2011), Dai critique
les trois précédentes méthodes et les considère non convenable aux spécificités des
empreintes palmaires. Il définit sa propre méthode en combinant la DFT sur les régions
à nombre réduit de plis et une méthode à base de la transformée de Radon dans les
régions riches en plis.

2. Le post lissage :

Une phase est nécessaire pour corriger les erreurs mineures dans le résultat de
l’estimation initiale. Plusieurs méthodes sont couramment utilisées telles que :

 Un simple filtre de moyenne pondérée : c’est la méthode classique utilisée dans


l’empreinte digitale comme dans (Hong, et al., 1998).
 Une méthode basée model : cette méthode a été appliquée sur l’empreinte digitale dans
plusieurs travaux (Zhou & Gu, 2004)
 La région croissante : Cette méthode est appliquée dans (Funada, et al., 1998) améliorée
dans (Jain & Feng, 2009) et reprise dans (Dai & Zhou, 2011). Les deux premières
techniques se basent sur l’hypothèse que le champ d’orientation est lisse sauf pour les
surfaces des points singuliers et que le bruit à corriger est d’une distribution
gaussienne. Ces hypothèses n’étant pas correctes pour les empreintes palmaires
contenant un grand nombre de plis, une nouvelle technique prenant en compte cela telle
que la région croissante a été mise en œuvre (Jain & Feng, 2009).

 Elimination des fausses minuties :

Comme les plis ne peuvent pas être supprimés complètement dans la phase
d’amélioration de qualité de l’image. Il en reste, qui vont provoquer des discontinuités au
niveau des crêtes et entrainer ainsi des détections de fausses minuties. Ces dernières
présentent l’inconvénient d’être non robuste et doivent par conséquent être éliminés. Cela
est dû au fait que beaucoup de ces plis change avec la saison et le climat (Dai & Zhou, 2011).

La méthode traditionnelle pour éliminer ces fausses minuties dans l’empreinte


digitale consiste à éliminer tous deux points minuties de même direction où de direction

121
opposée se trouvant dans une petite région de voisinage (elle l’est considère fausses
minuties). Cette procédure part du principe que les plis sont étroits chose qui n’est pas
valide pour les empreintes palmaires où les plis sont plutôt épais dans plusieurs régions
(Dai & Zhou, 2011).

Augmenter la taille du voisinage pour prendre en charge les plis épais n’est pas une
solution envisageable. Une telle augmentation peut entrainer la perte de minuties valides en
les classant comme fausses. La solution proposée dans les travaux étudiés consiste à utiliser
les informations des plis elles même (la carte des plis) pour éliminer les points minuties qui
coïncident sur les plis. Et ainsi se débarrasser des fausses minuties (Dai & Zhou, 2011).

 Dispersion non uniforme des minuties :

Comme le souligne Jain dans (Jain & Demirkus, 2008), la présence des minuties n’est
pas uniforme sur toute la surface de l’empreinte. Ceci nous pousse à penser à d’autres
caractéristiques ou points d’intérêt à extraire.

6. CONCLUSION :

A travers notre étude, nous avons remarqué que le nombre de travaux abordant la
reconnaissance de l’empreinte palmaire latente est faible. Ces travaux sont des adaptations
d’approches utilisées en reconnaissance digitale.

Jain, pionnier en reconnaissance digitale, initie les travaux sur l’empreinte latente
par une exploitation d’un extracteur commercial de minuties conçu pour l’empreinte digital.
Cette exploitation seule n’étant pas satisfaisante, il la renforce par les caractéristiques SIFT
déjà exploitées sur l’empreinte digitale (bien qu’elles soient conçues principalement pour la
reconnaissance d’objets). Dans son deuxième travail, Jain utilise son background sur la
reconnaissance digitale pour une application directe sur la reconnaissance d’empreinte
palmaire partielle à travers un appariement local de minuties avec consolidation. Il apporte
quelques adaptations concernant les orientations et les fausses minuties mais ne sort pas
du domaine digital.

Cependant, étant loin de la reconnaissance digitale, Laadjel s’inspire du domaine de


l’imagerie. Il applique dans son travail la POC, que son équipe a utilisé sur plusieurs types
d’empreintes telles que la trace de chaussures. Bien qu’elle soit conçue principalement pour
le recalage d’image, cette technique a été déjà exploitée pour l’empreinte digitale et peut

122
être classée comme technique de reconnaissance digitale par corrélation. Dans un deuxième
travail, Laadjel s’inspire des techniques de reconnaissance d’objet par caractéristiques
invariantes. Il remplace les extrema utilisés dans la technique SIFT par les minuties. De
même, cette méthode peut être vue comme un appariement local à base de minuties (à base
de structure local évoluée-texture).

Le dernier travail que nous avons étudié, celui de Dai, visait de sa part l’étude des
différentes caractéristiques de l’empreinte digitale pouvant être extraite de l’empreinte
palmaire ainsi que leurs fusions.

Comme nous avons pu le constater, lors de l’application des approches digitales sur
l’empreinte palmaire, des adaptations liées aux spécificités de cette dernières ont du être
prises en charge (ex : les technique d’amélioration de la qualité de l’image, les techniques de
l’estimation des champs d’orientation, les techniques d’élimination des fausses minuties…).

Dans ces travaux, plusieurs caractéristiques telles que les minuties, les informations
de la texture (orientation et fréquence) et les lignes principales ont été exploitées
Cependant, d’autres caractéristiques et point d’intérêts (ex. les coins par Harris, par
Moravec, par Plessely.. et les tâches par Laplacienne de la gaussienne, le déterminants
Hessian..) issus du domaine de reconnaissance d’objet paraissent intéressants à explorer. La
reconnaissance de l’empreinte palmaire partielle peut, effectivement, être vue comme une
reconnaissance d’objet dans l’image. De plus, elle peut emprunter le concept des
descripteurs locaux invariants aux changements utilisé dans ce domaine. D’autre part, la
reconnaissance d’empreinte partielle peut être vue comme une application du recalage
d’image. Ceci nous incite à penser à l’application des techniques utilisées dans ce domaine
(autre que la POC).

123
CONCLUSION GENERALE

« Un problème sans solution est un problème mal posé », a dit Albert (Einstein)

La reconnaissance biométriques n’est autre que l’identification d’une personne en se


basant sur une caractéristique physique ou comportementale. Elle a pris son importance
avec l’évolution technologique et son introduction dans le domaine civil et commercial pour
remédier aux problèmes des mots de passe et de jetons. Mais, elle reste toujours liée, dans
l’esprit public, aux enquêtes et au domaine criminalistique où elle a fait ses premières
apparitions.

Une des modalités les plus utilisée dans la reconnaissance biométriques est
l’empreinte palmaire. Elle est utilisée dans sa totalité, acquise directement en basse-
résolution, pour les reconnaissances civiles et commerciales exigeant un temps réel et un
coût faible. Et elle est exploitée dans son état latent partiel en haute-résolution pour les
enquêtes dans le cadre criminalistique.

Après avoir étudié la reconnaissance biométrique dans son cas le plus général suivi
de celui spécifique au cas criminalistique, nous avons présenté les limites de l’application
d’une approche conçue pour l’empreinte palmaire complète sur celle partielle. Puis nous
sommes passés aux problèmes à prendre en charge lors de l’adaptation des approches
conçues pour l’empreinte digitale. Puis en dernier lieu, nous avons dressé un état de l’art
des approches de reconnaissance d’empreinte latentes.

Cette étude approfondie de l’empreinte palmaire complète et partielle ainsi que celle
digitale nous a permis de souligner des grandes lignes pouvant être sujet à d’éventuels axes
de recherche :

 Le calcul du champ d’orientation dans l’empreinte palmaire : Cet attribut est


important dans l’appariement à base de minuties. De plus, il joue un rôle
important dans l’amélioration de qualité des crêtes. Cependant, la présence
massive des plis dans l’empreinte palmaire introduit des difficultés de détections
importantes.

124
 L’élimination des fausses minuties: Les méthodes traditionnelles utilisées dans
cette procédure pour l’empreinte digitale reposent sur l’étroitesse des plis. Cela
n’est pas vérifié dans l’empreinte palmaire.
 Chercher d’autres points caractéristiques intéressants qui soient dispersées
uniformément sur toute l’empreinte afin de remédier aux manques de minuties
dans certaines parties
 L’automatisation de la classification des empreintes partielles suivant la partie
de la paume dont elles sont issues.
 Exploiter plusieurs caractéristiques à la fois et aboutir à une meilleure fusion et
prendre en charge la qualité locale dans le score.
 Exploiter les évolutions des approches de reconnaissance basées sur les
caractéristiques locales invariantes à l’échelle et robustes aux transformations
(rotation et translation). Ces dernières sont utilisées avec succès dans différentes
applications de traitement d’image telles que : la reconnaissance des objets, la
reconnaissance des textures, le recouvrement des images incomplètes et la
classification des objets en catégories... Leur efficacité dans la détection,
localisation et identification des objets dans les images est inspirante pour plus
d’exploitation dans la reconnaissance des empreintes partielles.
 Etudier les approches utilisées dans le recalage d’image pour s’en inspirer dans
notre cas.

Nous pouvons dire que la reconnaissance de l’empreinte palmaire latente est un


domaine non encore bien exploré. Il est ouvert à plusieurs éventuels axes de recherche.

125
BIBLIOGRAPHIE

Alexander, A., Botti, F., Dessimoz, D. & Drygajlo, A., 2004. The effect of
mismatched recording conditions on human and automatic speaker recognition in forensic
applications. Forensic Science International, Decembre, Volume 146, p. S95–S99.
Alexandre, G., 1996. Computerized classification of the shoeprints of burglar’s
soles. Forensic Science International, 82(1), pp. 59-65.
Anon., s.d. Francisca Rojas. [En ligne]
Available at: http://www.police-scientifique.com/fransisca-rojas
[Accès le 12 Janvier 2012].
Bazen, A. M. & Gerez, S. H., 2001. An Intrinsic Coordinate System for Fingerprint. s.l.,
s.n., p. 198–204.
Bazen, A. M. et al., 2000. A Correlation-Based Fingerprint Verification System. s.l., s.n.
Belguechi, R., 2006. Contribution à la reconnaissance d'empreinte digitales par une
approche hybride, s.l.: s.n.
Benhammadi, F. et al., 2007. Fingerprint matching from minutiae texture maps.
Pattern Recognition, 40(1), p. 189–197.
Boukhari, W. & Benyettou, M., 2008. Identification Biométrique des Individus par
leurs Empreintes Palmaires « Palmprints » : Classification par la Méthode des Séparateurs à
Vaste Marge (SVM).
Bouridane, A., 2009. Imaging for Forensics and Security- From Theory to Practice.
s.l.:Spring.
Brass, P. & Knauer, C., 2000. Testing the congruence of d–dimensional point sets. s.l.,
s.n., pp. 310-314.
Bromby, M. C., 2009. Face, Forensic Evidence of. Dans: Encyclopedia of Biometrics.
s.l.:Springer.
Caimao, Y., Dongmei, S., Di, L. & Siu-Ye, C., 2010. A Research on Feature Selection
and Fusion in Palmprint Recognition. Emerging Techniques and Challenges for Hand-Based
Biometrics (ETCHB), 2010 International Workshop on, pp. 1-6.
Champod, C., 2009. Earprints, Forensic Evidence of. Dans: Encyclopedia of
Biometrics. s.l.:Spring.

126
Champod, C., 2009. Forensic Applications, Overview. Dans: Encyclopedia of
Biometrics. s.l.:Spring.
Chen, H. & Jain, A. K., 2009. Automatic Forensic Dental Identification. Dans:
Handbook of Biometrics. s.l.:Springer.
Chen, J. & Moon, Y.-S., 2008. Using SIFT Features in Palmprint Authentication.
Pattern Recognition, 2008. ICPR 2008. 19th International Conference on, pp. 1- 4.
Chen, J. & Moon, Y.-S., 2008. Using SIFT Features in Palmprint Authentication.
Chen, J. & Moon, Y.-S., 2008. Using SIFT Features in Palmprint Authentication. s.l.,
s.n., pp. 1-4.
Chen, X., Tian, J. & Yang, X., 2006. A new algorithm for distorted fingerprints
matching based on normalized fuzzy similarity measure. IEEE Transactions on Image
Processing, 15(3), p. 767–776.
Connie, T., Teoh Beng Jin, A., Goh Kah, M. & Ngo Chek Ling, D., 2005. An
automated palmprint recognition system. Image and Vision Computing, Volume 23, p. 501–
515.
Connie, T., Teoh, A., Goh, M. & Ngo, D., 2003. Palmprint Recognition with PCA and
ICA. Image and Vision Computing , p. 232–227.
Dai, J. & Zhou, J., 2011. Multifeature-Based High-Resolution Palmprint Recognition.
IEEE Transactions on Pattern Analysis and Machine Intelligence,, Mai, 33(5), pp. 945-957.
Dass, S. C., Pankanti, S., Prabhakar, S. & Zhu, Y., 2009. Individuality of
Fingerprints. Dans: Encyclopedia of Biometrics. s.l.:Springer.
de Chazal, P., Flynn, J. & Reilly, R. B., 2005. Automated Processing of Shoeprint
Images Based on the Fourier Transform for Use in Forensic Science. IEEE Trans. On Pattern
Analysis and Machine Intelligence, 27(3), pp. 341-350.
Delac, K. & Grgic, M., 2004. A survey of biometric recongnition methods.
Zadar,Croatia, s.n.
Dessimoz, D. & Champod, C., 2009. Linkages between Biometrics and Forensic.
Dans: Handbook of Biometrics. s.l.:Springer.
Dorion, R. B. J., 2005. Bitemark evidence. New York: Marcel Dekker.
Doublet, J., Lepetit, O. & Revenu, M., 2007. Contactless palmprint authentication
using circular gabor filter and approximate String matching. s.l., s.n., pp. 511-516.
Doublet, J., Revenu, M. & Lepetit, O., 2007. Robust GrayScale Distribution
Estimation for Contactless Palmprint Recognition. s.l.:Biometrics: Theory, Applications, and
Systems, 2007. BTAS 2007. First IEEE International Conference on.

127
Duta, N., Jain, A. K. & Mardia, K. V., 2002. Matching of palmprints. Pattern
Recognition Letters , Volume 23, p. 477–485.
Fang, L., Leung, M. K. & Shikhare, T., 2004. Palmprint Classification.
Feng, J., 2007. Combining minutiae descriptors for fingerprint matching. Pattern
Recognition, Volume 41, p. 342 – 352.
Feng, J. & Cai, A., 2006. Fingerprint Representation and Matching in Ridge
Coordinate System. s.l., s.n., p. 485–488.
Feng, J., Ouyang, Z. & Cai, A., 2006. Fingerprint matching using ridges. Pattern
Recognition, 39(11), p. 2131–2140.
Funada, J.-i.et al., 1998. Feature Extraction Method for Palmprint Considering
Elimination of Creases. s.l., s.n., pp. 1849- 1854.
Goh Kah Ong Michael, T. C. A. B. J. T., 2008. Touch-less palm print biometrics: Novel
design and implementation. s.l.:Image and Vision Computing 26.
Gueham, M., Bouridane, A. & Crookes, D., 2007. Automatic recognition of partial
shoeprints based on phase-only corelation. s.l., s.n., pp. IV - 441 - IV - 444 .
Hamamoto, Y., 1999. A Gabor Filter-Based Method for Fingerprint Identification.
Dans: in Intelligent Biometric Techniques in Fingerprint & Face Recognition. s.l.:CRC Press,
pp. 137 - 151.
Hicklin, R. A., 2009. Anatomy of Friction Ridge Skin. Dans: Encyclopedia of
Biometrics. s.l.:Springer.
Hicks, T. & Coquoz, R., 2009. Forensic DNA Evidence. Dans: Encyclopedia of
Biometrics. s.l.:s.n.
Hong, L., Wan, Y. & Jain, A., 1998. Fingerprint Image Enhancement: Algorithm and
Performance Evaluation. IEEE Transactions on Pattern Analysis and Machine Intelligence,
Aout, 20(8), pp. 777- 789.
Huanga, D.-S., Jiaa, W. & Zhang, D., 2008. Palmprint verification based on principal
lines. Pattern Recognition , Issue 41, p. 1316 – 1328.
Huber, R. H. A., 1999. Handwriting Identification: Facts and Fundamentals. Boca
Raton, FL: CRC Press.
Ito, K. et al., 2005. A Fingerprint Recognition Algorithm Using Phase-Based Image
Matching for Low-Quality Fingerprints. s.l., s.n., p. 33–36.
Ito, K. et al., 2004. A fingerprint matching algorithm using phase only correlation.
IEICE Trans Fundam Electron Commun Comput Sci (Inst Electron Inf Commun Eng), E87-A(3),
pp. 682-691.

128
J. You, W. K. D. Z. a. K. C., 2004. On hierarchical palmprint coding with multiple
features for personal identification in large databases. IEEE Transactions on Circuits and
Systems for Video Technology.
Jain, A. K. & Demirkus, M., 2008. On Latent Palmprint Matching.
Jain, A. K. & Feng, J., 2009. Latent Palmprint Matching. IEEE Transactions on pattern
analysis and machine intelligence, Juin, 31(6), pp. 1032-1047.
Jain, A. K., Feng, J., Nagar, A. & Nandakumar, K., 2007. On Matching Latent
Fingerprints. s.l., s.n., pp. 1-8.
Jain, A. K., Flynn, P. & Ross, A. A., 2009. Handbook of Biometric. s.l.:Springer.
Jain, A. K. & Nandakumar, K., 2009. Biometric System Design, Overview. Dans: S. Z.
Li, éd. Encyclopedia of Biometrics. s.l.:Springer, p. 135.
Jain, A. K., Prabhakar, S., Hong, L. & Pankanti, S., 2000. Filterbank-based
fingerprint matching. IEEE Transactions on Image Processing, Volume 9, p. 846–859.
Jain, A. K., Ross, A. & Prabhakar, S., 2004. An Introduction to Biometric
Recognition. IEEE Transactions on Circuits and Systems for Video Technology, Special Issue on
Image- and Video-Based, January.14(1).
Jang, J. & Kim, H., 2009. Performance Mesures. Dans: Encyclopedia of Biometrics.
s.l.:Springer.
Jea, T.-Y. & Govindaraju, V., 2005. A minutia-based partial fingerprint recognition
system. Pattern Recognition, 38(10), p. 1672–1684.
Kasprzak, J. L. B., 2001. Cheiloscopy. Human Identification on the Basis of Lip
Prints (in Polish).
Kong, A. W. K., 2007. Palmprint Identification Based on Generalization of IrisCode
(thèse), Waterloo, Ontario, Canada: Electrical and Computer Engineering.
Kong, A., Zhang, D. & Kamel, M., 2009. A survey of palmprint recognition. Volume
42.
Kong, W. K., Zhang, D. & Li, W., 2003. Palmprint feature extraction using 2-D Gabor
fillters. Pattern Recognition, 36(10), pp. 2339-2347.
Konuk, B., 2007. Palmprint recognition based on 2D Gabor Filters (thèse), s.l.: s.n.
Kozik, R. & Chora, M., 2010. Combined Shape and Texture Information for Palmprint
Biometrics. s.l.:Journal of Information Assurance and Security 5.
Krishneswari, K. & Arumugam, S., 2010. A Review on Palm Print Verification
System. International Journal of Computer Information Systems and Industrial Management
Applications (IJCISIM), Volume 2, pp. 113-120.

129
Kumar, A., Mundra, T. S. & Kumar, A., 2009. Anatomy of Hand. Dans: Encyclopedia
of Biometrics. s.l.:Springer.
Kumar, A. & Zhang, D., 2005. Personal authentication using multiple palmprint
representation. Pattern Recognition.
Kwon, D., Yun, I. D., Kim, D. H. & Lee, S. U., 2006. Fingerprint Matching Method
Using Minutiae Clustering and Warping. s.l., s.n., p. 525–528.
Laadjel, M., 2009. Human recognition based on palm patterns (thèse, Submitted in
accordance with the requirements for the degree of). s.l.:Queen's University of Belfast The
School of Electronics, Electrical Engineering and Computer Science.
Laadjel, M. et al., 2010. Partial Palmprint Matching Using Invariant Local Minutiae
Descriptors. Dans: Transactions on data hiding and multimedia security V. Verlag Berlin
Heidelberg: Springer, p. 1–17.
Laadjel, M., Bouridane, A., Kurugoll, F. & Boussakta, S., 2008. Palmprint
Recognition using Fisher-Gabor Feature Extraction. Acoustics, Speech and Signal Processing,
2008. ICASSP 2008. IEEE International Conference on, pp. 1709- 1712.
Laadjel, M., Kurugollu, F., Bouridane, A. & Boussakta, S., 2009. Degraded partial
palmprint recognition for foreinsic investigations. ICIP'09 Proceedings of the 16th IEEE
international conference on Image processing, pp. 1497-1500.
Laadjel, M., Kurugollu, F., Bouridane, A. & Yan, W., 2009. Palmprint Recognition
Based on Subspace Analysis of Gabor Filter Bank. Advances in multimedia information
processing - PCM 2009, Volume 5879/2009, pp. 719-730.
Lindoso, A., Entrena, L., Liu-Jimenez, J. & Millan, E. S., 2007. Correlation-Based
Fingerprint Matching with Orientation Field Alignment. s.l., s.n., p. 713–721.
Li, W., Zhang, D. & Xu, Z., 2003. Image alignment based on invariant features for
palmprint identification. Signal Processing: Image Communication, 18(5), p. 373–379.
Lowe, D. G., 2004. Distinctive Image Features from Scale-Invariant Keypoints.
International Journal of Computer Vision, 2004..
Lu, G., Zhang, D. & Wang, K., 2003. Palmprint recognition using eigenpalms
features. Pattern Recognition Letters 24 (2003) 1463–1467, Volume 24, p. 1463–1467.
Lynnerup, N. & Peter K., L., 2009. Gait, Forensic Evidence of. Dans: Encyclopedia of
Biometrics. s.l.:Springer.
Madasu, H., Gupta, H. M., Mittal, N. & Vasikarla, S., 2009. An Authentication System
Based on Palmprint. s.l., s.n., pp. 399- 404.

130
Maltoni, D., Maio, D., Jain, A. K. & Prabhakar, S., 2009. Handbook of Fingerprint
Recognition. s.l.:Springer.
Methani, C. & Namboodiri, A. M., 2010. Video Based Palmprint Recognition.
s.l.:2010 International Conference on Pattern Recognition.
Mikolajczyk, K. & Schmid, C., 2005. A Performance Evaluation of Local Descriptors.
IEEE Transactions on pattern analysis and machine intelligence, Octobre, 27(10), pp. 1615-
1630.
Morizet, N., 2009. Reconnaissance Biométrique par Fusion Multimodale du Visage et
de l’Iris, Paris: s.n.
Motorola, 2006. An introduction to biometrics, s.l.: s.n.
Munagorri, M. R. E. d., 1999. La recevabilité d'une expertise scientifique aux États-
Unis. Revue internationale de droit comparé., 51(3).
Nanni, L. & Alessandra, L., 2008. Local binary patterns for a hybrid fingerprint
matcher. Pattern Recognition, 41(11), p. 3461–3466.
Nibouche, O. et al., 2009. Retrieval of shoemarks using harris points and sift
descriptor. s.l., s.n., pp. 2897- 2900 .
NSTC, 2006. Palm Print Recognition, s.l.:
http://www.biometricscatalog.org/NSTCSubcommittee..
Oh, C. & Ryu, Y., 2004. Study on the center of rotation method based on minimum
spanning tree matching algorithm for fingerprint recognition. Optical Engineering, 43(4), p.
822–829.
Panigraphy, S. K., Jena, D. & Jena, S. K., 2008. A Rotational- and Translational-
Invariant Palmprint Recognition System. Tiruchirapalli, s.n., pp. 380-383.
Park, U., Pankantia, S. & Jain, A. K., 2008. Fingerprint Verification Using SIFT
Features.
Park, U., Pankanti, S. & Jain, A. K., 2008. Novel Fingerprint Verification System
Using SIFT. s.l., s.n.
Phillips, P. J. et al., 2002. Face Recognition Vendor Test 2002:Overview and
Summary, s.l.: s.n.
Prabhakar, S., Pankanti, S. & Jain, A. K., 2003. Biometric Recognition:Security and
Privacy Concerns. IEEE Security and Privacy Magazine, March/April, 1(2), pp. 33-42.
Qi, J. & Wang, Y., 2005. A robust fingerprint matching method. Pattern Recognition,
38(10), p. 1665–1671.

131
Qu, Z. & Wang, Z.-y., 2010. Research on Preprocessing of Palmprint Image Based on
Adaptive Threshold and Euclidian Distance. s.l., s.n., pp. 4238- 4242.
Roberts, C., 2005. Biometrics, s.l.: s.n.
Ross, A., Jain, A. K. & Reisman, J., 2003. A hybrid fingerprint matcher. Pattern
Recognition, 36(7), p. 1661–1673.
Ross, A., Reisman, J. & Jain, A. K., 2002. Fingerprint Matching Using Feature Space
Correlation. s.l., Springer.
Shanga, L., Huang, D.-S., Dua, J.-X. & Zhenga, C.-H., 2006. Palmprint recognition
using FastICA algorithm and radial basis probabilistic neural network. Neurocomputing,
69(13-15), p. 1782–1786.
Shan, S., Chen, X. & Gao, W., 2009. Performance Evaluation, Overview. Dans:
Encyclopedia of Biometrics. s.l.:springer.
Sheng, W., Howells, G., Fairhurst, M. C. & Deravi, F., 2007. A memetic fingerprint
matching algorithm. IEEE Transactions on Information Forensics and Security, 2(3), p. 402–
412.
Shuai, X., Zhang, C. & Hao, P., 2007. The Optimal ROS-Based Symmetric Phase-Only
Filter for Fingerprint Verification,”. s.l., s.n., p. 381–384.
Stosz, J. D. & Alyea, L. A., 1994. Automated System for Fingerprint Authentication
Using Pores and Ridge Structure. s.l., s.n., p. 210–223.
Su, H., Crookes, D., Bouridane, A. & Gueham, M., 2007. Shoeprint Image Retrieval
Based on Local Image Features. s.l., IEEE Computer Society Washington, DC, USA ©2007 , pp.
387-392.
Sun, F., 2001. La criminologie et la criminalistique. s.l.:s.n.
Takita, K. et al., 2003. High -accuracy Subpixel Image Registration Based on Phase-
Only Correlation. IEICE Trans. Fundamentals, E-86 A(8).
Tan, X. & Bhanu, B., 2006. Fingerprint matching by genetic algorithms. Pattern
Recognition, 39(3), p. 465–477.
Tico, M., Kuosmanen, P. & Saarinen, J., 2001. Wavelet domain features for
fingerprint recognition. Electronics Letters, 37(1), p. 21–22.
Tsuchihasi, Y., 1974. Studies on Personal Identification by Means of Lip Prints.
Udupa, R., Garg, G. & Sharma, P. K., 2001. Fast and Accurate Fingerprint
Verification. s.l., s.n., pp. 192-197.

132
Wenxin, L., Zhang, D. & Zhuoqun, X., 2002. Palmprint identification by Fourier
transform. International journal of pattern recognition and artificial intelligence, 16(4), pp.
417-432.
Wong, K., Chekima, A., Dargham, J. & Sainarayanan, G., 2008. Palmprint
identification using Sobel operator. Control, Automation, Robotics and Vision.
Wu, X., Wang, K. & Zhang, D., 2002. Fuzzy Directional Element Energy Feature
(FDEEF) Based Palmprint Identification. s.l., s.n., pp. 95-98.
Wu, X., Zhang, D. & Wanga, K., 2004. Palmprint classification using principal lines.
Pattern Recognition.
Wu, X., Zhang, D. & Wang, K., 2003. Fisherpalms based palmprint recognition.
Pattern Recognition Letters, Volume 24, p. 2829–2838.
X. Wu, K. W. a. D. Z., 2004. HMMs based palmprint identification. s.l.:Lecture Notes in
Computer Science.
Xie, X., Su, F. & Cai, A., 2006. Ridge-Based Fingerprint Recognition. s.l., s.n., p. 273–
279.
Yahagi, H., Igaki, S. & Yamagishi, F., 1990. Moving-window algorithm for fast
fingerprint verification. s.l., s.n., pp. 343- 348.
Yang, W.-l. & Wang, L.-l., 2010. Research Of PalmPrint Identification Method Using
Zernike Moment And Neural Network. s.l., s.n., pp. 1310- 1313 .
Youa, J., Lia, W. & Zhanga, D., 2002. Hierarchical palmprint identification via
multiple feature extraction. Pattern Recognition 35, p. 847–859.
Zhang, D. D., 2004. Line features extraction and representation. Dans: Palmprint
Authentification. s.l.:Springer.
Zhang, D. D., 2004. Palmprint authentication. s.l.:Springer.
Zhang, D., Kong, A. & Lu, G., 2006. A study of identical twins palmprint for personal
verification, s.l.: s.n.
Zhang, D., Kong, W.-K. & You, J., 2003. On-line palmprint identification. IEEE
Transactions on Pattern Analysis and Machine Intelligence.
Zhang, D. & Shu, W., 1999. Two novel characteristics in palmprint verification:
datum point invariance and line feature matching. Pattern Recognition, 32(4), p. 691–702.
Zhang, D., Shu, W., Rong, G. & Bina, Z., 2001. Automatic palmprint verification.
International Journal of Image and Graphics, 1(1), pp. 135-151.
Zhang, L., Guo, Z., Wang, Z. & Zhang, D., 2007. Palmprint verification usiong
complex wavelat transform. s.l., s.n., pp. II - 417 - II - 420.

133
Zhao, F. & Tang, X., 2007. Preprocessing and postprocessing for skeleton-based
fingerprint minutiae extraction. Pattern Recognition, Volume 40, p. 1270 – 1281.
Zheng, X., Wang, Y. & Zhao, X., 2007. A Robust Matching Method for Distorted
Fingerprints. s.l., s.n., p. 377–380.
Zhou, J. & Gu, J., 2004. A Model-based Method for the Computation of Fingerprints
Orientation Field. IEEE Transactions on Image Processing, 13(6), pp. 821- 835.
Zitova, B. & Flusser, J., 2003. Image registration methods: a survey. Image and
Vision Computing, Volume 21, p. 977–1000.

134

Vous aimerez peut-être aussi