Académique Documents
Professionnel Documents
Culture Documents
net/publication/292159126
CITATIONS READS
0 1,919
1 author:
Belal Alshaqaqi
Université Oran 2
22 PUBLICATIONS 167 CITATIONS
SEE PROFILE
All content following this page was uploaded by Belal Alshaqaqi on 06 February 2016.
MOHAMED BOUDIAF
DÉPARTEMENT D'ÉLECTRONIQUE
DOCTORAT EN SCIENCE
OPTION: ÉLECTRONIQUE
Présentée par
Mr ALSHAQAQI Belal
Sujet de mémoire
ٔ
اﻠﻰ ﻤﻦ ﻻ اﺟﻴﺪ اﻠﻛـﺘﺎﺑﺔ ﻋﻨﻬﻢ .........
اﻠﻰ اﺣﺒﺎﺋﻲ ﺟﻣﻴﻌﺎ
I
Remerciements
Je remercie ALLAH pour éclairer mon chemin et pour donner la force et la volonté tout au
long de ma vie.
Je tiens à remercier vivement Professeur BOUGHANMI Nabil qui m’a fait l'honneur d’avoir
accepté d'être le président de mon jury.
Je tiens à remercier Pr. MIMI Malika, et Dr. OULD MAMMAR Madani, Dr. LOUKIL
Abdelhamid, et Dr. Si Mohamed Arezki Mohamed pour l'immense honneur qui m’ont fait
d’avoir accepté d'être examinateurs de ma thèse.
J’ai été très sensible aussi à l’ouverture d’esprit du professeur KECHE Mokhtar, qui m’a
accompagné tout au long de ce travail de thèse, avec de fructueuses discussions dans
laboratoire. Je le remercie pour sa simplicité, sa bonhomie, sa générosité.
Mes gratitudes vont à Meriem qui m’a toujours soutenu patiemment avec qui j’ai partagé de
bons moments, dans le travail comme en dehors, subventions le joie et la bonne humeur.
Le travail présenté ici n'est, bien sûr, pas l'œuvre d'une unique personne mais s'intègre dans une
suite logique de travaux ainsi que dans un environnement social particulier. Je vais donc
remercier l'ensemble des gens qui ont contribué à faire de ce document une thèse, spécialement :
BENSOUKEHAL, OUIS, BAQUHAIZEL, BEKHTI, SEMSAR, SENOUCI.
Je saisis cette opportunité qui m’est offerte pour remercier tous les professeurs et enseignants
qui ont contribué à ma formation spécialement Dr. SOUDANI Said, Pr. KADRI Mohamed, et
Pr. KADOUR Abdelhafid.
Je tiens à remercier sincèrement les personnes suivantes pour leur aide: Pr. KERDAL, Pr.
BENYETTOU, Dr. SHAKSHAK, Mr. TEMMAR, Mr. FRIH.
Enfin, mes pensées et gratitudes vont à ma famille qui a toujours été là malgré la distance qui
nous sépare pour m’encourager, me soutenir sans condition dans tout ce que j’entreprends.
II
Résumé
La sécurité des moyens de transport a fait l'objet d'une attention de nombreux travaux de
recherche, en particulier la voiture qui est généralement le moyen de transport le plus utilisée
et le moins sécurisé. En effet, un accident apparaît comme un disfonctionnement du système
constitué du conducteur, du véhicule et de l'environnement.
Typiquement, l'homme est à l'origine de l'accident, soit à cause d'une perception imprécise de
l'environnement routier, soit à cause d'un contrôle inadapté de la dynamique du véhicule.
Afin de limiter les conséquences de ces fautes humaines, de nombreuses recherches sont
entamées pour la mise en place de systèmes embarqués d'aide à la conduite. Leur l'objectif est
d'informer le conducteur du degré de dangerosité de la situation dans laquelle il se trouve. Ces
systèmes embarqués fournissent des informations instantanées sur l'état de l'environnement
routier autour du véhicule. Certains indicateurs sont extraits de cette cartographie dynamique
de l'environnement, puis exploités pour alerter le conducteur.
Dans l'objectif d'aider la navigation autonome dans un environnement routier des systèmes de
transport intelligents, nous avons proposé un système d'aide à la conduite basé vision qui permet
de satisfaire un certain nombre de fonctions. Ce système se compose de trois modules
principaux :
Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).
Module de Classification des Panneaux de Signalisation Routière (MCPSR).
Module de Détection de Fatigue et de Somnolence (MDFS).
L'objectif est de concevoir un système suivant plusieurs étapes : la détection des objets dans la
scène, leur positionnement et leur vitesse par rapport au véhicule porteur du système,
l'initialisation et le suivi de leur trajectoire, la classification de panneaux de signalisations
routières, et la détection de somnolence et de fatigue du conducteur au volant.
Ces modules fournissent des résultats satisfaisants dans toutes les étapes, et ils ont prouvé leur
efficacité à travers des expériences pratiques effectuées.
Enfin, nous trouvons qu'il est nécessaire de souligner que ce travail, en premier lieu, est un
travail de recherche, cependant nous avons effectué plusieurs travaux à l’extérieur en dehors du
laboratoire afin de fournir des résultats plus réalistes.
III
Listes des figures
IV
Listes des figures
Figure 3-21: Exemple de détection de peau. (a) Image couleur, (b) Son masque binaire après
une détection des régions de peau. ........................................................................................... 50
Figure 3-22: Distribution de couleur de peau dans l’espace RVB. .......................................... 52
Figure 3-23: Distribution de couleur de peau dans l’espace YCbCr........................................ 52
Figure 3-24: Résultats de détection de peau. (a) Image originale, (b) Masques binaire après la
détection de couleur de peau. ................................................................................................... 53
Figure 3-25: Résultats de détection des panneaux de signalisation. (a) Image originale, (b)
Masques binaire après la détection de couleur rouge. .............................................................. 53
Figure 3-26: Organigramme de détection de couleur............................................................... 54
Figure 3-27: Résultats des méthodes optimisées. (a) Image originale, (b), (c) et (d) Les
différentes matrices PEAU, (e), (f) et (g) Leurs résultats respectivement. .............................. 55
Figure 3-28: Illustration de la dilatation [127]. ........................................................................ 57
Figure 3-29: Illustration de l’érosion [127]. (a) Image binaire originale avec un objet
rectangulaire, (b) Elément structurant, (c) Elément structurant balayé en plusieurs positions de
l’image, (d) Image de sortie. .................................................................................................... 59
Figure 3-30: Application des opérations morphologiques sur un masque binaire. (a) Masque
binaire, (b) Erosion du masque, (c) Dilatation de l’image (b). ................................................ 60
Figure 3-31: Labélisation de l’image binaire. (a) Image binaire, (b) Résultat de la labélisation.
.................................................................................................................................................. 60
Figure 3-32: Masque proposé pour la labélisation. .................................................................. 61
Figure 3-33: Résultat de la labélisation. (a) Masque binaire, (b) Objets labélisés. .................. 61
Figure 3-34: Regroupement par K-means. ............................................................................... 61
Figure 3-35: Regroupement sur un ensemble de points K-means. (A) Les points à séparer en
2D, (b) Les points à séparer en 3D, (c) Regroupement par K-means K=3, (d) Regroupement
par K-means K=2. .................................................................................................................... 63
Figure 3-36: Organigramme de suivi d’un objet en mouvement par mesure de similitude. .... 66
Chapitre 4
Figure 4-1: Le diagramme des modules proposés. ................................................................... 68
Figure 4-2: Différentes méthodes de détection de contour.(a) Image originale ,(b)Filtre Sobel ,
(c)Application de filtre morphologie (dilatation) sur sobel , (d)Filtre Canny , (e )Déphasage de
quatre pixels, (f) Différence entre deux images impaires , (g) Application de filtre sobel sur
l’image (f) , (h) LOC Horizontal, (i) LOC Vertical. ............................................................... 69
Figure 4-3: Transformé de Hough appliquée sur l’image binaire obtenue par : (a)Filtre Sobel,
(b) Filtre morphologie (dilatation) sur sobel , (c) Filtre Canny , (d )Déphasage de quatre pixels,
(e)Application de filtre sobel sur différence entre deux images impaires, (f) L’image de LOC.
.................................................................................................................................................. 71
Figure 4-4: Zone route et zone non route de détection de contour de déphasage de quatre pixels.
.................................................................................................................................................. 72
Figure 4-5: Le choix d’angle. ................................................................................................... 72
Figure 4-6: La distance Euclidienne entre deux droites. .......................................................... 73
Figure 4-7: Intervalle de recherche obtenu. ............................................................................. 73
Figure 4-8: La foulée du Balayage. .......................................................................................... 74
Figure 4-9: La symétrie en premier abord. ............................................................................... 74
V
Listes des figures
VI
Listes des figures
VII
Listes des figures
Figure 4-67: Méthode de détection de visage par l‘énergie du mouvement de visage. (a) et (c)
Les images de différence de contours des images (b) et (d) respectivement avec résultats, (b)
Image de jour avec résultat, (d) Image de nuit IR avec résultat. ............................................ 117
Figure 4-68: Exemples des codes LCP. ................................................................................. 118
Figure 4-69: Organigramme de l'algorithme de détection de visage par LCP. ...................... 118
Figure 4-70: Détection de visage par LCP. (a) Le masque M, (b) La matrice R, (c) Résultat de
détection. ................................................................................................................................ 119
Figure 4-71: Vérification de détection de visage par LCP. (a) et (c) Les images originales, (b)
et (d) Leurs matrices R avec le résultat. ................................................................................. 120
Figure 4-72: Utilisation des filtres de Gabor pour trouver les orientations. .......................... 120
Figure 4-73: Détection de visage par la méthode de VJ. (a) et (b) par OpenCV avec deux
classificateurs différents, (c) par MATLAB. ......................................................................... 121
Figure 4-74: Région d’intérêt pour la détection des yeux. ..................................................... 122
Figure 4-75: Détection des yeux par la symétrie.................................................................... 122
Figure 4-76: Résultats de détection des yeux par symétrie. (a) Image contours par le filtre de
Sobel horizontal, (b) Résultat de détection des yeux. ............................................................ 123
Figure 4-77: Detection des yeux par masque circulaire. (a) Le masque circulaire M, (c) Résulats
de convolution R, (c) Les yeux detectées sur le visage . ........................................................ 123
Figure 4-78: Modèle de lunette proposé pour la détection des yeux. .................................. 124
Figure 4-79: Résultat de détection des yeux par le masque lunette. (a) Image contours par Sobel,
(b) et (c) Image originale avec résultat utilisant grande et petite lunette respectivement. ..... 125
Figure 4-80: Détection des yeux avec masque lunette sur image de contours (Sobel horizontal).
(a) Image contours par Sobel horizontal, (b) et (c) Image originale avec résultat utilisant grande
et petite lunette respectivement. ............................................................................................. 125
Figure 4-81: La nouvelle forme du masque de lunette. (a) Les paramètres de l’ellipse, (b) Le
masque lunette. ....................................................................................................................... 126
Figure 4-82: Résultat de détection des yeux par masque lunette en utilisant l'image seuillée. (a)
Image en niveau de gris, (b) Image seuillée, (c) Image originale avec résultat. .................... 127
Figure 4-83: Résultat de détection des yeux par masque lunette en utilisant l'image obtenue par
le filtre de Gabor. (a) Image contours avec filtre de Gabor, (b) et (c) Image originale avec
résultat utilisant grande et petite lunette respectivement. ...................................................... 127
Figure 4-84: Amélioration de détection des yeux par le masque elliptique de visage. (a) Image
en niveau de gris, (b) Image contours, (c) Le masque elliptique E, (d) et (e) Image en niveau de
gris et image contours après l’application du masque............................................................ 128
Figure 4-85: Amélioration de détection des yeux par le masque de couleur de peau du visage.
(a) Image en niveau de gris, (b) Image contours, (c) Le masque de couleur de peau du visage,
(d) et (e) Image en niveau de gris et image contours après l’application du masque. ........... 129
Figure 4-86: L'orientation du visage à partir des positions des yeux. .................................... 130
Figure 4-87: Localisation de la bouche, (a) La relation entre les yeux et la bouche, (b) Un
exmaple de positionnement de la bouche. .............................................................................. 130
Figure 4-88: Détection de bâillement par la méthode de K-means. (a) et (b) Image de la bouche
fermé et ouvert respectivement, (c) et (d) Regroupement par K-means les intensités de Y en
fonction de Cb. ....................................................................................................................... 131
VIII
Listes des figures
Figure 4-89: Organigramme de l’algorithme de décision de l’état de l’œil par la THC. ....... 132
Figure 4-90: La décision de l’état de l’œil par la THC. (a) et (c) Images contours, (b) et (d)
Résultats de l’état d’un œil ouvert et un autre fermé à partir des images (a) et (c) respectivement.
................................................................................................................................................ 133
Figure 4-91: Organigramme de l'algorithme de décision de l'état de l'œil. ............................ 134
Figure 4-92: Etat des yeux par la méthode somme des points contours. (a) et (c) Images contours
d’un œil ouvert et fermé respectivement, (b) et (d) Résultat de décision pour l’image (a) et (c)
respectivement. ....................................................................................................................... 134
Figure 4-93: Extension de la méthode. (a) et (b) Image contours par Sobel pour un œil ouvert
et un œil fermé respectivement, (c) et (d) Image contours par Gabor pour un œil ouvert et un
œil fermé respectivement, (e) et (f) Leurs résultats. ............................................................. 135
Figure 4-94: Organigramme de l’algorithme de décision de l’état de l’œil par un masque
circulaire. ................................................................................................................................ 136
Figure 4-95: Décision de l’état des yeux par le masque circulaire. (a) Image d’œil fermé avec
résultat, (b) Image d’œil ouvert avec résultat. ........................................................................ 136
Figure 4-96: Etat des yeux. (a) Œil ouvert avec vérification de THC, (b) Œil fermé. ........... 137
Figure 4-97: Etat des yeux par K-means. (a) Œil ouvert, (b) Œil fermé, (c) Regroupement de
pixels de l’image de l’œil ouvert avec k-means (K = 3), (d) Regroupement de pixels de l’image
de l’œil fermé avec k-means (K = 3)...................................................................................... 138
Chapitre 5
Figure 5-1: Camera une CCD 1/3 SONY (Model : CNB-G1318PF) . ................................ 140
Figure 5-2: Mini-camera IR. .................................................................................................. 141
Figure 5-3: Carte d’acquisition (a) EasyCAP, (b) Pinnacle Systems GmbH 710 USB. ........ 141
Figure 5-4: Support de fixation de la caméra. ........................................................................ 142
Figure 5-5: Transformateur 12V vers 220V. .......................................................................... 142
Figure 5-6: Notre système installé dans la voiture à base de camera IR. ............................... 143
Figure 5-7: Echantillons des séquences enregistré par la caméra. ......................................... 144
Figure 5-8: Sauvegarde des données dans l’entité ‘historique’.............................................. 148
Figure 5-9: Vitesse en fonction de la distance (h=1.28 m, v=20 ± 2 Km/h). ......................... 149
Figure 5-10: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 149
Figure 5-11: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=20 ± 2 Km/h).
................................................................................................................................................ 149
Figure 5-12: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 150
Figure 5-13: Vitesse en fonction de la distance (h=1.28 m, v=40 ± 2 Km/h). ....................... 150
Figure 5-14: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=40 ± 2 Km/h).
................................................................................................................................................ 150
Figure 5-15: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................................ 151
Figure 5-16: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2
Km/h). .................................................................................................................................... 151
Figure 5-17: Vitesse en fonction de la distance (h=1.28 m, v=60 ± 3 Km/h). ....................... 151
IX
Listes des figures
Figure 5-18: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=60 ± 3 Km/h).
................................................................................................................................................ 152
Figure 5-19: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................................ 152
Figure 5-20: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3
Km/h). .................................................................................................................................... 152
Figure 5-21: Vitesse en fonction de la distance (h=1.28 m, v=80 ± 4 Km/h). ....................... 153
Figure 5-22: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=80 ± 4 Km/h).
................................................................................................................................................ 153
Figure 5-23: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=80 ± 4
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 153
Figure 5-24: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=80 ± 4
Km/h). .................................................................................................................................... 153
Figure 5-25: Vitesse en fonction de la distance (h=1.28 m, v=100 ± 5 Km/h). ..................... 154
Figure 5-26: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=100 ± 5 Km/h).
................................................................................................................................................ 154
Figure 5-27: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 154
Figure 5-28: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. .............................. 155
Figure 5-29: Vitesse en fonction de la distance (h=2.2 m, v=40 ± 2 Km/h). ........................ 155
Figure 5-30: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=40 ± 2 Km/h). 155
Figure 5-31: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 156
Figure 5-32: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 156
Figure 5-33: Vitesse en fonction de la distance (h=2.2 m, v=80 ± 4 Km/h). ........................ 156
Figure 5-34: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=80 ± 4 Km/h). 157
Figure 5-35: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................................ 157
Figure 5-36: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4
Km/h). .................................................................................................................................... 157
Figure 5-37: Vitesse en fonction de la distance (h=2.2 m, v=110 ± 5 Km/h). ...................... 158
Figure 5-38: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=110 ± 5 Km/h).
................................................................................................................................................ 158
Figure 5-39: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 158
Figure 5-40: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. .............................. 159
Figure 5-41: Vitesse en fonction de la distance (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °). ....... 159
Figure 5-42: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=20 ± 2 Km/h, Ф
=10 °). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 159
X
Listes des figures
Figure 5-43: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2
Km/h, Ф =10 °). ..................................................................................................................... 160
Figure 5-44: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2
Km/h, Ф =10 °). ..................................................................................................................... 160
Figure 5-45: Vitesse en fonction de la distance (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °). ....... 160
Figure 5-46: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=50 ± 2 Km/h, Ф
=10 °). ..................................................................................................................................... 161
Figure 5-47: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2
Km/h, Ф =10 °). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................ 161
Figure 5-48: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2
Km/h, Ф =10 °). (a) Méthode d'interpolation, (b) Méthode du champ de vision................... 161
Figure 5-49: Organigramme global de notre modules de détection de véhicules et mesure de
distance et de vitesse. ............................................................................................................. 162
Figure 5-50: Quelques exemples des résultats obtenus. ......................................................... 163
Figure 5-51: Organigramme global de notre modules de classification des panneaux de
signalisation routière. ............................................................................................................ 166
Figure 5-52: Quelques exemples des résultats obtenus. ......................................................... 167
Figure 5-53: La variation de la valeur de SADN pendant le suivi. (a) Modèle de référence, (b)
Bon résultat de suivi au 109eme frame, (c) Mauvais résultats de suivi au 329eme frame. ....... 175
Figure 5-54: Organigramme global de notre module de détection de fatigue et de somnolence.
................................................................................................................................................ 178
Figure 5-55: Quelques exemples des résultats obtenus. (a) et (d) Conducteur en état normal, (b)
Conducteur en état somnolent (danger), (c) Conducteurs en état presque-somnolent. .......... 180
XI
Listes des tableaux
Chapitre 3
Tableau 3-1: Tableau de correspondance des matrices. ........................................................... 35
Tableau 3-2: Influence des paramètres du filtre de Gabor [102]. ............................................ 46
Tableau 3-3: Résumé des mesures de différence et de corrélation .......................................... 65
Chapitre 4
Tableau 4-1: Signification des panneaux de signalisation en fonction de sa forme et de couleur
.................................................................................................................................................. 91
Tableau 4-2: Quelques algorithmes utilisés pour la détection de visage. .............................. 100
Tableau 4-3: Les paramètres du modèle de visage proposé. .................................................. 124
Chapitre 5
Tableau 5-1: Résultats de la modélisation de la route. ........................................................... 145
Tableau 5-2 : Résultats de détection de véhicule. .................................................................. 146
Tableau 5-3: Résultats de suivi de véhicule. .......................................................................... 146
Tableau 5-4: Résultats des tests de mesure de distance par la méthode 1 pour trois véhicules.
................................................................................................................................................ 147
Tableau 5-5: Résultats des tests de mesure de distance par la méthode 2 pour trois véhicules.
................................................................................................................................................ 147
Tableau 5-6: Résultats des tests de mesure de distance et de vitesse moyenne pour cinq
véhicules. ................................................................................................................................ 147
Tableau 5-7: Historique regroupant les informations relatives à l’évolution des cinq véhicules.
................................................................................................................................................ 148
Tableau 5-8: Mesure de vitesses aux différentes distances D. ............................................... 148
Tableau 5-9: Résultats de détection de localisation panneaux de signalisation. .................... 164
Tableau 5-10: Résultats de détection de classification panneaux de signalisation. ............... 165
Tableau 5-11: Résultats de détection de visage. .................................................................... 169
Tableau 5-12: Résultats de détection des yeux. ..................................................................... 171
Tableau 5-13: Résultats de suivi de visage et des yeux ......................................................... 173
Tableau 5-14: Résultats de décision de l’état des yeux. ......................................................... 177
XII
Liste d’abréviation
Liste d’abréviation
Abréviation Explication
ABS Anti-Blockier System (système de freinage anti-blocage)
ACC Adaptive Cruise Control
ADAS Advanced Driver Assistance System
AFIL Alerte de Franchissement Involontaire de Ligne
APR Association Prévention Routière
ASFA Association des Sociétés Françaises d'Autoroutes
System for effective Assessment of driver vigilance and Warning
AWAKE
According to traffic risK Estimation
BSD Blind Spot Detection
CA Condensation Algorithm
CCD Charge-Coupled Device
CSW Curve Speed Warning
EEG Electro – Encéphale - Graphie
FCW Forward Collision Warning
ELS Eye Lid Sensor
FD False Détection
FPS Frames Par Seconde
FRST Fast Radial Symmetry Transform
GESR Guidage Electronique Sur Routes
GPS Global Positioning System
HSI Hue Saturation Intensité
IPM Inverse Perspective Mapping
ITS Intelligent Transport System
ISA Intelligent Speed Adaptation
IVDC Integrated Vehicle Dynamics Control
IVHS Intelligent Vehicle Highway Systems
LCP Local Contour Patterns
LDW Lane Departure Warning
LIDAR LIght Detection And Ranging
LKA Lane Keeping Assistant
LOC Local Orientation Coding
MCII Ministère Japonais du Commerce International et de l’Industrie
NCC Normalized Cross Correlation
NFS National Sleep Foundation
NHTSA National Highway Traffic Safety Administration
Programme de REcherche et d’Innovation dans les Transport
PREDIT
Terrestres
RADAR RAdio Detection And Ranging
RLS Recursive Least Square
SAD Sum of Absolute Differences
SACV Les Systèmes Avancés de Control du Véhicule
XIII
Liste d’abréviation
XIV
Sommaire
Sommaire
اھــــــــــداء................................................................................................................................................... I
Remerciements....................................................................................................................................... II
Résumé ................................................................................................................................................. III
Listes des figures .................................................................................................................................. IV
Listes des tableaux .............................................................................................................................. XII
Liste d’abréviation ........................................................................................................................... XIII
Sommaire ............................................................................................................................................XV
Introduction générale ............................................................................................................................ 1
Chapitre 1............................................................................................................................................... 5
1. Introduction ..................................................................................................................................... 6
2. Principaux facteurs d’accidents [1] ................................................................................................. 6
3. Systèmes de transport intelligents [2].............................................................................................. 7
3.1. Historique ................................................................................................................................ 8
3.2. Domaines d’applications des systèmes de transport intelligents ............................................. 9
3.2.1. Les Systèmes Avancés de Gestion du Trafic (SAGT) .................................................... 9
3.2.2. Les Systèmes d’Information Avancés pour le Conducteur (SIAC)................................. 9
3.2.3. Les Systèmes Avancés de Control du Véhicule (SACV) .............................................. 10
3.2.4. Les Systèmes Avancés de Transport Public (SATP)..................................................... 11
4. Les systèmes d’assistance à la conduite ........................................................................................ 11
4.1. Taxonomie des systèmes d’assistance à la conduite ............................................................. 12
4.1.1. Systèmes informatifs ..................................................................................................... 12
4.1.2. Systèmes actifs .............................................................................................................. 12
4.1.3. Systèmes de contrôle automatique ................................................................................ 12
4.2. Les fonctionnalités des systèmes ADAS ............................................................................... 14
5. Conclusion ..................................................................................................................................... 14
Chapitre 2............................................................................................................................................. 15
1. Introduction ................................................................................................................................... 16
2. Module de classification des panneaux de signalisation .............................................................. 16
2.1. Les méthodes existantes ........................................................................................................ 16
2.1.1. Modélisation colorimétrique ......................................................................................... 16
2.1.2. Modélisation géométrique ............................................................................................. 17
2.1.3. Méthodes avec apprentissage ........................................................................................ 18
3. Module de détection de véhicules et mesure de distance et de vitesse .......................................... 18
3.1. Etat de l’art ............................................................................................................................ 19
XV
Sommaire
3.1.1. L’utilisation des capteurs actifs et passifs ..................................................................... 20
3.1.2. Les approches basées sur les caractéristiques................................................................ 20
3.1.2.1. La symétrie ............................................................................................................ 20
3.1.2.2. Texture................................................................................................................... 21
3.1.2.3. L’ombre ................................................................................................................. 21
3.1.2.4. Les coins ................................................................................................................ 21
3.1.2.5. La couleur .............................................................................................................. 21
3.1.2.6. L’éclairage des véhicules ...................................................................................... 21
3.1.2.7. Codage d’orientation locale ................................................................................... 22
3.1.3. Les approches basées sur le mouvement ....................................................................... 22
3.1.4. Les approches basées sur la stéréo vision ...................................................................... 22
3.1.4.1. La carte de disparité............................................................................................... 22
3.1.4.2. La cartographie inverse de perspective « IPM » ................................................... 22
4. La surveillance de la vigilance du conducteur automobile............................................................ 23
4.1. Mesures directes du niveau de vigilance ............................................................................... 23
4.1.1. Le capteur de mouvement des paupières ....................................................................... 24
4.1.2. Les mesures physiologiques utilisées pour la validation ............................................... 25
4.2. Etat de l’art sur les modules de détection de la somnolence basé sur la vision ..................... 25
5. Conclusion ..................................................................................................................................... 27
Chapitre 3............................................................................................................................................. 28
1. Introduction ................................................................................................................................... 29
2. La calibration de caméra .............................................................................................................. 29
2.1. Modélisation d’une caméra ................................................................................................... 29
2.1.1. La fonction de projection perspective linéaire .............................................................. 30
2.1.2. Distorsions géométriques .............................................................................................. 31
2.1.3. Paramètres extrinsèques ................................................................................................ 32
2.1.4. La matrice de projection ................................................................................................ 33
2.2. Calibrage d’une caméra ......................................................................................................... 33
2.2.1. La calibration hybride.................................................................................................... 34
3. Transformée de Hough .................................................................................................................. 36
3.1. Transformée de Hough Ligne (THL) .................................................................................... 36
3.1.1. Algorithme Transformé de Hough Ligne ...................................................................... 38
3.2. Transformée de Hough Cercle............................................................................................... 39
3.2.1. Algorithme Transformé de Hough Cercle ..................................................................... 40
3.3. Résultats obtenus ................................................................................................................... 41
XVI
Sommaire
4. La Symétrie ................................................................................................................................... 42
4.1. Algorithme de calcul de la symétrie ...................................................................................... 42
5. Filtre de Gabor............................................................................................................................... 44
6. L’image intégrale .......................................................................................................................... 47
7. Les espaces de couleur .................................................................................................................. 48
7.1. Espace RVB (RGB)............................................................................................................... 48
7.2. Espace YCbCr ....................................................................................................................... 48
7.3. Espace TSL (HSV) ................................................................................................................ 49
8. Détection de couleur d'objet d'intérêt ............................................................................................ 50
8.1. L’espace de couleur ............................................................................................................... 51
8.1.1. Espace RVB .................................................................................................................. 51
8.1.2. Espace TLS.................................................................................................................... 51
8.1.3. Espace YCbCr ............................................................................................................... 51
8.2. La méthode implémentée ...................................................................................................... 51
8.2.1. Création du classifieur ................................................................................................... 52
8.2.2. Algorithme de détection de couleur .............................................................................. 53
8.3. Optimisation de l’algorithme de détection de couleur........................................................... 54
8.3.1. Création de la matrice objet ........................................................................................... 54
9. Opérations morphologiques .......................................................................................................... 56
9.1. Dilatation ............................................................................................................................... 56
9.2. Erosion................................................................................................................................... 58
10. La labélisation des objets .......................................................................................................... 60
11. Algorithme de K-means ............................................................................................................ 61
11.1. Description ........................................................................................................................ 62
11.2. Algorithme......................................................................................................................... 62
12. Le Suivi ..................................................................................................................................... 63
12.1. Méthodes de suivi .............................................................................................................. 63
12.1.1. Méthodes de suivi fondées sur des modèles ............................................................. 64
12.1.2. Méthodes de suivi de régions ou blobs.................................................................... 64
12.1.3. Méthodes de suivi à partir de mesures de vitesse ........................................................ 64
12.1.4. Méthodes de suivi de caractéristiques ....................................................................... 64
12.2. Les méthodes de suivi implémentées ................................................................................ 64
13. Conclusion ................................................................................................................................. 66
Chapitre 4............................................................................................................................................. 67
1. Introduction ................................................................................................................................... 68
XVII
Sommaire
2. Module de détection de véhicules et mesure de distance et de vitesse .......................................... 68
2.1. Prétraitement ......................................................................................................................... 69
2.1.1. Les Contours de l’image................................................................................................ 69
2.2. Modélisation de la route ........................................................................................................ 69
2.2.1 Réduction l’espace de recherche ................................................................................... 70
2.2.1.1. Recherche des lignes candidates à délimiter la zone de recherche ........................ 71
2.2.1.2. Choix adéquat des deux meilleures bordures ........................................................ 71
2.3. La détection de véhicules ...................................................................................................... 73
2.3.1. Méthode de symétrie de véhicules ................................................................................ 73
2.3.2. Méthodes basées sur les modèles locaux de découpe.................................................... 77
2.3.3. L’énergie ....................................................................................................................... 79
2.3.4. Adaptation de la fenêtre de recherche ........................................................................... 80
2.4. La poursuite de véhicule........................................................................................................ 80
2.4.1. L’étape de mise en correspondance ............................................................................... 81
2.4.2. Fusion de donnée ........................................................................................................... 82
2.5. Mesure de distance ................................................................................................................ 83
2.5.1. Approche mono-vision .................................................................................................. 83
2.5.1.1. Méthode d’interpolation ........................................................................................ 83
2.5.1.2. Méthode du champ de vision ................................................................................. 87
2.6. Mesure de vitesse .................................................................................................................. 88
2.7. Le module d’alerte................................................................................................................. 89
3. Module de Classification des Panneaux Signalisation Routière ................................................... 90
3.1. Localisation des panneaux dans une scène vidéo .................................................................. 90
3.2. Détection ............................................................................................................................... 91
3.2.1. Approche colorimétrique ............................................................................................... 91
3.2.1.1. Segmentation de la couleur rouge ........................................................................ 91
3.2.1.2. Segmentation de la couleur bleu............................................................................ 92
3.2.1.3. Segmentation de la couleur jaune ......................................................................... 92
3.2.1.4. Segmentation de la couleur blanche ...................................................................... 92
3.2.2. Approche géométrique .................................................................................................. 93
3.3. Extraction des régions d’intérêt ............................................................................................. 93
3.3.1. Prétraitement (érosion & dilatation) ............................................................................. 94
3.3.2. Extraction ...................................................................................................................... 94
3.3.2.1. Etiquetage .............................................................................................................. 94
3.3.2.2. Projection............................................................................................................... 95
XVIII
Sommaire
3.3.2.3. Vérification ............................................................................................................ 95
3.4. Classification de forme .......................................................................................................... 96
4. Module de Détection de Fatigue et de Somnolence ...................................................................... 98
4.1. Détection de visage ............................................................................................................... 98
4.1.1. Les méthodes de détection de visage............................................................................. 99
4.1.1.1. Méthodes basées sur des connaissances ................................................................ 99
4.1.1.2. Méthodes basées sur l’image ................................................................................. 99
4.1.1.3. Méthodes basées sur les caractéristiques invariantes ............................................ 99
4.1.1.4. Méthodes basées sur la mise en correspondance ................................................... 99
4.1.2. Les méthodes implémentées ........................................................................................ 100
4.1.3. Détection de visage par la couleur de peau ................................................................. 101
4.1.3.1. Détection de couleur de peau .............................................................................. 101
4.1.3.2. Localisation de visage ......................................................................................... 101
4.1.3.3. Vérification .......................................................................................................... 104
4.1.4. Détection de visage par symétrie ................................................................................. 107
4.1.4.1. Méthode de symétrie utilisant un rectangle de taille du visage ........................... 107
4.1.4.2. Méthode de détection utilisant le signal de symétrie ........................................... 110
4.1.4.3. Méthode de symétrie sur la différence entre les images ...................................... 112
4.1.4.4. La vérification du visage ..................................................................................... 116
4.1.5. Méthode d’énergie du mouvement de visage .............................................................. 116
4.1.6. Détection de visage par LCP ....................................................................................... 117
4.1.6.1. Optimisation de la LCP ....................................................................................... 119
4.1.6.2. Vérification .......................................................................................................... 119
4.1.6.3. D’autres propositions pour améliorer la méthode de détection de visage par LCP
119
4.1.7. Détection de visage par la méthode de VJ (Viola Jones) ............................................ 121
4.2. Détection des yeux .............................................................................................................. 121
4.2.1. Détection des yeux par symétrie.................................................................................. 122
4.2.2. Détection des yeux par un masque circulaire .............................................................. 123
4.2.3. Détection des yeux par un masque lunette .................................................................. 123
4.2.3.1. Détection des yeux par une image seuillée .......................................................... 126
4.2.3.2. Détection des yeux par le filtre de Gabor ............................................................ 127
4.2.4. Améliorer la détection des yeux .................................................................................. 127
4.2.4.1. Masque elliptique de visage ................................................................................ 127
4.2.4.2. Masque de couleur de peau ................................................................................. 128
XIX
Sommaire
4.2.5. Orientation du visage................................................................................................... 129
4.2.6. Localisation de la bouche ............................................................................................ 130
4.2.7. Détection de bâillement ............................................................................................... 130
4.3. Etats des yeux ...................................................................................................................... 131
4.3.1. Etat des yeux par la transformée de Hough cercles ..................................................... 131
4.3.2. Etat des yeux par la Somme des points contours......................................................... 133
4.3.2.1. Extension de la méthode ...................................................................................... 134
4.3.3. Etat des yeux par un masque circulaire ....................................................................... 135
4.3.4. Etat des yeux par la fusion entre la méthode de masque circulaire et la THC ............ 136
4.3.5. Etat des yeux par K-means .......................................................................................... 137
5. Conclusion ................................................................................................................................... 138
Chapitre 5........................................................................................................................................... 139
1. Introduction ................................................................................................................................. 140
2. Le système réalisé ....................................................................................................................... 140
2.1. Matériel utilisé ................................................................................................................. 140
2.1.1. Les Caméras ................................................................................................................ 140
2.1.1.1. Caméra 1.............................................................................................................. 140
2.1.1.2. Caméra 2.............................................................................................................. 141
2.1.2. Carte d’acquisition ...................................................................................................... 141
2.1.3. Ordinateur portable...................................................................................................... 141
2.1.4. Support de fixation de la caméra ................................................................................. 142
2.1.5. Alimentation ................................................................................................................ 142
2.2. Logiciels utilisés .............................................................................................................. 142
3. L’appareillage de notre système embarqué au bord du véhicule................................................. 143
4. Collection de la base de données ................................................................................................. 143
5. Résultats expérimentaux.............................................................................................................. 144
5.1. Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV). ........ 145
5.1.1. Modélisation de la route .............................................................................................. 145
5.1.2. Les méthodes de détection de véhicule ....................................................................... 145
5.1.3. Les méthodes de suivi ................................................................................................. 146
5.1.4. Mesure de distance et de vitesse .................................................................................. 147
5.1.4.1. Les méthodes de la mono-vision ......................................................................... 149
5.1.5. Algorithme global........................................................................................................ 162
5.1.5.1. Description de l’algorithme ................................................................................. 163
5.2. Module de Classification des Panneaux de Signalisation Routière (MCPSR). .................. 164
XX
Sommaire
5.2.1. Détection et localisation .............................................................................................. 164
5.2.2. Classification des panneaux de signalisation............................................................... 164
5.2.3. Algorithme global........................................................................................................ 165
5.2.3.1. Description de l’algorithme ................................................................................. 167
5.3. Module de Détection de Fatigue et de Somnolence (MDFS). ............................................. 168
5.3.1. Les méthodes de détection de visage........................................................................... 168
5.3.2. Les méthodes de détection des yeux ........................................................................... 170
5.3.3. Les méthodes de suivi de visage et des yeux............................................................... 172
5.3.3.1. Le test de suivi ..................................................................................................... 174
5.3.4. Les méthodes de décision de l’état des yeux ............................................................... 176
5.3.5. Algorithme global........................................................................................................ 178
5.3.5.1. Description de l’algorithme ................................................................................. 179
Conclusion générale & Perspective .................................................................................................. 181
Bibliographie...................................................................................................................................... 185
XXI
Introduction générale
Introduction générale
L’automobile est l’un des phénomènes majeurs du vingtième siècle. Avec le mode de transport,
les hommes et les femmes ont obtenu le droit à la mobilité, qu’elle soit professionnelle ou
privée. Néanmoins, le véhicule reste l’une des principales causes de mortalité de notre vie
moderne, malgré les efforts consentis par les politiques en matière de prévention, d’information
et de répression ou ceux des constructeurs automobiles en matière de sécurité passive (air bag,
ceinture de sécurité, . . ) et de sécurité active (ABS, ESP, . .). Cet état de fait réside dans
l’intervention de l’homme sur des processus complexes qui régissent la conduite (maintien du
véhicule sur la route, respect de règles pas toujours évidentes,. .) et qui ne sont pas toujours
adaptés à ses propres limites physiologiques (acuité visuelle, évaluation de distances, perte
d’attention, énervement,. . .), mais que les avancées technologiques de ces dernières années
tentent de rendre plus facile.
L’objectif de notre travail est de concevoir un système d’alerte au conducteur afin de l’aider à
éviter les accidents causées par la collision, le manque de respect du code de la route, et de
somnolence, la fatigue ou perte d’attention du conducteur .
La problématique
- Tout d’abord, comment mesurer la vitesse des véhicules dans le monde routier ? Comment
trouver la distance de sécurité d’un véhicule par rapport à son prédécesseur.
Actuellement, les constructeurs utilisent plusieurs technologies basées sur des capteurs actifs
comme le Radar, le Lidar et le Sonar. Ils permettent de remplir la fonction de perception de
l’environnement, et souhaitent étudier l’utilisation d’une caméra en remplacement du RADAR,
LIDAR et SONAR car elle semble d’avoir des performances similaires pour un coût attractif,
et peut remplacer plusieurs capteurs.
Les études de l’accidentologie ont montré qu’en Algérie, les accidents causés par des collisions
comptent approximativement pour 30% de « l’accidentologie globale ». L’erreur humaine en
est la première cause : inattention du conducteur, fatigue, inexpérience, manque de respect du
code de la route et autres incapacités. La collision représente le risque pris par le conducteur
comparé à son positionnement longitudinal.
1
Introduction générale
- C’est dans ce contexte que, le deuxième objectif de cette thèse est d’élaborer un module basé
vision délivrant les informations clefs à savoir les panneaux de signalisation routière, la dernière
information est une tâche importante pour un système de soutien du conducteur. En effet ces
panneaux fournissent une information utile qui apparaît clairement dans l'environnement.
Cependant, les conducteurs manquent parfois certains panneaux importants par distractions ou
par manque de concentration. Alors, il peut alors être utile de les mettre au courant de
l'information qu'ils ont manquée.
- Fondées sur les deux objectifs précédents, le troisième objectif de cette thèse est d’employer
des nouvelles technologies pour concevoir et établir les sous modules qui sont capables de
surveiller les conducteurs et pour mesurer leur niveau d'attention pendant le processus complet
de la conduite. Heureusement, les conducteurs qui sont dans un état de somnolence produisent
plusieurs gestes visuelles qui peuvent être détectées à travers le visage humain, comme :
En tirant profit de ces caractéristiques visuelles, la vision par ordinateur est la technologie la
plus faisable et la plus appropriée disponible pour traiter ce problème. Ce module traite la
détection automatique de fatigue et de la somnolence du conducteur basée sur l'information
visuelle.
Cette thèse est une partie de développement d’un projet de recherche qui se réalise au sein de
laboratoire Signaux et Images (LSI). Ce projet consiste de plusieurs axes qui s’insèrent dans
des applications de type systèmes de transports intelligents.
Notre travail se focalise sur le développement des trois modules basés sur la vision embarqués
sur un véhicule :
Ces trois modules autonomes peuvent être considérés comme des systèmes d’aide à la conduite
intégrant quatre fonctions principales qui précèdent l’accident : la perception, l’analyse
d’environnement, la décision et l’action. Ils interagissent non seulement avec l’environnement
et le véhicule mais aussi avec le conducteur à travers des interfaces.
2
Introduction générale
Organisation du mémoire
Chapitre 1 :
Ce chapitre présente une introduction aux systèmes de transport intelligents et les systèmes
avancés d’aide à la conduite « ADAS » et leur taxonomie. Nous donnerons dans ce chapitre,
une étude détaillée sur les systèmes de sécurité routière. Nous aborderons également le risque
routier et les différents indicateurs de risques en modes longitudinal et latéral.
Chapitre 2 :
Nous présenterons l’état de l’art sur chaque étape dans les trois modules : détection des
véhicules, le suivi de véhicules, mesure de distance et de vitesse, détection des panneaux de
signalisation, classification des panneaux de signalisation, et détection de la fatigue et la
somnolence basés sur la vision.
Chapitre 3 :
Le troisième chapitre est consacré à la description des différents outils qu’ont été utilisés dans
notre système et nous aident à développer notre algorithme global comme la calibration de
caméra, la transformé de Hough, les techniques de calcul de la symétrie dans l’image, le filtre
de Gabor, l’image intégrale, les espaces de couleur, détection de couleur, les opérations
morphologiques (l’érosion et la dilatation), labellisation, l’algorithme de K-means et quelques
techniques de suivi dans l’image.
Chapitre 4 :
Le quatrième chapitre étant essentiellement à présenter les méthodes du chaque étape dans nos
modules, premièrement les capteurs utilisés en vision ne permettent pas une mesure directe de
la vitesse. Il faut donc mettre en œuvre des méthodes spécifiques. La solution la plus intuitive
consiste à mettre en correspondance au cours du temps les détections successives fournies par
le processus de détection des véhicules. Dans ce module, nous commencerons par une
description du processus de modélisation de route puis la détection et le suivi de véhicules, pour
ensuite mesurer la distance et la vitesse, et pour le deuxième module nous avons présenté les
méthodes de détection et classifications de panneaux de signalisation ,et dans le troisième
module , nous abordant les méthodes de détection de visage, détection des yeux, et la décision
de l’état ces derniers, qui ont été implémentées avec nos contributions pour l’amélioration et
l’optimisation des résultats.
Chapitre 5 :
Dans le dernier chapitre, nous allons présenter notre système proposé en citons les matériels et
les logiciels utilisés. Ensuite, nous discuterons sur les résultats obtenus pour chaque étape
composant nos modules et l’environnement choisi pour effectuer les tests de notre base de
données.
3
Introduction générale
Après, nous allons passer à la description de nos algorithmes globaux des trois modules qui
collecte les différents blocs cités dans le chapitre précédent. Enfin, on terminera par une
discussion sur les résultats obtenus.
En conclusion, on résumera le travail qui a été réalisé dans le cadre de cette thèse, apportera
nos remarques quant aux trois modules et définira des perspectives pour la suite de nos
recherches dans ce domaine.
4
Chapitre 1
5
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
1. Introduction
Au tournant du XXIe siècle, l’industrie automobile est en pleine transformation, alors que les
systèmes qui existent dans les véhicules ne sont plus suffisants. Les véhicules d’aujourd’hui
comportent des dispositifs complexes, dont les fonctions les plus importantes sont contrôlées
par l’ordinateur. Plusieurs facteurs ont contribué à cette évolution de l’industrie automobile
telles que : les menaces de sécurité potentielles, l’augmentation des coûts d’essence et de la
pollution des véhicules.
Pour ces raisons, les systèmes de transport intelligents désignent les applications des nouvelles
technologies de l'information et de la communication au domaine des transports telles que : la
communication sans fil, la détection d’obstacles, la localisation GPS. Ils visent à améliorer la
sécurité routière et l’efficacité du trafic en réduisant le nombre d’accidents sur les routes.
Les facteurs humains en particulier apparaissent dans plus de 90 % des accidents corporels.
Certains facteurs sont relevés systématiquement par les forces de l’ordre après qu’un accident
a eu lieu : alcoolémie, choc contre un obstacle fixe, conditions météorologiques etc.
D’autres facteurs (et non des moindres) ne sont pas systématiquement recherchés, car c’est
difficile à déterminer d’une façon précise : la vitesse, la fatigue, la somnolence, la distraction,
l’usage du téléphone, et le non-respect des distances de sécurité.
Tableau 1-1: Liste non exhaustive de facteurs relevés dans les accidents [1].
Conduite sous l’influence L’alcoolémie positive d’un conducteur est présentée dans les
de l’alcool accidents causant 30,8 % des tués sur la route.
Vitesse excessive Ce facteur n’est pas comptabilisé dans les statistiques d’accidents.
D’autre part les vitesses réelles des véhicules sont mal connues des
pouvoirs publics car avec les avertisseurs communautaires les
véhicules ralentissent au droit des points de mesure.
Distance de sécurité L’intervalle de sécurité entre deux véhicules doit être au minimum
de deux secondes, or dans la circulation moins de 50 % des véhicules
respectent cette règle. Les collisions par l’arrière et en chaîne
occasionnent 6,6 % des tués de la route et 16,3% des blessés.
6
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
Téléphone au volant Ce facteur n’est pas comptabilisé dans les statistiques d’accidents. Le
taux d’infraction (usage d’un téléphone tenu en main) est de 2 % pour
les automobilistes, et encore plus fréquent dans les véhicules
utilitaires. Téléphoner au volant, multiplie par 4 le risque d’avoir un
accident corporel.
Présence d’un obstacle Facteur présent pour les accidents occasionnant 36,5 % des tués.
fixe (arbre, véhicule en
stationnement, glissières, Protéger les usagers des arbres et poteaux situés à proximité
mur, poteau, panneau de immédiate de la chaussée permettrait d’épargner de nombreuses
signalisation, bordure de victimes.
trottoir, fossé etc.)
Fatigue et somnolence au La cause "malaise fatigue" apparaît dans 8 % des accidents mortels
volant sur l’ensemble du réseau, et atteint même 21 % sur les autoroutes.
Ce risque apparait de jour comme de nuit.
Conduite sous influence Les tests relatifs aux stupéfiants appliqués aux victimes des accidents
du cannabis sont trop rares pour aboutir à des données statistiques fiables.
Conduire après avoir consommé du cannabis multiplie par 2 le risque
d’être responsable d’un accident mortel. Le risque est multiplié par
14 en cas de consommation conjointe de cannabis et d’alcool.
Conduite sans permis Facteur présent pour les accidents occasionnant 4 % des tués.
/avec un permis inadapté
/ sans assurance
Bien sûr, d'autres facteurs, qu'ils soient liés au comportement, à l'état du véhicule ou à celui des
infrastructures, entrent également en jeu.
Les systèmes de transport intelligents (STI) consistent en une large gamme de technologies
appliquées aux transports pour rendre les systèmes plus sécuritaires, plus efficaces, plus fiables
7
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
3.1. Historique
Les STI est un phénomène global, qui intéresse à l’échelle mondiale les professionnels du
transport, de l'industrie automobile, et des décideurs politiques. Les Japonais semblent avoir
lancé, la notion moderne du STI avec leurs travaux menés à bien depuis les années 80.
On doit aussi dire que les Etats-Unis avaient également vu l’utilité d’appliquer le STI à une
certaine date dans le cadre du projet intitulé ‘ Guidage Electronique Sur Routes ‘ (GESR) dans
les années 70. À ce moment-là, les Japonais n'avaient pas encore inventé un nom spécifique
pour le STI étant donné qu’il était considéré comme une partie du contrôle du trafic. L'Union
Européenne a pris le thème, l'a en partie, basé sur une réaction aux Japonais et, stimulé par le
brillant travail réalisé par ‘Siemens' dans le cadre du Projet de Guidage sur Routes à Berlin. Les
Européens faisaient référence au sujet en tant qu'informatique du transport routier. Les Etats-
Unis ont alors pris le thème vers la fin des années 80, se rapportant au sujet en tant que Systèmes
Intelligents de Véhicules sur Autoroute (SIVA), un terme que nous croyons avoir été trouvé par
le professeur Kan Chen de l'Université du Michigan.
Kan Chen [2] a dit que l’acronyme portait sur les deux aspects, ceux liés aux véhicules
intelligents et de l’autoroute et comporte les lettres VHS. Ce nom démontre également un peu
de supériorité par rapport au Système Japonais de Véhicule Intelligents (SJIV) mis en place au
cours des années 80 sous l'égide du Ministère Japonais du Commerce International et de
l’Industrie (MCII).
Pour ne pas être dépassés, les Européens sont revenus avec un nouveau terme durant leur
seconde manche. Cette fois ci, l'expression était la Télématique Avancée du Transport (TAT),
renforçant leur point de vue que l'application de la technologie de l'information et des
communications au transport faisait partie d'une application plus large à d'autres domaines tels
que la santé et l'éducation, connue sous le nom de télématique.
Les Etats-Unis ont alors proposé encore un autre terme, STI, reconnaissant sa plus large
application aux systèmes de transport aussi bien pour les voitures privées que les autoroutes.
8
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
Figure 1-1: Gestion du trafic routier par un système de transport intelligent [148].
9
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
À court terme, les dispositifs d'alerte de collision alerteraient le conducteur d’une collision
imminente possible. Dans les systèmes les plus avancés, le véhicule automatiquement freinerait
ou éviterait une collision.
Les deux systèmes sont autonomes au véhicule et peuvent apporter un plus en améliorant
la sécurité et en réduisant les accidents dus aux embouteillages.
À long terme, les concepts des SACV seront basés essentiellement sur l'information
d'infrastructure et de commande qui pourrait produire des améliorations de sortie de routes cinq
à dix fois mieux. Ce concept s'appelle le système d’autoroute automatisée (SAA). Les
mouvements de tous les véhicules sur les routes seraient automatiquement contrôlés. Les
SACV, en particulier le système d‘autoroute automatisé (SAA), est envisagé comme
programme à plus long terme.
10
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
11
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
Les systèmes d’assistance à la conduite disposent trois niveaux d’application, allant du système
le plus simple (uniquement informatif) au système plus complexe de prise en charge complète
du véhicule. Le tableau 1-2 récapitule la taxonomie des systèmes d'assistance à la conduite.
SYSTEMES DE
SYSTEMES INFORMATIFS SYSTEMES ACTIFS CONTROLE
AUTOMATIQUE
12
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
Capteurs d’imagerie Les caméras gamme 3D, le visage du pilote, capteur de la route d’état
de surface, détecteurs lasers, détecteurs infrarouges (Caméra
infrarouge).
Capteurs de distance Capteurs infrarouges, radar, capteur de collision par l’avant, capteur
de collision par l’arrière.
13
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS
ITS
ADAS
Perception
Analyse
Décision
Action
Capteurs Intelligents
5. Conclusion
Nous avons présenté dans ce chapitre une introduction aux systèmes de transport intelligents et
les systèmes avancés d’aide à la conduite « ADAS » et leur taxonomie. D’où, une étude détaillée
sur les systèmes de sécurité routière. Nous avons abordé également le risque routier et les
différents indicateurs de risques en modes longitudinal et latéral.
14
Chapitre 2
15
Chapitre 2
État de l’art des systèmes ADAS
1. Introduction
L’objectif principal de ce chapitre est d’établir une vue d’ensemble du processus de chaque
module. L’état de l’art fournira une bonne base de discussion tout au long de ce chapitre.
Dans ce chapitre nous allons présenter l’état de l’art sur le module de classification des
panneaux de signalisation, aussi que l’état de l’art sur le module de détection de véhicules et
mesure de distance et de vitesse. Enfin on termine ce chapitre avec l’état de l’art sur la
surveillance de la vigilance du conducteur automobile.
Puisque ces signes sont habituellement peints par des couleurs distinctes, ils peuvent être
facilement détectés en utilisant l'information de couleur. Toutefois cette information est
sensible au changement climatique ou à l’éclairage et, en conséquence, il est difficile d‘extraire
les panneaux de signalisation d’une manière sûre en se basant seulement sur l’information de
la couleur.
En outre, dans des scènes urbaines encombrées, d'autres panneaux publicitaire ou bâtiments
avec une couleur semblable aux panneaux de signalisation peuvent la rendre la détection encore
plus difficile. Pour faire face à de tels problèmes, nous employons en plus de l'information de
la couleur, l’information de la forme.
Cette partie expose une vision non exhaustive des systèmes de reconnaissance des panneaux de
signalisation, tout d’abord nous présentons les différentes approches de détection et de
reconnaissance des panneaux de signalisation.
La majorité des travaux qui existent dans la littérature, adoptent une approche séquentielle à
deux étages, visant la localisation des régions d'intérêt et la vérification de ces hypothèses sur
la présence du panneau (détection), et plus tard déterminant le type du panneau détecté
(classification) [3] [4] [5] [6] [7] [8] [9] [10], et cela peut être élaborée de plusieurs manières.
Nous avons classé ces approches en trois catégories :
- Modélisation colorimétrique.
- Modélisation géométrique.
- Méthodes avec apprentissage.
16
Chapitre 2
État de l’art des systèmes ADAS
d’apparence. Ces méthodes sont les plus rapides mais aussi les moins robustes aux variations
des conditions d’éclairage. Parmi les études dans lesquelles l'information de couleur a été
employée pour détecter les panneaux de signalisation. L’espace YUV est considéré dans [11]
pour détecter le bleu des panneaux de signalisation rectangulaires .L’espace HSV (Teinte -
Saturation-Valeur) était le plus populaire comme étant basé sur la perception humaine. En plus,
il est en grande partie insensible aux changements de luminosité, vu que sa composition est
parfaitement décorrélée. Dans [4], ils ont déterminé les régions d'intérêt par groupe donc les
pixels ayant des valeurs dans un domaine prédéfini par un seuil. Le modèle de HSV a été
également employé dans [5] pour classifier les images d'essai des panneaux dans plusieurs
catégories distinctives et dans [12] pour extraire les régions d’intérêt. D'autres modèles d'aspect
de couleur étaient utilisé mais moins populaires. Par exemple, Dans [13] [3] [5] un seuillage
d’un rapport d’intensité est utilisé avec la moyenne des intensités de RGB pour détecter les
couleurs vives dans l’image. Dans [14] les images en RGB prises par l'appareil-photo sont
d'abord passées par une étape de prétraitement qui nous aide à maintenir la constance de couleur
en différents états d'illumination avant de la transformée à l'espace chromatique de HSV et
dans [15] une segmentation de couleur par seuillage sur l’espace chromatique HSV. Dans [16]
, ils ont utilisé une segmentation par seuil sur l’espace chromatique RGB après avoir fixé des
seuils de changement de luminosité. Dans [17] le modèle CIELab optimisé a étais considérée
pour extraire les candidats de la scène. Dans [6] ou le modèle CIECAM97 été appliqué avec
l’optimisation de courbes.
17
Chapitre 2
État de l’art des systèmes ADAS
déformation ou les occlusions de projection ne sont pas traitées. Dans [3] un algorithme qui
analyse le nombre et l'endroit des coins des objets. Ceci permet l'identification des triangles et
des rectangles présents dans l’image. Ses coins sont classés par l'angle qu'ils forment.
L'algorithme recherche les coins avec les angles qui sont présent dans les triangles et les
rectangles (~60° et ~90°).Dans [22], ils ont utilisé la transformée de Hough pour vérifier
l’hypothèse sur la présence des panneaux. Dans [23], ils ont exploité la phase du gradient de
Sobel pour détecter les panneaux.
18
Chapitre 2
État de l’art des systèmes ADAS
Le système d’alerte « FCW : Forward Collision Warning» peut générer des alertes inutiles, qui
peuvent même être nuisibles, lorsque la situation ne présente pas de réel danger pour les
conducteurs [33].
C’est par exemple le cas lorsque le véhicule de devant ralentit pour tourner, ou lorsque le
conducteur se prépare à dépasser un véhicule plus lent [34].
A l’inverse, certaines alertes sont volontairement ignorées par le système afin de diminuer le
nombre de fausses alertes. Par exemple, le FCW testé par [35]ignorait la détection d’objets
immobiles, qui correspondent la plupart du temps à des objets sur le bord de la route, et était
également désactivé en-dessous de 50km/h, afin d’éliminer de nombreuses situations non
dangereuses.
Le système n’émettait pas d’alerte pour les véhicules roulant dans une direction différente de
celle du véhicule équipé, pour ne pas tenir compte des véhicules venant en sens inverse.
Cependant, il est possible que la suppression d’alertes augmente le temps de réaction des
conducteurs et diminue l’efficacité perçue du système [36].
Lorsqu’ils utilisent un système tel que le FCW, les conducteurs doivent ajuster leur réponse à
la situation, plutôt que de réagir automatiquement. Par conséquent, ils peuvent éprouver des
difficultés à faire confiance au système, c’est-à-dire à déterminer si le système va les aider à
identifier les évènements inattendus, dans des situations caractérisées par l’incertitude et la
fragilité [37]. Ces problèmes de confiance peuvent mener à des interactions conducteur/système
moins efficaces.
Des études sur route à grande échelle « Field Operational Tests », où la précision des
instructions est primordiale, ont suggéré que la description détaillée des fonctionnalités du
système ainsi que l’entraînement en situation normale ne sont pas suffisants pour que les
conducteurs fassent confiance au système (voir par exemple [35] [38] [39] [40] [34] [41]). Selon
[35], les conducteurs explorent le fonctionnement du FCW en conditions extrêmes afin de
mieux comprendre ses possibilités et ses limites.
De même, d’après [40], la mise en situation avec un régulateur de vitesse améliore l’exploration
et la confiance dans le système d’avertissement. Les auteurs ont remarqué que les conducteurs
avaient une meilleure compréhension du fonctionnement du système après avoir regardé une
vidéo présentant des situations critiques, plutôt qu’après simple lecture des instructions.
Cette étude a pour but d’évaluer l’influence de la familiarisation avec quelques cas d’usage du
FCW sur le comportement des conducteurs et leur confiance dans le système.
19
Chapitre 2
État de l’art des systèmes ADAS
De plus, il était attendu que la performance et la confiance des conducteurs augmente dans le
cas où cette connaissance serait acquise par la pratique, plutôt que par la lecture d’instructions.
3.1.2.1. La symétrie
Une des principales caractéristiques des objets conçus par l’homme, c’est la symétrie, qui a fait
l’objet de travaux de recherche pour la détection et la reconnaissance dans le domaine de vision
[46]. Les images de véhicules sont généralement symétriques par rapport aux directions
horizontale et verticale. Cette observation fut exploitée comme point de départ pour la détection
de véhicule dans les travaux de recherches [46] et [47].
20
Chapitre 2
État de l’art des systèmes ADAS
Un problème surgit avec la symétrie, c’est la présence de zones homogènes, dans ces régions
homogènes, la symétrie est sensible au bruit. Dans [47], l’information de la détection de contour
est incluse dans le processus pour filtrer les zones homogènes.
3.1.2.2. Texture
La présence des véhicules dans une image provoque des changements locaux d’intensité. Du
fait des similitudes générales des véhicules, le changement d’intensité suit un modèle de texture
défini introduit dans [48]. Cette information sur la texture peut être employée pour restreindre
la région de recherche pour la détection des véhicules.
La mesure de texture utilisée par Kalinke [48] pour trouver les zones candidates est l’entropie.
L’entropie est utilisée comme une mesure de la quantité d’attention qu’il faut donner à une
région de l’image. Plus le contenu dans une partie de l’image est incertain, plus l’information
contenue est riche, et elle requière donc une analyse détaillée.
3.1.2.3. L’ombre
La méthode de détection des véhicules à partir des ombres portées considère la route comme
une zone de couleur homogène. Une voiture qui se situe dans la route projette une ombre sur
celle-ci, ce qui dans une image assombrit les pixels correspondants [49].
L’utilisation de l’information de l’ombre pour la détection des véhicules est abordée dans [50].
En examinant la densité de l’image, les zones se trouvant en dessous d’un véhicule sont plus
sombres que les zones de l’asphalte. Une première tentative de cette approche fut employée
dans [51], bien qu’il n’y ait pas une façon systématique pour le choix du seuillage. L’intensité
des zones d’ombre dépend essentiellement de la luminosité de l’image du aux conditions
météorologiques. Cependant, le seuil ne peut en aucun cas être fixe.
3.1.2.5. La couleur
La couleur est très peu utilisée dans les systèmes de vision embarquée, du fait de la trop grande
diversité de couleur des véhicules automobiles. Elle peut être cependant utile dans certaines
occasions, notamment la nuit, dans des conditions de visibilité réduite ou lors de manœuvres
particulières (freinage,...), pour détecter les feux arrières ou avant des véhicules [53] et [54] .
D’autres travaux [55] utilisent aussi la couleur pour détecter des amers sur les véhicules.
22
Chapitre 2
État de l’art des systèmes ADAS
gauche sont projetés au système de coordonnées réelles ensuite ils sont projetés une deuxième
fois sur la caméra de gauche et comparés avec l’image originale.
Bertozzi et Broggi [63] opèrent une IPM aux deux images de droite et de gauche, récupèrent
la différence des deux images résultantes. Parce que la route est plane, tout élément s’élevant
au-dessus de la route est détecté en recherchant un large groupe de pixels non nuls.
4. La surveillance de la vigilance du conducteur automobile
La surveillance de la vigilance du conducteur au volant visant à la détection de la dégradation
de celle-ci, afin d’avertir le conducteur ou de prendre des mesures d’extrême urgence (ex. arrêt
total du véhicule) sont des fonctions très attendues pour les véhicules de futur. En effet, il s’agit
d’un enjeu très important en matière de sécurité primaire, domaine de la sécurité routière qui
vise à éviter l’accident.
Il existe plusieurs facteurs, internes et externes, qui font diminuer le niveau de vigilance dans
l’exercice de la conduite automobile. Parmi les facteurs internes : la fatigue, l’inattention, le
sommeil, la prise de médicaments, l’alcool et les drogues, et les facteurs externes sont : la
monotonie favorisée par une densité de trafic réduite, une chaussée rectiligne et, en général, le
manque de stimuli extérieurs pour maintenir éveillé le conducteur.
1. Variations posturales,
2. Echanges verbaux, recherche de dialogue, échanges d’informations non liés à la tâche,
3. Activités ludiques impliquant la manipulation d’objets,
4. Gestes autocentrés d’une ou deux mains vers le corps,
5. Autres activités non verbales détectables dans l’expression du visage.
Ces activités augmentent progressivement avec la durée de la tâche, et aussi avec la monotonie,
car elles sont des mécanismes de défense du sujet qui lutte pour rester éveillé (nous voyons ces
activités comme des tâches secondaires que le conducteur exécute pour maintenir son niveau
de performance et de vigilance). Cependant, elles ne sont pas toujours efficaces et, au-delà d’un
certain seuil de fatigue, plus la performance se dégrade plus ces activités comportementales
croissent.
23
Chapitre 2
État de l’art des systèmes ADAS
Capteur de pression sur le volant : Il s’agit d’un ruban adhésif intégrant un capteur de pression
installé du côté droit et du côté gauche du volant. L’hypothèse est que la variation de la pression
en fonction du temps peut être liée à l’état de vigilance.
Capteur de posture sur le siège : De nombreux véhicules sont maintenant équipés en série de
capteurs « nappe » intégrés dans le siège, permettant d’estimer le poids du passager ainsi que
la distribution de ce poids sur le siège. En fait, ces nappes comportent de nombreux petits
capteurs répartis sur toute leur surface qui permettent une mesure distribuée.
Il existe trois mesures principales dérivées des clignements longs de l’œil [64]:
- PERCLOS est la somme de la durée des clignements longs, par période d’une ou trois
minutes.
- EYEMEAN est la durée moyenne des clignements longs, par période d’une ou trois
minutes.
- EYEMEAS est la moyenne du carré des durées des clignements, par période d’une ou
trois minutes.
24
Chapitre 2
État de l’art des systèmes ADAS
Ces mesures ont montré une bonne corrélation avec les performances de conduite et l’activité
électro-encéphalographie (EEG) sur des périodes de six minutes. PERCLOS est actuellement
considéré comme une mesure de référence de la somnolence. Par contre, la non-détection d’un
clignement influence fortement sur la mesure.
(a) (b)
Figure 2-2: Vue générale du ELS. (a) Caméra et sources d’éclairage, (b) Visualisation des traitements. [64]
4.2. Etat de l’art sur les modules de détection de la somnolence basé sur la
vision
Beaucoup d'efforts ont été rapportés dans la littérature sur le développement des systèmes de
surveillance de la somnolence/fatigue non-intrusifs basés sur la vision. Flores et al. [70] ont
présenté deux systèmes qui détectent la somnolence d’un conducteur. Le premier système
fonctionne avec des conditions de lumière du jour et le deuxième avec des conditions nocturne.
Pour le système de jour, ils utilisent la méthode de Viola et Jones [71] pour la détection de
visage. Ils localisent les yeux en utilisant les propriétés anthropométriques avec l’incorporation
les informations des pixels en niveau de gris. Le processus de suivi a été développé en utilisant
L’algorithme de Condensation (CA) [72] [73] en conjonction avec les réseaux de neurones pour
le suivi de visage et avec la mise en correspondance (Template matching) pour le suivi des
yeux. SVM (Support Vector Machine) est utilisée pour la classification de l’état des yeux
(ouvert ou fermé). Et pour le système de nuit, ils utilisent une caméra avec un système de
luminosité proche de l’infrarouge. Ils commencent directement par la détection des yeux en
basant sur l’effet de pupille brillante. Et pour la classification de l’état des yeux, les contours et
FRST (Fast Radial Symmetry Transform) image [74] sont utilisés.
D’Orazio et al. [75] proposent un algorithme de détection des yeux qui les recherche dans
l’image complète, cette recherche est basé sur la transformé de Hough cercles pour localiser les
yeux candidats, ensuite, ils ont passé vers le réseau de neurones pour faire la classification entre
25
Chapitre 2
État de l’art des systèmes ADAS
l’œil et non-œil. Les principales limitations de cet algorithme sont les suivantes : il est
applicable uniquement lorsque les yeux sont visibles dans l’image et il n’est pas robuste aux
changements d’éclairage.
Horng et al. [76] présentent un système qui utilise un modèle de couleur de peau dans l’espace
de couleur HSI pour la détection de visage. L’information des contours pour la localisation des
yeux, et la mise en correspondance dynamique pour le suivi des yeux. L’état des yeux est défini
en utilisant l’information de couleur de l’œil. Ainsi l’état du conducteur peut être calculé. Si les
yeux sont fermés pendant cinq frames consécutifs, le conducteur est supposé assoupi.
Brandt et al. [77] montrent un système qui surveille la fatigue du conducteur et le manque
d’attention. Pour cette tâche, la méthode de Viola et Jones [71] est utilisée pour la détection de
visage du conducteur. Ce système est capable de calculer l’état du conducteur en employant
l’algorithme de flux optique sur les yeux et la tête.
Tian et Qin [78] construisent un système qui vérifie l’état de l’œil du conducteur. Leur système
utilise les composantes Cb et Cr de l’espace de couleur YCbCr. Ce système localise le visage
avec une fonction de projection verticale, et les yeux avec une fonction de projection
horizontale. Une fois que les yeux sont localisés le système calcule l’état des yeux en utilisant
une fonction de complexité.
Branzan et al. [80] ont aussi présenté un système de surveillance qui s’utilise la mise en
correspondance pour analyser l’état de l’œil.
Hong et al. [81] définissent un système de détection de l'état de l'œil en temps réel pour identifier
l'état de somnolence du conducteur. La région de visage est détecté à base de la méthode de
Viola et Jones optimisé [71]. La région des yeux est obtenue par la projection horizontale.
Finalement, une nouvelle fonction de complexité avec un seuil dynamique pour identifier l'état
d'œil.
Su et al. [82] présentent un système de surveillance d’inattention du conducteur. Ils ont adopté
la méthode proposée dans [71] [83] à base de la méthode VJ pour la détection de visage. Les
yeux sont détectés par les algorithmes p-till et K-means. Ce système détecte les mouvements
de la paupière et donne aussi une mesure qualitative d'orientation faciale. En basant sur ces
mesures, un signal d'alarme sera publié pour alerter le conducteur quand la fatigue ou la
détection d'inattention atteint un niveau prédéfini.
26
Chapitre 2
État de l’art des systèmes ADAS
le visage et extraire les yeux à base de niveau de gris. Le système peut diagnostiquer
automatiquement la fatigue en surveillant les yeux pour microsleep 1 . Ceci est réalisé en
comptant le nombre des frames consécutifs dans lesquelles les yeux s'avèrent pour être fermés.
Malla et al. [85] développent un système insensible à la lumière. Ils ont utilisé l’algorithme de
Haar pour détecter les objets [71] et un classificateur de visage implémenté par [86] dans les
librairies d’OpenCV [87]. Les régions des yeux sont dérivées de la région de visage avec des
facteurs anthropométriques. Ensuite, ils détectent la paupière pour mesurer le niveau de
fermeture de l’œil.
Vitabile et al. [88] implémentent un système pour détecter les symptômes de la somnolence du
conducteur basé sur une caméra infrarouge. En exploitant le phénomène de pupilles lumineuses,
un algorithme pour détecter et suivre les yeux du conducteur a été développé. Quand un état de
somnolence est détecté, le système avertit le conducteur avec un message d'alarme.
Sous la lumière de ce qui a été mentionné ci-dessus, l’identification de l'état assoupi des
conducteurs donné par le PERCLOS est généralement passée par les étapes suivantes :
- Détection de visage.
- Localisation des yeux.
- Suivi de visage et des yeux.
- Identification de l’état des yeux.
- Calcul de PERCLOS.
- Identification de l’état de conducteur.
5. Conclusion
Au cours de ce chapitre, nous avons dressé un état de l’art des systèmes avancés d’aide à la
conduite où un état de l’art fut élaboré pour chaque étape dans les trois modules que nous avons
développé: la détection des véhicules, la poursuite de véhicules détectés, la mesure de distance
et de vitesse, la détection et la classification des panneaux de signalisation, la détection de la
fatigue et de somnolence basée sur la vision.
11
Microsleep : un épisode peut durer jusqu’à 30 secondes au cours de laquelle des stimuli externes ne sont pas
perçus. La poly-somno-graphie se change brusquement de l’état éveillé vers l’état de dormir [146].
27
Chapitre 3
Outils de développement
du notre système
28
Chapitre 3
Outils de développement du notre système
1. Introduction
Ce chapitre est consacré à la description des différents outils qu’ont été utilisés dans notre
système, elle nous aide à développer notre algorithme global qui est présenté dans le chapitre
suivant. Nous citons ici quelques outils étudiés et implémentés :
2. La calibration de caméra
Dans un processus de vision, il est utile de connaitre la physique de l’instrument qui fournit les
données de base. Cette connaissance permet en particulier de calculer la position exacte des
éléments de la scène à partir de l’image. La calibration consiste à obtenir les paramètres du
modèle de la caméra. Calibrer une caméra consiste à déterminer ses paramètres intrinsèques
et sa position et orientation par rapport au référentiel du monde. Calibrer un banc de
stéréovision, constitué de deux caméras, consiste à déterminer les paramètres intrinsèques de
chacune des caméras, et la position et l’orientation relative de ces deux capteurs. Ces paramètres
de calibrage sont nécessaires pour calculer, par triangulation, les coordonnées
tridimensionnelles d’un point correspondant à des pixels appariés dans les deux images.
Nous commençons par la modélisation d’une caméra prenant en compte les principales
distorsions géométriques liées à son système optique section 2.1. Puis, dans la section 2.2, nous
présentons une méthode de calibrage d’une caméra.
Une caméra est un système optronique composé de trois éléments : le premier est la source
(objectif), le deuxième est un élément optique placé entre la source et le détecteur qui a pour
but de focaliser l’image d’un objet sur ce détecteur, et le troisième élément, c’est le détecteur
29
Chapitre 3
Outils de développement du notre système
qui est un dispositif à transfert de charges [91]. Nous étudions dans cette section la modélisation
géométrique de la caméra, conduisant au modèle de projection perspective dit sténopé, ou trou
d’épingle (pinhole en anglais), qui associé à un modèle de distorsion, propose un bon
compromis de précision et de simplicité.
Le modèle sténopé est séparé en une partie intrinsèque (interne à la caméra) et une partie
extrinsèque (externe à la caméra). Dans la partie intrinsèque nous développons la formulation
de la fonction de projection, mais aussi de distorsion (bien qu’en dehors du modèle sténopé).
La pose (position et orientation) de l’appareil de prise de vue est modélisée par la partie
extrinsèque du modèle.
2.1.1. La fonction de projection perspective linéaire
Comme le montre la figure 3-1, le modèle sténopé est constitué d’un plan image I et d’un
centre optique C. La principale caractéristique de ce modèle est que tous les rayons
optiques issus d’un point de la scène passent par un unique point C. L’intersection du rayon
optique avec le plan image I définit le point projeté m.
Avec un système de coordonnées homogènes, la fonction de projection transformant M en un
point de l’image m est modélisée par la matrice K telle que.
~ (3.1)
Figure 3-1: Le modèle sténopé : la projection m du point M est définie par l’intersection de la droite
(C, M) et du plan image I.
f 0 0 0
m~ 0 f 0 0 M (3.2)
0 0 1 0
L’unique paramètre de cette fonction est la distance focale f. Le point 2D mr obtenu est exprimé
avec les mêmes unités que M. Les coordonnées de ce point dans le plan image (qui est un
échantillonnage en pixels du plan rétinien) et les coordonnées du même point dans le plan
rétinien sont liées par l’équation suivante :
30
Chapitre 3
Outils de développement du notre système
k 0 c
m ~ 0 k c m (3.3)
0 0 1
où (cx, cy) sont les coordonnées du point principal (à l’intersection de l’image et de l’axe
optique), kx et ky les facteurs d’échelle horizontal et vertical (en pixel /unité de longueur).
L’application consécutive des équations 3.2 et 3.3 donne la forme de la matrice K de l’équation
3.1 :
k 0 c f 0 0 0 α 0 c 0
K 0 k c 0 f 0 0 0 α c 0 (3.4)
0 0 1 0 0 1 0 0 0 1 0
Les paramètres kx f, ky f, cx et cy définissent la partie intrinsèque du modèle sténopé.
Ce sont ces paramètres qui vont être déterminés via la calibration.
x x δ x, y (3.5)
y y δ x, y (3.6)
où (x, y) sont les coordonnées sans distorsion (non-observables) et (xd, yd) sont les coordonnées
avec distorsion (le point réellement observé). Comme l’indique les équations 3.5 et 3.6,
l’erreur de positionnement dépend de la position du point. Les défauts les plus fréquemment
rencontrés avec des objectifs standards sont la distorsion radiale, la distorsion de décentrage, et
la distorsion prismatique [93] comme le montre la figure 3-2. Le plus souvent [94] [95] [96],
seule la distorsion radiale est traitée. Ce type de distorsion provient essentiellement
d’imperfections dans la courbure de la lentille.
Les fonctions de distorsion radiale sont approximées par les fonctions polynomiales δx et δy.
Elles s’écrivent comme suit :
δ x, y x c ∑ k x y (3.7)
δ x, y y c ∑ k x y (3.8)
31
Chapitre 3
Outils de développement du notre système
Où ki sont les coefficients de distorsions, et (cx, cy) les coordonnées du centre optique. En
pratique, une approximation d’ordre 3 (i = {1, 2, 3}) suffit à modéliser la distorsion radiale de
la plupart des caméras.
où t est un vecteur à trois composantes, et R est une matrice de taille 3*3 de la forme suivante :
(3.10)
(3.11)
0 1
32
Chapitre 3
Outils de développement du notre système
Figure 3-3: Le changement de repère est une transformation rigide composée d’un rotation puis
d’une translation.
0 0
0 0 (3.12)
0 1
1 0 0 1 0
1
Ceci nous permet donc de définir une matrice de projection 3×4 d’un point de l’espace
Euclidien 3D de la scène, exprimé dans le repère du monde, en un point de l’image, exprimé
dans le repère 2D.
Après la description d’un modèle de caméra pour notre application, il importe de savoir de
quelle façon il est possible d’accéder aux valeurs des paramètres du modèle. C’est le rôle de la
phase de calibration. Nous pouvons distinguer trois techniques principales de calibration :
33
Chapitre 3
Outils de développement du notre système
le plan de la caméra (ou des caméras) à calibrer [96]. La caméra ou la mire peuvent
être déplacées et il n’est pas nécessaire de connaître a priori les déplacements relatifs
effectués. Cette approche se situe entre la calibration photogramétrique et l’auto
calibration puisque la connaissance préalable de certaines informations
dimensionnelles relatives à la mire est requise et que cette méthode utilise par ailleurs
des propriétés de la géométrie projective elles-aussi exploitées par l’auto calibration.
Pour les raisons citées ci-dessus, nous nous sommes plutôt orientés vers la calibration
hybride puisque cette technique, moins précise que la calibration photogramétrique, fournit
néanmoins un compromis tout à fait valable entre la précision et la flexibilité, répondant ainsi
aux exigences que nous nous étions fixées.
Cette approche consiste à estimer les paramètres de la caméra à partir de la géométrie d’une
mire connue avec exactitude. Les paramètres à estimer sont alors les seuls paramètres
intrinsèques (4 paramètres intrinsèques et 3 paramètres de distorsion si on se limite à une
correction de la distorsion radiale d’ordre 3) et extrinsèques (3 paramètres pour l’orientation et
3 paramètres pour la position).
Nous considérons n images d’une mire plane composée de p points acquises par une caméra.
La figure 3-4 présente une séquence de 9 images d’une mire de calibration composée de 156
points. Les points de la mire peuvent être les coins des carrés qui composent le damier comme
le montre la figure 3-5. Une fois les points de mire extraits, l’estimation des paramètres à
minimiser est généralement la somme des erreurs quadratiques entre les coordonnées des points
extraits dans les images et les coordonnées calculées par le modèle de caméra pour chaque point
correspondant de la mire.
34
Chapitre 3
Outils de développement du notre système
Nous nous intéressons seulement à la distance focale de la caméra, qui nous aidera à connaitre
à priori la taille en pixels d’un objet dans l’image en connaissant sa distance et sa taille réelle.
Les fabricants d'optique utilisent un système de calcul approximatif. Selon la taille de la matrice,
et par le tableau de correspondance (Tableau 3-1) ou par la figure 3-6, deux distances focales
sont calculées ; l'une dite verticale, l'autre horizontale :
Format 1 pouce 2/3 pouce 1/2 pouce 1/3 pouce 1/4 pouce
V 9.6 mm 6.6 mm 4.8 mm 3.6 mm 2.7 mm
H 12.8 mm 8.8 mm 6.4 mm 4.8 mm 3.6 mm
35
Chapitre 3
Outils de développement du notre système
→
(3.13)
→
3. Transformée de Hough
La transformée de Hough (TH) (Hough, 1962) est une technique qui localise des formes
dans les images. En particulier, elle a été utilisée pour extraire les lignes, les cercles et les
ellipses [100].
Toute droite peut être représentée dans les coordonnées cartésiennes par :
(3.14)
Inconvénients des coordonnées cartésiennes : Si la droite est verticale alors la tangente tendra
vers l’infini →∞ .
Nous préférons le passage vers l’espace des coordonnées polaires (Figure 3-7). Car avec cette
représentation, les valeurs des paramètres sont bornées.
36
Chapitre 3
Outils de développement du notre système
(3.15)
(a) (b)
Figure 3-8: Principe de la THL polaire.
(a) Deux points dans l’image, (b) Leurs représentants dans l'espace Hough.
Le principe de la THL (polaire) est que pour chaque point contour dans l’image, on incrémente
l’accumulateur (l’espace de paramètres Hough) par une courbe (Figure 3-8). Les valeurs
maximums dans l’accumulateur (correspondent aux points d’intersection des courbes)
représentent des lignes dans l’espace de l’image. L’implémentation de cet algorithme est
détaillée dans l’organigramme de Figure 3-9.
37
Chapitre 3
Outils de développement du notre système
Image binaire I de
dimension (h x w)
Création de matrice
Accumulateur H de
dimension x 360
avec √
Non
, 1
Oui
Incrémenter ,
par :
où
0 : 360
Si , seuil
Tracer les droites
∗
1
tan
sin
38
Chapitre 3
Outils de développement du notre système
La Transformée de Hough pour détecter les cercles (THC) n’est qu’une extension de la
THL en remplaçant l’équation de la courbe par l’équation d’un cercle de rayon r :
(3.16)
Nous pouvons représenter cette équation par ces équations dans l’espace de paramètres :
cos
sin (3.17)
Chaque point dans l'espace de l'image génère un cercle dans l'espace de paramètre (Hough). Le
principe de la THC est pour chaque point dans l’image, on trace un cercle dans l’espace de
paramètre Hough avec un rayon connu (Figure 3-10). Les valeurs maximums dans
l’accumulateur (correspondent aux points d’intersection des cercles) représentent des cercles
dans l’espace de l’image. L’implémentation de cet algorithme est détaillée dans
l’organigramme de (Figure 3-11).
Figure 3-10: Chaque point dans l'espace de l'image génère un cercle dans l'espace de paramètre (Hough).
39
Chapitre 3
Outils de développement du notre système
Image binaire I de
dimension (h x w)
Création de matrice
Accumulateur H de
dimension x
Si ,
1
Non
Oui
Incrémenter ,
avec :
cos
sin
où
0 : 360
Si
, seuil
Oui
40
Chapitre 3
Outils de développement du notre système
(a) (b)
(c) (d)
(e) (f)
(g)
(h)
Figure 3-12: Résultats obtenus avec transformée de Hough.
41
Chapitre 3
Outils de développement du notre système
4. La Symétrie
On peut dire qu’un objet ayant une forme symétrique, lorsqu’on peut échanger tous les
points de la moitié gauche de cet objet avec tous les points sur la moitié droite sans que
l’apparence soit modifiée.
(a) (b)
(c)
Figure 3-13: Types de symétrie. (a) Symétrie 2D par rapport à un point, (b) Symétrie 2D par rapport à un
axe, (c) Symétrie 3D par rapport à un plan.
Nous nous intéressons d’étudier juste la symétrie axiale (réflexion) qui est une
transformation géométrique du plan qui modélise un "pliage" ou un "effet miroir". Un objet
dans une image a une forme symétrique si on peut le diviser en deux moitiés égaux et chaque
côté est une réflexion de l’autre côté par rapport à un axe vertical.
Nous avons modélisé la symétrie dans une image numérique par un signal unidimensionnel
(vecteur accumulateur), qui nous donne la valeur correspondante à la position de l’axe vertical
de la symétrie des objets dans l’image.
42
Chapitre 3
Outils de développement du notre système
Image I de
dimension (h x w)
Détection de contour ( )
(a)
Initialiser sym par zéros
Non
Si :
, 1
Oui
(b)
Si : Non
, 1
→
Oui
Incrémenter
(c)
Correspond à la position de
l’axe vertical de la symétrie Figure 3-15: Détection de symetrie. (a) Image
maximale originale,(b) Image contour,(c) Signal de la
symetrie.
Figure 3-14: Organigramme de l’algorithme de calcul de la
symétrie.
43
Chapitre 3
Outils de développement du notre système
5. Filtre de Gabor
Un filtre de Gabor est un filtre linéaire dont la réponse impulsionnelle est une association
d’un filtre gaussien et une sinusoïde orientée (Figure 3-16).
En traitement d’image, nous travaillons dans le domaine spatial en 2 dimensions, ce qui nous
permet d'écrire la fonction de Gabor de la manière suivante [102]:
, , , . sin 2 (3.18)
Avec :
jθ j cosθ i sinθ
(3.19)
iθ i cosθ j sinθ
L'application d'un filtre de Gabor de masque G de taille (g x g) à une image I de taille (m x n),
se résume donc à la formule suivante :
∗ (3.20)
Le filtre de Gabor permet d'isoler les contours d'une image d'orientation perpendiculaire à θ et
répondant à une certaine épaisseur, qui dépend de f. Ceci justifie le fait que pour détecter
l'ensemble des contours d'une image, on lui applique généralement un ensemble de filtres de
Gabor appelé banc.
Les filtres de Gabor est un opérateur particulièrement commode pour l'extraction et la détection
de contours.
Les représentations du filtre de Gabor en 2D et 3D sont illustrées dans la figure 3-16 et la figure
3-17, respectivement.
44
Chapitre 3
Outils de développement du notre système
Multiplication
(a) (b)
(c)
Figure 3-16: Filtre de Gabor en 2D. (a) Enveloppe gaussienne, (b) Une sinusoïde
orientée, (c) Filtre de Gabor obtenu.
Multiplication
(a) (b)
(c)
Figure 3-17: Filtre de Gabor en 3D. (a) Enveloppe gaussienne, (b) Une sinusoïde orientée,
(c) Filtre de Gabor obtenu.
45
Chapitre 3
Outils de développement du notre système
Le tableau 3-2 présente divers exemples d'utilisation de filtre de Gabor sur la même image, afin
d'expliciter l'influence des différents paramètres :
Orientation :
L’application d’un seul
filtre fait ressortir les
contours orientés
perpendiculairement par
rapport à son orientation.
Orientations multiples :
L'application d'un banc à
plusieurs orientations
permet de détecter des
contours plus nombreux.
Écarts-types :
Si l'on fait varier de
manière à ce qu'il soit
inférieur à , les
filtres deviennent moins
sensibles aux contours et
le banc se comporte (dans
un état limite) comme un
simple flou gaussien.
Si l'on applique la
variation inverse, le
résultat, légèrement plus
net, ne présentera pas de
grandes différences avec
un filtrage symétrique.
Fréquence :
Si on utilise plusieurs
fréquences, le tracé
devient beaucoup plus net,
le filtre est sensible à de
plus nombreux contours
en termes d'épaisseur.
46
Chapitre 3
Outils de développement du notre système
6. L’image intégrale
Une image intégrale (summed area table) est une représentation sous la forme d'une image
numérique et un algorithme permettant de calculer rapidement des sommes de valeurs dans des
zones rectangulaires.
Proposée à l'origine comme une méthode d'infographie en 1984, les images intégrales sont
surtout connues en vision par ordinateur depuis 2001 par leur reformulation dans la méthode de
Viola et Jones [71].
L’image intégrale est une représentation sous la forme d'une image, de même taille que l'image
d'origine, qui en chacun de ses points contient la somme des pixels situés au-dessus et à gauche
de ce point. L’image intégrale II est définie à partir de l'image originale I par la formule
suivante :
II i, j ∑ I i ,j (3.21)
s i, j s i, j 1 I i, j (3.22)
II i, j II i 1, j s i, j (3.23)
Grâce à cette représentation sous forme de table de correspondance, la somme des valeurs dans
une zone rectangulaire peut être calculée en seulement 4 accès à l'image intégrale et donc en
temps constant quelle que soit la taille de la zone. Alors, la somme des pixels à l'intérieur de
n'importe quel rectangle ABCD (Figure 3-18) peut être évaluée par :
∑ I j ,i II A II C II B II D (3.24)
47
Chapitre 3
Outils de développement du notre système
C’est l’espace le plus utilisé, puisqu’il intervient dans la plus part des appareils de prise
d’images couleurs, ainsi que dans les moniteurs couleurs.
Cet espace RVB est composé de trois couleurs primaires rouge, vert et bleu. La couleur est
reconstituée par synthèse additive de ces trois informations.
L’espace RVB est un cube représenté dans un espace cartésien (Figure 3-19), chacune de ces
trois composantes peut prendre les valeurs comprises entre 0 et 255. La diagonale principale
représente les niveaux de gris.
; ; (3.25)
Il faut noter qu’il existe aussi les espaces YIQ et YUV et que la confusion est fréquente
parmi ces trois espaces. Les espaces YUV, YIQ et YCbCr sont trois espaces semblables. YUV
est utilisé pour le codage des couleurs dans le système de télévision PAL, YIQ pour le système
NTSC.
Ces deux systèmes sont dépendants des appareils, quant à l’espace YCbCr, c’est un standard de
vidéo numérique. De ce point de vu, l’espace YCbCr est le plus intéressant.
48
Chapitre 3
Outils de développement du notre système
R 1.164 0 1.596 Y 16
V 1.164 0.391 0.813 Cb 128 (3.27)
B 1.164 2.018 0 Cr 128
7.3. Espace TSL (HSV)
La teinte T est donnée par l'angle entre l'axe rouge et un point de l'hexagone. La saturation S
est donnée par la distance entre l'axe de la luminance et un point de l'hexagone. L’espace de
couleur TSL est de forme cylindrique.
L’espace TSL est relié à l’espace RVB par des formules non linéaires, [104]:
arccos
(3.28)
2 arccos
(3.29)
, ,
1 3 (3.30)
La figure 3-21 montre une image couleur et son masque binaire après une détection des régions
de peau.
(a) (b)
Figure 3-21: Exemple de détection de peau. (a) Image couleur, (b) Son masque binaire après
une détection des régions de peau.
La détection d’objet par ce couleur dans les images couleurs est une technique importante
utilisée dans de nombreux problèmes de reconnaissance de formes. Elle est souvent une étape
préliminaire indispensable pour des problèmes tels que :
Plusieurs modèles de couleur ont été proposés pour la détection des pixels d'objet dans les
images couleur. La majorité de ces modèles utilisent une méthode de segmentation basée sur le
calcul d’histogramme de couleur ou une méthode qui dérive de cette dernière [113].
50
Chapitre 3
Outils de développement du notre système
Dans les travaux [114] [115] [116] [117], l’espace de couleur RVB a été utilisé pour la
segmentation d’image de couleur. L’espace de couleur RVB normalisé est aussi populaire. De
nombreux articles recommandent une détection de peau dans cet espace [118] [119] [120] ou
détection des panneaux de signalisation [8] [9]. L’utilisation de l’espace RVB semble troublante
puisque cet espace ne tient pas compte de la séparation de l’information en deux parties
(luminance et chrominance).
L’espace de couleur TLS ainsi que ses variantes, HSI (Hue, Saturation, Intensity) et
HLS (Hue, Lightness, Saturation) ont été utilisés fréquemment dans les travaux [107] [112]
[121] [122].
L’espace TLS donne des très bons résultats pour la détection de couleur d'objet en tenant
compte deux comparaisons seulement pour la prise de décision (cosTmin, cosTmax). Mais, il
possède quelques inconvénients : le temps de conversion pour passer de YCbCr à TLS passe
tout d’abord par l’espace RVB, et possibilité de détection des zones d’objet « trouées » et des
fausse détections occasionnellement avec des seuils quelquefois difficiles à trouver.
Plusieurs articles [106] [123] [124] [125] [126] [78] affirment que l’espace de couleur
YCbCr permet de donner une bonne détection des pixels de la peau ou de panneaux de
signalisation.
Avec cet espace on n’a pas besoin de faire la conversion, le traitement est direct sur les
composantes des images de la séquence vidéo. Et il est adapté comme l’espace TLS pour faire
la détection d’objet à cause de la séparation luminance-chrominance (elles sont dé-corrélées
entre eux). Ainsi cet espace permet de détecter des zones d’objet rarement trouées.
Dans notre projet, la détection de couleur est juste une étape préalable pour la détection
d'objet d'intérêt, elle devrait donc être rapide et efficace en même temps.
51
Chapitre 3
Outils de développement du notre système
Dans chaque image nous sélectionnons plusieurs régions d'objet d'intérêt, et on construit un
histogramme avec les valeurs (R, V, B) et (Y, Cb, Cr) des pixels de ces régions (Figure 3-22)
et (Figure 3-23).
V
Figure 3-22: Distribution de couleur de peau dans l’espace RVB.
52
Chapitre 3
Outils de développement du notre système
D’après les figures de l’histogramme (Figure 3-22 et Figure 3-23), nous avons tiré les
remarques suivantes :
Pour l’espace RVB :
- Il n’est pas possible de trouver des seuils donnant des résultats satisfaisants, car la
distribution des couleurs de peau est assez étalée.
Pour l’espace YCbCr :
- La luminance Y prend quasiment toutes les valeurs possibles comprises entre 0 et 255,
ce qui montre bien que la luminance n’est pas une information discriminante pour
détecter la peau.
- La distribution dans le plan Cb, Cr est assez concentrée (étroite).
Effectivement, après des essais, on a choisi des paramètres qui respectent les contraintes de
notre projet :
1. L’espace YCbCr, sans la nécessité de conversion vers un autre espace, donc moins de
complexité et avec sa détection de couleur de peau robuste et fiable.
2. La méthode de région explicitement définie comme peau.
Qu’ils respectent les plus des contraintes de notre projet.
Les figures 3-24 et 3-25 montrent quelques résultats obtenus par le classificateur de couleur
proposé.
(a) (b)
Figure 3-24: Résultats de détection de peau.
(a) Image originale, (b) Masques binaire après la détection de couleur de peau.
(a) (b)
Figure 3-25: Résultats de détection des panneaux de signalisation.
(a) Image originale, (b) Masques binaire après la détection de couleur rouge.
53
Chapitre 3
Outils de développement du notre système
Image couleur I de
dimension (h x w x 3)
en YCbCr
Création de masque M
binaire de dimension
(h x w)
Classificateur
Non
*
Conditions
sur ,
Oui
, 1
Nous proposons une méthode optimisée pour une classification plus rapide. Au lieu de
faire quatre testes « Si » sur chaque pixel de l’image, nous proposons une matrice de
taille 256 x 256 dont les coordonnées et les abscisses sont , respectivement remplies avec
1 pour les pixels d’objet et 0 de ceux non-objet.
Nous créons la matrice une seule fois pour chaque couleur à base de l’histogramme
obtenus dans la section 8.2.1, et la sauvegardons pour l’utiliser dans la détection de couleur.
Méthode 1 : Nous modélisons les pixels de peau par un rectangle qui vérifie les quatre
conditions.
54
Chapitre 3
Outils de développement du notre système
, , (3.31)
Puisque la distribution de couleur dans le plan , n’a pas une forme rectangulaire, il est
possible de détecter des fausses détections occasionnellement.
(a)
Figure 3-27: Résultats des méthodes optimisées. (a) Image originale, (b), (c) et (d) Les différentes matrices
PEAU, (e), (f) et (g) Leurs résultats respectivement.
55
Chapitre 3
Outils de développement du notre système
9. Opérations morphologiques
Les opérations de la dilatation et de l'érosion sont fondamentales en traitement d'images
morphologique [127]. Ces opérations sont définies et illustrées de façon détaillée dans les
sections suivantes.
9.1. Dilatation
La dilatation est une opération qui "agrandit" ou "épaissit" des objets dans une image binaire.
La manière spécifique de cet épaississement est commandée par une forme dénommée un
élément structurant noté B. L’élément structurant est une configuration élémentaire de pixels à
rechercher dans l’image.
La figure 3-28 montre comment la dilatation fonctionne. Avec une image d’entrée binaire
simple I contenant un objet rectangulaire et un élément structurant, une ligne de cinq pixels
diagonaux dans ce cas.
Les éléments structurants sont généralement représentés par une matrice de 0 et 1; comme
illustré dans la figure 3-28(b). En outre, l'origine de l'élément structurant doit être clairement
identifiée (encadré dans la figure).
⨁ ∩ ∅ (3.32)
56
Chapitre 3
Outils de développement du notre système
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 (b)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(a)
L’élément structurant balayé dans
ces positions ne se chevauche pas
avec des pixels de valeur 1 dans
l’image originale.
• • • • • • •
• • • • • • • •
1 1 1 1 1 1 1 • •
• 1 1 1 1 1 1 1 •
• • 1 1 1 1 1 1 1
• • • • • • • • Quand l’origine est balayée dans
• • • • • • • les positions « • » l’élément
structurant se chevauche avec
des pixels de valeur 1 dans
l’image originale
(c)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0
0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0
0 0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0
0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0
0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0 0
0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0
0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(d)
57
Chapitre 3
Outils de développement du notre système
9.2. Erosion
L'érosion ''rétrécit" ou "amincit" des objets dans une image binaire. Comme dans la
dilatation, la manière spécifique de ce rétrécissement est commandée par un élément
structurant.
La figure 3-29 montre le procédé d'érosion sur la même image binaire I utilisée dans la
dilatation, mais l'élément structurant cette fois est une ligne verticale courte de trois pixels
(Figure 3-29 (b)).
La figure 3-29 (c) représente graphiquement l'érosion comme processus qui balaie l'origine de
l'élément structurant partout dans le domaine de l'image et vérifie où elle se chevauche
entièrement avec les pixels d'une valeur de 1. L'image de sortie dans la figure 3-29 (d) prend la
valeur 1 à chaque emplacement de l'origine de telle sorte que l’élément structurant se chevauche
seulement avec les pixels d’une valeur de 1 dans l'image d'entrée. (En outre, tous les pixels de
l’élément structurant font partie de l’image d’entrée).
⊖ | ∩ ∅ (3.33)
58
Chapitre 3
Outils de développement du notre système
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0
1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 (b)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(a)
(c)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(d)
Figure 3-29: Illustration de l’érosion [127]. (a) Image binaire originale avec
un objet rectangulaire, (b) Elément structurant, (c) Elément structurant
balayé en plusieurs positions de l’image, (d) Image de sortie.
59
Chapitre 3
Outils de développement du notre système
(a)
(b) (c)
Figure 3-30: Application des opérations morphologiques sur un masque binaire. (a) Masque binaire, (b)
Erosion du masque, (c) Dilatation de l’image (b).
L’étiquetage des régions n’est pas un traitement local, car le voisinage d’un point de l’image
n’est pas suffisant pour lui affecter un numéro d’identification [128].
Nous avons proposé une technique permettant la labélisation en utilisant un masque de balayage
(Figure 3-32) pour donner des labels aux pixels en fonction de leur voisinage local en 8
connexités.
Pour s’affranchir des problèmes liés aux effets de bord de l’image, une ligne de zéros sur les
bords haut et une colonne sur les bords gauche de l’image sont ajoutées (Zeros-Padding).
(a) (b)
Figure 3-31: Labélisation de l’image binaire. (a) Image binaire, (b) Résultat de la labélisation.
60
Chapitre 3
Outils de développement du notre système
A B C
D X
Nous balayons l’image avec le masque, si X = 0 aucune opération est effectuée. Si X = 1, nous
testons les valeurs A, B, C et D pour donner un label à X. il existe trois cas possibles :
(a) (b)
Figure 3-33: Résultat de la labélisation. (a) Masque binaire, (b) Objets labélisés.
11.1. Description
Supposons que :
, ∑ ∑ ‖ ‖ (3.34)
11.2. Algorithme
1- Choisir le vecteur qui contient les k moyennes initiales. (nous proposons de choisir
les deux points le plus proche le plus loin de l’origine de l’image si K=2, et ces deux
points avec le point dans le milieu entre eux si K=3).
2- Nous minimisons par rapport à ∶ 1 pour
∈ ‖ ‖ (3.35)
4- Retourner à la deuxième étape jusqu’à la convergente est atteint quand il n'y a plus de
changement ou si nous arrivons au nombre d’itérations s’il est défini à priori.
Nous appliquons l’algorithme K-means un ensemble de points que nous voulons séparer.
Les résultats sont montrés dans la figure 3-35.
62
Chapitre 3
Outils de développement du notre système
(a) (b)
(c) (d)
Figure 3-35: Regroupement sur un ensemble de points K-means.
(A) Les points à séparer en 2D, (b) Les points à séparer en 3D,
(c) Regroupement par K-means K=3, (d) Regroupement par K-means K=2.
12. Le Suivi
Le suivi visuel d’objets dans des séquences d’images est devenu une des tâches les plus
utilisées, parmi celles développées pour la vision par ordinateur. Les différents champs
d’application comprennent entre autres: la vidéoconférence (suivi des interlocuteurs), la
vidéosurveillance (détection, suivi, reconnaissance du comportement de personnes, d’intrus),
la segmentation et l’édition de séquences vidéo, sans oublier les applications plus
traditionnelles de la robotique, suivi d’un opérateur (corps, visage, main…).
Plusieurs classifications des méthodes de suivi visuel d’objets ont été proposées dans la
littérature; elles dépendent autant des auteurs, que du but pour lequel ces méthodes ont
été conçues. Nous considérons la classification donnée dans [130], où selon les auteurs, les
méthodes de suivi visuel peuvent être divisées en quatre classes [131].
63
Chapitre 3
Outils de développement du notre système
Ces méthodes repèrent des caractéristiques connues dans la scène et les utilisent pour
mettre à jour la position de l’objet. Parmi ces méthodes, citons celles qui exploitent les
modèles géométriques fixes [132], et les modèles déformables [133].
Ces méthodes peuvent suivre les objets en exploitant les mesures de leur vitesse dans
l’image, avec des mesures telles que le flux optique ou des équivalents [135].
Ces méthodes suivent certaines caractéristiques de l’objet, comme des points, des
lignes, des contours [136], caractéristiques ou primitives image auxquelles il est possible aussi
d’imposer de restrictions globales [137]. Ces caractéristiques peuvent être aussi définies par
la texture ou la couleur [138].
Les méthodes décrites dans cette section sont basées sur la différence des motifs (ou
modèles) entre deux régions.
L’idée principale est de mesurer à un instant donnée t, la différence entre un motif (model) pré
déterminé (référence issue par exemple d’un module de détection dans l’image), et une position
possible (zone d’intérêt) de ce motif dans l’image.
Le tableau 3-3 résume les mesures de différence et de corrélation. Les mesures de similitude
les plus simples sont basées sur la Somme de différences absolues (SAD) ou la Somme de
différences carrées (SSD), qui est zéro pour l'identique. Les mesures de similitude qui ont plus
de complexité telles que la corrélation croisée normalisée (NCC), obtenir les valeurs dans
l'intervalle [-1, 1], avec 1 correspond aux images identiques, tandis que les valeurs de
corrélation croisée normalisée avec moyenne nulle (ZNCC), sont entre [0, 2], où 0 représente
la valeur de corrélation la plus élevée.
64
Chapitre 3
Outils de développement du notre système
Sum of Absolute
Differences , | , , |
(SAD)
Zero-mean Sum
of absolute , | , , , |
differences
(ZSAD)
Sum of squared
differences , , ,
(SSD)
Zero-mean Sum
of squared , , , ,
differences
(ZSSD)
Normalized cross ∑ ∑ , . ,
, 1
correlation
∑ ∑ , . ∑ ∑ ,
(NCC)
Zero-mean
∑ ∑ , , . ,
normalized cross , 1
correlation ∑ ∑ , , . ∑ ∑ ,
(ZNCC)
Puisque nous traitons des images réelles qui ont été prises pendant la journée sous différents
challenges comme le changement d'illumination brusque et les variations significatives de
contraste qui peuvent influer sur le résultat de suivi.
L'utilisation des mesures de similitude avec moyenne nulle (Zero-mean) (ZSAD, ZSSD,
ZNCC) tendent à lisser ces anomalies, ainsi elles augmentent la performance et améliorent les
résultats. Cependant, ces mesures augmentent la complexité de calcul. Et donc, il est évident
que la complexité augmente selon la taille d'image.
Dans notre travail, nous nous focaliserons seulement sur les approches de suivi basées sur les
différences de motifs qui proposent d’estimer les variations de pose du motif. En effet, nous
choisirons les méthodes qui ont montré une très bonne efficacité et qui de ce fait, peuvent
être implémentées en temps réel.
L’organigramme de suivi d’un modèle par mesure de similitude est illustré dans la figure 3-36.
65
Chapitre 3
Outils de développement du notre système
Position possible
Le modèle recherché
(Zone de recherche)
Mesure de similitude
Déterminer le maximum de
ressemblance
Figure 3-36: Organigramme de suivi d’un objet en mouvement par mesure de similitude.
13. Conclusion
Nous avons vu dans ce chapitre la description des différents outils qu’ont été utilisés dans notre
système. Nous avons évoqué tout d’abord la calibration de caméra, pour trouver les paramètres
intrinsèques et extrinsèques ainsi que cette opération permet de trouver la relation entre les
coordonnées spatiales d'un point de l'espace avec le point associé dans l'image prise par la
caméra. Ensuite, nous avons détaillé la transformée de Hough ligne et cercle. Puis, nous avons
présenté les techniques de calcul de la symétrie qui permettent de localiser les objets
symétriques. Ainsi, nous avons vu le filtre de Gabor et la technique de l’image intégrale. Après,
nous avons évoqué les espaces de couleur, pour apporter notre contribution dans la technique
de détection de couleur dans une image. Nous avons également présenté une étude sur les
différentes approches existantes pour construire un modèle de couleur. Ensuite, nous avons
présenté les opérations morphologiques telles que l’érosion et la dilatation. Par la suite, nous
avons vu la technique de labellisation des objets dans une image binaire, et l’algorithme de K-
means. Enfin, nous avons évoqué quelques techniques de poursuite basées sur la méthode de
la mise en correspondance tels que : SAD, SSD, NCC, ZNCC,…etc.
66
Chapitre 4
67
Chapitre 4
Mise en œuvre du notre système
1. Introduction
Dans ce chapitre, nous évoquons notre système proposé qui se constitue de trois modules
principaux :
Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).
Module de Classification des Panneaux de Signalisation Routière (MCPSR).
Module de Détection de Fatigue et de Somnolence (MDFS).
En fait, ces modules utilisés conjointement permettent d’aider le conducteur à prendre la
décision appropriée.
Dans chaque module, nous détaillons les étapes fondamentales utilisées afin de concevoir un
modèle développé qui permet d’améliorer les systèmes de conduite intelligents.
Dans un premier temps, nous abordons le premier module de détection de véhicules et de
mesure de distance et de vitesse. Nous proposons de trouver de nouvelles solutions, qui
conduisent au calcul de la vitesse ainsi qu’au temps de collision des véhicules pour éviter la
collision.
Dans le deuxième module de classification des panneaux de signalisation routière, nous
classifions les panneaux de signalisation de la route. Ce module aide le conducteur à faire la
liaison entre la route et les signalisations de la route afin de prendre des précautions pour éviter
des manœuvres dangereuses.
Dans le dernier module de détection de fatigue et de somnolence, nous travaillons sur
l’élaboration de notre système à travers le contrôle de l’état de somnolence et de fatigue de
conducteur
Prétraitement
Modélisation de la route
68
Chapitre 4
Mise en œuvre du notre système
2.1. Prétraitement
2.1.1. Les Contours de l’image
L’idée en quelque sorte d’extraire les contours de l’image originale, en lui appliquant des
filtres spécifiques tels que Sobel, Canny, filtre morphologique. Ce dernier est appliqué à une
image filtré par Sobel, et en dernier la méthode LOC est employée pour construire une nouvelle
image de contour.
Figure 4-2: Différentes méthodes de détection de contour.(a) Image originale ,(b)Filtre Sobel , (c)Application de
filtre morphologie (dilatation) sur sobel , (d)Filtre Canny , (e )Déphasage de quatre pixels, (f) Différence entre
deux images
2.2. impaires , (g) Application
Modélisation de filtre sobel sur l’image (f) , (h) LOC Horizontal, (i) LOC Vertical.
de la route
Cette procédure utilise une matrice de coefficient prédéfinie et l'équation 4.1, pour
représenter la variation d'intensité directionnelle du voisinage du pixel en question. Le modèle
mathématique est donné par l’équation suivante [57] :
, ∑, , . , , , (4.1)
69
Chapitre 4
Mise en œuvre du notre système
La modélisation de la route consiste à extraire les droites liées délimitant celle-ci. Cette
opération peut se faire de façon automatique par l’emploi de la transformée de Hough, Cette
dernière fait appel au fondement mathématique décrivant la transformée de Hough pour la
détection des droites.
70
Chapitre 4
Mise en œuvre du notre système
Ensuite, Les images résultantes subissent une transformée de Hough pour faire ressortir les
lignes prononcées de l’image comme le montre la figure 4-3. Ces lignes sont candidates pour
délimiter la zone de recherche.
Figure 4-3: Transformé de Hough appliquée sur l’image binaire obtenue par : (a)Filtre Sobel, (b) Filtre
morphologie (dilatation) sur sobel , (c) Filtre Canny , (d )Déphasage de quatre pixels, (e)Application de filtre
sobel sur différence entre deux images impaires, (f) L’image de LOC.
(d) (e)
Dans la deuxième partie, nous abordons trois techniques pour aboutir au résultat escompté.
1) La première technique se charge de choisir parmi toutes les lignes candidates trouvées dans
la figure 4-3, deux lignes qui feront l’objet des deux bordures représentant au mieux notre
espace de recherche. Le choix de ces bordures s’appuie sur une constatation discernée après
l’étude et l’observation de nos séquences, nous nous sommes basés sur l’observation du fait
que la zone route contient beaucoup moins de contours que la zone non route.
On peut s’apercevoir clairement sur la figure 4-4 que la zone route à la propriété d’être une
zone homogène présentant un minimum de contours, par contre une zone non route divulgue
un nombre important de contours (végétation, habitats, barrières, etc.).
71
Chapitre 4
Mise en œuvre du notre système
Zone route
Figure 4-4: Zone route et zone non route de détection de contour de déphasage de quatre pixels.
d2 = b1 b2 b1 b2 (4.3)
72
Chapitre 4
Mise en œuvre du notre système
b1
b2
a2
a1
On obtient après les contributions précédentes, les paramètres des deux bords représentant au
mieux notre espace de recherche, on peut apriori ignorer toutes les informations se trouvant à
l’extérieur de ces deux lignes.
Une fois la route délimitée, nous entamons la deuxième étape de notre algorithme qui
consiste à détecter les véhicules.
Dans cette section nous allons aborder, trois techniques :
La méthode de symétrie.
La méthode base sur les modèles locaux de découpe « LCP ».
La méthode base sur les l’énergie.
2.3.1. Méthode de symétrie de véhicules
Nous allons appliquer la méthode de symétrie pour notre objet d’intérêt qui est le véhicule.
En fait, la symétrie est un rituel dans tous les travaux précédemment étudiés. On se limite
d’étudier de la symétrie axiale qui est une transformation géométrique du plan, elle modélise
un pliage ou un effet miroir. Un objet dans une image a une forme symétrique si on peut le
73
Chapitre 4
Mise en œuvre du notre système
diviser en deux moitiés égales et chaque côté est une réflexion de l’autre par rapport à un axe
vertical.
En premier lieu, on balaye toute l’image avec un rectangle de taille fixe et avec un déplacement
qui vaut 1 pixel, cela est très lourd comme calcul à faire. D’une autre part, la taille du véhicule
est supposée diminuer en s’éloignant de la camera et donc la taille du rectangle doit être
dynamique. Mais l’objectif de ce premier essai est d’étudier la pertinence de la symétrie.
Une solution au problème de la complexité, celui du temps perdu, est d’augmenter la cadence
de déplacement du rectangle en faisant des déplacements de plusieurs pixels au lieu d’un seul
en passant de (T) a (T+1) (verticalement et horizontalement) comme montré dans la figure 4-
8.
Rectangle (T)
Rectangle (T+1)
1 pixel Déplacements de N pixels
Solution
Il est aussi peu réaliste de positionner l’axe de symétrie parfaitement au milieu de la vue arrière
du véhicule. Surtout si le pas de déplacement du rectangle est bien supérieur à 1.
Analyse du travail 1
Après avoir effectué suffisamment de tests sur nos séquences d’images, Il s’est avéré que
l’environnement composé du le ciel et de la route expriment une forte symétrie dans les
séquences d’images. Ils posent un grand problème, le résultat obtenu est illustre par la figure 4-
9:
91%
29
%
77%
74
Chapitre 4
Mise en œuvre du notre système
Interprétation
Les zones homogènes présentent un taux de symétrie nettement supérieur aux zones
recherchées qui contiennent d’éventuels véhicules.
Cette méthode s’avère insuffisante, ce qui nous a poussés à modifier l’algorithme de symétrie
en introduisant l’information des contours dans le calcul du taux de la symétrie.
Le taux de la symétrie dans ce cas est calculé seulement sur les points formant des contours.
Cette opération s’effectue en incrémentant un accumulateur de la symétrie pour chaque deux
pixel symétrique noir retrouvés (Dans ce qui suit, les couleurs dans les figures représentant des
contours sont inversées pour une meilleure apparence).
1%
46
1%
Analyse du travail 2
Bien que le problème des zones homogènes soit complétement éliminé comme le montre la
figure 4-11, la génération d’hypothèses apporte beaucoup de fausses détections, car un bon
nombre d’objets ou de zones dans une image retient une densité des contours et donc un fort
taux de symétrie.
72%
60%
75
Chapitre 4
Mise en œuvre du notre système
Interprétation
Même si la symétrie reste une méthode incontournable pour de nombreux travaux antérieurs,
les réflexions mentionnées au-dessus sont suffisantes pour décider d’éviter la symétrie au
premier abord.
Les démonstrations vues dans cette partie et le nombre important de fausses détections
engendrées par les régions non véhicules nous ont conduit à travailler seulement sur un
intervalle pertinent cela en délimitant l’espace de recherche.
La figure ci –dessous présente un organigramme qui montre les étapes de l’algorithme de la
symétrie.
Image I
Réduire l’espace de
recherche « T-Hough »
Véhicule détecté
Un objet dans une image a une forme symétrique si on peut le diviser en deux moitiés égaux,
et chaque côté est une réflexion de l’autre côté par rapport à un axe vertical comme cette
symétrie est formulée par les équations (4.4) [69].
∑ ∑ / , ,
Symétrie (4.4)
∗
Avec G(x, y) est détection de contour du point (x, y), H et F dénotent la hauteur et la largeur de
la fenêtre respectivement.
Nous modélisons la symétrie dans une image numérique par un signal unidimensionnel, qui
nous donne la valeur correspondante à la position de l’axe vertical de la symétrie des objets
dans l’image, la figure 4-13 illustre ce résultat.
76
Chapitre 4
Mise en œuvre du notre système
Comme nous spécifions la symétrie par un rectangle qui va dépendre de la taille de véhicule,
ce rectangle saisit le maximum de symétrie dans notre espace de recherche comme le montre la
figure 4-14.
Le modèle des contours locaux LCP (Local Contours Patterns) est défini comme une mesure
sur les images binaires pour trouver des structures géométriques locales [139].
Parada et al. [139] ont travaillé sur cette méthode pour la détection des différents panneaux de
signalisation routière : triangulaires et circulaires. Le principe est de numéroter chaque pixel
actif (point blanc) dans l’image contours par un numéro en vérifiant ses pixels voisin s’ils ont
des structures géométriques locales définies pour chaque orientation (Figure 4-15).
La méthode LCP est la deuxième approche qu’on a appliquée pour détecter le véhicule. Les
étapes de cet algorithme sont montrées dans l’organigramme de la figure 4-16.
L’équation régissant le code LCP peut s’écrire selon la formule suivante [139]:
LCP , ∑ P2 (4.5)
Où N représente la longueur impaire de la région carrée autour du pixel contour central. B
fonction de N, est la longueur du code. Par exemple, N = 3 produit des codes à B = 8 bits, N =
5 produit des codes à B = 24 bits, N = 7 produit des codes à B = 48 bits. Les grandes valeurs de
77
Chapitre 4
Mise en œuvre du notre système
N fournissent une flexibilité accrue pour définir les structures complexes, mais introduisent plus
de bruit lors du processus et compliquent le regroupement des codes.
Figure 4-15: Deux exemples des structures simples codées par LCP8, 3, le fond dessus près de 0º et
dessous inférieure près de 90º.
Image I
Réduire l’espace de
recherche « T-Hough »
Appliquer la
fonction LCP
Véhicule détecté
Détecter des structures linéaires simples peut suffire pour de nombreuses applications comme
celle décrite à présent. A titre d'exemple, la figure 4-15 montre quelques exemples de structures
simples codées par LCP8,3 où l’objectif est la détection de véhicule. Les pixels noirs représentent
le centre de la région de recherche de 3x3, et les pixels colorés représentent les pixels voisins
avec la valeur 1.
78
Chapitre 4
Mise en œuvre du notre système
1 1
3 2 3
2.3.3. L’énergie
Les étapes de cet algorithme sont montrées dans l’organigramme de la figure 4-19.
Image I
Réduire l’espace de
recherche « T-Hough »
Véhicule détecté
79
Chapitre 4
Mise en œuvre du notre système
abs(j2-j1) Distance
Trouver Vecteur
‘distance ‘
Equation1 Equation2
Figure 4-21: Méthode d’adaptation de la fenêtre.
Les véhicules détectés sont poursuivis tout au long de la séquence vidéo. Pour ce faire, la
technique utilisée est la recherche de concordance entre les véhicules de chaque deux images
successives par le biais de la mise en correspondance plus connue sous le nom de Matching.
Dans le cadre de nos travaux, nous nous intéresserons particulièrement aux méthodes de mise
en correspondance par corrélation des niveaux de gris.
80
Chapitre 4
Mise en œuvre du notre système
Une façon simple de suivre un objet est de minimiser une fonctionnelle dépendant de l’objet
initial et d’un objet candidat. Cette fonctionnelle peut simplement être fondée sur la différence
pixel à pixel entre deux objets (e.g. fonctions SAD et SSD, etc.).
2.4.1. L’étape de mise en correspondance
Sélectionner la fenêtre f de largeur Lf et de hauteur Hf résultante de détection de
véhicule,
Délimiter une zone de recherche ZR au tour de la fenêtre ;
Balayer la zone de recherche ZR par la fenêtre f en appliquant le critère SAD, ligne par
ligne, colonne par colonne ;
Dans le cas idéal, le point homologue offre une valeur nulle pour la SAD, mais dans la
pratique, on prendra la valeur minimale. La figure 4-22 illustre le procédé de mise en
correspondance.
La figure 4-23 représente le résultat du suivi des véhicules par mise en correspondance par
mesure de corrélation par l’algorithme SAD.
It-4
It-3
It-2
It-1
It
Zone de recherche
81
Chapitre 4
Mise en œuvre du notre système
1. Catégorie 1 : un objet en cour de traitement, c.à.d. que l’objet en question est encore
poursuivi car il apparait toujours dans notre champ de vision. Cette catégorie va rassembler
toutes les correspondances entre les résultats du suivi et de la détection. Ce cas est illustré sur
la figure ci-dessus par les flèches numérotées 1 et 2.
2. Catégorie 2 : cette catégorie va répertorier essentiellement les résultats de la poursuite à
laquelle ne correspond aucune détection. On rencontre ce cas dans deux situations : la première,
une mauvaise détection qui ne fait pas apparaitre l’objet devant être détecté, la seconde, un objet
qui n’est plus dans la zone d’intérêt. Ce cas est représenté dans la figure 4-24 par la flèche 3.
3. Catégorie 3 : tout objet issu de la détection et au quel ne correspond aucun suivi, est
considéré comme un nouvel objet venant d’être détecté. Ce cas est représenté par la figure ci-
dessus par l’objet numéroté 4.
82
Chapitre 4
Mise en œuvre du notre système
L’attribution d’un identifiant pour les objets de catégorie 3, et insertion de ces derniers dans
l’entité appelé ‘historique’. Un élément de cette entité va contenir les informations que montre
la figure suivante :
1 2 3 4 5 6 7 8 9 10
Nous avons vu dans la section précédente une étape intermédiaire pour localiser ou
positionner l’objet cible. Dans cette section, nous étudions les approches qui servent de mesurer
la distance de l’objet détecté. Notre processus de mesure est basé sur une approche qui utilise
une seule caméra (système mono-vision), nous verrons les détails dans les sections suivantes.
2.5.1. Approche mono-vision
Le système mono-vision emploie une seule caméra pour mesurer la distance de l’objet
mobile détecté. Dans ce cas, nous distinguons deux méthodes :
Méthode d’interpolation.
Méthode du champ de vision [140].
83
Chapitre 4
Mise en œuvre du notre système
h1 h0
α α M
DM (h0)
DM (h1)
Figure 4-26: Le principe de base de la méthode d’interpolation.
∑ (4.6)
(a) (b)
Figure 4-27: (a) Interpolation par la fonction polynomiale f(x) de degré 10, (b) Interpolation par la
fonction polynomiale f(x) de degré 6.
84
Chapitre 4
Mise en œuvre du notre système
Par rapport l’axe Z : translater la caméra en haut et en bas pour varier la hauteur hj à
chaque expérience.
Calcul de la distance DM (hj)
Une fois la fonction polynomiale calculée, nous pouvons déterminer les distances
DM (hj) pour chaque hauteur hj, comme suit :
1. Choisir la hauteur h0 comme hauteur de référence ;
2. Calculer la distance DM (h0) par la formule (4.6) :
, ∑ (4.7)
3. Trouver la relation trigonométrique entre la distance DM (h0) et les distances DM
(hj).
Z
Ψ lacet
Rw
Ф roulis
Θ tangage
h2 X
h0
Y
DM (h2) α M
h1
DM (h0) α M
DM (h1) α M
Figure 4-28: Les relations trigonométriques entre les distances DM (hj) et l’hauteur hj.
Les triangles rouges dans la figure 4-28 donnant les formules suivantes:
tan (4.8)
donc :
(4.9)
85
Chapitre 4
Mise en œuvre du notre système
(4.10)
Par rapport l’axe longitudinal X : la rotation de caméra autour de cet axe est donnée
par l’angle de roulis Ф, comme l’indique la figure 4-29.
Calcul de la distance DM (Ф j)
Une fois la fonction polynomiale calculée, nous pouvons déterminer les distances
DM (Ф j) pour chaque rotation Ф j, comme suit :
1. Choisir l’angle Ф 0 comme angle de référence ;
2. Calculer la distance DM (Ф0) par la formule (4.6).
3. Trouver la relation trigonométrique entre la distance DM (Ф0) et les distances DM
(Фj).
Le couple du triangle {abc, abd}, dans la figure 4-30 donnant les formules suivantes:
Z
Ψ lacet
Ф Rw
Ф roulis
Θ tangage
X
Y
h0
α M
Ф
DM (Ф) α- Ф
M
DM (Ф0)
et
tan Φ ⇒ Φ (4.12)
86
Chapitre 4
Mise en œuvre du notre système
Φ (4.13)
Par rapport l’axe transversal Y : l’angle de tangage Θ n’influe pas sur le calcul de la
fonction polynomiale f(x).
Фj
h0
M
α α- Фj M
b c d
DM (Ф0)
DM (Фj)
Figure 4-30: Les relations trigonométriques entre les distances DM (Фj) et les angles Фj.
En considérant que :
- La caméra est connue, donc les dimensions TC du capteur sont aussi connues.
- L’objectif est connu, donc on connaît la distance focale f.
- L’objet est connu, alors on connait sa taille réelle TO.
On veut trouver la distance D (Tc, To) à une certaine taille d’un objet sous un angle θ par
une méthode trigonométrique simple, et en utilisant les formules suivantes (voir figure 4-31) :
tan (4.14)
, . (4.15)
87
Chapitre 4
Mise en œuvre du notre système
TO : Taille d’objet
θ angle de vue
TC : Taille de
Objet
capteur
C
f : la distance focale
, . (4.16)
f : la distance focale
| |
(4.17)
88
Chapitre 4
Mise en œuvre du notre système
Les systèmes ADAS analysent les situations pour chaque véhicule en temps réel à l’aide des
capteurs de vision et de distance. Ils avertissent le conducteur et peuvent contrôler certaines
fonctions pour éviter l’accident [141], en fournissant des signaux sonores et visuels au
conducteur [142].
Afin d’éviter un obstacle inattendu, les conducteurs ont le choix entre deux stratégies : le
freinage ou le offset latéral. Selon les situations, ils peuvent ainsi appliquer l’une ou l’autre de
ces stratégies, ou encore les deux à la fois. En reprenant le contexte du suivi de véhicule, le
temps à collision peut être exprimé par l’équation (4.18), en supposant les accélérations des
véhicules constantes :
(4.18)
/
où
d : Distance entre véhicules (m), La distance inter-véhiculaire représente la distance qui existe
entre deux véhicules qui s’en suivent.
v : Vitesse relative (m/s), La vitesse relative représente la vitesse qui existe entre deux véhicules
qui s’en suivent.
2.7.1 Le temps de collision (TTC)
Le temps à collision représente la période de temps avant une collision probable. Cette période
donne une marge de manœuvre nécessaire pour éviter la collision ou déterminer son impact si
la collision est inévitable.
La courbe de la figure 4-33 illustre la fonction classique du risque de collision qui est formée
de deux zones où le niveau de risque est constant :
1- Si le TTC est inférieur à 3s : le risque est maximal et la collision est inévitable en cas
d’événement, comme par exemple un freinage brusque.
2- 2- Si le TTC est supérieur à 5 s : ce temps donne la possibilité au conducteur d’anticiper
le risque et de réagir correctement. Dans ce cas, le risque est minimal.
Entre ces deux zones, il existe une partie où la variation du niveau de risque est linéaire en
fonction du TTC. Jusqu’à maintenant, le TTC est toujours le principal indicateur de risque
[143].
Niveau de risque
Max
89
Chapitre 4
Mise en œuvre du notre système
90
Chapitre 4
Mise en œuvre du notre système
3.2. Détection
91
Chapitre 4
Mise en œuvre du notre système
92
Chapitre 4
Mise en œuvre du notre système
Le procédé de segmentation va générer des masques binaires qui sont des régions où il-y-a
une probabilité d’existence de panneaux de signalisation, le but de cette étape est d’extraire ces
régions tout en éliminant le bruit de segmentation et les régions non-homogènes et ainsi
minimiser la probabilité de fausse détection.
93
Chapitre 4
Mise en œuvre du notre système
(a) (b)
Figure 4-41: (a) image acquise, (b) dilation de l’érosion.
3.3.2. Extraction
3.3.2.1. Etiquetage
L’extraction par labélisation (étiquetage) présentée dans le chapitre 3 section 10 consiste à
séparer les régions dans le masque obtenu de la détection (Figure 4-41(b)). On associe à chaque
région une valeur entière (label) en utilisant un voisinage de connexité 8. La figure 4-42 montre
le résultat d’extraction par la labélisation.
(a) (b)
94
Chapitre 4
Mise en œuvre du notre système
3.3.2.2. Projection
Le rôle de cette méthode est de localiser les régions d’intérêt. Cette étape est accomplie en
effectuant une projection horizontale et verticale des régions candidates. Dans cette projection,
nous avons calculé le nombre de pixel verticalement et horizontalement à l’aide de l’équation
(4.19).
∑ ù , ,…, (4.19)
Après le calcul des projections, nous obtenons les graphes illustrés dans la figure 4-43 (a).Nous
avons effectué un seuillage au-dessus des projections pour éliminer les petites accumulations
(bruit), ainsi éliminer les bruits de segmentation. Pour déterminer le début ou la fin d’une
région, nous avons calculé la variance des transitions, si cette dernière est négative, elle
signalera le début de la région, sinon elle signalera la fin de la région.
3.3.2.3. Vérification
Après l’extraction des régions d’intérêt, on procède à une vérification afin d’éliminer les
régions qui ne ressemblent pas à des panneaux de signalisation et ainsi minimiser la probabilité
de fausse détection. Cette vérification peut être effectuée en exploitant les caractéristiques des
panneaux de signalisation, on peut classer ces approches selon leur nature.
Cette approche est basée sur les couleurs représentatives des panneaux de signalisation citées
précédemment. Le procédé consiste à faire une recherche de ces couleurs dans les régions
extraites précédemment.
Cette deuxième approche consiste à éliminer certaines régions, en se basant sur l’étude de leurs
formes. En effet toute région circulaire ou qui possède pas aux moins 3 segments et aux plus 4
segments peut être considérée comme une région dont la probabilité de contenir un panneau est
élevée, pour cela on a fait appel à la transformée de Hough et l’algorithme des K-means qui
seront détaillés ultérieurement.
(a) (b)
95
Chapitre 4
Mise en œuvre du notre système
L’identification des panneaux de signalisation peut être accomplie par plusieurs méthodes.
Dans ce travail, nous avons retenu deux approches :
Détection de formes
Détection de couleurs
La détection de forme des panneaux routiers est une étape primordiale dans notre travail. En
effet, l’objectif de cette étape est de détecter, à partir d’une image obtenue par segmentation des
couleurs de l’image initiale, certaines formes caractéristiques des panneaux de signalisation
routière (carré, triangle, rond). On supposera les panneaux de taille raisonnable par rapport à
l’image et peu inclinés pour avoir des formes plus ou moins fixes. Le procédé comprend cinq
étapes principales :
2) Etape 2, nous appliquons la transformation de Hough ligne pour détecter les droites
dans l’image et obtenir l'espace de Hough, comme l’illustre la figure 4-45.
3) En effet, dans l'espace de Hough, nous avons affronté le problème de multiplication de
droites détectées, ce qui signifie qu’une seule droite peut être divisée en plusieurs
droites, ainsi que la forme des deux bords de l'un est à l'intérieur et l'autre à extérieur, et
afin de regrouper toutes ces droites en une seule droite, on a appliqué le K-means dans
l'espace de Hough.
4) Dans cette étape, en appliquant le K-means de classification non supervisée pour
calculer les moyennes de classes initiales uniformément réparties dans l'espace de
données. Puis itérativement, grouper les points dans la classe la plus proche utilisant
une technique de distance minimale. A chaque itération, on recalcule les moyennes de
classes est reclasses les points par rapport aux nouvelles moyennes. Tous les points sont
classés dans la classe la plus proche. Chaque droite dans l'espace de Hough est
représentée en coordonnée polaires (r, θ) par (rho, et thêta), donc on peut appliquer le
K-means deux fois pour K= 3 et K= 4. Pour K= 3, on calcule la variancei pour ri et thetai
96
Chapitre 4
Mise en œuvre du notre système
pour chaque cluster (voir figure4-46(a)), et si tous les variances sont inférieurs au seuil
de distance, cela signifies que on a un triangle. Pour K= 4, on calcule aussi la variancei
pour ri et thetai pour chaque cluster, et si elles sont inférieurs au seuil de distance, donc
on obtient la forme de carrée ou rectangle.
Variancei
Variancei
Variancei
(b)
(a)
Figure 4-46: (a) K-means appliqué aux l'espace de Hough avec k=3, (b) L'espace de Hough.
97
Chapitre 4
Mise en œuvre du notre système
Dans ce chapitre, nous allons présenter les méthodes actuelles de détection de visage,
détection des yeux, et la décision de l’état des yeux. Nous allons passer par la suite à la
description des méthodes qui ont été implémentées avec nos contributions pour l’amélioration
et l’optimisation.
Dans la phase de détection de visage, nous avons implémenté les méthodes suivantes :
La détection de visage consiste à détecter un visage humain dans une image. Elle a de très
nombreuses applications directes en vidéo-surveillance, biométrie, robotique, commande
d'interface homme-machine, photographie, etc...
98
Chapitre 4
Mise en œuvre du notre système
Le tableau 4-2 réalisé par Yang et al. [144] résume les algorithmes et les travaux effectués pour
la détection de visage dans une image par ces quatre approches.
99
Chapitre 4
Mise en œuvre du notre système
Nous allons maintenant décrire en détail les méthodes de détection déjà citées auparavant.
100
Chapitre 4
Mise en œuvre du notre système
Dans notre cas, Nous nous intéressons au masque utilisé. La caméra fournit une image
comprenant la partie supérieure du corps de conducteur et l’arrière-plan (l’intérieure de
véhicule). Nous améliorons le masque obtenu en utilisant les opérations morphologiques :
l’érosion pour éliminer toutes petites zones de couleur de peau non significative, et la dilatation
pour remplir les zones trouées de couleur de peau figure 4-47.
101
Chapitre 4
Mise en œuvre du notre système
On commence par réaliser une projection verticale et horizontale sur le masque pour
obtenir les signaux de projection .
∑ ,
(4.20)
∑ ,
Ensuite, une image binaire est obtenue grâce à une opération de seuillage, les signaux obtenus
par la projection pour éliminer les petites régions inutiles.
1
(4.21)
0
Puis, nous extrairons les régions situées dans l’intersection des deux projections qui contiennent
les pixels de peau. La figure 4-49 illustre le résultat de localisation par la projection.
Les régions qui sont séparées par une distance inferieure à un seuil (Figure 4-50), nous les
regroupons dans une seule région commune.
102
Chapitre 4
Mise en œuvre du notre système
Figure 4-49: Localisation par Projection. (a). Le masque M, (b) Projection horizontale, (c)
Projection verticale, (d) Localisation des candidats.
Figure 4-50: Effet de regroupement des régions. (a) Sans regroupement, (b) Avec regroupement.
103
Chapitre 4
Mise en œuvre du notre système
4.1.3.3. Vérification
L’objectif principal de cette étape est de vérifier chaque région candidate si elle représente
un visage ou non en respectant certains critères que nous avons proposés :
1- La taille du visage détecté doit être limitée, donc, nous éliminons les petites et les très
grandes régions comme suit :
_
(4.22)
_
(4.25)
Enfin, puisque nous nous intéressons au visage du conducteur pour le traiter, nous éliminons
les autres visages qui peuvent être détecté au siège arrière du véhicule, en choisissant la plus
grande région qui satisfait toutes ces conditions parce que le visage du conducteur est le plus
proche de la camera.
Après plusieurs tests expérimentaux, nous avons remarqué que le cou de la personne est détecté
avec le visage si la quantité est supérieur à un , alors nous avons décidé
d’éliminer 20% du bas du visage détecté pour éliminer la région de cou (Figure 4-51).
Figure 4-51: Elimination de la région ‘cou’ du visage. (a) Résultat avant l’opération,
(b) Résultat après l’opération.
L’organigramme de figure 4-52 résume les étapes principales de détection de visage par couleur
de peau.
104
Chapitre 4
Mise en œuvre du notre système
Image I
Détection de
couleur de peau
Erosion &
Dilatation
Non
Eliminer Vérification
Oui
Visage détecté
Si
1
Oui
Eliminer le cou
Pour bien détecter le visage, nous proposons une nouvelle méthode permettant de bénéficier
des avantages des deux méthodes précédentes. Cette méthode est basée sur la fusion de la
projection et de la labélisation. Premièrement, nous localisons les objets détectés par la méthode
de projection suivie par la méthode de la labélisation. Puis, nous retenons un visage candidat
respectant les conditions de vérification pour chaque méthode de localisation. Ensuite, nous
calculons le pourcentage d’intersection entre les deux rectangles de visages détectés. Si le
pourcentage est supérieur à un seuil alors, on dit que la détection du visage est bonne et le visage
final sera donné par l’union des deux rectangles. La figure 4-53 montre l’organigramme de cette
méthode de vérification.
105
Chapitre 4
Mise en œuvre du notre système
Image I
Oui Oui
Visage non Si
Non
détecté
Oui
Visage détecté
106
Chapitre 4
Mise en œuvre du notre système
Le visage détecté peut-être incliné ou en pose non frontale, ce qui nous donne un mauvais
modèle pour l’utiliser dans le suivi (Chapitre 3 section 12), donc nous devons vérifier la pose
frontale du visage détecté en ajoutant une condition pour dire que le visage détecté est en face
ou non. Cette condition est basée sur la présence de l’oreille dans le masque résultant par la
détection de la peau, en utilisant l’opération logique OU exclusive suivi d’une
négation entre les deux régions de l’extrémité gauche et droite du visage détecté. La
figure 4-54 montre bien l’efficacité de cette opération.
Figure 4-54: Vérification de la position frontale du visage. (a) Visage n’est pas accepté pour le suivi (non-
frontal), (b) Visage accepté pour le suivi (frontal).
Note problème, concerne la détection du visage du conducteur, Pui est supposé le plus proche
de la camera, par conséquent le visage du conducteur serait le plus grand dans l’image à traiter,
avec une symétrie fortement prononcée par rapport aux autres visages éventuels présents dans
la scène.
Dans ce contexte, nous allons présenter plusieurs techniques proposées pour la détection et la
localisation de visage par exploitation de la symétrie :
107
Chapitre 4
Mise en œuvre du notre système
En effet, on se place dans le cas d’une caméra fixe, quant au conducteur est supposé longer
dans une zone limitée permettant une estimation de la taille du visage à l’aide de focale de la
camera.
Pendant le balayage nous exploitons la symétrie d’une façon simple en calculant le niveau de
superposition du côté gauche avec la réflexion verticale du côté droit du masque rectangulaire
(Figure 4-55). Le rectangle qui a un indice de symétrie maximal correspond au visage.
_
, ∑ ∑_ /
, & , (4.26)
Avec :
1∶ _ _
1∶ _ _
_ .
_
_
_
La figure 4-57 illustre quelques résultats de détection de visage par symétrie en utilisant un
rectangle de taille du visage.
Nous avons applique cette méthode de symétrie en utilisant une image contours obtenue par le
filtre de Sobel (Figure 4-57(b)), ou par le filtre de Gabor (Figure 4-57(c)) ou obtenue par une
image de différence (Figure 4-57(d)). Que cette dernière nécessite une opération supplémentaire
de dilatation.
108
Chapitre 4
Mise en œuvre du notre système
Image I
Calculer en balayant
l’image par un rectangle
Localisation
du visage
Nous remarquons que l’application de cette technique de symétrie de détection de visage sur
l’image différence avec dilatation donne le meilleur résultat.
109
Chapitre 4
Mise en œuvre du notre système
Pour la localisation, nous extrairons la région verticale de l’image contours (région d’intérêt)
correspondant à l’indice de symétrie maximal du signal de symétrie obtenu. Puis, cela, nous
prenons un rectangle de taille estimée à peu près de la taille de visage et nous balayons cette
région d’intérêt en appliquant l’algorithme de symétrie sur le rectangle. Le rectangle qui a un
indice de symétrie maximal correspond au visage (Figure 4-59). Les étapes principales de cette
méthode sont présentées dans l’organigramme de la figure 4-58
Image I de dimension (h x w)
Détection de contour ( )
À la position de , on
coupe l’image
Calcul de symétrie
par rectangle
110
Chapitre 4
Mise en œuvre du notre système
Dans ce qui suit, nous allons introduire des améliorations sur l’algorithme de calcul de la
symétrie dans une image pour une meilleure adaptation de la détection du visage en appliquant
un ensemble de règles permettant de donner un meilleur calcul de symétrie de visage. Les règles
proposées sont :
- Au lieu de calculer la symétrie entre deux points dans l’image, on la calcule entre deux
fenêtres Z1 et Z2 de taille initialisée (zone) en balayant Z1 dans toute l’image (Figure
4-60).
- Pour chaque fenêtre Z1, nous balayons la fenêtre Z2 dans la zone d’intérêt déterminée
par les paramètres S_min, S_max, et H avec :
- S_min : le début de recherche de la symétrie.
- S_max : la fin de recherche de la symétrie.
- H : la hauteur pour détecter une symétrie avec une légère orientation sans
indiqué l’angle.
- Nous calculons la symétrie entre ces deux fenêtres Z1 et Z2 que si le nombre de pixels
de contours est situé entre les seuils S1 et S2 (max et min) avec :
- S1 : seuil minimum pour diminuer la complexité.
- S2 : seuil maximum pour éliminer le bruit et éliminer un calcul inutile de la
symétrie.
Z1 Z2
S_min
S_max
Figure 4-60: La nouvelle méthode pour améliorer le calcul de la symétrie dans l’image.
La figure 4-61 montre l’effet de cette nouvelle technique de calcul de symétrie pour détecter le
visage du conducteur avec une amélioration de résultat.
111
Chapitre 4
Mise en œuvre du notre système
Figure 4-61: Détection de visage par symétrie simple.(a) Image originale, (b) Image contour, (c) Signal de la
symétrie, (d) Localisation du max de symétrie, (e) Zone d’intérêt, (f) Visage détecté.
Figure 4-62: Un exemple de fausse détection de visage par symétrie. (a) Image originale, (b) signal de symétrie.
Nous proposons de faire un prétraitement qui consiste à faire la différence entre l’image actuelle
et l’image précédente dans l’étape de détection de signal de symétrie pour éliminer les contours
de fond qui ont une mesure forte de symétrie (Figure 4-62) comme les sièges et le cadre des
vitres … etc. Car ils sont des contours statiques par rapport à une caméra fixe installée dans le
véhicule.
Cette étape repose sur le calcul du signal de symétrie dans l’image de différence pour
détecter le visage candidat. Le calcul de différence a été effectué par trois techniques
proposées :
112
Chapitre 4
Mise en œuvre du notre système
(4.27)
⨁ (4.28)
113
Chapitre 4
Mise en œuvre du notre système
où , 1 sont les images contours à l’instant (t) et (t-1) respectivement, et est l’image
de différence.
Figure 4-64: Détection de visage par symétrie améliorée.(a) Image originale 1, (b) Image contour 1,
(c) Image originale 2, (d) Image contour 2, (e) Différence en les images contours, (f) Calcul de la symétrie.
Puisque le changement entre deux images successives est très léger (différence de 1/30
seconde entre deux frames), nous proposons de faire la différence entre deux images contours
successives avec un pas d’une image, c’est-à-dire nous faisons la différence entre les images
contours à l’instant (t) et à l’instant (t-2) en utilisant l’opération logique OU exclusive (XOR),
puis nous appliquons l’algorithme de la symétrie sur l’image différence résultante.
⨁ (4.29)
où , 2 sont les images contours à l’instant (t) et (t-2) respectivement, et ; l’image de
différence.
114
Chapitre 4
Mise en œuvre du notre système
Ces trois techniques de prétraitement introduisent des améliorations significatives sur les
résultats de symétrie, car on arrive à éliminer plusieurs contours statiques dans l’arrière- plan
dans le véhicule (e.g les sièges et le cadre des vitres … etc.) qui ont une forte mesure de
symétrie.
Toutes ces remarques nous conduisent à proposer un filtrage de notre signal de symétrie ‘sym’
par un filtre de forme illustré par la (figure 4-65 a) d’intervalle de largeur du visage pour
améliorer notre signal de symétrie original (Figure 4-65).
g c d
∑
é (4.30)
∑ ∑
_
Dans cette étape, nous extrairons la région verticale de l’image contours (région d’intérêt)
correspondant à l’indice de symétrie maximal du signal de symétrie obtenu. Ensuite, nous
pouvons appliquer deux techniques pour localiser le visage.
115
Chapitre 4
Mise en œuvre du notre système
éliminant les contours statiques du fond. Cette dernière technique peut être améliorée en termes
de complexité en utilisant l’image intégrale (Chapitre 3 section 6).
Cette méthode donne de très bons résultats dans les séquences de nuit prises par une caméra
infrarouge à cause de la nature des images infrarouge du fait les rayons IR font apparaitre le
visage du conducteur seulement et élimine le fond (Figure 4-67).
116
Chapitre 4
Mise en œuvre du notre système
Figure 4-67: Méthode de détection de visage par l‘énergie du mouvement de visage. (a) et (c) Les
images de différence de contours des images (b) et (d) respectivement avec résultats, (b) Image
de jour avec résultat, (d) Image de nuit IR avec résultat.
Parada et al. [139] ont travaillé sur cette méthode pour la détection des différents panneaux de
signalisation routière : triangulaires et circulaires. Le principe est de numéroter chaque pixel
actif (point blanc) dans l’image contours par un numéro en vérifiant ses pixels voisin s’ils ont
des structures géométriques locales définies pour chaque orientation (Figure 4-68).
Dans notre cas, nous avons proposé de prendre seulement trois orientations 45°, 90° et 135° qui
ont une fréquence d’apparition élevée dans les contours du visage.
La matrice résultante R de cette fonction LCP est une matrice avec des valeurs 1, 2 et 3 pour
les orientations 45°, 90° et 135° respectivement.
Ensuite, nous utilisons le masque M (avec des valeurs 0: noir, 1 : rouge, 2 : vert, 3 : bleu)
(Figure 4-70(a)) et nous balayons la matrice R en calculant le nombre des numéros LCP
intersectés avec le masque M. La valeur maximale correspond à la position du visage. (Figure
4-70).
117
Chapitre 4
Mise en œuvre du notre système
135°
90°
45°
L’organigramme (Figure 4-69) montre les étapes à suivre dans cette méthode.
Image I
Appliquer la
fonction LCP
Visage détecté
118
Chapitre 4
Mise en œuvre du notre système
, , , , (4.31)
4.1.6.2. Vérification
Dans cette phase, nous utilisons deux étapes de vérification.
La première étape est au niveau du frame courante, elle consiste à détecter plusieurs régions
candidates (Figure 4-71(b) et (d) avec des rectangles verts) qui sont supérieurs à un seuil et nous
vérifions les positions de ces régions, si elles se sont proches nous prenons la région moyenne
(Figure 4-71(b) avec le rectangle rouge) ayant une possibilité d’être une région de visage. Dans
la Figure 4-71(d) cette condition n’est pas vérifiée, alors nous ne la prenons pas en considération
et elle est négligée.
119
Chapitre 4
Mise en œuvre du notre système
Cette combinaison nous permet de profit propriétés de filtre du Gabor pour trouver les
contours orientés. Ainsi au lieu de faire une détection des contours avec le filtre de Sobel suivi
de l’application de la fonction LCP pour déterminer les orientations, nous utilisons directement
le filtre de Gabor avec des orientations que nous voulons rechercher. Les contours détectés avec
les orientations 45°, 90° et 135° prennent les valeurs entières 1, 2 et 3 respectivement dans la
matrice résultante R. Après cette étape nous balayons la matrice R avec le même masque M
(Figure 4-70(a)) pour calculer le niveau d’intersection. La valeur maximale correspond à la
position du visage (Figure 4-72).
Figure 4-72: Utilisation des filtres de Gabor pour trouver les orientations.
120
Chapitre 4
Mise en œuvre du notre système
Nous avons utilisé le code source en C++ en intégrant la fonction VJ disponible dans la librairie
d’OpenCV pour tester la détection de visage, Nous avons aussi téléchargé le code source [145]
sous MATLAB qui utilise le Classificateur Haar Cascade de OpenCV. Les résultats obtenus
sont illustrés dans la figure 4-73.
Figure 4-73: Détection de visage par la méthode de VJ. (a) et (b) par OpenCV avec deux
classificateurs différents, (c) par MATLAB.
La détection des yeux est une tâche très importante pour notre projet. Il est très difficile de
détecter les yeux dans une image d’une façon robuste car ce problème reste mal posé. Parmi les
difficultés, on trouve : le changement de luminosité, la résolution et la qualité de l’image, la
distance des personnes, la forme des yeux, la couleur de pupille, la variation d’états des yeux
(ouverte ou fermée) et est-ce que la personne porte des lunettes ou non ?...
La détection des yeux est une étape principale utilisée dans plusieurs applications. Comme la
reconnaissance et l’identification des personnes par l’iris, le suivi du regard, la commande des
objets par l’œil, …etc. Dans notre projet, nous nous intéressons à la détection des yeux et
connaitre leurs états pour déterminer l’état du conducteur.
Généralement, la détection des yeux demande une phase de détection de visage, donc au lieu
de chercher les yeux dans l’image entière nous les cherchons seulement dans le visage détecté.
Puisque les yeux sont toujours dans une zone bien définie dans le visage (propriétés
anthropométrique du visage), nous limitons notre recherche dans la zone située entre le front et
la bouche (région d’intérêt) (Figure 4-74), car il est impossible de trouver les yeux dans une
autre zone.
Nous avons implémenté plusieurs techniques de détection des yeux dans un visage :
1- Détection des yeux par symétrie.
2- Détection des yeux par un masque circulaire.
121
Chapitre 4
Mise en œuvre du notre système
Région
h_visage
d’intérêt
a
h_visage
122
Chapitre 4
Mise en œuvre du notre système
Alors, nous utilisons un masque M (Figure 4-77(a)) pour détecter les zones sombres
correspondantes aux iris en le convoluant avec la région d’intérêt en niveau de gris I, le résultat
obtenu est une matrice dont les deux valeurs minimales de cette matrice correspondent aux
iris.
, ∗ ∑ ∑ , . , (4.32)
123
Chapitre 4
Mise en œuvre du notre système
l_visage
d
c H
a
h_visage
L
b
Nous observons que l’énergie dans l’image du visage se concentre au niveau des yeux, donc
nous extrairons la région d’intérêt à partir d’une image contours obtenue par le filtre de Sobel.
Nous balayons la région d’intérêt avec le carré gauche du masque lunette et pour chaque
position nous balayons le carré droit dans la zone étendue par H et L comme le montre la figure
4-78, ensuite nous cherchons les deux zones qui satisfont les conditions suivantes :
- La différence entre la somme locale des points contours des deux zones est inférieure à
un seuil :
(4.33)
,
124
Chapitre 4
Mise en œuvre du notre système
- Si la première condition est vérifiée nous cherchons que l’énergie des deux carrés
soit maximale.
Les résultats obtenus sont montré dans la Figure 4-79.
Cette méthode nous a également permis d’obtenir de bons résultats, mais nous remarquons que
les contours des côtés du visage ont des mauvaises influences sur la détection des yeux comme
le montre la figure 4-80. Donc nous proposons une solution pour éliminer cette influence en
extrayant la région d’intérêt à partir d’une image contours obtenue par le filtre de Sobel
horizontal pour éliminer les contours verticaux (Figure 4-80).
Figure 4-80: Détection des yeux avec masque lunette sur image de contours (Sobel horizontal). (a)
Image contours par Sobel horizontal, (b) et (c) Image originale avec résultat utilisant grande et petite
lunette respectivement.
Pour rendre la méthode de détection soit à la fois robuste et rapide pour satisfaire les exigences
du temps réel, on introduit des améliorations utilisant l’image intégrale présenté dans le chapitre
3 section 6.
On peut aussi augmenter le taux de détection des yeux, en appliquant l’opération ‘ET’ logique
entre le carré du masque lunette et un masque E (équation 4.33) d’une allure elliptique de même
taille que le carré du masque lunette du visage (Figure 4-81). Pour vérifier d’un part que l’œil
détecté est dans le centre des carrés du masque lunette, et d’autre part diminuer l’influence des
contours de sourcils sur la détection de l’œil.
125
Chapitre 4
Mise en œuvre du notre système
,
, (4.34)
, 1
, (4.35)
où 0
, 0 le centre de l’ellipse
, b j
(a)
(b)
Figure 4-81: La nouvelle forme du masque de lunette. (a) Les paramètres de l’ellipse, (b) Le masque
lunette.
La méthode de détection des yeux par le masque lunette peut être étendue en extrairont la région
d’intérêt à partir d’une image seuillée ou d’une image contours obtenue par le filtre de Gabor.
Nous allons expliquer les deux propositions dans la section suivante.
,
, (4.36)
,
Nous faisons les mêmes étapes de la méthode de détection des yeux en traitant maintenant les
points blancs de l’image seuillée (Figure 4-82).
126
Chapitre 4
Mise en œuvre du notre système
Figure 4-82: Résultat de détection des yeux par masque lunette en utilisant l'image seuillée. (a) Image en
niveau de gris, (b) Image seuillée, (c) Image originale avec résultat.
Figure 4-83: Résultat de détection des yeux par masque lunette en utilisant l'image obtenue par le
filtre de Gabor. (a) Image contours avec filtre de Gabor, (b) et (c) Image originale avec résultat
utilisant grande et petite lunette respectivement.
4.2.4. Améliorer la détection des yeux
4.2.4.1. Masque elliptique de visage
Nous améliorons la détection des yeux dans une image de visage par élimination de
l’effet du fond qui a une influence sur la qualité des résultats. Nous diminuons la région d’intérêt
en appliquant de l’opération ‘ET’ logique entre l’image du visage et un masque d’une allure
elliptique E (4.33) de même taille que l’image du visage (Figure 4-84(c)) donc la région
d’intérêt devient comme le montre la figure (Figure 4-84(d)(e)).
Cette technique est applicable pour toutes les méthodes de détection des yeux citées
précédemment.
127
Chapitre 4
Mise en œuvre du notre système
Figure 4-84: Amélioration de détection des yeux par le masque elliptique de visage. (a) Image en
niveau de gris, (b) Image contours, (c) Le masque elliptique E, (d) et (e) Image en niveau de gris et
image contours après l’application du masque.
128
Chapitre 4
Mise en œuvre du notre système
Figure 4-85: Amélioration de détection des yeux par le masque de couleur de peau du visage. (a) Image
en niveau de gris, (b) Image contours, (c) Le masque de couleur de peau du visage, (d) et (e) Image en
niveau de gris et image contours après l’application du masque.
(4.37)
129
Chapitre 4
Mise en œuvre du notre système
Figure 4-87: Localisation de la bouche, (a) La relation entre les yeux et la bouche,
(b) Un exmaple de positionnement de la bouche.
1- Il y a une variation négative entre les distances si la première est une bouche fermée et
la deuxième est ouverte.
2- Il y a une variation positive entre les distances si la première est une bouche ouverte et
la deuxième est fermée.
3- Il y a une petite variation entre les distances si les deux frames ont la même état de la
bouche.
130
Chapitre 4
Mise en œuvre du notre système
Figure 4-88: Détection de bâillement par la méthode de K-means. (a) et (b) Image de la bouche
fermé et ouvert respectivement, (c) et (d) Regroupement par K-means les intensités de Y en
fonction de Cb.
Cette étape de décision de l’état des yeux (ouvert ou fermé) est parmi les phases principales
permettant de déterminer l’état du conducteur. La détermination de l’état des yeux consiste à
classifier l’œil en deux états : ouvert ou fermé.
Après la détection des yeux nous extrayons les régions de l’œil gauche et droit, et nous faisons
le traitement au niveau de ces dernières pour connaitre ses états.
Dans notre projet, nous avons proposé d’utiliser différentes méthodes pour déterminer l’état des
yeux à base de :
131
Chapitre 4
Mise en œuvre du notre système
qui a une grande valeur dans l’accumulateur de Hough pour tous les rayons. Puis, nous
appliquons l’opération logique ‘ET’ logique entre l’image contours et le cercle complet obtenu
par la transformée de Hough en calculant le niveau d’intersection entre eux « S ». Enfin, l’état
de l’œil « œ » est défini en testant la valeur « S » par un seuil :
œ (4.38)
Nous répétons ces étapes pour les deux yeux gauche et droit pour déterminer l’état de chaque
œil , , et on prend une seule mesure d’état des yeux « Etat » qui est :
| (4.39)
Image de l’œil
I
Détection des
contours
Transformée de
Hough Cercle
Calculer
l’intersection
« »
Oui Si Non
132
Chapitre 4
Mise en œuvre du notre système
œ (4.40)
L’organigramme de la Figure 4-91 résume les étapes à suivre dans cette méthode, et la figure
4-92 illustre les résultats obtenus par cette méthode.
133
Chapitre 4
Mise en œuvre du notre système
Image de
l’œil I
Détection des
contours
Calculer « S »
Si
Figure 4-92: Etat des yeux par la méthode somme des points contours. (a) et (c) Images contours d’un œil
ouvert et fermé respectivement, (b) et (d) Résultat de décision pour l’image (a) et (c) respectivement.
134
Chapitre 4
Mise en œuvre du notre système
Parmi les différences entre l’image de l’œil ouvert et l’image de l’œil fermé, nous trouvons
un facteur permettant de déterminer directement l’état de l’œil, c’est la présence de l’iris. Nous
travaillons cette fois avec l’image de l’œil en niveau de gris pour détecter l’iris.
L’idée de cette méthode est à la même idée que nous avons proposée dans la méthode de
détection des yeux par un masque circulaire (Section 3.2.2). Elle consiste à faire la convolution
entre l’image de l’œil et le même masque circulaire M (Figure 4-77(a)). Puis, nous testons la
valeur minimale de la matrice résultante R avec un seuil pour déterminer l’état de l’œil :
œ (4.41)
L’organigramme de la figure 4-94 montre les étapes principales de cette méthode, et les
résultats obtenus sont illustrés dans la figure 4-95.
135
Chapitre 4
Mise en œuvre du notre système
Image de l’œil I
en niveau de gris
Calculer
∗
Trouver
Si
Figure 4-94: Organigramme de l’algorithme de décision de l’état de l’œil par un masque circulaire.
4.3.4. Etat des yeux par la fusion entre la méthode de masque circulaire et la THC
Cette méthode consiste à déterminer l’état des yeux en fusionnant la méthode de masque
circulaire et la Transformée de Hough Circulaire (THC).
′ ′
œ (4.42)
é
136
Chapitre 4
Mise en œuvre du notre système
Si l’œil est ouvert, nous passons à la phase de vérification en utilisant la méthode d’état des
yeux par la THC dans la région de l’iris trouvée pour confirmer la présence de l’iris par sa forme
circulaire. Dans ce cas, l’état des yeux dépend de cette vérification (Figure 4-96)
Figure 4-96: Etat des yeux. (a) Œil ouvert avec vérification de THC, (b) Œil fermé.
Pour l’œil fermé en niveau de gris ce regroupement est perturbé. Dans ce cas, nous proposons
d’appliquer l’algorithme K-means pour classifier l’état de l’œil fermé ou ouvert.
Nous appliquons cet algorithme avec K=3 sur une image d’un œil ouvert et une autre image
d’un œil fermé en prenant la composante Y comme axe des abscisses et Cb axe des
coordonnées. Nous avons trouvé que la variance du groupe le plus grand est variable d’un œil
fermé à un œil ouvert. Quand l’œil est fermé la variance est petite par contre cette variance est
grande quand l’œil est ouvert.
Donc, nous pouvons déterminer l’état de l’œil en testant par un seuil la variance du plus grand
groupe.
, ,
œ (4.43)
La figure 4-97 illustre les résultats obtenus par l’algorithme de K-means (K=3) appliqué sur des
images de l’œil ouvert et fermé.
137
Chapitre 4
Mise en œuvre du notre système
5. Conclusion
Nous avons présenté dans ce chapitre les méthodes du chaque étape dans notre système qui se
compose de trois module. Premièrement, les capteurs utilisés en vision ne permettent pas une
mesure directe de la vitesse. Il faut donc mettre en œuvre des méthodes spécifiques. La solution
la plus intuitive consiste alors à mettre en correspondance au cours du temps les détections
successives fournies par le processus de détection des véhicules. Dans ce module, nous avons
commencé par une description du processus de modélisation de la route, puis la détection et la
poursuite de véhicules, pour ensuite mesurer la distance et la vitesse. Et pour le deuxième
module, nous avons présenté les méthodes de détection et de classification de panneaux de
signalisation. Dans le troisième module, nous avons abordé les méthodes de détection de visage,
de détection des yeux, et de décision de l’état de ces derniers, qui ont été mis en œuvre avec
nos contributions pour l’amélioration et l’optimisation des résultats.
138
Chapitre 5
Résultats et discussions
139
Chapitre 5
Résultats et discussions
1. Introduction
Dans ce chapitre, nous allons tout d’abord présenter nos modules proposés :
Partie matérielle : dans cette section, nous décrirons le matériel utilisé durant la
réalisation de notre système.
Partie logicielle : dans cette section, nous présenterons sur les logiciels utilisés pour
implémenter nos algorithmes.
Ensuite, nous discuterons les résultats obtenus par chaque module et chaque méthode appliquée
sur des séquences vidéo de notre base de données.
Nous allons passer par la suite à la description de nos algorithmes global de chaque module qui
collectent les différents blocs cités dans le chapitre précédent. Enfin, des discussions sur les
résultats obtenus seront présentées.
2. Le système réalisé
Notre système se compose de deux parties inséparables : Matérielle et logicielle.
2.1.Matériel utilisé
Dans cette partie, nous citons tous le matériel utilisé pour le développement et la réalisation
de notre système.
140
Chapitre 5
Résultats et discussions
2.1.1.2. Caméra 2
Nous utilisons une deuxième camera (Modèle : 1/3’’ SONY IR DOME CAMERA DM-
621D) (Figure 5-2) avec des diodes infrarouges IR qui s’activent automatiquement quand les
conditions de luminosité seront insuffisantes ou dans la nuit. Cette caméra génère des images
infrarouges en fournissant un signal vidéo PAL à la sortie.
(b)
(a)
Figure 5-3: Carte d’acquisition (a) EasyCAP, (b) Pinnacle Systems GmbH 710 USB.
141
Chapitre 5
Résultats et discussions
2.1.5. Alimentation
L’alimentation du système dans la voiture est assurée par un transformateur 12V continu
issu de l’allume cigarette vers 220V alternatif (Figure 5-5).
2.2.Logiciels utilisés
Nous avons implémenté nos algorithmes sous l’environnement MATLAB afin d’effectuer
la validation des algorithmes propose .Il est à noter que cet environnement n’est pas
approprié pour un traitement au temps réel, il est utilisé pour la confirmation de résultants
de nos solutions.
142
Chapitre 5
Résultats et discussions
Dans la première phase, nous utilisons le matériel pour installer notre système pour créer
des bases des données.
Dans la deuxième phase, nous utilisons les bases de données pour développer notre système.
Figure 5-6: Notre système installé dans la voiture à base de camera IR.
Nous avons enregistrés les vidéos en utilisant la caméra avec une carte d’acquisition. Les
images vidéo ont une dimension de 720 x 480 pixels avec 30 fps.
(f)
(g)
Figure 5-7: Echantillons des séquences enregistré par la caméra.
5. Résultats expérimentaux
Dans le quatrième chapitre, nous avons décrit les différents blocs de nos modules et nous
avons donné quelques résultats expérimentaux. Cette description nous donne une idée claire sur
le principe de fonctionnement des modules à implémenter. Dans cette section, nous nous
intéressons à analyser tous les résultats expérimentaux obtenus de chaque bloc de notre système.
144
Chapitre 5
Résultats et discussions
Deux
7 0.14 3 0.28 1 0.66 2 0.19 3 0.66
accumulateurs
Transformée de Hough
Distance
10 0.20 5 0.47 3 2 7 0.66 5 1.11
euclidienne
FD : Fausse Détection.
En effet, d’après les résultats que nous avons obtenus, la méthode de détection de véhicule par
LCP fournit d’excellents résultats dans toutes les séquences (Tableau 5-2)
145
Chapitre 5
Résultats et discussions
Le suivi par toutes les techniques avec la fusion de donnée donne des bons résultats. Parmi les
approches appliquées, nous choisissons la technique de SAD pour réaliser la phase de suivi,
parce qu’elle offre un bon compromis entre la complexité et la qualité de suivi.
FD % FD FD % FD FD % FD FD % FD FD % FD
SAD
SSD
NCC
Bon pour toutes les séquences
ZSAD
ZSSD
ZNCC
146
Chapitre 5
Résultats et discussions
Pour une bonne étude des deux techniques employées, on se propose de tracer trois lignes
horizontales sur l’image, et au niveau de chaque ligne on donne la distance estimée de véhicule
par rapport à la caméra. Cette opération est réalisée pour trois véhicules différents. Les tableaux
suivant introduisent le résultat des tests.
Tableau 5-4: Résultats des tests de mesure de distance par la méthode 1 pour trois véhicules.
Tableau 5-5: Résultats des tests de mesure de distance par la méthode 2 pour trois véhicules.
Dans le tableau suivant on introduit le résultat de mesure de la distance parcouru pour un totale
de 5 véhicules, ainsi que leur vitesse moyenne.
Tableau 5-6: Résultats des tests de mesure de distance et de vitesse moyenne pour cinq véhicules.
147
Chapitre 5
Résultats et discussions
Pour le calcul du temps, on se réfère à l’entité historique contenant toutes les informations
relatives aux objets, et notamment le moment de la première mesure de distance ainsi que la
distance finale. Le tableau suivant introduit ces dernières. On rappelle par la figure 5-8 les
enregistrements des données dans l’entité ‘historique’.
1 2 3 4 5 6 7 8 9 10
Tableau 5-7: Historique regroupant les informations relatives à l’évolution des cinq véhicules.
148
Chapitre 5
Résultats et discussions
Les figures suivantes illustrent les vitesses pratiquées par les véhicules
28
45
26
40
24
35
Vitesse [ Km/h ]
Vitesse [ Km/h ]
22
20 30
18
25
16
20
14
15
12
10 10
10 15 20 25 30 35 40 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-9: Vitesse en fonction de la distance (h=1.28 m, v=20 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
45 50
40 45
40
35
35
30
Distance [ M ]
Distance [ M ]
30
25
25
20
20
15
15
10 10
5 5
200 220 240 260 280 300 320 200 220 240 260 280 300 320
Pixels Pixels
(a) (b)
Figure 5-11: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=20 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
149
Chapitre 5
Résultats et discussions
45 50
40 45
40
35
35
30
Distance [ M ]
Distance [ M ]
30
25
25
20
20
15
15
10
10
5 5
360 380 400 420 440 460 480 500 520 540 560 360 380 400 420 440 460 480 500 520 540 560
Number Frame Number Frame
(a) (b)
Figure 5-12: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
Hauteur (h) de la caméra = 1 .28 m
Vitesse réelle = 40 ± 2 Km/h
70 70
65 65
60 60
55 55
Vitesse [ Km/h ]
Vitesse [ Km/h ]
50 50
45 45
40 40
35 35
30 30
10 15 20 25 30 35 40 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-13: Vitesse en fonction de la distance (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 50
45
60
40
50
35
Distance [ M ]
Distance [ M ]
40 30
30 25
20
20
15
10
10
0 5
200 220 240 260 280 300 320 200 220 240 260 280 300 320
Pixels Pixels
(a) (b)
Figure 5-14: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
150
Chapitre 5
Résultats et discussions
70 50
45
60
40
50
35
Distance [ M ]
Distance [ M ]
40 30
25
30
20
20
15
10 10
0 5
250 260 270 280 290 300 310 320 330 340 350
200 250 300 350
Number Frame
Number Frame
(a) (b)
Figure 5-15: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 70
65 65
60 60
55 55
Vitesse [ Km/h ]
Vitesse [ Km/h ]
50 50
45 45
40 40
35 35
30 30
310 315 320 325 330 335 340 345 350 355 360 310 315 320 325 330 335 340 345 350 355 360
Number Frame Number Frame
(a) (b)
Figure 5-16: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
75 75
70 70
65 65
Vitesse [ Km/h ]
Vitesse [ Km/h ]
60 60
55 55
50 50
45 45
40 40
10 15 20 25 30 35 40 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-17: Vitesse en fonction de la distance (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
151
Chapitre 5
Résultats et discussions
50 50
45 45
40 40
35 35
Distance [ M ]
Distance [ M ]
30 30
25 25
20 20
15 15
10 10
5 5
200 210 220 230 240 250 260 270 200 210 220 230 240 250 260 270
Pixels Pixels
(a) (b)
Figure 5-18: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
50 50
45 45
40 40
35 35
Distance [ M ]
Distance [ M ]
30 30
25 25
20 20
15 15
10 10
5 5
160 170 180 190 200 210 220 230 160 170 180 190 200 210 220 230
Number Frame Number Frame
(a) (b)
Figure 5-19: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
80 80
75 75
70 70
65 65
Vitesse [ Km/h ]
Vitesse [ Km/h ]
60 60
55 55
50 50
45 45
40 40
170 180 190 200 210 220 170 180 190 200 210 220
Number Frame Number Frame
(a) (b)
Figure 5-20: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
152
Chapitre 5
Résultats et discussions
110
110
100
100
90
90 80
Vitesse [ Km/h ]
Vitesse [ Km/h ]
70
80
60
70 50
40
60
30
50
20
40 10
15 20 25 30 35 40 45 50 55 15 20 25 30 35 40 45 50 55
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-21: Vitesse en fonction de la distance (h=1.28 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
60 55
55 50
50
45
45
40
40
Distance [ M ]
Distance [ M ]
35
35
30
30
25
25
20
20
15 15
10 10
205 210 215 220 225 230 235 240 245 205 210 215 220 225 230 235 240 245
Pixels Pixels
(a) (b)
Figure 5-22: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
60 55
55 50
50
45
45
40
40
Distance [ M ]
Distance [ M ]
35
35
30
30
25
25
20
20
15 15
10 10
160 170 180 190 200 210 220 230 180 185 190 195 200 205 210 215 220 225
Number Frame Number Frame
(a) (b)
Figure 5-23: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
153
Chapitre 5
Résultats et discussions
140 170
130 160
120 150
Vitesse [ Km/h ]
Vitesse [ Km/h ]
110 140
100 130
90 120
80 110
70 100
60 90
50 80
15 20 25 30 35 40 45 50 15 20 25 30 35 40 45 50
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-25: Vitesse en fonction de la distance (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
50 55
45 50
40 45
40
35
35
Distance [ M ]
Distance [ M ]
30
30
25
25
20
20
15
15
10
10
5 5
200 210 220 230 240 250 260 270 200 210 220 230 240 250 260 270
Pixels Pixels
(a) (b)
Figure 5-26: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
50 55
45 50
45
40
40
35
35
Distance [ M ]
Distance [ M ]
30
30
25
25
20
20
15
15
10 10
5 5
115 120 125 130 135 140 145 150 155 160 115 120 125 130 135 140 145 150 155 160
Number Frame Number Frame
(a) (b)
Figure 5-27: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
154
Chapitre 5
Résultats et discussions
150 180
140 170
130 160
120 150
Vitesse [ Km/h ]
Vitesse [ Km/h ]
110 140
100 130
90 120
80 110
70 100
60 90
50 80
115 120 125 130 135 140 145 150 155 115 120 125 130 135 140 145 150 155
Number Frame Number Frame
(a) (b)
Figure 5-28: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
55 90
80
50
70
45
Vitesse [ Km/h ]
Vitesse [ Km/h ]
60
40
50
35
40
30
30
25 20
20 10
15 20 25 30 35 40 45 50 10 20 30 40 50 60 70
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-29: Vitesse en fonction de la distance (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 70
60 60
50 50
Distance [ M ]
Distance [ M ]
40 40
30 30
20 20
10 10
0 0
200 220 240 260 280 300 320 340 360 380 220 240 260 280 300 320 340
Pixels Pixels
(a) (b)
Figure 5-30: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
155
Chapitre 5
Résultats et discussions
70 70
60 60
50 50
Distance [ M ]
Distance [ M ]
40 40
30 30
20 20
10 10
0 0
140 160 180 200 220 240 260 280 300 150 200 250 300
Number Frame Number Frame
(a) (b)
Figure 5-31: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
60 100
55 90
80
50
70
45
Vitesse [ Km/h ]
Vitesse [ Km/h ]
60
40
50
35
40
30
30
25 20
20 10
160 180 200 220 240 260 280 160 180 200 220 240 260 280
Number Frame Number Frame
(a) (b)
Figure 5-32: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
Hauteur (h) de la caméra = 2.2 m
Vitesse réelle = 80 ± 4 Km/h
120 120
110 110
100
100
90
90
Vitesse [ Km/h ]
Vitesse [ Km/h ]
80
80
70
70
60
60
50
50 40
40 30
0 10 20 30 40 50 60 70 0 10 20 30 40 50 60 70
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-33: Vitesse en fonction de la distance (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
156
Chapitre 5
Résultats et discussions
70 70
60 60
50 50
Distance [ M ]
Distance [ M ]
40 40
30 30
20 20
10 10
0 0
200 220 240 260 280 300 320 340 200 220 240 260 280 300 320 340
Pixels Pixels
(a) (b)
Figure 5-34: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 70
60 60
50 50
Distance [ M ]
Distance [ M ]
40 40
30 30
20 20
10 10
0 0
110 120 130 140 150 160 170 180 110 120 130 140 150 160 170 180
Number Frame Number Frame
(a) (b)
Figure 5-35: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
120 120
110 110
100
100
90
90
Vitesse [ Km/h ]
Vitesse [ Km/h ]
80
80
70
70
60
60
50
50 40
40 30
110 120 130 140 150 160 170 180 120 130 140 150 160 170
Number Frame Number Frame
(a) (b)
Figure 5-36: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
157
Chapitre 5
Résultats et discussions
180
110
100
160
90
Vitesse [ Km/h ]
Vitesse [ Km/h ]
140
80
70
120
60
100
50
40
80
30
0 10 20 30 40 50 60 70 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-37: Vitesse en fonction de la distance (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 45
40
60
35
50
30
Distance [ M ]
Distance [ M ]
40 25
20
30
15
20
10
10 5
210 220 230 240 250 260 270 280 290 210 220 230 240 250 260 270 280 290
Pixels Pixels
(a) (b)
Figure 5-38: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 45
40
60
35
50
30
Distance [ M ]
Distance [ M ]
40 25
20
30
15
20
10
10 5
120 130 140 150 160 170 180 140 145 150 155 160 165 170 175
Number Frame Number Frame
(a) (b)
Figure 5-39: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
158
Chapitre 5
Résultats et discussions
120 170
110 160
150
100
140
90
Vitesse [ Km/h ]
Vitesse [ Km/h ]
130
80
120
70
110
60
100
50
90
40 80
30 70
125 130 135 140 145 150 155 160 165 170 140 145 150 155 160 165 170
Number Frame Number Frame
(a) (b)
Figure 5-40: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
Hauteur (h) de la caméra = 1.31 m
Vitesse réelle = 20 ± 2 Km/h
l’angle de roulis Ф =10 °
30 30
28
25
26
24
20
Vitesse [ Km/h ]
Vitesse [ Km/h ]
22
20 15
18
16 10
14
5
12
10
10 15 20 25 30 35 40 45 50 5 10 15 20 25 30 35
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-41: Vitesse en fonction de la distance (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
55 40
50
35
45
30
40
25
35
Distance [ M ]
Distance [ M ]
30 20
25
15
20
10
15
5
10
5 0
20 40 60 80 100 120 140 160 20 40 60 80 100 120 140 160
Pixels Pixels
(a) (b)
Figure 5-42: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
159
Chapitre 5
Résultats et discussions
60 45
55 40
50
35
45
30
40
Distance [ M ]
Distance [ M ]
25
35
20
30
15
25
10
20
15 5
10 0
80 100 120 140 160 180 200 220 40 60 80 100 120 140 160 180 200 220 240
Number Frame Number Frame
(a) (b)
Figure 5-43: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
40 40
35 35
30 30
Vitesse [ Km/h ]
Vitesse [ Km/h ]
25 25
20 20
15 15
10 10
5 5
80 100 120 140 160 180 200 220 80 100 120 140 160 180 200 220
Number Frame Number Frame
(a) (b)
Figure 5-44: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a)Méthode d’interpolation, (b) Méthode du champ de vision.
Hauteur (h) de la caméra = 1.31 m
Vitesse réelle = 50 ± 2 Km/h
l’angle de roulis Ф =10 °
80 100
90
70
80
70
60
Vitesse [ Km/h ]
Vitesse [ Km/h ]
60
50 50
40
40
30
20
30
10
20
5 10 15 20 25 30 35 5 10 15 20 25 30 35 40 45 50
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-45: Vitesse en fonction de la distance (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
160
Chapitre 5
Résultats et discussions
50 35
45
30
40
25
35
Distance [ M ]
Distance [ M ]
30 20
25 15
20
10
15
5
10
5 0
20 40 60 80 100 120 140 160 180 200 20 40 60 80 100 120 140 160 180 200
Pixels Pixels
(a) (b)
Figure 5-46: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 40
60 35
30
50
25
Distance [ M ]
Distance [ M ]
40
20
30
15
20
10
10 5
0 0
180 200 220 240 260 280 300 180 200 220 240 260 280 300
Number Frame Number Frame
(a) (b)
Figure 5-47: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
80 80
70 70
60 60
Vitesse [ Km/h ]
Vitesse [ Km/h ]
50 50
40 40
30 30
20 20
230 240 250 260 270 280 290 230 240 250 260 270 280 290
Number Frame Number Frame
(a) (b)
Figure 5-48: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d'interpolation, (b) Méthode du champ de vision.
161
Chapitre 5
Résultats et discussions
T-Hough
Non
Modélisation de
la route
Bon
Détection de véhicule
Suivi de véhicule
Mesure de vitesse
Calculer TTC
Non
Détection de
collision
Oui
Alarme
Dans cette section, nous discutons notre organigramme global de notre module qui est illustré
dans la figure 5-49, dont plusieurs modules sont présentés :
Modélisation de la route.
Détection de véhicule.
Suivi de véhicule.
Mesure de distance.
Mesure de vitesse.
162
Chapitre 5
Résultats et discussions
163
Chapitre 5
Résultats et discussions
FD % FD FD % FD FD % FD FD % FD FD % FD
Comme évoqué dans le chapitre 4 section 2.4, nous présentons ici les résultats de
classification des panneaux de signalisation l’illustrés dans le tableau 5-13.
164
Chapitre 5
Résultats et discussions
FD % FD FD % FD FD % FD FD % FD FD % FD
Dans cette section, nous discutons notre organigramme global de notre module qui est illustré
dans la figure 5-51, dont plusieurs modules sont présentés :
165
Chapitre 5
Résultats et discussions
Capturer l’image
Jaune
Bleu Localisation
Vert
Vérification
Rouge
Oui
Blanc
Extraction de contours
Segmentation de la couleur
Non
Variancei < s Variancei > s
Oui Non
Oui
Vérification
couleur Jaune
Oui Non
Vérification
H/w>S
Non
Vérification
circule Oui
Oui
Vérification
couleur Jaune Non
Oui
Figure 5-51: Organigramme global de notre modules de classification des panneaux de signalisation routière.
166
Chapitre 5
Résultats et discussions
167
Chapitre 5
Résultats et discussions
Toutes ces méthodes fonctionnent dans le jour comme la nuit sauf la méthode de détection de
visage par la couleur de peau qui ne peut pas être applicable sur les images IR comme le montre
le tableau 5-11.
En effet, d’après les résultats que nous avons obtenus, la méthode de détection de visage par
couleur de peau fournit d’excellents résultats dans toutes les séquences de jour en utilisant les
différentes techniques de localisation : labélisation, localisation et la fusion entre eux. Et elle
n’est pas ni complexe, ni gourmande en temps de calcul. De plus, la technique de localisation
par projection est influencée par la présence de plusieurs objets qui ont une couleur similaire à
la couleur de peau, mais elle peut être améliorée en appliquant une deuxième passe de projection
sur chaque région détectée. En outre, les quatre méthodes de symétrie donnent des bons
résultats dans le jour comme la nuit. De plus, notre méthode proposée basée sur la différence
introduit une amélioration remarquable, notamment les résultats obtenus pendant la nuit.
La méthode de l’énergie de mouvement du visage fournit des très bons résultats sur les
séquences de nuit. Par ailleurs, la méthode de LCP donne des bons résultats sur les séquences
de jour et de nuit, et elle est plus efficace sur la différence.
168
Chapitre 5
Résultats et discussions
Projection 7 3.5 - - 2 1 - - 4 2 - -
Couleur de
Labellisation 2 1 - - 0 0 - - 7 3.5 - -
peau
Fusion projection
1 0.5 - - 0 0 - - 2 1 - -
labellisation
simple
Filtré 10 5 6 3 12 6 8 4 21 10.5 8 4
Normal 5 2.5 1 0.5 6 3 2 1 7 3.5 1 0.5
Différence
Filtré 3 1.5 0 0 2 1 0 0 4 2 0 0
Différence 12 6 10 5 14 7 6 3 10 5 13 6.5
FD : Fausse Détection.
169
Chapitre 5
Résultats et discussions
D’après le tableau 5-12, ces méthodes opèrent dans le jour comme la nuit, et elles sont
applicables sur les images normales et IR.
Les résultats montrent clairement que la méthode de détection des yeux par symétrie donne des
bons résultats quand le visage est frontal, et la méthode de masque circulaire fournit des très
bons résultats sur toutes les séquences. En outre, la méthode de masque de lunette donne
également d’excellents résultats.
170
Chapitre 5
Résultats et discussions
visage
Avec masque de
27 13.5 31 15.5 36 18 32 16 31 15.5 23 11.5
visage
Sans masque de
10 5 13 6.5 11 5.5 10 5 9 4.5 13 6.5
circulaire
visage
Masque
Avec masque de
2 1 5 2.5 7 3.5 9 4.5 7 3.5 10 5
visage
Image Grande
7 3.5 6 3 6 3 6 3 5 2.5 6 3
Contours lunette
Sobel H Petite
13 6.5 11 5.5 12 6 10 5 18 9 16 8
lunette
Masque lunette
Grande
8 4 13 6.5 10 5 12 6 11 5.5 17 8.5
Image lunette
seuillée Petite
13 6.5 16 8 20 10 15 7.5 17 8.5 22 11
lunette
Grande
Image 6 3 9 4.5 13 6.5 15 7.5 12 6 18 9
lunette
contours
Gabor Petite
11 5.5 8 4 14 7 17 8.5 17 8.5 14 7
lunette
171
Chapitre 5
Résultats et discussions
Le suivi par toutes les techniques avec un modèle non-fixe donne des bons résultats au départ
de suivi, mais ces méthodes présentent évidement un inconvénient : elles accumulent l’erreur à
cause de changement de pose de modèle recherché.
En outre, les résultats sont excellents par les techniques avec un modèle fixe au départ du 1er
frame en le recherchant dans les autres frames suivantes. Donc, notre contribution pour fixer le
modèle apporte une réelle amélioration des résultats et ceci, pour les diverses conditions de
tests. Parmi les approches appliquées, nous choisissons la technique de SAD pour réaliser la
phase de suivi, parce qu’elle offre un bon compromis entre la complexité et la qualité de suivi.
Mais s’il y a un changement brusque de luminosité, les résultats peuvent être influés, parce que
le modèle de référence est le même tout au long le processus de suivi et c’est la raison pour
laquelle nous avons proposé de faire une mise à jour régulière du modèle pour lui adapter à
chaque fois aux conditions de luminosité pendant la conduite en faisant un test de suivi
172
Chapitre 5
Résultats et discussions
Méthode de détection de suivi Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames)
SAD
SSD
Modèle non-fixe
NCC
Bon pendent quelques frames mais mauvais dans toute les séquences
ZSAD
ZSSD
ZNCC
SAD
SSD
Modèle fixe
NCC
Bon pour toutes les séquences
ZSAD
ZSSD
ZNCC
173
Chapitre 5
Résultats et discussions
/ (5.1)
Ensuite, nous traçons la courbe de variation de cette dernière. Les résultats de la séquence (S1)
sont illustrés dans la figure 5-53 pour le suivi de visage, le suivi de l’œil gauche et le suivi de
l’œil droit avec les couleurs vert, rouge et bleu, respectivement.
Les résultats montrent clairement que la valeur SAD est inversement proportionnelle à la
qualité de suivi dont, le SAD prend une petite valeur quand le suivi est bon et vice-versa.
Nous avons répété cette expérience sur les autres séquences d’image et nous avons obtenu les
mêmes résultats.
Cette expérience nous a montré que nous pouvons vérifier la qualité de suivi en se basant sur
les valeurs obtenues de suivi et en testant la valeur par un seuil.
(5.2)
174
Chapitre 5
Résultats et discussions
(a)
(b)
(c)
175
Chapitre 5
Résultats et discussions
Le tableau 5-14 illustre les résultats des différentes méthodes de décision de l’état des yeux.
D’après les résultats obtenus, la méthode de la THC donne des bons résultats, mais elle est un
peu lourde en temps du calcul par rapport aux autres méthodes.
La méthode de somme des points fournit des très bons résultats, mais le seuil de décision est
sensible au changement de luminosité qui influence beaucoup sur les images contours.
La méthode de fusion entre la méthode du masque d’iris avec la méthode qui utilise la THC
comme vérification de la présence d’iris donne des excellents résultats.
Les autres méthodes du masque circulaire donnent aussi des bons résultats dans la décision de
l’état des yeux.
176
Chapitre 5
Résultats et discussions
Image Contours
17 5 11.5 15 6 10.5 16 5 10.5 14 5 9.5 13 5 9 11 7 9
Sobel
Somme des
points
Image contours
11 2 6.5 10 4 7 10 3 6.5 13 2 7.5 10 6 8 9 8 8.5
Gabor
K-means 6 9 7.5 - - - 5 9 7 - - - 4 10 7 - - -
177
Chapitre 5
Résultats et discussions
Capturer l’image
Initialisation
Mauvais Non
Suivi de visage Détection de visage
Bon Oui
Mauvais Non
Suivi des yeux Détection des yeux
Bon Oui
Localisation
de la bouche
Mouvement
de la tête
Détection de
Etat des yeux
bâillement
Calculer
PERCLOS
Détection de Non
somnolence
Oui
Alarme
178
Chapitre 5
Résultats et discussions
Dans cette section, nous discutons notre organigramme global de notre module qui comprend
plusieurs modules. Il est illustré par la figure 5-54:
Détection de visage.
Détection des yeux.
Suivi de visage.
Suivi des yeux.
Etat des yeux.
Détection de bâillement.
Mouvement de la tête.
Détection de somnolence.
Dans le cas où le module détecte le visage et les yeux, nous extrairons les régions du visage et
les yeux en les prenant comme des modèles pour les poursuive dans les frames suivantes, et
pour chaque suivi nous testons est ce que le suivi est bon ou mauvais. S’il est mauvais nous
retournons à l’étape d’initialisation, sinon nous passons à l’étape suivante qui consiste à extraire
les différentes informations telles que l’état des yeux, la localisation de la bouche pour détecter
le bâillement et le mouvement de la tête. Tous ces facteurs ont une relation directe avec la
somnolence et le niveau de vigilance du conducteur. La somnolence est détectée s’il y a un de
ces symptômes :
1- PERCLOS : le conducteur est considéré somnolent s’il a fermé les yeux dans 5 frames
successives ou plus plusieurs fois pendant une durée de 3 secondes au maximum.
2- Le bâillement est la phase qui arrive juste avant le sommeil, alors il est important de le
détecter pour connaitre l’état du conducteur. S’il y a un bâillement fréquent plusieurs
fois périodiquement, alors le conducteur risque d’être somnolent.
3- Si la tête du conducteur est fixe pendant une période, il risque d’être distrait, par exemple
si le conducteur est dans une autoroute sans déviation il risque d’être facilement
inattentif.
Pour chacun de ces symptômes, il faut faire une alarme qui alerte le conducteur. Cette alarme
peut être un signal sonore ou une vibration du volant ou du siège de conducteur pour l’éveiller.
179
Chapitre 5
Résultats et discussions
(a) (b)
(c) (d)
180
Conclusion générale & Perspective
Nous avons fait appel aux systèmes de transports intelligents en développant un système ADAS
qui regroupe plusieurs dispositifs d’aide à la conduite intégrés au véhicule pour améliorer le
confort et la sécurité du conducteur.
On a effectué un état de l’art dans lequel on a introduit les procédures pour la réalisation de tels
modules et les différentes techniques employées.
Dans le troisième chapitre, nous avons détaillé les différents aspects théoriques qu’ont été
implémentés et utilisés dans notre système et qui nous ont aidé à développer l’algorithme global
comme : la calibration de caméra, la transformée de HOUGH, les techniques de calcul de la
symétrie dans l’image pour localiser les objets symétriques, le filtre de Gabor, … etc.
Dans le quatrième chapitre, nous avons présenté les principaux blocs de nos algorithmes des
trois modules. L’objectif de module de détection de véhicules et de mesure de distance et vitesse
(MDVDV) est de construire un sous module permettant de mesurer de manière précise la
distance et la vitesse d’un véhicule par un module de vision embarqué au bord du véhicule.
Dans cette partie, une étude approfondie de plusieurs algorithmes apparentés de ce module a
été menée. Cette étude nous a permis de mesurer le degré d’efficacité, et les limites de chaque
algorithme. Ce module nous a permis de concevoir un système d’alerte au conducteur afin de
l’aider à éviter les accidents de collision vers l’avant. En effet, notre module permet de diminuer
les collisions routières.
Ce module commence par l’extraction des deux droites délimitant la route par la transformée
de Hough. Ensuite, une détection d’objets est opérée pour détecter les véhicules. Puis, une
poursuite de véhicules détectées est effectuée à l’aide des algorithmes de mise en
correspondance. Par la suite, une fusion de données issues de la détection et de la poursuite est
faite afin de contrôler le comportement des véhicules dans la scène.
Dans le module de classification des panneaux de signalisation routière (MCPS), nous avons
traité trois problèmes de la détection et la reconnaissance des panneaux de signalisation routière
par l’analyse d'une source vidéo. Afin de l'automatiser, nous avons développé deux modules,
un pour la détection et l’autre pour la reconnaissance en déterminant si l'on est bien en
présence d'un panneau ou non. Dans l’éventualité de présence d’un panneau on spécifie le type
de ce panneau.
181
Conclusion générale & Perspective
Nous avons développé un algorithme de détection exploitant les deux propriétés des panneaux
de signalisation à savoir l’information de la couleur (par la segmentation) et l’information de la
forme (par Hough). Nous avons ajouté un traitement intermédiaire afin d'améliorer les
performances de l'ensemble.
Dans le troisième module, nous avons débuté par la présentation de principaux blocs de notre
algorithme de l’analyse de somnolence qui se compose de : la détection de visage, la détection
des yeux et la décision de l’état des yeux. Nous avons également introduit nos contributions
pour améliorer et optimiser les résultats de chaque bloc. Ensuite, nous avons évoqué notre
module de somnolence proposé.
Dans le cinquième chapitre, nous avons présenté une évaluation de chaque module développé
séparément ainsi que les résultats de notre système global avec une discussion sur son
fonctionnement. En effet, les modules réalisés fournissent des bons résultats permettant de
répondre aux exigences de chaque module.
Contributions
Troisièmement, nous avons proposé d’adapter la taille de fenêtre pour détection de véhicules.
Enfin, dans la mesure de distance, nous avons proposé d’utiliser la méthode d’interpolation.
182
Conclusion générale & Perspective
La troisième contribution concerne les méthodes de détection de visage par la méthode de LCP,
et l’énergie du mouvement de visage.
La sixième contribution concerne la phase de décision de l’état des yeux. Dans cette partie,
nous avons proposé les méthodes suivantes : la somme des points de contour, le masque
circulaire, et la fusion entre le masque circulaire et THC.
Perspectives
Plusieurs perspectives peuvent être envisagées dans le prolongement de ces travaux de thèse.
Le premier point concerne le module de détection de véhicules. Les algorithmes utilisés
devraient être évalués sur de séquences de scènes routières de différents endroits ainsi que dans
différentes conditions météorologiques afin d’assurer la fiabilité du notre système.
De nombreuses autres perspectives sont possibles par notre travail tant sur l'aspect théorique et
pratique.
Modification du module d’alerte par un freinage automatique, parce que l’alerte sonore
ou visuelle est insuffisante pour mettre le conducteur en éveil.
Amélioration de la méthode de calcul de vitesse de notre véhicule (cas des virages, les
situations de dépassement…)
Création de notre propre base de données de la stéréovision et faire une étude
comparative avec les deux systèmes : monovision et stéréovision
Amélioration de odule, pour qu’il puisse faire une régulation automatique de vitesse de
véhicule sans toucher à la pédale d’accélérateur.
Dans le deuxième module, les étapes les plus longues sont la vérification et la classification de
forme qui sont basés sur la transformée de Hough qui est très lourde de point de vu temps de
calcul, une optimisation de cette transformée est envisagée. L’ajout d’un sous module de
poursuite est aussi envisagé, il aura la charge de rechercher le panneau dans un périmètre plus
restreint et ainsi minimiser le temps de calcul, le sous module de poursuite peut jouer le rôle de
183
Conclusion générale & Perspective
D’autre part, d’après les techniques implémentées dans cette thèse, nous pouvons déterminer
d’autres paramètres que la somnolence du conducteur, par exemple : la détection des activités
dangereuses du conducteur et mouvements qui influent sur la qualité de la conduite : détection
si le conducteur est distrait, …etc.
Nous voulons valider les performances de notre module par la détermination de l’état du
conducteur fondé sur un avis médical en faisant des collaborations avec des experts dans le
domaine de l’ophtalmologie et la neurologie.
D’autres solutions peuvent être envisagées, comme l’implémentation temps réel des
algorithmes proposés pour avoir des solutions optimales.
184
Bibliographie
Bibliographie
[5] P. Paclík, J. Novovicova, P. Pudil et P. Somol, «Road signs classification using the
Laplace kernel classifier,» Pattern Recognition Letters, vol. 21, n° %113-14, p. 1165–
1173, 2000.
[7] K. Zhang, S. Y. et L. J, «Automatic detection of road traffic signs from natural scene
images based on pixel vector and central projected shape feature,» Intelligent
Transport Systems, vol. 6, n° %13, pp. 282 - 291, 2012.
[8] J. Khan, S. Bhuiyan et R. Adhami, «Image Segmentation and Shape Analysis for
Road-Sign Detection,» IEEE Transactions on Intelligent Transportation Systems , vol.
12, n° %11, pp. 83 - 96 , 2011.
[11] J. Miura, T. Kanda et Y. Shirai, «An active vision system for real-time traffic sign
recognition,» chez IEEE Intelligent Transportation Systems, Dearborn, MI , 2000.
[12] W.-Y. Wu, T.-C. Hsieh et C.-S. Lai, «Extracting Road Signs using the Color
Information,» International Journal of Computer Science & Engineering, vol. 2,
n° %11, pp. 9-13, 2008.
185
Bibliographie
[15] H. Fleyeh, «Road and Traffic Sign Color Detection and Segmentation - A Fuzzy
Approach,» chez MVA2005 IAPR Conference on Machine VIsion Applications,
Tsukuba Science City; Japan, 2005.
[16] M. Bénallal et J. Meunier, «Real-time color segmentation of road signs,» chez IEEE
CCECE 2003. Canadian Conference on Electrical and Computer Engineering,
Montréal, 2003.
[17] L. L. David et F. Olac, «Color-Based Road Sign Detection and Tracking,» chez 4th
international conference on Image Analysis and Recognition, USA; Texas, 2007.
[19] P. Suau, «Robust artificial landmark recognition using polar histograms,» Lecture
Notes in Computer Science, vol. 3808, p. 455–461, 2005.
[22] T. T. Le, S. T. Tran, S. Mita et T. D. Nguyen, «Real Time Traffic Sign Detection
Using Color and Shape-Based Features,» Lecture Notes in Computer Science , vol.
5991, pp. 268-278 , 2010.
[23] E. Cardarelli, P. Medici, P. P. Porta et G. Ghisio, «Road signs shapes detection based
on Sobel phase analysis,» chez IEEE Intelligent Vehicles Symposium, Xi'an , 2009.
[25] H. Liu, D. Liu et J. Xin, «Real-time recognition of road traffic sign in motion image
based on genetic algorithm,» chez 1st International Conference on Machine Learning
and Cybernetics, 2002.
186
Bibliographie
[26] Y. Aoyagi et T. Asakura, «A study on traffic sign recognition in scene image using
genetic algorithms and neural networks,» chez 22nd IEEE International Conference on
Industrial Electronics, Control and Instrumentation, Taipeh, Taiwan, 1996.
[27] B. Igor, K. Ivan, K. Ivan et S. Sinisa, «Addressing false alarms and localization
inaccuracy in traffic sign detection and recognition,» chez 16th Computer Vision
Winter Workshop, Zagreb, 2011.
[28] C.Y.Fang, S.W.Chen et C.S.Fuh, «Road sign detection and tracking,» IEEE
Transactions on Vehicular Technology, vol. 52 , n° %15, pp. 1329 - 1341 , 2003.
[31] K. Funderburg, «Update on intelligent vehicles and intersections,» Public roads, vol.
67, n° %14, pp. 34-39, 2004.
[32] R. M. e. Q. Huang, «An adaptive peer-to-peer collision warning system.,» chez IEEE
Vehicular Technology Conference, Barcelona, 2002.
[35] G. Motors, «Automotive collision avoidance system field operational test,» NHTSA,
Washington, 2005.
187
Bibliographie
[40] B. e. J.-F. Cahour, «Does projection into use improve trust and exploration? an
example with a cruise control system,» Safety Science, vol. 47, n° %19, p. 1260–1270,
2009.
[42] M. Herbert, «Active and Passive Range Sensing for Robotics,» chez IEEE Int’l Conf.
Robotics and Automation, 2000.
[45] G. a. Q. Z. R. Chellappa, «Vehicle Detection and Tracking Using Acoustic and Video
Sensors,» chez IEEE Int’l Conf.Acoustics, Speech, and Signal Processing, 2004.
[49] H. Charkai, « Shadow and Rhythm as Sign Patterns of Obstacle Detection,» chez Int’l
Symp. Industrial Electronics, 1993.
188
Bibliographie
[56] R. Piccardi, «Vehicle Detection under Day and Night Illumination,» chez Int’l ICSC
Symp. Intelligent Industrial Automation, 1999.
[59] M. a. V. T. A. Giachetti, «The Use of Optical Flowfor Road Navigation,» chez IEEE
Trans. Robotics and Automation, 1998.
[62] G. Yuta, «Obstacle Detection by Vision System for Autonomous Vehicle,» chez
Intelligent Vehicles, 1993.
[63] B. A. Massimo Bertozzi, «GOLD: A Parallel Real-Time Stereo Vision System for
Generic Obstacle and Lane Detection,» IEEE TRANSACTIONS ON IMAGE
PROCESSING, vol. 7, n° %11, pp. 62 - 81 , 1998.
[65] J. Roge, T. Pebayle and A. Muzet, "Variations of the level of vigilance and of
behavioral activities during simulated automobile driving," Accident Analysis and
Prevention, vol. 33, pp. 181-186, 2001.
[68] A. Anund et B. Peters, «Deliverable 7.1. Preliminary Pilot Plans. AWAKE Project
IST-2000-28062,» September, 2002.
189
Bibliographie
[69] E. Bekiaris, "SAVE (System for effective Assessment of the driver state and Vehicle
controle in Emergency situations), Final report, TR1047," TELEMATICS
APPLICATIONS, Brussels, 1999.
[71] P. Viola and M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple
Features," in Proceedings of the IEEE Computer Society Conference on Computer
Vision and Pattern Recognition, 2001.
[74] G. Loy and A. Zelinsky, "Fast Radial Symmetry for Detecting Points of Interest,"
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,
vol. 25, no. 8, pp. 959-973, 2003.
[75] T. D'Orazio, M. Leo and A. Distante, "Eye detection in face images for a driver
vigilance system," in IEEE Intelligent Vehicles Symposium, Parma, Italy, June 14-17,
2004.
[76] W.-B. Horng, C.-Y. Chen, Y. Chang and C.-H. Fan, "Driver Fatigue Detection Based
on Eye Tracking and Dynamic’ Template Matching," in IEEE International
Confercncc on Nclvorkinp, Sensing & Control, Taipei, Taiwan, March 2004.
[78] Z. Tian et H. Qin, «Real-time Driver's Eye State Detection,» chez IEEE International
Conference on Vehicular Electronics and Safety, October 2005.
190
Bibliographie
[81] T. Hong, H. Qin and Q. Sun, "An Improved Real Time Eye State Identification System
in Driver Drowsiness Detection," in IEEE International Conference on Control and
Automation, Guangzhou, CHINA, 2007.
[82] M. Su, C. Hsiung and D. Huang, "A Simple Approach to Implementing a System for
Monitoring Driver," in IEEE International Conference on Systems, Man, and
Cybernetics, Taipei, Taiwan, October 8-11, 2006.
[84] S. Singh and N. Papanikolopoulos, "Monitoring Driver Fatigue Using Facial Analysis
Techniques," in IEEE Intelligent Transport System, Tokyo, Japan, October 1999.
[86] R. Lienhart and J. Maydt, "An Extended Set of Haar-like Features for Rapid Object
Detection," in IEEE International Conference on Image Processing, 2002.
[87] Intel Corporation, Open Source Computer Vision Library Reference Manual, U.S.A:
Intel Corporation, 2001.
[88] S. Vitabile, A. Paola and F. Sorbello, "Bright Pupil Detection in an Embedded, Real-
time Drowsiness Monitoring System," in 24th IEEE International Conference on
Advanced Information Networking and Applications, 2010.
[89] B. Bhowmick and C. Kumar, "Detection and Classification of Eye State in IR Camera
for Driver Drowsiness Identification," in IEEE International Conference on Signal and
Image Processing Applications, 2009.
[90] N. Otsu, "A Threshold Selection Method from Gray-Level Histograms," IEEE
Transactions on Systems,Man and Cybernatics, vol. 9, no. 1, pp. 62-66, 1979.
[92] J.-P. Pérez, Optique géométrique et ondulatoire, 4e éd., Paru: Masson, 1994.
191
Bibliographie
[96] Z. Zhang, «A Flexible New Technique for Camera Calibration,» IEEE Transactions on
Pattern Analysis and Machine Intelligence, vol. 22, n° %111, pp. 1330-1334, 2000.
[97] Q.-T. Luong, Matrice Fondamentale et calibration Visuelle sur l’Environnement Vers
une plus grande autonomie des systèmes robotiques, Orsay, Université de Paris-Sud:
Centre d’Orsay, 1992.
[99] S. Bougnoux, «From projective to Euclidian space under any practical situation, a
criticism of self-calibration,» chez 6th International Conference on Computer Vision,
1998.
[100] M. S. Nixon and A. S. Aguado, Feature Extraction and Image Processing, 2nd ed.,
Oxford: Jordan Hill, Oxford OX2 8DP, UK, 2008.
[101] T. Zouagui, Cours : Transformée de Hough, Master 1, Oran, Algérie: Université des
Sciences et de la Technologie d'Oran, Faculté Génie Electrique - Departement
d'Electronique, 2009.
[102] A. Calmettes et G. Cedille, «Filtres de Gabor,» 9 May 2008. [En ligne]. Available:
www.calmettes.arnaud.free.fr. [Accès le 1 Aout 2013].
[103] K. Jack, Video Demystified A Handbook for the Digital Engineer, 5th Edition éd.,
Jordan Hill, Oxford OX2 8DP, UK, 2007.
[104] A. Ford and A. Roberts, "Colour Space Conversions," 1998. [Online]. Available:
ftp://wmin .ac.uk/put/itrg/. [Accessed 15 Aout 2012].
[106] R. Hsu, M. AbdelMottaleb and A. Jain, "Face Detection in Color Images," IEEE
Transaction on Pattern Analysis and Machine Intelligence, vol. 24, no. 5, pp. 696-706,
May, 2002.
192
Bibliographie
[108] H. Wu, T. Yokoyama, D. Pramadihanto and M. Yachida, "Face and facial feature
extraction from color images," in Second International Conference on Automatic Face
and Gesture Recognition, Killington, VT , 1996.
[112] R. Kjeldsen et J. kinder, «Finding skin in color images,» chez Proceeding of the 2nd
International Conference on Automatic Face and Gesture Recognition, pp. 312-318,
Vermont, 1996.
[114] T. A. Mysliwiec, "A freehand computer pointing interface, Vision Interfaces and
Systems, Technical report," University of Illinois, Chicago, 1994.
[117] M. J. Jones and J. M. Rehg, "Statistical color models with application to skin
detection," International Journal of Computer Vision , vol. 46, no. 1, pp. 81-96,
January 2002.
[118] D. Brown, I. Craw et J. Lewthwaite, «A som based approach to skin detection with
application in real time systems,» chez British Machine Vision Conference, UK, 2001.
[120] K. Schwerdt and J. L. Crowley, "Robust Face Tracking using Color," in 4th IEEE
International Conference on Automatic Face and Gesture Recognition, Grenoble,
France, Mars 2000.
193
Bibliographie
[121] L. Sigal, S. Sclaroff and V. Athitsos, "Skin color-based video segmentation under
time-varying illumination," IEEE Transactions on Pattern Analysis and Machine
Intelligence , vol. 26, no. 7, pp. 862-877, July 2004.
[122] L. Jordao, M. Perrone, J. Costeira and J. Santos-Victor, "Active face and feature
tracking," in International Conference on Image Analysis and Processing, Venice,
Italy, September 1999.
[123] M. Aamer, W. Ying, J. Jianmin and I. Stan, "Face Detection based Neural Networks
using Robust Skin Color Segmentation," in 5th International Multi-Conference on
Systems, Signals and Devices IEEE, Amman, 2008.
[124] S. L. Phung, A. Bouzerdoum and D. Chai, "A novel skin color model in ycbcr color
space and its application to human face detection," in IEEE International Conference
on Image Processing (ICIP’2002), 2002.
[125] B. Menser and M. Wien, "Segmentation and tracking of facial regions in color image
sequences," in SPIE Visual Communications and Image Processing, Perth, Australia,
2000.
[126] D. Chai and A. Bouzerdoum, "A bayesian approach to skin color classification in
YCbCr color space," in IEEE Region Ten Conference (TENCON'2000), Kuala Lumpur
, 2000.
[131] A. Marin Hernandez, "Vision dynamique pour la navigation d’un robot mobile," These
Ph.D, Laboratoire d’Analyse et d’Architecture des Systèmes du CNRS, Toulouse,
France, 2004.
[132] A. Blake and A. Yuille, "Active Vision," MIT press, USA, November, 1992.
[134] D. Koller, J. Weber and J. Malik, "Robust multiple car tracking with occlusion
reasoning," in 3rd European Conference on Computer Vision (ECCV’94), Stockholm,
May, 1994.
194
Bibliographie
[135] S. Smith and J. Brady, "ASSET-2: Real-Time Motion Segmentation and Shape
Tracking," IEEE Transportation on Pattern Analysis and Machine Intelligence, vol.
17, no. 8, pp. 814-820, August 1995.
[137] T. Drummond and R. Cipolla, "“Real-time tracking of complex structures with on-line
camera calibration," Image and Vision Computing, vol. 20, no. 5-6, pp. 427-433, 2002.
[139] F. Parada-Loira et J. L. Alba-Castro, «Local Contour Patterns for Fast Traffic Sign
Detection,» IEEE Intelligent Vehicles Symposium, 2010.
[140] B. Alshaqaqi, Mesure de Distance et Vitesse d’un objet mobile par Système de Vision,
ORAN: Université des Sciences et de la Technologie d’Oran-MB-, 2009.
[143] S. A. e. F. Nashashibi, «Real time trajectory prediction for collision risk estimation
between vehicles,» chez IEEE 5th International Conference on Intelligent Computer
Communication and Processing (ICCP), _, 2009.
[144] M.-H. Yang, D. J. Kriegman and N. Ahuja, "Detecting Faces in Images: A Survey,"
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,
vol. 24, no. 1, p. 34, JANUARY 2002.
[145] K. Dirk-Jan, "Viola Jones Object Detection," Nov 2010. [Online]. Available:
www.mathworks.com/matlabcentral/fileexchange/29437-viola-jones-object-detection.
[147] Moto caradisiac, «Arrivée du nouveau GPS Garmin pour deux roues: le Nuvi 510,»
Moto caradisiac, 01 novembre 2008. [En ligne]. Available: www.moto.caradisiac.com.
[Accès le 1 Aout 2013].
195
Bibliographie
[150] Streets blogs, «Bus Stop. Hamburg, Germany,» Streets blogs, 1 Janvier 2010. [En
ligne]. Available: www.streetsblog.org. [Accès le 2013 Aout 1].
196
ملخص
اذ ان. وخاصة المركبات اذ انھا أكثر وسائل النقل المستخدمة وأقلھا أمنا،أمن وسائل النقل ھو محور الكثير من األبحاث
في العادة فان السائقين ھم سبب وقوع الحادث بسبب.الحوادث تقع نتيجة فشل في النظام المؤلف من السائق والسيارة والبيئة
من أجل الحد من آثار ھذه األخطاء. أو بسبب عدم السيطرة الكافية على ديناميكية السيارة،التصور غير الدقيق لبيئة الطريق
ھدف ھذه االبحاث ھو تنبيه سائق لمدى. فقد بدأت العديد من األبحاث لتطوير انظمة مساعدة السائق في القيادة،البشرية
حيث يتم استخراج. توفر ھذه النظم معلومات فورية عن حالة بيئة الطريق حول السيارة.خطورة الوضع الذي يجد نفسه فيه
وبھدف المساعدة في انظمة القيادة الذاتية في الطرق فإننا واعتمادا. يتم بعدھا لتنبيه السائق،بعض المؤشرات الديناميكية للبيئة
فقد اقترحنا نظاما لمساعدة السائق اعتمادا على االنظمة البصرية التي يمكن أن تلبي عددا من،على أنظمة النقل الذكية
: ويتكون ھذا النظام من ثالث وحدات رئيسية ھي.الوظائف
.• وحدة الكشف عن المركبات وقياس المسافة والسرعة
.• وحدة تصنيف الفتات إشارات المرور
.• وحدة الكشف عن التعب والنعاس
وتحديد مواقعھا وسرعتھا النسبية بالنسبة، الكشف عن المركبات:والھدف من ذلك ھو تصميم نظام يعتمد على عدة خطوات
. وكشف النعاس والتعب أثناء القيادة، اضافة الى تصنيف لوحات عالمات طريقھم،السيارة المجھزة بالنظام وتتبع المسارات
والتي أثبتت فعاليتھا من خالل التجارب العملية التي،تحصلنا من خالل ھذه الوحدات على نتائج مرضية في جميع المراحل
أجرينا الكثير من، ومع ذلك، نجد أنه من الضروري أن نؤكد أن ھذا العمل في المقام األول ھو عمل بحثي، وأخيرا.قمنا بھا
.التجارب خارج المختبر لتوفير نتائج أكثر واقعية
Résumé
La sécurité des moyens de transport a fait l'objet d'une attention de nombreux travaux de
recherche, en particulier la voiture qui est généralement le moyen de transport le plus utilisée
et le moins sécurisé. En effet, un accident apparaît comme un disfonctionnement du système
constitué du conducteur, du véhicule et de l'environnement.
Typiquement, l'homme est à l'origine de l'accident, soit à cause d'une perception imprécise de
l'environnement routier, soit à cause d'un contrôle inadapté de la dynamique du véhicule.
Afin de limiter les conséquences de ces fautes humaines, de nombreuses recherches sont
entamées pour la mise en place de systèmes embarqués d'aide à la conduite. Leur l'objectif est
d'informer le conducteur du degré de dangerosité de la situation dans laquelle il se trouve. Ces
systèmes embarqués fournissent des informations instantanées sur l'état de l'environnement
routier autour du véhicule. Certains indicateurs sont extraits de cette cartographie dynamique
de l'environnement, puis exploités pour alerter le conducteur.
Dans l'objectif d'aider la navigation autonome dans un environnement routier des systèmes de
transport intelligents, nous avons proposé un système d'aide à la conduite basé vision qui permet
de satisfaire un certain nombre de fonctions. Ce système se compose de trois modules
principaux :
Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).
Module de Classification des Panneaux de Signalisation Routière (MCPSR).
Module de Détection de Fatigue et de Somnolence (MDFS).
L'objectif est de concevoir un système suivant plusieurs étapes : la détection des objets dans la
scène, leur positionnement et leur vitesse par rapport au véhicule porteur du système,
l'initialisation et le suivi de leur trajectoire, la classification de panneaux de signalisations
routières, et la détection de somnolence et de fatigue du conducteur au volant.
Ces modules fournissent des résultats satisfaisants dans toutes les étapes, et ils ont prouvé leur
efficacité à travers des expériences pratiques effectuées.
Enfin, nous trouvons qu'il est nécessaire de souligner que ce travail, en premier lieu, est un
travail de recherche, cependant nous avons effectué plusieurs travaux à l’extérieur en dehors du
laboratoire afin de fournir des résultats plus réalistes.