Vous êtes sur la page 1sur 220

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/292159126

Development of a Vision-Based Driver Assistance System Embedded in


vehicle

Thesis · March 2014

CITATIONS READS

0 1,919

1 author:

Belal Alshaqaqi
Université Oran 2
22 PUBLICATIONS 167 CITATIONS

SEE PROFILE

All content following this page was uploaded by Belal Alshaqaqi on 06 February 2016.

The user has requested enhancement of the downloaded file.


REPUBLIQUE ALGERIENNE DÉMOCRATIQUE ET POPULAIRE
MINISTERE DE L'ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE SCIENTIFIQUE

UNIVERSITE DES SCIENCES ET DE TECHNOLOGIE D'ORAN

MOHAMED BOUDIAF

FACULTÉ DE GÉNIE ÉLECTRIQUE

DÉPARTEMENT D'ÉLECTRONIQUE

THESE EN VUE DE L'OBTENTION DU DIPLÔME DE

DOCTORAT EN SCIENCE

OPTION: ÉLECTRONIQUE

SPÉCIALITÉ: Techniques de Communications Modernes

Présentée par

Mr ALSHAQAQI Belal
Sujet de mémoire

Développement des systèmes de vision d’aide à la conduite embarqués sur


un véhicule

Devant le jury composé de:

Pr. BOUGHANMI Nabil USTO-MB Président


Pr. OUAMRI Abdelaziz USTO-MB Rapporteur
Dr. LOUKIL Abdelhamid USTO-MB Examinateur
Pr. MIMI Malika Univ. Mostaganem Examinateur
Dr. OULD MAMMAR Madani Univ. Mostaganem Examinateur
Dir. Rech. Si Mohamed Arezki Mohamed CDS Oran Examinateur
Dr. DAHNOUN Naim Univ. Bristol (U.K) Invité
‫اھــــــــــداء‬

‫ٔ‬
‫اﻠﻰ ﻤﻦ ﻻ اﺟﻴﺪ اﻠﻛـﺘﺎﺑﺔ ﻋﻨﻬﻢ ‪.........‬‬
‫اﻠﻰ اﺣﺒﺎﺋﻲ ﺟﻣﻴﻌﺎ‬

‫ﻠﻢ ﻧﻔﺘﺮق ‪...‬‬


‫ﻠﻛﻨﻨﺎ ﻠﻦ ﻧﻟﺘﻘﻲ اﺑﺪا‪....‬‬

‫‪I‬‬
Remerciements

Je remercie ALLAH pour éclairer mon chemin et pour donner la force et la volonté tout au
long de ma vie.

Je voudrais, tout d’abord, exprimer mes sincères remerciements et toute ma reconnaissance à


mon encadreur et directeur de travail, Professeur OUAMRI Abdelaziz, pour ses conseils, appuis
et encouragements durant toute la période de ce travail de recherche. Je le remercie également
pour son humour, et sa gentillesse.

Je tiens à exprimer ma profonde reconnaissance à mon co-encadreur de ma thèse Dr.


DAHNOUN Naim qui m’a accompagné durant ces années.

Je tiens à remercier vivement Professeur BOUGHANMI Nabil qui m’a fait l'honneur d’avoir
accepté d'être le président de mon jury.

Je tiens à remercier Pr. MIMI Malika, et Dr. OULD MAMMAR Madani, Dr. LOUKIL
Abdelhamid, et Dr. Si Mohamed Arezki Mohamed pour l'immense honneur qui m’ont fait
d’avoir accepté d'être examinateurs de ma thèse.

J’ai été très sensible aussi à l’ouverture d’esprit du professeur KECHE Mokhtar, qui m’a
accompagné tout au long de ce travail de thèse, avec de fructueuses discussions dans
laboratoire. Je le remercie pour sa simplicité, sa bonhomie, sa générosité.

Mes gratitudes vont à Meriem qui m’a toujours soutenu patiemment avec qui j’ai partagé de
bons moments, dans le travail comme en dehors, subventions le joie et la bonne humeur.

Le travail présenté ici n'est, bien sûr, pas l'œuvre d'une unique personne mais s'intègre dans une
suite logique de travaux ainsi que dans un environnement social particulier. Je vais donc
remercier l'ensemble des gens qui ont contribué à faire de ce document une thèse, spécialement :
BENSOUKEHAL, OUIS, BAQUHAIZEL, BEKHTI, SEMSAR, SENOUCI.

Je tiens à remercier sincèrement tous mes collègues et membres du Laboratoire Signaux et


Images pour leur encouragement, surtout durant les moments difficiles spécialement :
LAKHDAR, AMRAOUI, SAD, RAHLI, RAHMOUNI, CHAREF, KEDAH, DALI YOUCEF,
TALEB, sans oublier l’ingénieur de laboratoire Melle REFSI Fatiha.

Je saisis cette opportunité qui m’est offerte pour remercier tous les professeurs et enseignants
qui ont contribué à ma formation spécialement Dr. SOUDANI Said, Pr. KADRI Mohamed, et
Pr. KADOUR Abdelhafid.

Je tiens à remercier sincèrement les personnes suivantes pour leur aide: Pr. KERDAL, Pr.
BENYETTOU, Dr. SHAKSHAK, Mr. TEMMAR, Mr. FRIH.

Enfin, mes pensées et gratitudes vont à ma famille qui a toujours été là malgré la distance qui
nous sépare pour m’encourager, me soutenir sans condition dans tout ce que j’entreprends.

II
Résumé

La sécurité des moyens de transport a fait l'objet d'une attention de nombreux travaux de
recherche, en particulier la voiture qui est généralement le moyen de transport le plus utilisée
et le moins sécurisé. En effet, un accident apparaît comme un disfonctionnement du système
constitué du conducteur, du véhicule et de l'environnement.
Typiquement, l'homme est à l'origine de l'accident, soit à cause d'une perception imprécise de
l'environnement routier, soit à cause d'un contrôle inadapté de la dynamique du véhicule.
Afin de limiter les conséquences de ces fautes humaines, de nombreuses recherches sont
entamées pour la mise en place de systèmes embarqués d'aide à la conduite. Leur l'objectif est
d'informer le conducteur du degré de dangerosité de la situation dans laquelle il se trouve. Ces
systèmes embarqués fournissent des informations instantanées sur l'état de l'environnement
routier autour du véhicule. Certains indicateurs sont extraits de cette cartographie dynamique
de l'environnement, puis exploités pour alerter le conducteur.

Dans l'objectif d'aider la navigation autonome dans un environnement routier des systèmes de
transport intelligents, nous avons proposé un système d'aide à la conduite basé vision qui permet
de satisfaire un certain nombre de fonctions. Ce système se compose de trois modules
principaux :
 Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).
 Module de Classification des Panneaux de Signalisation Routière (MCPSR).
 Module de Détection de Fatigue et de Somnolence (MDFS).

L'objectif est de concevoir un système suivant plusieurs étapes : la détection des objets dans la
scène, leur positionnement et leur vitesse par rapport au véhicule porteur du système,
l'initialisation et le suivi de leur trajectoire, la classification de panneaux de signalisations
routières, et la détection de somnolence et de fatigue du conducteur au volant.
Ces modules fournissent des résultats satisfaisants dans toutes les étapes, et ils ont prouvé leur
efficacité à travers des expériences pratiques effectuées.

Enfin, nous trouvons qu'il est nécessaire de souligner que ce travail, en premier lieu, est un
travail de recherche, cependant nous avons effectué plusieurs travaux à l’extérieur en dehors du
laboratoire afin de fournir des résultats plus réalistes.

III
Listes des figures

Listes des figures


Chapitre 1
Figure 1-1: Gestion du trafic routier par un système de transport intelligent [148]................... 9
Figure 1-2: Système de guidage de route [147]. ...................................................................... 10
Figure 1-3: Système ACC de control de la distance de sécurité entre véhicules ..................... 10
Figure 1-4: Planification d’arrêt des lignes de bus [150]. ........................................................ 11
Figure 1-5: Quelques systèmes d'assistace à la conduite [151]. ............................................... 11
Figure 1-6: Diagramme fonctionnel des systèmes ADAS. ...................................................... 14
Chapitre 2
Figure 2-1: La génération d’alerte au véhicule. ....................................................................... 18
Figure 2-2: Vue générale du ELS. (a) Caméra et sources d’éclairage, (b) Visualisation des
traitements. [64] ....................................................................................................................... 25
Chapitre 3
Figure 3-1: Le modèle sténopé : la projection m du point M est définie par l’intersection de la
droite (C, M) et du plan image I. .............................................................................................. 30
Figure 3-2: Les différents types de distorsions. ....................................................................... 32
Figure 3-3: Le changement de repère est une transformation rigide composée d’un rotation
puis d’une translation. .............................................................................................................. 33
Figure 3-4: Exemple d’une séquence de 9 images d’une mire de calibrage. ........................... 35
Figure 3-5: Exemple sur le choix des points de calibration. ................................................... 35
Figure 3-6: Dimensions réelles en mm des matrices CCD. ..................................................... 36
Figure 3-7: Représentation d’une ligne dans les coordonnées polaire. .................................... 37
Figure 3-8: Principe de la THL polaire. (a) Deux points dans l’image, (b) Leurs représentants
dans l'espace Hough. ................................................................................................................ 37
Figure 3-9: Organigramme de l’algorithme de la THL. ........................................................... 38
Figure 3-10: Chaque point dans l'espace de l'image génère un cercle dans l'espace de paramètre
(Hough). ................................................................................................................................... 39
Figure 3-11: Organigramme de l’algorithme de la THC.......................................................... 40
Figure 3-12: Résultats obtenus avec transformée de Hough. ................................................... 41
Figure 3-13: Types de symétrie. (a) Symétrie 2D par rapport à un point, (b) Symétrie 2D par
rapport à un axe, (c) Symétrie 3D par rapport à un plan. ......................................................... 42
Figure 3-14: Organigramme de l’algorithme de calcul de la symétrie. ................................... 43
Figure 3-15: Détection de symetrie. (a) Image originale,(b) Image contour,(c) Signal de la
symetrie. ................................................................................................................................... 43
Figure 3-16: Filtre de Gabor en 2D. (a) Enveloppe gaussienne, (b) Une sinusoïde orientée, (c)
Filtre de Gabor obtenu.............................................................................................................. 45
Figure 3-17: Filtre de Gabor en 3D. (a) Enveloppe gaussienne, (b) Une sinusoïde orientée, (c)
Filtre de Gabor obtenu.............................................................................................................. 45
Figure 3-18: La somme des pixels dans le rectangle ABCD. .................................................. 47
Figure 3-19 : L’espace RVB sous forme d’un cube. ................................................................ 48
Figure 3-20: L’espace TSL sous forme d’hexagone. ............................................................... 49

IV
Listes des figures

Figure 3-21: Exemple de détection de peau. (a) Image couleur, (b) Son masque binaire après
une détection des régions de peau. ........................................................................................... 50
Figure 3-22: Distribution de couleur de peau dans l’espace RVB. .......................................... 52
Figure 3-23: Distribution de couleur de peau dans l’espace YCbCr........................................ 52
Figure 3-24: Résultats de détection de peau. (a) Image originale, (b) Masques binaire après la
détection de couleur de peau. ................................................................................................... 53
Figure 3-25: Résultats de détection des panneaux de signalisation. (a) Image originale, (b)
Masques binaire après la détection de couleur rouge. .............................................................. 53
Figure 3-26: Organigramme de détection de couleur............................................................... 54
Figure 3-27: Résultats des méthodes optimisées. (a) Image originale, (b), (c) et (d) Les
différentes matrices PEAU, (e), (f) et (g) Leurs résultats respectivement. .............................. 55
Figure 3-28: Illustration de la dilatation [127]. ........................................................................ 57
Figure 3-29: Illustration de l’érosion [127]. (a) Image binaire originale avec un objet
rectangulaire, (b) Elément structurant, (c) Elément structurant balayé en plusieurs positions de
l’image, (d) Image de sortie. .................................................................................................... 59
Figure 3-30: Application des opérations morphologiques sur un masque binaire. (a) Masque
binaire, (b) Erosion du masque, (c) Dilatation de l’image (b). ................................................ 60
Figure 3-31: Labélisation de l’image binaire. (a) Image binaire, (b) Résultat de la labélisation.
.................................................................................................................................................. 60
Figure 3-32: Masque proposé pour la labélisation. .................................................................. 61
Figure 3-33: Résultat de la labélisation. (a) Masque binaire, (b) Objets labélisés. .................. 61
Figure 3-34: Regroupement par K-means. ............................................................................... 61
Figure 3-35: Regroupement sur un ensemble de points K-means. (A) Les points à séparer en
2D, (b) Les points à séparer en 3D, (c) Regroupement par K-means K=3, (d) Regroupement
par K-means K=2. .................................................................................................................... 63
Figure 3-36: Organigramme de suivi d’un objet en mouvement par mesure de similitude. .... 66
Chapitre 4
Figure 4-1: Le diagramme des modules proposés. ................................................................... 68
Figure 4-2: Différentes méthodes de détection de contour.(a) Image originale ,(b)Filtre Sobel ,
(c)Application de filtre morphologie (dilatation) sur sobel , (d)Filtre Canny , (e )Déphasage de
quatre pixels, (f) Différence entre deux images impaires , (g) Application de filtre sobel sur
l’image (f) , (h) LOC Horizontal, (i) LOC Vertical. ............................................................... 69
Figure 4-3: Transformé de Hough appliquée sur l’image binaire obtenue par : (a)Filtre Sobel,
(b) Filtre morphologie (dilatation) sur sobel , (c) Filtre Canny , (d )Déphasage de quatre pixels,
(e)Application de filtre sobel sur différence entre deux images impaires, (f) L’image de LOC.
.................................................................................................................................................. 71
Figure 4-4: Zone route et zone non route de détection de contour de déphasage de quatre pixels.
.................................................................................................................................................. 72
Figure 4-5: Le choix d’angle. ................................................................................................... 72
Figure 4-6: La distance Euclidienne entre deux droites. .......................................................... 73
Figure 4-7: Intervalle de recherche obtenu. ............................................................................. 73
Figure 4-8: La foulée du Balayage. .......................................................................................... 74
Figure 4-9: La symétrie en premier abord. ............................................................................... 74

V
Listes des figures

Figure 4-10: Symétrie des contours. ........................................................................................ 75


Figure 4-11: Fausses détection sur symétrie. ........................................................................... 75
Figure 4-12: Organigramme de l'algorithme de détection de véhicule par symétrie ............... 76
Figure 4-13: Le signal de symétrie. .......................................................................................... 77
Figure 4-14: Détection de véhicule avec la technique de symétrie. ......................................... 77
Figure 4-15: Deux exemples des structures simples codées par LCP8, 3, le fond dessus près de
0º et dessous inférieure près de 90º. ......................................................................................... 78
Figure 4-16: Organigramme de l'algorithme de détection de véhicule par LCP. ..................... 78
Figure 4-17: Masque idéal........................................................................................................ 79
Figure 4-18: Détection de véhicule avec la technique de LCP. ............................................... 79
Figure 4-19: Organigramme de l'algorithme de détection de véhicule par l’énergie. .............. 79
Figure 4-20: La détection de véhicule avec la technique de l’énergie. .................................... 80
Figure 4-21: Méthode d’adaptation de la fenêtre. .................................................................... 80
Figure 4-22: Procédé de mise en correspondance par mesure de corrélation. ......................... 81
Figure 4-23: Détection et poursuite de véhicule. ..................................................................... 82
Figure 4-24: Principe de la fusion de données. ........................................................................ 82
Figure 4-25: Sauvegarde des données dans l’entité ‘historique’.............................................. 83
Figure 4-26: Le principe de base de la méthode d’interpolation.............................................. 84
Figure 4-27: (a) Interpolation par la fonction polynomiale f(x) de degré 10, (b) Interpolation
par la fonction polynomiale f(x) de degré 6. ........................................................................... 84
Figure 4-28: Les relations trigonométriques entre les distances DM (hj) et l’hauteur hj. ........ 85
Figure 4-29: Rotation de caméra autour de l’axe longitudinal X. ............................................ 86
Figure 4-30: Les relations trigonométriques entre les distances DM (Фj) et les angles Фj. .... 87
Figure 4-31: Le calcul du champ de vision. ............................................................................. 88
Figure 4-32: Calcul de distance d’un objet par la formule du champ de vision....................... 88
Figure 4-33: La fonction du risque. .......................................................................................... 89
Figure 4-34: Panneaux de signalisation. (a) Danger, (b) Interdiction, (c) Obligation, (d)
Avertissement et d'information, (e) Fin de l'interdiction, (f) Les panneaux temporaires, (g)
Priorité, (h) Direction des signes. ............................................................................................. 90
Figure 4-35: Catégorisation panneau de signalisation en utilisant la couleur et la forme........ 91
Figure 4-36: Segmentation de la couleur rouge. ...................................................................... 92
Figure 4-37: Segmentation de la couleur bleu. ........................................................................ 92
Figure 4-38: Segmentation de la couleur jaune. ....................................................................... 92
Figure 4-39: Segmentation de la couleur blanc. ....................................................................... 93
Figure 4-40: Détection de contour. .......................................................................................... 93
Figure 4-41: (a) image acquise, (b) dilation de l’érosion. ........................................................ 94
Figure 4-42: Localisation par labélisation. (a) Le masque M avec labélisation, (b) L’extraction
des panneaux de signalisation. ................................................................................................. 94
Figure 4-43: (a) Projection verticale et horizontale, (b) Extraction, (c) Les masques après la
vitrification géométrique, (d) Résultats après la vitrification colorimétrique, (e) Résultats de
l’extraction. .............................................................................................................................. 95
Figure 4-44: (a) Les masques des résultats de l’extraction, (b) Après filtre morphologique
(dilatation), (c) Après filtre Sobel. ........................................................................................... 96

VI
Listes des figures

Figure 4-45: L'espace de Hough (r, ). ..................................................................................... 97


Figure 4-46: (a) K-means appliqué aux l'espace de Hough avec k=3, (b) L'espace de Hough.
.................................................................................................................................................. 97
Figure 4-47: Opérations morphologiques sur le masque de couleur de peau. (a) Image originale,
(b) Masque de couleur de peau, (c) Erosion, (d) Dilatation. .................................................. 101
Figure 4-48: Localisation par Labélisation. (a) Le masque M, (b) Localisation des candidats.
................................................................................................................................................ 102
Figure 4-49: Localisation par Projection. (a). Le masque M, (b) Projection horizontale, (c)
Projection verticale, (d) Localisation des candidats. .............................................................. 103
Figure 4-50: Effet de regroupement des régions. (a) Sans regroupement, (b) Avec
regroupement. ......................................................................................................................... 103
Figure 4-51: Elimination de la région ‘cou’ du visage. (a) Résultat avant l’opération, (b)
Résultat après l’opération. ...................................................................................................... 104
Figure 4-52: Organigramme de l’algorithme de détection de visage par couleur de peau. ... 105
Figure 4-53: Organigramme de l’algorithme de détection de visage par couleur de peau en
utilisant la fusion entre la projection et la labélisation pour la vérification. .......................... 106
Figure 4-54: Vérification de la position frontale du visage. (a) Visage n’est pas accepté pour le
suivi (non-frontal), (b) Visage accepté pour le suivi (frontal). .............................................. 107
Figure 4-55: Méthode de symétrie en utilisant un rectangle de taille du visage. ................... 108
Figure 4-56: Organigramme de l’algorithme de détection de visage par symétrie en utilisant un
rectangle. ................................................................................................................................ 109
Figure 4-57: Résultats de détection de visage par un rectangle de taille de visage. (a) Image
originale, (b) Résultat sur l’image contours par Sobel, (c) Résultat sur l’image contours par
filtre de Gabor, (d) Résultat sur l’image contours de différence avec dilatation. .................. 109
Figure 4-58: Organigramme de détection de visage par symétrie.......................................... 110
Figure 4-59: Détection de visage par symétrie simple. (a) Image originale, (b) Image contour,
(c) Signal de la symétrie, (d) Région d’intérêt, (e) Visage détecté. ....................................... 110
Figure 4-60: La nouvelle méthode pour améliorer le calcul de la symétrie dans l’image. .... 111
Figure 4-61: Détection de visage par symétrie simple.(a) Image originale, (b) Image contour,
(c) Signal de la symétrie, (d) Localisation du max de symétrie, (e) Zone d’intérêt, (f) Visage
détecté..................................................................................................................................... 112
Figure 4-62: Un exemple de fausse détection de visage par symétrie. (a) Image originale, (b)
signal de symétrie. .................................................................................................................. 112
Figure 4-63: La différence en niveau de gris. (a) et (b) Deux frames successifs, (c) et (d) Leurs
niveau de gris, (e) Image de différence, (f) Détection des contours de l’image différence, (g)
Signal de symétrie. ................................................................................................................. 113
Figure 4-64: Détection de visage par symétrie améliorée.(a) Image originale 1, (b) Image
contour 1, (c) Image originale 2, (d) Image contour 2, (e) Différence en les images contours, (f)
Calcul de la symétrie. ............................................................................................................. 114
Figure 4-65: Amélioration par filtrage du signal de la symétrie. (a) Filtre proposé, (b) Signal de
symétrie avant filtrage, (c) Signal de symétrie originale et filtré, (d) Signal de symétrie après
filtrage. ................................................................................................................................... 115
Figure 4-66: Etape de localisation de visage par symétrie. .................................................... 116

VII
Listes des figures

Figure 4-67: Méthode de détection de visage par l‘énergie du mouvement de visage. (a) et (c)
Les images de différence de contours des images (b) et (d) respectivement avec résultats, (b)
Image de jour avec résultat, (d) Image de nuit IR avec résultat. ............................................ 117
Figure 4-68: Exemples des codes LCP. ................................................................................. 118
Figure 4-69: Organigramme de l'algorithme de détection de visage par LCP. ...................... 118
Figure 4-70: Détection de visage par LCP. (a) Le masque M, (b) La matrice R, (c) Résultat de
détection. ................................................................................................................................ 119
Figure 4-71: Vérification de détection de visage par LCP. (a) et (c) Les images originales, (b)
et (d) Leurs matrices R avec le résultat. ................................................................................. 120
Figure 4-72: Utilisation des filtres de Gabor pour trouver les orientations. .......................... 120
Figure 4-73: Détection de visage par la méthode de VJ. (a) et (b) par OpenCV avec deux
classificateurs différents, (c) par MATLAB. ......................................................................... 121
Figure 4-74: Région d’intérêt pour la détection des yeux. ..................................................... 122
Figure 4-75: Détection des yeux par la symétrie.................................................................... 122
Figure 4-76: Résultats de détection des yeux par symétrie. (a) Image contours par le filtre de
Sobel horizontal, (b) Résultat de détection des yeux. ............................................................ 123
Figure 4-77: Detection des yeux par masque circulaire. (a) Le masque circulaire M, (c) Résulats
de convolution R, (c) Les yeux detectées sur le visage . ........................................................ 123
Figure 4-78: Modèle de lunette proposé pour la détection des yeux. .................................. 124
Figure 4-79: Résultat de détection des yeux par le masque lunette. (a) Image contours par Sobel,
(b) et (c) Image originale avec résultat utilisant grande et petite lunette respectivement. ..... 125
Figure 4-80: Détection des yeux avec masque lunette sur image de contours (Sobel horizontal).
(a) Image contours par Sobel horizontal, (b) et (c) Image originale avec résultat utilisant grande
et petite lunette respectivement. ............................................................................................. 125
Figure 4-81: La nouvelle forme du masque de lunette. (a) Les paramètres de l’ellipse, (b) Le
masque lunette. ....................................................................................................................... 126
Figure 4-82: Résultat de détection des yeux par masque lunette en utilisant l'image seuillée. (a)
Image en niveau de gris, (b) Image seuillée, (c) Image originale avec résultat. .................... 127
Figure 4-83: Résultat de détection des yeux par masque lunette en utilisant l'image obtenue par
le filtre de Gabor. (a) Image contours avec filtre de Gabor, (b) et (c) Image originale avec
résultat utilisant grande et petite lunette respectivement. ...................................................... 127
Figure 4-84: Amélioration de détection des yeux par le masque elliptique de visage. (a) Image
en niveau de gris, (b) Image contours, (c) Le masque elliptique E, (d) et (e) Image en niveau de
gris et image contours après l’application du masque............................................................ 128
Figure 4-85: Amélioration de détection des yeux par le masque de couleur de peau du visage.
(a) Image en niveau de gris, (b) Image contours, (c) Le masque de couleur de peau du visage,
(d) et (e) Image en niveau de gris et image contours après l’application du masque. ........... 129
Figure 4-86: L'orientation du visage à partir des positions des yeux. .................................... 130
Figure 4-87: Localisation de la bouche, (a) La relation entre les yeux et la bouche, (b) Un
exmaple de positionnement de la bouche. .............................................................................. 130
Figure 4-88: Détection de bâillement par la méthode de K-means. (a) et (b) Image de la bouche
fermé et ouvert respectivement, (c) et (d) Regroupement par K-means les intensités de Y en
fonction de Cb. ....................................................................................................................... 131

VIII
Listes des figures

Figure 4-89: Organigramme de l’algorithme de décision de l’état de l’œil par la THC. ....... 132
Figure 4-90: La décision de l’état de l’œil par la THC. (a) et (c) Images contours, (b) et (d)
Résultats de l’état d’un œil ouvert et un autre fermé à partir des images (a) et (c) respectivement.
................................................................................................................................................ 133
Figure 4-91: Organigramme de l'algorithme de décision de l'état de l'œil. ............................ 134
Figure 4-92: Etat des yeux par la méthode somme des points contours. (a) et (c) Images contours
d’un œil ouvert et fermé respectivement, (b) et (d) Résultat de décision pour l’image (a) et (c)
respectivement. ....................................................................................................................... 134
Figure 4-93: Extension de la méthode. (a) et (b) Image contours par Sobel pour un œil ouvert
et un œil fermé respectivement, (c) et (d) Image contours par Gabor pour un œil ouvert et un
œil fermé respectivement, (e) et (f) Leurs résultats. ............................................................. 135
Figure 4-94: Organigramme de l’algorithme de décision de l’état de l’œil par un masque
circulaire. ................................................................................................................................ 136
Figure 4-95: Décision de l’état des yeux par le masque circulaire. (a) Image d’œil fermé avec
résultat, (b) Image d’œil ouvert avec résultat. ........................................................................ 136
Figure 4-96: Etat des yeux. (a) Œil ouvert avec vérification de THC, (b) Œil fermé. ........... 137
Figure 4-97: Etat des yeux par K-means. (a) Œil ouvert, (b) Œil fermé, (c) Regroupement de
pixels de l’image de l’œil ouvert avec k-means (K = 3), (d) Regroupement de pixels de l’image
de l’œil fermé avec k-means (K = 3)...................................................................................... 138
Chapitre 5
Figure 5-1: Camera une CCD 1/3 SONY (Model : CNB-G1318PF) . ................................ 140
Figure 5-2: Mini-camera IR. .................................................................................................. 141
Figure 5-3: Carte d’acquisition (a) EasyCAP, (b) Pinnacle Systems GmbH 710 USB. ........ 141
Figure 5-4: Support de fixation de la caméra. ........................................................................ 142
Figure 5-5: Transformateur 12V vers 220V. .......................................................................... 142
Figure 5-6: Notre système installé dans la voiture à base de camera IR. ............................... 143
Figure 5-7: Echantillons des séquences enregistré par la caméra. ......................................... 144
Figure 5-8: Sauvegarde des données dans l’entité ‘historique’.............................................. 148
Figure 5-9: Vitesse en fonction de la distance (h=1.28 m, v=20 ± 2 Km/h). ......................... 149
Figure 5-10: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 149
Figure 5-11: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=20 ± 2 Km/h).
................................................................................................................................................ 149
Figure 5-12: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 150
Figure 5-13: Vitesse en fonction de la distance (h=1.28 m, v=40 ± 2 Km/h). ....................... 150
Figure 5-14: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=40 ± 2 Km/h).
................................................................................................................................................ 150
Figure 5-15: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................................ 151
Figure 5-16: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2
Km/h). .................................................................................................................................... 151
Figure 5-17: Vitesse en fonction de la distance (h=1.28 m, v=60 ± 3 Km/h). ....................... 151

IX
Listes des figures

Figure 5-18: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=60 ± 3 Km/h).
................................................................................................................................................ 152
Figure 5-19: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................................ 152
Figure 5-20: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3
Km/h). .................................................................................................................................... 152
Figure 5-21: Vitesse en fonction de la distance (h=1.28 m, v=80 ± 4 Km/h). ....................... 153
Figure 5-22: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=80 ± 4 Km/h).
................................................................................................................................................ 153
Figure 5-23: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=80 ± 4
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 153
Figure 5-24: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=80 ± 4
Km/h). .................................................................................................................................... 153
Figure 5-25: Vitesse en fonction de la distance (h=1.28 m, v=100 ± 5 Km/h). ..................... 154
Figure 5-26: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=100 ± 5 Km/h).
................................................................................................................................................ 154
Figure 5-27: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 154
Figure 5-28: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. .............................. 155
Figure 5-29: Vitesse en fonction de la distance (h=2.2 m, v=40 ± 2 Km/h). ........................ 155
Figure 5-30: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=40 ± 2 Km/h). 155
Figure 5-31: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 156
Figure 5-32: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 156
Figure 5-33: Vitesse en fonction de la distance (h=2.2 m, v=80 ± 4 Km/h). ........................ 156
Figure 5-34: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=80 ± 4 Km/h). 157
Figure 5-35: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................................ 157
Figure 5-36: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4
Km/h). .................................................................................................................................... 157
Figure 5-37: Vitesse en fonction de la distance (h=2.2 m, v=110 ± 5 Km/h). ...................... 158
Figure 5-38: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=110 ± 5 Km/h).
................................................................................................................................................ 158
Figure 5-39: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 158
Figure 5-40: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5
Km/h). (a) Méthode d’interpolation, (b) Méthode du champ de vision. .............................. 159
Figure 5-41: Vitesse en fonction de la distance (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °). ....... 159
Figure 5-42: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=20 ± 2 Km/h, Ф
=10 °). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ............................... 159

X
Listes des figures

Figure 5-43: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2
Km/h, Ф =10 °). ..................................................................................................................... 160
Figure 5-44: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2
Km/h, Ф =10 °). ..................................................................................................................... 160
Figure 5-45: Vitesse en fonction de la distance (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °). ....... 160
Figure 5-46: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=50 ± 2 Km/h, Ф
=10 °). ..................................................................................................................................... 161
Figure 5-47: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2
Km/h, Ф =10 °). (a) Méthode d’interpolation, (b) Méthode du champ de vision. ................ 161
Figure 5-48: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2
Km/h, Ф =10 °). (a) Méthode d'interpolation, (b) Méthode du champ de vision................... 161
Figure 5-49: Organigramme global de notre modules de détection de véhicules et mesure de
distance et de vitesse. ............................................................................................................. 162
Figure 5-50: Quelques exemples des résultats obtenus. ......................................................... 163
Figure 5-51: Organigramme global de notre modules de classification des panneaux de
signalisation routière. ............................................................................................................ 166
Figure 5-52: Quelques exemples des résultats obtenus. ......................................................... 167
Figure 5-53: La variation de la valeur de SADN pendant le suivi. (a) Modèle de référence, (b)
Bon résultat de suivi au 109eme frame, (c) Mauvais résultats de suivi au 329eme frame. ....... 175
Figure 5-54: Organigramme global de notre module de détection de fatigue et de somnolence.
................................................................................................................................................ 178
Figure 5-55: Quelques exemples des résultats obtenus. (a) et (d) Conducteur en état normal, (b)
Conducteur en état somnolent (danger), (c) Conducteurs en état presque-somnolent. .......... 180

XI
Listes des tableaux

Listes des tableaux


Chapitre 1
Tableau 1-1: Liste non exhaustive de facteurs relevés dans les accidents [1]. .......................... 6
Tableau 1-2: Taxonomie des systèmes d'assistance à la conduite. .......................................... 12
Tableau 1-3: Différents capteurs disponibles dans le véhicule. ............................................... 13
Chapitre 2

Chapitre 3
Tableau 3-1: Tableau de correspondance des matrices. ........................................................... 35
Tableau 3-2: Influence des paramètres du filtre de Gabor [102]. ............................................ 46
Tableau 3-3: Résumé des mesures de différence et de corrélation .......................................... 65
Chapitre 4
Tableau 4-1: Signification des panneaux de signalisation en fonction de sa forme et de couleur
.................................................................................................................................................. 91
Tableau 4-2: Quelques algorithmes utilisés pour la détection de visage. .............................. 100
Tableau 4-3: Les paramètres du modèle de visage proposé. .................................................. 124
Chapitre 5
Tableau 5-1: Résultats de la modélisation de la route. ........................................................... 145
Tableau 5-2 : Résultats de détection de véhicule. .................................................................. 146
Tableau 5-3: Résultats de suivi de véhicule. .......................................................................... 146
Tableau 5-4: Résultats des tests de mesure de distance par la méthode 1 pour trois véhicules.
................................................................................................................................................ 147
Tableau 5-5: Résultats des tests de mesure de distance par la méthode 2 pour trois véhicules.
................................................................................................................................................ 147
Tableau 5-6: Résultats des tests de mesure de distance et de vitesse moyenne pour cinq
véhicules. ................................................................................................................................ 147
Tableau 5-7: Historique regroupant les informations relatives à l’évolution des cinq véhicules.
................................................................................................................................................ 148
Tableau 5-8: Mesure de vitesses aux différentes distances D. ............................................... 148
Tableau 5-9: Résultats de détection de localisation panneaux de signalisation. .................... 164
Tableau 5-10: Résultats de détection de classification panneaux de signalisation. ............... 165
Tableau 5-11: Résultats de détection de visage. .................................................................... 169
Tableau 5-12: Résultats de détection des yeux. ..................................................................... 171
Tableau 5-13: Résultats de suivi de visage et des yeux ......................................................... 173
Tableau 5-14: Résultats de décision de l’état des yeux. ......................................................... 177

XII
Liste d’abréviation

Liste d’abréviation

Abréviation Explication
ABS Anti-Blockier System (système de freinage anti-blocage)
ACC Adaptive Cruise Control
ADAS Advanced Driver Assistance System
AFIL Alerte de Franchissement Involontaire de Ligne
APR Association Prévention Routière
ASFA Association des Sociétés Françaises d'Autoroutes
System for effective Assessment of driver vigilance and Warning
AWAKE
According to traffic risK Estimation
BSD Blind Spot Detection
CA Condensation Algorithm
CCD Charge-Coupled Device
CSW Curve Speed Warning
EEG Electro – Encéphale - Graphie
FCW Forward Collision Warning
ELS Eye Lid Sensor
FD False Détection
FPS Frames Par Seconde
FRST Fast Radial Symmetry Transform
GESR Guidage Electronique Sur Routes
GPS Global Positioning System
HSI Hue Saturation Intensité
IPM Inverse Perspective Mapping
ITS Intelligent Transport System
ISA Intelligent Speed Adaptation
IVDC Integrated Vehicle Dynamics Control
IVHS Intelligent Vehicle Highway Systems
LCP Local Contour Patterns
LDW Lane Departure Warning
LIDAR LIght Detection And Ranging
LKA Lane Keeping Assistant
LOC Local Orientation Coding
MCII Ministère Japonais du Commerce International et de l’Industrie
NCC Normalized Cross Correlation
NFS National Sleep Foundation
NHTSA National Highway Traffic Safety Administration
Programme de REcherche et d’Innovation dans les Transport
PREDIT
Terrestres
RADAR RAdio Detection And Ranging
RLS Recursive Least Square
SAD Sum of Absolute Differences
SACV Les Systèmes Avancés de Control du Véhicule
XIII
Liste d’abréviation

SAGT Les Systèmes Avancés de Gestion du Trafic


SATP Les Systèmes Avancés de Transport Public
SCPS Système de Classification des Panneaux de Signalisation Routière
SDFS Système de Détection de Fatigue et de Somnolence
SDVDV Système de Détection de Véhicules et Mesure de Distance et de
Vitesse
SIAC Les Systèmes d’Information Avancés pour le Conducteur
SIVA Systèmes Intelligents de Véhicules sur Autoroute
SJIV Système Japonais de Véhicule Intelligents
SOM Self Organizing Map
SONAR SOund Navigation And Ranging
SPM Skin Probability Map
SSD Sum of Squared Differences
SVM Support Vector Machine
S&G Stop & Go
TAT Télématique Avancée du Transport
TH Transformée de Hough
THC Transformée de Hough Cercles
THL Transformée de Hough Lignes
TLC Time to Lane Crossing
TTC Time To Collision
TV Travel Time
V2V Vehicle to Vehicle
VJ Viola et Jones
VHS Vehicle Highway Systems
ZNCC Zero-mean Normalized Cross Correlation
ZSAD Zero-mean Sum of Absolute Differences
ZSSD Zero-mean Sum of Squared Differences

XIV
Sommaire

Sommaire
‫ اھــــــــــداء‬................................................................................................................................................... I
Remerciements....................................................................................................................................... II
Résumé ................................................................................................................................................. III
Listes des figures .................................................................................................................................. IV
Listes des tableaux .............................................................................................................................. XII
Liste d’abréviation ........................................................................................................................... XIII
Sommaire ............................................................................................................................................XV
Introduction générale ............................................................................................................................ 1
Chapitre 1............................................................................................................................................... 5
1. Introduction ..................................................................................................................................... 6
2. Principaux facteurs d’accidents [1] ................................................................................................. 6
3. Systèmes de transport intelligents [2].............................................................................................. 7
3.1. Historique ................................................................................................................................ 8
3.2. Domaines d’applications des systèmes de transport intelligents ............................................. 9
3.2.1. Les Systèmes Avancés de Gestion du Trafic (SAGT) .................................................... 9
3.2.2. Les Systèmes d’Information Avancés pour le Conducteur (SIAC)................................. 9
3.2.3. Les Systèmes Avancés de Control du Véhicule (SACV) .............................................. 10
3.2.4. Les Systèmes Avancés de Transport Public (SATP)..................................................... 11
4. Les systèmes d’assistance à la conduite ........................................................................................ 11
4.1. Taxonomie des systèmes d’assistance à la conduite ............................................................. 12
4.1.1. Systèmes informatifs ..................................................................................................... 12
4.1.2. Systèmes actifs .............................................................................................................. 12
4.1.3. Systèmes de contrôle automatique ................................................................................ 12
4.2. Les fonctionnalités des systèmes ADAS ............................................................................... 14
5. Conclusion ..................................................................................................................................... 14
Chapitre 2............................................................................................................................................. 15
1. Introduction ................................................................................................................................... 16
2. Module de classification des panneaux de signalisation .............................................................. 16
2.1. Les méthodes existantes ........................................................................................................ 16
2.1.1. Modélisation colorimétrique ......................................................................................... 16
2.1.2. Modélisation géométrique ............................................................................................. 17
2.1.3. Méthodes avec apprentissage ........................................................................................ 18
3. Module de détection de véhicules et mesure de distance et de vitesse .......................................... 18
3.1. Etat de l’art ............................................................................................................................ 19

XV
Sommaire
3.1.1. L’utilisation des capteurs actifs et passifs ..................................................................... 20
3.1.2. Les approches basées sur les caractéristiques................................................................ 20
3.1.2.1. La symétrie ............................................................................................................ 20
3.1.2.2. Texture................................................................................................................... 21
3.1.2.3. L’ombre ................................................................................................................. 21
3.1.2.4. Les coins ................................................................................................................ 21
3.1.2.5. La couleur .............................................................................................................. 21
3.1.2.6. L’éclairage des véhicules ...................................................................................... 21
3.1.2.7. Codage d’orientation locale ................................................................................... 22
3.1.3. Les approches basées sur le mouvement ....................................................................... 22
3.1.4. Les approches basées sur la stéréo vision ...................................................................... 22
3.1.4.1. La carte de disparité............................................................................................... 22
3.1.4.2. La cartographie inverse de perspective « IPM » ................................................... 22
4. La surveillance de la vigilance du conducteur automobile............................................................ 23
4.1. Mesures directes du niveau de vigilance ............................................................................... 23
4.1.1. Le capteur de mouvement des paupières ....................................................................... 24
4.1.2. Les mesures physiologiques utilisées pour la validation ............................................... 25
4.2. Etat de l’art sur les modules de détection de la somnolence basé sur la vision ..................... 25
5. Conclusion ..................................................................................................................................... 27
Chapitre 3............................................................................................................................................. 28
1. Introduction ................................................................................................................................... 29
2. La calibration de caméra .............................................................................................................. 29
2.1. Modélisation d’une caméra ................................................................................................... 29
2.1.1. La fonction de projection perspective linéaire .............................................................. 30
2.1.2. Distorsions géométriques .............................................................................................. 31
2.1.3. Paramètres extrinsèques ................................................................................................ 32
2.1.4. La matrice de projection ................................................................................................ 33
2.2. Calibrage d’une caméra ......................................................................................................... 33
2.2.1. La calibration hybride.................................................................................................... 34
3. Transformée de Hough .................................................................................................................. 36
3.1. Transformée de Hough Ligne (THL) .................................................................................... 36
3.1.1. Algorithme Transformé de Hough Ligne ...................................................................... 38
3.2. Transformée de Hough Cercle............................................................................................... 39
3.2.1. Algorithme Transformé de Hough Cercle ..................................................................... 40
3.3. Résultats obtenus ................................................................................................................... 41

XVI
Sommaire
4. La Symétrie ................................................................................................................................... 42
4.1. Algorithme de calcul de la symétrie ...................................................................................... 42
5. Filtre de Gabor............................................................................................................................... 44
6. L’image intégrale .......................................................................................................................... 47
7. Les espaces de couleur .................................................................................................................. 48
7.1. Espace RVB (RGB)............................................................................................................... 48
7.2. Espace YCbCr ....................................................................................................................... 48
7.3. Espace TSL (HSV) ................................................................................................................ 49
8. Détection de couleur d'objet d'intérêt ............................................................................................ 50
8.1. L’espace de couleur ............................................................................................................... 51
8.1.1. Espace RVB .................................................................................................................. 51
8.1.2. Espace TLS.................................................................................................................... 51
8.1.3. Espace YCbCr ............................................................................................................... 51
8.2. La méthode implémentée ...................................................................................................... 51
8.2.1. Création du classifieur ................................................................................................... 52
8.2.2. Algorithme de détection de couleur .............................................................................. 53
8.3. Optimisation de l’algorithme de détection de couleur........................................................... 54
8.3.1. Création de la matrice objet ........................................................................................... 54
9. Opérations morphologiques .......................................................................................................... 56
9.1. Dilatation ............................................................................................................................... 56
9.2. Erosion................................................................................................................................... 58
10. La labélisation des objets .......................................................................................................... 60
11. Algorithme de K-means ............................................................................................................ 61
11.1. Description ........................................................................................................................ 62
11.2. Algorithme......................................................................................................................... 62
12. Le Suivi ..................................................................................................................................... 63
12.1. Méthodes de suivi .............................................................................................................. 63
12.1.1. Méthodes de suivi fondées sur des modèles ............................................................. 64
12.1.2. Méthodes de suivi de régions ou blobs.................................................................... 64
12.1.3. Méthodes de suivi à partir de mesures de vitesse ........................................................ 64
12.1.4. Méthodes de suivi de caractéristiques ....................................................................... 64
12.2. Les méthodes de suivi implémentées ................................................................................ 64
13. Conclusion ................................................................................................................................. 66
Chapitre 4............................................................................................................................................. 67
1. Introduction ................................................................................................................................... 68

XVII
Sommaire
2. Module de détection de véhicules et mesure de distance et de vitesse .......................................... 68
2.1. Prétraitement ......................................................................................................................... 69
2.1.1. Les Contours de l’image................................................................................................ 69
2.2. Modélisation de la route ........................................................................................................ 69
2.2.1 Réduction l’espace de recherche ................................................................................... 70
2.2.1.1. Recherche des lignes candidates à délimiter la zone de recherche ........................ 71
2.2.1.2. Choix adéquat des deux meilleures bordures ........................................................ 71
2.3. La détection de véhicules ...................................................................................................... 73
2.3.1. Méthode de symétrie de véhicules ................................................................................ 73
2.3.2. Méthodes basées sur les modèles locaux de découpe.................................................... 77
2.3.3. L’énergie ....................................................................................................................... 79
2.3.4. Adaptation de la fenêtre de recherche ........................................................................... 80
2.4. La poursuite de véhicule........................................................................................................ 80
2.4.1. L’étape de mise en correspondance ............................................................................... 81
2.4.2. Fusion de donnée ........................................................................................................... 82
2.5. Mesure de distance ................................................................................................................ 83
2.5.1. Approche mono-vision .................................................................................................. 83
2.5.1.1. Méthode d’interpolation ........................................................................................ 83
2.5.1.2. Méthode du champ de vision ................................................................................. 87
2.6. Mesure de vitesse .................................................................................................................. 88
2.7. Le module d’alerte................................................................................................................. 89
3. Module de Classification des Panneaux Signalisation Routière ................................................... 90
3.1. Localisation des panneaux dans une scène vidéo .................................................................. 90
3.2. Détection ............................................................................................................................... 91
3.2.1. Approche colorimétrique ............................................................................................... 91
3.2.1.1. Segmentation de la couleur rouge ........................................................................ 91
3.2.1.2. Segmentation de la couleur bleu............................................................................ 92
3.2.1.3. Segmentation de la couleur jaune ......................................................................... 92
3.2.1.4. Segmentation de la couleur blanche ...................................................................... 92
3.2.2. Approche géométrique .................................................................................................. 93
3.3. Extraction des régions d’intérêt ............................................................................................. 93
3.3.1. Prétraitement (érosion & dilatation) ............................................................................. 94
3.3.2. Extraction ...................................................................................................................... 94
3.3.2.1. Etiquetage .............................................................................................................. 94
3.3.2.2. Projection............................................................................................................... 95

XVIII
Sommaire
3.3.2.3. Vérification ............................................................................................................ 95
3.4. Classification de forme .......................................................................................................... 96
4. Module de Détection de Fatigue et de Somnolence ...................................................................... 98
4.1. Détection de visage ............................................................................................................... 98
4.1.1. Les méthodes de détection de visage............................................................................. 99
4.1.1.1. Méthodes basées sur des connaissances ................................................................ 99
4.1.1.2. Méthodes basées sur l’image ................................................................................. 99
4.1.1.3. Méthodes basées sur les caractéristiques invariantes ............................................ 99
4.1.1.4. Méthodes basées sur la mise en correspondance ................................................... 99
4.1.2. Les méthodes implémentées ........................................................................................ 100
4.1.3. Détection de visage par la couleur de peau ................................................................. 101
4.1.3.1. Détection de couleur de peau .............................................................................. 101
4.1.3.2. Localisation de visage ......................................................................................... 101
4.1.3.3. Vérification .......................................................................................................... 104
4.1.4. Détection de visage par symétrie ................................................................................. 107
4.1.4.1. Méthode de symétrie utilisant un rectangle de taille du visage ........................... 107
4.1.4.2. Méthode de détection utilisant le signal de symétrie ........................................... 110
4.1.4.3. Méthode de symétrie sur la différence entre les images ...................................... 112
4.1.4.4. La vérification du visage ..................................................................................... 116
4.1.5. Méthode d’énergie du mouvement de visage .............................................................. 116
4.1.6. Détection de visage par LCP ....................................................................................... 117
4.1.6.1. Optimisation de la LCP ....................................................................................... 119
4.1.6.2. Vérification .......................................................................................................... 119
4.1.6.3. D’autres propositions pour améliorer la méthode de détection de visage par LCP
119
4.1.7. Détection de visage par la méthode de VJ (Viola Jones) ............................................ 121
4.2. Détection des yeux .............................................................................................................. 121
4.2.1. Détection des yeux par symétrie.................................................................................. 122
4.2.2. Détection des yeux par un masque circulaire .............................................................. 123
4.2.3. Détection des yeux par un masque lunette .................................................................. 123
4.2.3.1. Détection des yeux par une image seuillée .......................................................... 126
4.2.3.2. Détection des yeux par le filtre de Gabor ............................................................ 127
4.2.4. Améliorer la détection des yeux .................................................................................. 127
4.2.4.1. Masque elliptique de visage ................................................................................ 127
4.2.4.2. Masque de couleur de peau ................................................................................. 128

XIX
Sommaire
4.2.5. Orientation du visage................................................................................................... 129
4.2.6. Localisation de la bouche ............................................................................................ 130
4.2.7. Détection de bâillement ............................................................................................... 130
4.3. Etats des yeux ...................................................................................................................... 131
4.3.1. Etat des yeux par la transformée de Hough cercles ..................................................... 131
4.3.2. Etat des yeux par la Somme des points contours......................................................... 133
4.3.2.1. Extension de la méthode ...................................................................................... 134
4.3.3. Etat des yeux par un masque circulaire ....................................................................... 135
4.3.4. Etat des yeux par la fusion entre la méthode de masque circulaire et la THC ............ 136
4.3.5. Etat des yeux par K-means .......................................................................................... 137
5. Conclusion ................................................................................................................................... 138
Chapitre 5........................................................................................................................................... 139
1. Introduction ................................................................................................................................. 140
2. Le système réalisé ....................................................................................................................... 140
2.1. Matériel utilisé ................................................................................................................. 140
2.1.1. Les Caméras ................................................................................................................ 140
2.1.1.1. Caméra 1.............................................................................................................. 140
2.1.1.2. Caméra 2.............................................................................................................. 141
2.1.2. Carte d’acquisition ...................................................................................................... 141
2.1.3. Ordinateur portable...................................................................................................... 141
2.1.4. Support de fixation de la caméra ................................................................................. 142
2.1.5. Alimentation ................................................................................................................ 142
2.2. Logiciels utilisés .............................................................................................................. 142
3. L’appareillage de notre système embarqué au bord du véhicule................................................. 143
4. Collection de la base de données ................................................................................................. 143
5. Résultats expérimentaux.............................................................................................................. 144
5.1. Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV). ........ 145
5.1.1. Modélisation de la route .............................................................................................. 145
5.1.2. Les méthodes de détection de véhicule ....................................................................... 145
5.1.3. Les méthodes de suivi ................................................................................................. 146
5.1.4. Mesure de distance et de vitesse .................................................................................. 147
5.1.4.1. Les méthodes de la mono-vision ......................................................................... 149
5.1.5. Algorithme global........................................................................................................ 162
5.1.5.1. Description de l’algorithme ................................................................................. 163
5.2. Module de Classification des Panneaux de Signalisation Routière (MCPSR). .................. 164

XX
Sommaire
5.2.1. Détection et localisation .............................................................................................. 164
5.2.2. Classification des panneaux de signalisation............................................................... 164
5.2.3. Algorithme global........................................................................................................ 165
5.2.3.1. Description de l’algorithme ................................................................................. 167
5.3. Module de Détection de Fatigue et de Somnolence (MDFS). ............................................. 168
5.3.1. Les méthodes de détection de visage........................................................................... 168
5.3.2. Les méthodes de détection des yeux ........................................................................... 170
5.3.3. Les méthodes de suivi de visage et des yeux............................................................... 172
5.3.3.1. Le test de suivi ..................................................................................................... 174
5.3.4. Les méthodes de décision de l’état des yeux ............................................................... 176
5.3.5. Algorithme global........................................................................................................ 178
5.3.5.1. Description de l’algorithme ................................................................................. 179
Conclusion générale & Perspective .................................................................................................. 181
Bibliographie...................................................................................................................................... 185

XXI
Introduction générale

Introduction générale

L’automobile est l’un des phénomènes majeurs du vingtième siècle. Avec le mode de transport,
les hommes et les femmes ont obtenu le droit à la mobilité, qu’elle soit professionnelle ou
privée. Néanmoins, le véhicule reste l’une des principales causes de mortalité de notre vie
moderne, malgré les efforts consentis par les politiques en matière de prévention, d’information
et de répression ou ceux des constructeurs automobiles en matière de sécurité passive (air bag,
ceinture de sécurité, . . ) et de sécurité active (ABS, ESP, . .). Cet état de fait réside dans
l’intervention de l’homme sur des processus complexes qui régissent la conduite (maintien du
véhicule sur la route, respect de règles pas toujours évidentes,. .) et qui ne sont pas toujours
adaptés à ses propres limites physiologiques (acuité visuelle, évaluation de distances, perte
d’attention, énervement,. . .), mais que les avancées technologiques de ces dernières années
tentent de rendre plus facile.

Avec les progrès de l’automatique, de l’informatique, des télécommunications et de la


miniaturisation des instruments, les chercheurs sont aujourd’hui en mesure de développer des
systèmes d’aide à la conduite automatisant certaines tâches.

Les constructeurs automobiles, en introduisant de nouveaux dispositifs de sécurité. Sur ce


dernier point, les systèmes embarqués doivent agir sur la contrôlabilité du véhicule pour que ce
dernier réponde plus rapidement aux sollicitations du conducteur. De plus, des laboratoires de
recherche ont pour objectifs de développer des systèmes permettant de prévoir et compenser
une défaillance d’un élément du système véhicule-infrastructure-conducteur.

L’objectif de notre travail est de concevoir un système d’alerte au conducteur afin de l’aider à
éviter les accidents causées par la collision, le manque de respect du code de la route, et de
somnolence, la fatigue ou perte d’attention du conducteur .

La problématique

Notre problématique est résumée en trois points essentiels :

- Tout d’abord, comment mesurer la vitesse des véhicules dans le monde routier ? Comment
trouver la distance de sécurité d’un véhicule par rapport à son prédécesseur.

Actuellement, les constructeurs utilisent plusieurs technologies basées sur des capteurs actifs
comme le Radar, le Lidar et le Sonar. Ils permettent de remplir la fonction de perception de
l’environnement, et souhaitent étudier l’utilisation d’une caméra en remplacement du RADAR,
LIDAR et SONAR car elle semble d’avoir des performances similaires pour un coût attractif,
et peut remplacer plusieurs capteurs.

Les études de l’accidentologie ont montré qu’en Algérie, les accidents causés par des collisions
comptent approximativement pour 30% de « l’accidentologie globale ». L’erreur humaine en
est la première cause : inattention du conducteur, fatigue, inexpérience, manque de respect du
code de la route et autres incapacités. La collision représente le risque pris par le conducteur
comparé à son positionnement longitudinal.

1
Introduction générale

- C’est dans ce contexte que, le deuxième objectif de cette thèse est d’élaborer un module basé
vision délivrant les informations clefs à savoir les panneaux de signalisation routière, la dernière
information est une tâche importante pour un système de soutien du conducteur. En effet ces
panneaux fournissent une information utile qui apparaît clairement dans l'environnement.
Cependant, les conducteurs manquent parfois certains panneaux importants par distractions ou
par manque de concentration. Alors, il peut alors être utile de les mettre au courant de
l'information qu'ils ont manquée.

- Fondées sur les deux objectifs précédents, le troisième objectif de cette thèse est d’employer
des nouvelles technologies pour concevoir et établir les sous modules qui sont capables de
surveiller les conducteurs et pour mesurer leur niveau d'attention pendant le processus complet
de la conduite. Heureusement, les conducteurs qui sont dans un état de somnolence produisent
plusieurs gestes visuelles qui peuvent être détectées à travers le visage humain, comme :

 Fréquence de clignotement d'œil.


 Fréquence de bâillement.
 Mouvement du visage.
 Regard fixe (distrait).
 Expressions faciales.

En tirant profit de ces caractéristiques visuelles, la vision par ordinateur est la technologie la
plus faisable et la plus appropriée disponible pour traiter ce problème. Ce module traite la
détection automatique de fatigue et de la somnolence du conducteur basée sur l'information
visuelle.

Cette thèse est une partie de développement d’un projet de recherche qui se réalise au sein de
laboratoire Signaux et Images (LSI). Ce projet consiste de plusieurs axes qui s’insèrent dans
des applications de type systèmes de transports intelligents.

Notre travail se focalise sur le développement des trois modules basés sur la vision embarqués
sur un véhicule :

 Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).


 Module de Classification des Panneaux de Signalisation Routière (MCPSR).
 Module de Détection de Fatigue et de Somnolence (MDFS).

Ces trois modules autonomes peuvent être considérés comme des systèmes d’aide à la conduite
intégrant quatre fonctions principales qui précèdent l’accident : la perception, l’analyse
d’environnement, la décision et l’action. Ils interagissent non seulement avec l’environnement
et le véhicule mais aussi avec le conducteur à travers des interfaces.

2
Introduction générale

Organisation du mémoire

Ce mémoire comportant 5 chapitres est organisé comme suit :

Chapitre 1 :

Ce chapitre présente une introduction aux systèmes de transport intelligents et les systèmes
avancés d’aide à la conduite « ADAS » et leur taxonomie. Nous donnerons dans ce chapitre,
une étude détaillée sur les systèmes de sécurité routière. Nous aborderons également le risque
routier et les différents indicateurs de risques en modes longitudinal et latéral.

Chapitre 2 :

Nous présenterons l’état de l’art sur chaque étape dans les trois modules : détection des
véhicules, le suivi de véhicules, mesure de distance et de vitesse, détection des panneaux de
signalisation, classification des panneaux de signalisation, et détection de la fatigue et la
somnolence basés sur la vision.
Chapitre 3 :

Le troisième chapitre est consacré à la description des différents outils qu’ont été utilisés dans
notre système et nous aident à développer notre algorithme global comme la calibration de
caméra, la transformé de Hough, les techniques de calcul de la symétrie dans l’image, le filtre
de Gabor, l’image intégrale, les espaces de couleur, détection de couleur, les opérations
morphologiques (l’érosion et la dilatation), labellisation, l’algorithme de K-means et quelques
techniques de suivi dans l’image.
Chapitre 4 :

Le quatrième chapitre étant essentiellement à présenter les méthodes du chaque étape dans nos
modules, premièrement les capteurs utilisés en vision ne permettent pas une mesure directe de
la vitesse. Il faut donc mettre en œuvre des méthodes spécifiques. La solution la plus intuitive
consiste à mettre en correspondance au cours du temps les détections successives fournies par
le processus de détection des véhicules. Dans ce module, nous commencerons par une
description du processus de modélisation de route puis la détection et le suivi de véhicules, pour
ensuite mesurer la distance et la vitesse, et pour le deuxième module nous avons présenté les
méthodes de détection et classifications de panneaux de signalisation ,et dans le troisième
module , nous abordant les méthodes de détection de visage, détection des yeux, et la décision
de l’état ces derniers, qui ont été implémentées avec nos contributions pour l’amélioration et
l’optimisation des résultats.

Chapitre 5 :

Dans le dernier chapitre, nous allons présenter notre système proposé en citons les matériels et
les logiciels utilisés. Ensuite, nous discuterons sur les résultats obtenus pour chaque étape
composant nos modules et l’environnement choisi pour effectuer les tests de notre base de
données.

3
Introduction générale

Après, nous allons passer à la description de nos algorithmes globaux des trois modules qui
collecte les différents blocs cités dans le chapitre précédent. Enfin, on terminera par une
discussion sur les résultats obtenus.

En conclusion, on résumera le travail qui a été réalisé dans le cadre de cette thèse, apportera
nos remarques quant aux trois modules et définira des perspectives pour la suite de nos
recherches dans ce domaine.

4
Chapitre 1

Introduction aux Systèmes de Transport


Intelligents « ITS » et les Systèmes Avancés
d’Aide à la Conduite « ADAS »

5
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

1. Introduction
Au tournant du XXIe siècle, l’industrie automobile est en pleine transformation, alors que les
systèmes qui existent dans les véhicules ne sont plus suffisants. Les véhicules d’aujourd’hui
comportent des dispositifs complexes, dont les fonctions les plus importantes sont contrôlées
par l’ordinateur. Plusieurs facteurs ont contribué à cette évolution de l’industrie automobile
telles que : les menaces de sécurité potentielles, l’augmentation des coûts d’essence et de la
pollution des véhicules.

Pour ces raisons, les systèmes de transport intelligents désignent les applications des nouvelles
technologies de l'information et de la communication au domaine des transports telles que : la
communication sans fil, la détection d’obstacles, la localisation GPS. Ils visent à améliorer la
sécurité routière et l’efficacité du trafic en réduisant le nombre d’accidents sur les routes.

2. Principaux facteurs d’accidents [1]


Les accidents et la gravité de leurs conséquences s’expliquent bien souvent par une
combinaison de facteurs liés au conducteur, au véhicule, à la route, aux conditions de
circulation, aux secours…

Les facteurs humains en particulier apparaissent dans plus de 90 % des accidents corporels.
Certains facteurs sont relevés systématiquement par les forces de l’ordre après qu’un accident
a eu lieu : alcoolémie, choc contre un obstacle fixe, conditions météorologiques etc.

D’autres facteurs (et non des moindres) ne sont pas systématiquement recherchés, car c’est
difficile à déterminer d’une façon précise : la vitesse, la fatigue, la somnolence, la distraction,
l’usage du téléphone, et le non-respect des distances de sécurité.

Tableau 1-1: Liste non exhaustive de facteurs relevés dans les accidents [1].

Conduite sous l’influence L’alcoolémie positive d’un conducteur est présentée dans les
de l’alcool accidents causant 30,8 % des tués sur la route.

Vitesse excessive Ce facteur n’est pas comptabilisé dans les statistiques d’accidents.
D’autre part les vitesses réelles des véhicules sont mal connues des
pouvoirs publics car avec les avertisseurs communautaires les
véhicules ralentissent au droit des points de mesure.

Distance de sécurité L’intervalle de sécurité entre deux véhicules doit être au minimum
de deux secondes, or dans la circulation moins de 50 % des véhicules
respectent cette règle. Les collisions par l’arrière et en chaîne
occasionnent 6,6 % des tués de la route et 16,3% des blessés.

Défaut de ceinture / Ce facteur présente un pourcentage de 22 % des tués en voiture. Un


casque port systématique de la ceinture permettrait de diviser par deux le
risque d'être tué en cas d'accident.

6
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

De même le port du casque n’est pas encore systématique et son


absence entraîne de nombreuses blessures graves et mortelles dans
les accidents.

Téléphone au volant Ce facteur n’est pas comptabilisé dans les statistiques d’accidents. Le
taux d’infraction (usage d’un téléphone tenu en main) est de 2 % pour
les automobilistes, et encore plus fréquent dans les véhicules
utilitaires. Téléphoner au volant, multiplie par 4 le risque d’avoir un
accident corporel.

Présence d’un obstacle Facteur présent pour les accidents occasionnant 36,5 % des tués.
fixe (arbre, véhicule en
stationnement, glissières, Protéger les usagers des arbres et poteaux situés à proximité
mur, poteau, panneau de immédiate de la chaussée permettrait d’épargner de nombreuses
signalisation, bordure de victimes.
trottoir, fossé etc.)

Fatigue et somnolence au La cause "malaise fatigue" apparaît dans 8 % des accidents mortels
volant sur l’ensemble du réseau, et atteint même 21 % sur les autoroutes.
Ce risque apparait de jour comme de nuit.

Conduite sous influence Les tests relatifs aux stupéfiants appliqués aux victimes des accidents
du cannabis sont trop rares pour aboutir à des données statistiques fiables.
Conduire après avoir consommé du cannabis multiplie par 2 le risque
d’être responsable d’un accident mortel. Le risque est multiplié par
14 en cas de consommation conjointe de cannabis et d’alcool.

Conduite sans permis Facteur présent pour les accidents occasionnant 4 % des tués.
/avec un permis inadapté
/ sans assurance

Bien sûr, d'autres facteurs, qu'ils soient liés au comportement, à l'état du véhicule ou à celui des
infrastructures, entrent également en jeu.

3. Systèmes de transport intelligents [2]


Les planificateurs de la circulation de par le monde sont confrontés à de grands défis dans la
conception de systèmes de transport du futur. La demande de transport continuera d'augmenter ;
réduire la congestion du trafic, la pollution atmosphérique et le nombre d'accidents ferrant partie
de leurs grandes préoccupations. La performance des systèmes de transport est d'une
importance cruciale pour les possibilités de mobilité individuelle d'affaires, et la croissance
économique d'une nation.

Les systèmes de transport intelligents (STI) consistent en une large gamme de technologies
appliquées aux transports pour rendre les systèmes plus sécuritaires, plus efficaces, plus fiables

7
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

et plus respectueux de l'environnement, sans avoir à modifier matériellement l'infrastructure


existante. La gamme des technologies impliquées inclut les technologies de capteurs et de
contrôle, les communications, l'informatique, et regroupe diverses disciplines telles que le
transport, les télécommunications, la finance, le commerce, et l’industrie automobile. Les
systèmes de transport intelligents représentent un phénomène mondial émergeant bénéficiant
des secteurs tant publics que privés. Ils permettent la collecte de données liées à l’état du trafic
routier puis fournir une rétroaction en temps opportun aux gestionnaires de la circulation et aux
usagers de la route. Grâce aux systèmes de transports intelligents, il est possible de mettre en
œuvre un certain nombre de règlements et processus gouvernementaux (les formalités de
douanes et d’immigration, la conformité à la sécurité des transports, droit de péage routier) de
façon plus économique, dans le but de réduire la congestion du réseau routier et la pollution de
l’air, réduire les coûts d'exploitation et la consommation d'énergie, d'améliorer la productivité
des entreprises grâce à des économies de temps, accroitre la fiabilité et la sécurité.

3.1. Historique

Les STI est un phénomène global, qui intéresse à l’échelle mondiale les professionnels du
transport, de l'industrie automobile, et des décideurs politiques. Les Japonais semblent avoir
lancé, la notion moderne du STI avec leurs travaux menés à bien depuis les années 80.

On doit aussi dire que les Etats-Unis avaient également vu l’utilité d’appliquer le STI à une
certaine date dans le cadre du projet intitulé ‘ Guidage Electronique Sur Routes ‘ (GESR) dans
les années 70. À ce moment-là, les Japonais n'avaient pas encore inventé un nom spécifique
pour le STI étant donné qu’il était considéré comme une partie du contrôle du trafic. L'Union
Européenne a pris le thème, l'a en partie, basé sur une réaction aux Japonais et, stimulé par le
brillant travail réalisé par ‘Siemens' dans le cadre du Projet de Guidage sur Routes à Berlin. Les
Européens faisaient référence au sujet en tant qu'informatique du transport routier. Les Etats-
Unis ont alors pris le thème vers la fin des années 80, se rapportant au sujet en tant que Systèmes
Intelligents de Véhicules sur Autoroute (SIVA), un terme que nous croyons avoir été trouvé par
le professeur Kan Chen de l'Université du Michigan.

Kan Chen [2] a dit que l’acronyme portait sur les deux aspects, ceux liés aux véhicules
intelligents et de l’autoroute et comporte les lettres VHS. Ce nom démontre également un peu
de supériorité par rapport au Système Japonais de Véhicule Intelligents (SJIV) mis en place au
cours des années 80 sous l'égide du Ministère Japonais du Commerce International et de
l’Industrie (MCII).

Pour ne pas être dépassés, les Européens sont revenus avec un nouveau terme durant leur
seconde manche. Cette fois ci, l'expression était la Télématique Avancée du Transport (TAT),
renforçant leur point de vue que l'application de la technologie de l'information et des
communications au transport faisait partie d'une application plus large à d'autres domaines tels
que la santé et l'éducation, connue sous le nom de télématique.

Les Etats-Unis ont alors proposé encore un autre terme, STI, reconnaissant sa plus large
application aux systèmes de transport aussi bien pour les voitures privées que les autoroutes.

8
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

Heureusement, ce nom semble avoir eu un écho favorable de la part de beaucoup d'organismes


internationaux qui l’ont adopté. En effet, la série des congrès mondiaux annuels, coparrainés
par l'Europe, les Etats-Unis et le Japon ont utilisé le nom STI depuis le premier congrès, qui
s’est tenu à Paris en 1994. D'autre part, l'ISO (organisation mondiale de normalisation) a décidé
d'adopter un autre terme, dans ses activités de développement standards, celui de Télématique
du Trafic Routier et du Transport.

3.2. Domaines d’applications des systèmes de transport intelligents

3.2.1. Les Systèmes Avancés de Gestion du Trafic (SAGT)


Les SAGT(s) intègrent les fonctions de gestion de diverses routes. Ils prévoient les
embouteillages et fournissent des instructions d'itinéraire alternatif aux véhicules au niveau
régional afin d'améliorer l'efficacité des routes et de maintenir des priorités d’occupation pour
les véhicules. Des données en temps réel sont rassemblées, utilisées et disséminées par les
SAGT et alertent les opérateurs de transit de routes alternatives pour améliorer les
opérations de transit. Les systèmes de contrôle dynamiques du trafic répondent en temps réel
aux conditions de changement à travers d’autres routes contournant donc les accidents. La
détection d'incident est une fonction critique dans la réduction des embouteillages sur les
autoroutes.

Figure 1-1: Gestion du trafic routier par un système de transport intelligent [148].

3.2.2. Les Systèmes d’Information Avancés pour le Conducteur (SIAC)


Les SIAC(s) fournissent des données aux conducteurs dans leurs véhicules, maisons ou
lieux de travail. L'information comprend: le lieu des incidents, les problèmes du climat, l’état
des routes, les cheminements optimaux et les restrictions de lignes. Des informations peuvent
être fournies aux conducteurs et aux utilisateurs en transit et même aux gens avant leur voyage
pour les aider à décider quel moyen utiliser.

9
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

Figure 1-2: Système de guidage de route [147].

3.2.3. Les Systèmes Avancés de Control du Véhicule (SACV)


Le SCAV est vu comme une amélioration de la commande du véhicule par le conducteur afin
de rendre son voyage plus sure. Le SACV comprend un nombre important de concepts qui
deviendront opérationnels sur différentes échelles de temps.

À court terme, les dispositifs d'alerte de collision alerteraient le conducteur d’une collision
imminente possible. Dans les systèmes les plus avancés, le véhicule automatiquement freinerait
ou éviterait une collision.

Les deux systèmes sont autonomes au véhicule et peuvent apporter un plus en améliorant
la sécurité et en réduisant les accidents dus aux embouteillages.

À long terme, les concepts des SACV seront basés essentiellement sur l'information
d'infrastructure et de commande qui pourrait produire des améliorations de sortie de routes cinq
à dix fois mieux. Ce concept s'appelle le système d’autoroute automatisée (SAA). Les
mouvements de tous les véhicules sur les routes seraient automatiquement contrôlés. Les
SACV, en particulier le système d‘autoroute automatisé (SAA), est envisagé comme
programme à plus long terme.

Figure 1-3: Système ACC de control de la distance de sécurité entre véhicules


(BMW Active Cruise Control) [149].

10
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

3.2.4. Les Systèmes Avancés de Transport Public (SATP)


Les SATP peuvent employer des technologies ci-dessus citées pour augmenter
considérablement l'accessibilité à l’information par les utilisateurs du transport public ainsi
que pour améliorer la programmation des véhicules de transport public et l'utilisation
des flottes d'autobus.

Figure 1-4: Planification d’arrêt des lignes de bus [150].

4. Les systèmes d’assistance à la conduite


L’opérateur humain (conducteur) agit comme un contrôleur central qui exécute différentes
tâches de stabilisation, de guidage et de navigation. Il joue un rôle relativement sûr et fiable
dans les systèmes homme-machine grâce à sa capacité d’adaptation à une grande variété de
situations et à la sophistication de ses capteurs. Néanmoins, les erreurs humaines ne peuvent
être totalement exclues car les limitations en perception, traitement et actions sont rapidement
atteintes.

Le véhicule de futur doit aider le conducteur à mieux comprendre son environnement et


l’assister dans sa prise de décision sans jamais le déresponsabiliser.

Figure 1-5: Quelques systèmes d'assistace à la conduite [151].

11
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

4.1. Taxonomie des systèmes d’assistance à la conduite

Les systèmes d’assistance à la conduite disposent trois niveaux d’application, allant du système
le plus simple (uniquement informatif) au système plus complexe de prise en charge complète
du véhicule. Le tableau 1-2 récapitule la taxonomie des systèmes d'assistance à la conduite.

4.1.1. Systèmes informatifs


Les systèmes informatifs n’ont pas d’intervention directe sur le véhicule et permettent d’avertir
lorsque l’interaction homme-véhicule peut devenir dangereuse, par exemple rétro-vision pour
détection dans l’angle mort, détection d’obstacles et avertissement de risque assisté par
infrastructure, communication véhicule–véhicule (V2V) ou véhicule–infrastructure, détection
prédictive de sortie de route, système d’aide au parking, signalisation dans le véhicule :
mécanismes alternatifs pour avertir le conducteur comme les afficheurs tête-haute, les
avertissements sonores, visuels et sensitifs, guidage sur route et information sur trafic :
utilisation de la radionavigation, incluant les systèmes de positionnement global (GPS),
détection de la vigilance du conducteur, déduite des actions du conducteur ou des mesures
physiologiques indirectes.

4.1.2. Systèmes actifs


Les systèmes actifs interviennent uniquement en cas de détection de danger. Un exemple bien
connu est l’ABS qui ne devient actif que lorsque les roues se bloquent, ce qui améliore la tenue
de route en cas de freinage d’urgence. D’autres systèmes en développement sont :
l’avertissement de vitesse de courbe, l’avertissement de risque de collision, l’avertissement de
sortie de voie, le contrôle adaptatif de croisière, le contrôle de traction, le contrôle de stabilité
de trajectoire, les coussins gonflables prédictifs, les systèmes anticollision longitudinale et les
systèmes de freinage électroniques.

4.1.3. Systèmes de contrôle automatique


Entre sécurité et confort, les systèmes de contrôle automatique comprennent le contrôle
adaptatif de croisière intégrant des fonctions anticollision et de communication, le contrôle
longitudinal urbain, le contrôle transversal routier, l’évitement de collision avant et arrière,
l’évitement de collision aux intersections et les préventions de sortie de voie.

Tableau 1-2: Taxonomie des systèmes d'assistance à la conduite.

SYSTEMES DE
SYSTEMES INFORMATIFS SYSTEMES ACTIFS CONTROLE
AUTOMATIQUE

12
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

- Rétro-vision pour la détection - Avertissement de - Contrôle adaptatif


dans l’angle mort. vitesse de courbe. de croisière
- Détection d’obstacles et - Avertissement de intégrant des
avertissement de risque collision. fonctions
assisté par infrastructure. - Avertissement de anticollision et de
- Communication véhicule– sortie de voie/route. communication.
véhicule ou véhicule– - Contrôle adaptatif de - Contrôle
infrastructure. croisière. longitudinal
- Détection prédictive de sortie - Contrôle de traction. urbain.
de voie/route. - Contrôle de stabilité de - Contrôle
- Système d’aide au parking. trajectoire. transversal
- Signalisation dans le véhicule - Coussins gonflables routier.
: mécanismes alternatifs pour prédictifs. - Evitement de
avertir le conducteur, comme - Système anticollision collisions en avant
les afficheurs tête–haute, les longitudinal. et en arrière.
avertissements sonores, - Systèmes de freinage - Evitement de
visuels et sensitifs. électroniques, (ABS). collisions dans
- Guidage sur route et des intersections.
Information sur trafic : - Préventions de
utilisation de la radio– sortie de voie.
navigation, incluant les
systèmes de positionnement
global (GPS).
- Détection de la vigilance du
conducteur, déduite des
mesures de performance ou
des mesures physiologiques
indirectes.

Tableau 1-3: Différents capteurs disponibles dans le véhicule.

Types de capteurs Capteurs

Capteurs d’imagerie Les caméras gamme 3D, le visage du pilote, capteur de la route d’état
de surface, détecteurs lasers, détecteurs infrarouges (Caméra
infrarouge).

Capteurs de distance Capteurs infrarouges, radar, capteur de collision par l’avant, capteur
de collision par l’arrière.

Les cartes numériques Système de Positionnement Global (Cartes GPS), système


d’Information Géographique(SIG).

13
Chapitre 1
Introduction aux systèmes ITS et les systèmes ADAS

Les dispositifs de Communication sans fil et diffusion météorologique locale.


communication

Capteurs mécaniques Capteurs mécaniques de l’état du moteur, capteurs de pression des


pneus, capteurs de l’état des pneumatiques.

Autres capteurs Pollution, détection de la pluie, etc.

4.2. Les fonctionnalités des systèmes ADAS

Les systèmes ADAS fournissent de nouvelles fonctionnalités intéressantes pour le transport


routier comme par exemple : le platooning ( le suivi automatique du véhicule précédent), la
détection d’obstacles, la gestion des distances, la planification des trajectoires et des trajets, la
détection de la pluie pour l’activation automatique des essuie-glaces et l’Alerte de
Franchissement Involontaire de Ligne (AFIL), ces systèmes ADAS autonomes peuvent être
considérés comme des dispositifs de sécurité actifs intégrant quatre fonctions primordiales qui
précèdent l’accident : la perception, l’analyse d’environnement proche et lointain, la décision
et l’action comme le montre la figure 1-6. Ils interagissent non seulement avec l’environnement
et le véhicule mais aussi avec le conducteur à travers des interfaces passives et actives.

ITS
ADAS
Perception

Analyse

Décision

Action
Capteurs Intelligents

Figure 1-6: Diagramme fonctionnel des systèmes ADAS.

5. Conclusion
Nous avons présenté dans ce chapitre une introduction aux systèmes de transport intelligents et
les systèmes avancés d’aide à la conduite « ADAS » et leur taxonomie. D’où, une étude détaillée
sur les systèmes de sécurité routière. Nous avons abordé également le risque routier et les
différents indicateurs de risques en modes longitudinal et latéral.

14
Chapitre 2

État de l’art des systèmes ADAS

15
Chapitre 2
État de l’art des systèmes ADAS

1. Introduction
L’objectif principal de ce chapitre est d’établir une vue d’ensemble du processus de chaque
module. L’état de l’art fournira une bonne base de discussion tout au long de ce chapitre.

Dans ce chapitre nous allons présenter l’état de l’art sur le module de classification des
panneaux de signalisation, aussi que l’état de l’art sur le module de détection de véhicules et
mesure de distance et de vitesse. Enfin on termine ce chapitre avec l’état de l’art sur la
surveillance de la vigilance du conducteur automobile.

2. Module de classification des panneaux de signalisation


Les panneaux de signalisation fournissent diverses informations au conducteur pour une
navigation sûre et efficace. L'identification automatique des panneaux de signalisation est donc
importante pour les systèmes d'aide à la conduite automatisés.

Puisque ces signes sont habituellement peints par des couleurs distinctes, ils peuvent être
facilement détectés en utilisant l'information de couleur. Toutefois cette information est
sensible au changement climatique ou à l’éclairage et, en conséquence, il est difficile d‘extraire
les panneaux de signalisation d’une manière sûre en se basant seulement sur l’information de
la couleur.

En outre, dans des scènes urbaines encombrées, d'autres panneaux publicitaire ou bâtiments
avec une couleur semblable aux panneaux de signalisation peuvent la rendre la détection encore
plus difficile. Pour faire face à de tels problèmes, nous employons en plus de l'information de
la couleur, l’information de la forme.

Cette partie expose une vision non exhaustive des systèmes de reconnaissance des panneaux de
signalisation, tout d’abord nous présentons les différentes approches de détection et de
reconnaissance des panneaux de signalisation.

2.1. Les méthodes existantes

La majorité des travaux qui existent dans la littérature, adoptent une approche séquentielle à
deux étages, visant la localisation des régions d'intérêt et la vérification de ces hypothèses sur
la présence du panneau (détection), et plus tard déterminant le type du panneau détecté
(classification) [3] [4] [5] [6] [7] [8] [9] [10], et cela peut être élaborée de plusieurs manières.
Nous avons classé ces approches en trois catégories :

- Modélisation colorimétrique.
- Modélisation géométrique.
- Méthodes avec apprentissage.

2.1.1. Modélisation colorimétrique


Une segmentation en composantes connexes fondée sur un modèle de couleur est opérée. Les
régions d’intérêt sont ensuite validées par un algorithme de reconnaissance ou un modèle

16
Chapitre 2
État de l’art des systèmes ADAS

d’apparence. Ces méthodes sont les plus rapides mais aussi les moins robustes aux variations
des conditions d’éclairage. Parmi les études dans lesquelles l'information de couleur a été
employée pour détecter les panneaux de signalisation. L’espace YUV est considéré dans [11]
pour détecter le bleu des panneaux de signalisation rectangulaires .L’espace HSV (Teinte -
Saturation-Valeur) était le plus populaire comme étant basé sur la perception humaine. En plus,
il est en grande partie insensible aux changements de luminosité, vu que sa composition est
parfaitement décorrélée. Dans [4], ils ont déterminé les régions d'intérêt par groupe donc les
pixels ayant des valeurs dans un domaine prédéfini par un seuil. Le modèle de HSV a été
également employé dans [5] pour classifier les images d'essai des panneaux dans plusieurs
catégories distinctives et dans [12] pour extraire les régions d’intérêt. D'autres modèles d'aspect
de couleur étaient utilisé mais moins populaires. Par exemple, Dans [13] [3] [5] un seuillage
d’un rapport d’intensité est utilisé avec la moyenne des intensités de RGB pour détecter les
couleurs vives dans l’image. Dans [14] les images en RGB prises par l'appareil-photo sont
d'abord passées par une étape de prétraitement qui nous aide à maintenir la constance de couleur
en différents états d'illumination avant de la transformée à l'espace chromatique de HSV et
dans [15] une segmentation de couleur par seuillage sur l’espace chromatique HSV. Dans [16]
, ils ont utilisé une segmentation par seuil sur l’espace chromatique RGB après avoir fixé des
seuils de changement de luminosité. Dans [17] le modèle CIELab optimisé a étais considérée
pour extraire les candidats de la scène. Dans [6] ou le modèle CIECAM97 été appliqué avec
l’optimisation de courbes.

2.1.2. Modélisation géométrique


Les contours de l’image sont analysés par une approche structurelle ou globale. Cette méthode
est généralement plus robuste que celles photométriques parce qu’elle traite le gradient de
l’image, et elle peut traiter des images en niveaux de gris. Par exemple, [18] se focalise sur la
détection des panneaux circulaires déterminant a priori les paramètres d'un cercle (centre et
rayon), choisissant trois points de long du contour. Pour le reste des points, l'erreur moyenne
est calculée, si cette dernière est inférieure à un seuil, l'objet est considéré comme un cercle.
Dans cette méthode, les déformations ou les occlusions de projection ne sont pas tenues en
compte. Dans [19], les rectangles sont détectés par les projections horizontales et verticales des
régions d’intérêt. Mais les déformations ne sont pas traitées, bien qu'on ait laissé un certain
degré d'occlusion. Cette méthode ne peut pas être facilement implémentée pour les cercles ou
les triangles. Les méthodes présentées précédemment se focalisent seulement dans une forme,
mais la demande commune de l’application et le besoin d'identification chaque panneau
possible, fait que les travaux qui permirent la détection de n'importe quel genre de forme seront
souhaitables. Dans [4], le système peut détecter les triangles et les cercles par l'utilisation des
calibres prédéfinis dans différentes positions, Cette méthode ne considère pas les panneaux
inclinés ou de travers et la taille d'images est limité. Dans [20], la distance à la frontière est
définie, permettant au système de déterminer la forme à l'aide des machines de vecteur de
soutien. Dans [21], ils ont proposé une forme de symétrie qui permet la détection de plusieurs
types de formes. L'idée est de mesurer la proportionnalité entre plusieurs segments horizontaux
pris des régions de candidat de haut en bas. Chaque forme est caractérisée suivant cette méthode
et sauvegardée dans une base de données d’un modèle utilisée pour la comparaison. La

17
Chapitre 2
État de l’art des systèmes ADAS

déformation ou les occlusions de projection ne sont pas traitées. Dans [3] un algorithme qui
analyse le nombre et l'endroit des coins des objets. Ceci permet l'identification des triangles et
des rectangles présents dans l’image. Ses coins sont classés par l'angle qu'ils forment.
L'algorithme recherche les coins avec les angles qui sont présent dans les triangles et les
rectangles (~60° et ~90°).Dans [22], ils ont utilisé la transformée de Hough pour vérifier
l’hypothèse sur la présence des panneaux. Dans [23], ils ont exploité la phase du gradient de
Sobel pour détecter les panneaux.

2.1.3. Méthodes avec apprentissage


Un classifieur (cascade, SVM, réseaux de neurones) est entraîné sur une base d’exemples. Il est
appliqué sur une fenêtre glissante qui parcourt l’image à plusieurs échelles. Ces méthodes
combinent la géométrie et la photométrie mais peuvent être coûteuse en temps du calcul. Elles
nécessitent la constitution d’une base d’apprentissage par type de panneaux, ce qui constitue
une étape fastidieuse lorsque le nombre d’objets à détecter est grand. Par exemple, dans [24],
des calibres de différentes formes sont stockés, et chaque région est normalisée à (36X36) et
comparée aux versions tournées pour rendre le système invariable aux rotations mais les
déformations ne sont pas traitées et le nombre des rotations est limité. Les algorithmes
génétiques (GA) sont fréquemment employés. Les travaux [25] [26] donnent quelques
exemples de l'utilisation des (GA) dans la recherche et la détection des panneaux circulaires
mais aucune d’elles n’a traité les occlusions et les distorsions des panneaux .Dans [27] un
SVM a été appliqué pour classer les différentes formes et un réseau de neurone a été mis en
place pour diminuer la probabilité de fausse détection, pour extraire les régions d’intérêt [22],
et pour extraire des dispositifs de couleur [28].

3. Module de détection de véhicules et mesure de distance et de vitesse


Un système d’alerte de détection de véhicules doit transmettre des messages d’avertissement
en cas de détection d’une situation critique. Les systèmes d’alerte existants sont basés sur la
détection et la reconnaissance de l’obstacle [29] [30] [31] et [32]. Ils sont basés sur des
technologies des capteurs et des dispositifs informatiques installés dans les véhicules décisions
appropriées. Comme par exemple, l’obstacle ou bien le risque de collision est détecté, le
message d’alerte doit être généré et envoyé au conducteur. La figure 2-1 illustre les étapes d’une
génération d’alerte au véhicule.

Détecter l’obstacle Générer des Alerter le


ou le risque de messages d’alerte conducteur
collision

Figure 2-1: La génération d’alerte au véhicule.

18
Chapitre 2
État de l’art des systèmes ADAS

3.1. Etat de l’art

Le système d’alerte « FCW : Forward Collision Warning» peut générer des alertes inutiles, qui
peuvent même être nuisibles, lorsque la situation ne présente pas de réel danger pour les
conducteurs [33].

C’est par exemple le cas lorsque le véhicule de devant ralentit pour tourner, ou lorsque le
conducteur se prépare à dépasser un véhicule plus lent [34].

A l’inverse, certaines alertes sont volontairement ignorées par le système afin de diminuer le
nombre de fausses alertes. Par exemple, le FCW testé par [35]ignorait la détection d’objets
immobiles, qui correspondent la plupart du temps à des objets sur le bord de la route, et était
également désactivé en-dessous de 50km/h, afin d’éliminer de nombreuses situations non
dangereuses.

Le système n’émettait pas d’alerte pour les véhicules roulant dans une direction différente de
celle du véhicule équipé, pour ne pas tenir compte des véhicules venant en sens inverse.
Cependant, il est possible que la suppression d’alertes augmente le temps de réaction des
conducteurs et diminue l’efficacité perçue du système [36].

Lorsqu’ils utilisent un système tel que le FCW, les conducteurs doivent ajuster leur réponse à
la situation, plutôt que de réagir automatiquement. Par conséquent, ils peuvent éprouver des
difficultés à faire confiance au système, c’est-à-dire à déterminer si le système va les aider à
identifier les évènements inattendus, dans des situations caractérisées par l’incertitude et la
fragilité [37]. Ces problèmes de confiance peuvent mener à des interactions conducteur/système
moins efficaces.

Des études sur route à grande échelle « Field Operational Tests », où la précision des
instructions est primordiale, ont suggéré que la description détaillée des fonctionnalités du
système ainsi que l’entraînement en situation normale ne sont pas suffisants pour que les
conducteurs fassent confiance au système (voir par exemple [35] [38] [39] [40] [34] [41]). Selon
[35], les conducteurs explorent le fonctionnement du FCW en conditions extrêmes afin de
mieux comprendre ses possibilités et ses limites.

De même, d’après [40], la mise en situation avec un régulateur de vitesse améliore l’exploration
et la confiance dans le système d’avertissement. Les auteurs ont remarqué que les conducteurs
avaient une meilleure compréhension du fonctionnement du système après avoir regardé une
vidéo présentant des situations critiques, plutôt qu’après simple lecture des instructions.

Cette étude a pour but d’évaluer l’influence de la familiarisation avec quelques cas d’usage du
FCW sur le comportement des conducteurs et leur confiance dans le système.

L’hypothèse était que la connaissance du fonctionnement du système dans des situations


critiques améliorerait la performance des conducteurs utilisant un FCW, par rapport à ceux
conduisant sans assistance.

19
Chapitre 2
État de l’art des systèmes ADAS

De plus, il était attendu que la performance et la confiance des conducteurs augmente dans le
cas où cette connaissance serait acquise par la pratique, plutôt que par la lecture d’instructions.

3.1.1. L’utilisation des capteurs actifs et passifs


L’approche la plus commune est l’utilisation des capteurs dits actifs pour la détection des
véhicules comme il est décrit dans [42]. Comme le radar qui utilise les ondes millimétriques
[43], les systèmes basés sur le laser dit Lidar [44], il y a ceux basés sur l’utilisation des ondes
acoustiques [45]. Le radar émet une onde dans l’atmosphère qui par ailleurs disperse une partie
de l’énergie et renvoie une partie au récepteur du système.
Le lidar est un système de télédétection par laser, il émet lui aussi une onde électromagnétique,
mais à une haute fréquence, il opère dans diverses gammes de fréquences du spectre (ultra-
violet, visible et infrarouge).
Ces systèmes sont dits actifs pour la simple raison qu’ils détectent les objets et mesurent la
distance en mesurant le temps de propagation de l’onde aller-retour. Le principal avantage de
meure la mesure de certaines grandeurs comme la distance sans faire appel à une source
puissante de calcul.
Le radar peut détecter à une distance minimale de 150 mètres plus loin dans des conditions
météorologiques défavorables (pluie, brouillard), au moment où le conducteur n’aperçoit que
sur une distance de 10 mètres. Le lidar est moins cher à produire et facile à transporter que le
radar. Cependant, le lidar n’opère pas de manière aussi efficace que le radar dans des conditions
de neige ou de pluie. Toutes fois, le lidar est plus précis qu’un radar. Le coût élevé lié au lidar
limite les domaines d’application.
Les caméras optiques sont généralement classées parmi les capteurs passifs [42] du fait que
l’acquisition est faite de manière non intrusive. Les capteurs actifs remportent le duel avec les
capteurs passifs quant au prix. Avec la réduction du prix des caméras, on retrouve de nos jours
des véhicules avec des caméras à l’avant comme à l’arrière du véhicule garantissant une vue
sur 360 degrés. Les capteurs optiques sont utilisés pour un suivi plus efficace des véhicules
rentrant dans la zone de couverture et se déplaçant d’une voie de la route vers une autre.
L’acquisition riche en information ouvre la porte à de nombreux domaine d’application, comme
la détection des voies, la reconnaissance des panneaux de signalisation, l’identification des
objets, et cela sans pour autant toucher aux infrastructures.
3.1.2. Les approches basées sur les caractéristiques
Dans cette approche, l’information à priori est employé pour établir l’hypothèse quant à la
position du véhicule dans l’image. On donnera dans ce qui suit un descriptif de quelques
méthodes utilisations l’information sur la symétrie, la couleur, l’ombre, les coins, ….etc.

3.1.2.1. La symétrie
Une des principales caractéristiques des objets conçus par l’homme, c’est la symétrie, qui a fait
l’objet de travaux de recherche pour la détection et la reconnaissance dans le domaine de vision
[46]. Les images de véhicules sont généralement symétriques par rapport aux directions
horizontale et verticale. Cette observation fut exploitée comme point de départ pour la détection
de véhicule dans les travaux de recherches [46] et [47].

20
Chapitre 2
État de l’art des systèmes ADAS

Un problème surgit avec la symétrie, c’est la présence de zones homogènes, dans ces régions
homogènes, la symétrie est sensible au bruit. Dans [47], l’information de la détection de contour
est incluse dans le processus pour filtrer les zones homogènes.

3.1.2.2. Texture
La présence des véhicules dans une image provoque des changements locaux d’intensité. Du
fait des similitudes générales des véhicules, le changement d’intensité suit un modèle de texture
défini introduit dans [48]. Cette information sur la texture peut être employée pour restreindre
la région de recherche pour la détection des véhicules.
La mesure de texture utilisée par Kalinke [48] pour trouver les zones candidates est l’entropie.
L’entropie est utilisée comme une mesure de la quantité d’attention qu’il faut donner à une
région de l’image. Plus le contenu dans une partie de l’image est incertain, plus l’information
contenue est riche, et elle requière donc une analyse détaillée.

3.1.2.3. L’ombre
La méthode de détection des véhicules à partir des ombres portées considère la route comme
une zone de couleur homogène. Une voiture qui se situe dans la route projette une ombre sur
celle-ci, ce qui dans une image assombrit les pixels correspondants [49].
L’utilisation de l’information de l’ombre pour la détection des véhicules est abordée dans [50].
En examinant la densité de l’image, les zones se trouvant en dessous d’un véhicule sont plus
sombres que les zones de l’asphalte. Une première tentative de cette approche fut employée
dans [51], bien qu’il n’y ait pas une façon systématique pour le choix du seuillage. L’intensité
des zones d’ombre dépend essentiellement de la luminosité de l’image du aux conditions
météorologiques. Cependant, le seuil ne peut en aucun cas être fixe.

3.1.2.4. Les coins


Il est assumé que le véhicule à une forme rectangulaire ayant quatre coins, dans [52], on
propose une méthode de localisation du véhicule basée sur les coins. Quatre gabarits pour
chaque coin sont utilisés pour détecter tous les coins dans une image.

3.1.2.5. La couleur
La couleur est très peu utilisée dans les systèmes de vision embarquée, du fait de la trop grande
diversité de couleur des véhicules automobiles. Elle peut être cependant utile dans certaines
occasions, notamment la nuit, dans des conditions de visibilité réduite ou lors de manœuvres
particulières (freinage,...), pour détecter les feux arrières ou avant des véhicules [53] et [54] .
D’autres travaux [55] utilisent aussi la couleur pour détecter des amers sur les véhicules.

3.1.2.6. L’éclairage des véhicules


La plupart des techniques employées citées au-dessus ne sont pas très robuste en temps de
nuit lorsqu’il s’agit de détecter un véhicule, il serait impossible de détecter l’ombre du véhicule,
les coins dans des images prises en temps de nuit. Une caractéristique saillante pouvant être
exploitée des images en temps de nuit est l’éclairage des véhicules. Dans [56], une analyse
morphologique pour détecter une paire d’éclairage du véhicule sur une surface d’inspection
21
Chapitre 2
État de l’art des systèmes ADAS

petite. L’opérateur morphologique considère la forme, la taille, et la distance minimale entre


les véhicules pour établir des hypothèses.

3.1.2.7. Codage d’orientation locale


La méthode LOC est employée pour construire l’image contour de la route [57]. Cette
procédure utilise une matrice de coefficient prédéfinie pour représenter la variation d'intensité
directionnelle du voisinage du pixel en question.
3.1.3. Les approches basées sur le mouvement
Kruger et al. [58] déterminent le flux optique à partir de la dérivée spatio-temporelle des
valeurs en niveau de gris en employant une approche locale. Le flux optique estimé est regroupé
pour éliminer les valeurs illogiques. Avec une calibration et connaissant le mouvement d’ego,
on détecte les objets mobile.
Giachetti et al. [59] proposent un modèle de calcul différentiel du premier et second ordre et
l’appliquent sur une séquence d’images d’un véhicule en mouvement sur une route plane et
droite. Plus précisément, ils minimisent la mesure de la distance entre deux points se
correspondant à deux instants différents. La taille de la fenêtre à rechercher et de n × n, mais
dans la pratique, ils utilisent une fenêtre plus réduite pour réduire le cout en termes de calcul.
3.1.4. Les approches basées sur la stéréo vision
Dans cette approche, on retrouve deux méthodes :
 La carte de disparité, U-V disparité.
 La projection en perspective inverse.

3.1.4.1. La carte de disparité


La différence entre les images de droite et de gauche entre les pixels correspondants est appelée
disparité. La disparité de tous les points de l’image forme la carte de disparité.
Calculer une carte de disparité est une opération gourmande en temps du à la mise en
correspondance des points de l’image. Cependant, elle peut être réalisée en temps réel en
utilisant un processeur pentium sur circuit embarquée [60]. Ensuite, on dresse un histogramme
des points ayant une même valeur de disparité.
Dans [61], pour trouver les côtés de rectangle il faut détecter l’arrête correspondant au sommet
du plan vertical considéré. Pour ce faire, il a introduit la projection nommée « u-disparité » Iu∆.
Comme pour la v-disparité, l’u-disparité se construit en cumulant les points de même disparité.

3.1.4.2. La cartographie inverse de perspective « IPM »


Mathématiquement, il est impossible de faire une inversion de la projection en perspective
[55]. En effet, l’appellation signifie une inversion associée à des contraintes additionnelles des
points sur le plan.
Supposant une route plane, Zhao et Yuta [62] emploient la stéréo vision pour prédire l’image
vue de la caméra de droite, par la caméra de gauche, en utilisant l’IPM. Les points de la caméra

22
Chapitre 2
État de l’art des systèmes ADAS

gauche sont projetés au système de coordonnées réelles ensuite ils sont projetés une deuxième
fois sur la caméra de gauche et comparés avec l’image originale.
Bertozzi et Broggi [63] opèrent une IPM aux deux images de droite et de gauche, récupèrent
la différence des deux images résultantes. Parce que la route est plane, tout élément s’élevant
au-dessus de la route est détecté en recherchant un large groupe de pixels non nuls.
4. La surveillance de la vigilance du conducteur automobile
La surveillance de la vigilance du conducteur au volant visant à la détection de la dégradation
de celle-ci, afin d’avertir le conducteur ou de prendre des mesures d’extrême urgence (ex. arrêt
total du véhicule) sont des fonctions très attendues pour les véhicules de futur. En effet, il s’agit
d’un enjeu très important en matière de sécurité primaire, domaine de la sécurité routière qui
vise à éviter l’accident.

Le développement de tels systèmes représente actuellement un véritable défi pour les


constructeurs automobiles, tant les difficultés sont grandes dès lors que l’être humain est au
cœur du système que l’on cherche à mettre au point.

Il existe plusieurs facteurs, internes et externes, qui font diminuer le niveau de vigilance dans
l’exercice de la conduite automobile. Parmi les facteurs internes : la fatigue, l’inattention, le
sommeil, la prise de médicaments, l’alcool et les drogues, et les facteurs externes sont : la
monotonie favorisée par une densité de trafic réduite, une chaussée rectiligne et, en général, le
manque de stimuli extérieurs pour maintenir éveillé le conducteur.

4.1. Mesures directes du niveau de vigilance

La baisse de vigilance engendre chez le conducteur automobile des comportements corporels


observables. Ces activités comportementales (tâches secondaires) collatérales à la conduite
(tâche principale) peuvent êtres groupés en cinq classes [64] [65] [66] [67]:

1. Variations posturales,
2. Echanges verbaux, recherche de dialogue, échanges d’informations non liés à la tâche,
3. Activités ludiques impliquant la manipulation d’objets,
4. Gestes autocentrés d’une ou deux mains vers le corps,
5. Autres activités non verbales détectables dans l’expression du visage.

Ces activités augmentent progressivement avec la durée de la tâche, et aussi avec la monotonie,
car elles sont des mécanismes de défense du sujet qui lutte pour rester éveillé (nous voyons ces
activités comme des tâches secondaires que le conducteur exécute pour maintenir son niveau
de performance et de vigilance). Cependant, elles ne sont pas toujours efficaces et, au-delà d’un
certain seuil de fatigue, plus la performance se dégrade plus ces activités comportementales
croissent.

Néanmoins, la perception de ces activités comportementales pour la conception d’un système


embarqué est difficile à réaliser. Le problème principal est l’accès à des informations

23
Chapitre 2
État de l’art des systèmes ADAS

caractéristiques de ces activités comportementales. Dons, différents capteurs peuvent être


envisagés pour cela [66]:

Capteur de pression sur le volant : Il s’agit d’un ruban adhésif intégrant un capteur de pression
installé du côté droit et du côté gauche du volant. L’hypothèse est que la variation de la pression
en fonction du temps peut être liée à l’état de vigilance.

Capteur de posture sur le siège : De nombreux véhicules sont maintenant équipés en série de
capteurs « nappe » intégrés dans le siège, permettant d’estimer le poids du passager ainsi que
la distribution de ce poids sur le siège. En fait, ces nappes comportent de nombreux petits
capteurs répartis sur toute leur surface qui permettent une mesure distribuée.

Système de vision stéréoscopique : Capteur plus sophistiqué consistant à reconstituer en trois


dimensions l’occupation volumique du conducteur, déjà commercialisé par SIEMENS pour
l’activation de coussins gonflables (airbags).

L’évaluation de l’efficacité de ces capteurs dans la perception de ces activités


comportementales est en cours de développement dans le cadre du projet PREDIT [66], en ce
qui concerne le capteur de la pression sur le volant, et dans le cadre du projet AWAKE [68],
pour les deux autres capteurs.

4.1.1. Le capteur de mouvement des paupières


Actuellement, la seule activité comportementale abordée dans la conception d’un système
temps réel est l’analyse visuelle du cillement des paupières, témoin quasi direct de l’état
physique du conducteur. L’analyse de l’occurrence et de la durée des cillements fournis par le
capteur de mouvement des paupières (ELS) peut conduire à un diagnostic de somnolence.
SIEMENS, l’ENSEEIHT et le LAAS ont développé une version du capteur ELS (Figure 2-2).
Ce prototype a été testé sur simulateur dans le cadre du programme européen SAVE [69], et
lors d’essais sur route dans des conditions de faible luminosité [64]. La version actuelle de ce
système permet d’assurer le fonctionnement temps réel (50 Hz). C’est sûrement une voie très
riche même s’il reste des problèmes de mise en œuvre, liés aux variations de l’éclairement du
visage du conducteur, aux mouvements de sa tête, au port de lunettes, etc. L’intérêt de cette
technique fait qu’elle bénéficie d’efforts de recherche et développement très importants pour la
production des systèmes de vision, devenus aujourd’hui très performants à des coûts
raisonnables.

Il existe trois mesures principales dérivées des clignements longs de l’œil [64]:

- PERCLOS est la somme de la durée des clignements longs, par période d’une ou trois
minutes.
- EYEMEAN est la durée moyenne des clignements longs, par période d’une ou trois
minutes.
- EYEMEAS est la moyenne du carré des durées des clignements, par période d’une ou
trois minutes.

24
Chapitre 2
État de l’art des systèmes ADAS

Ces mesures ont montré une bonne corrélation avec les performances de conduite et l’activité
électro-encéphalographie (EEG) sur des périodes de six minutes. PERCLOS est actuellement
considéré comme une mesure de référence de la somnolence. Par contre, la non-détection d’un
clignement influence fortement sur la mesure.

(a) (b)
Figure 2-2: Vue générale du ELS. (a) Caméra et sources d’éclairage, (b) Visualisation des traitements. [64]

4.1.2. Les mesures physiologiques utilisées pour la validation


Les signaux d’activité cérébrale (EEG) sont probablement les signaux les plus fiables pour
caractériser l’état de vigilance ou de sommeil. Pourtant, leur utilisation dans le cadre de la
conduite automobile ne semble pas envisageable à cause des difficultés techniques de mesure
d’EEG dans le véhicule, à caractère fortement intrusif et à la présence de plusieurs phénomènes
physiologiques jouant un rôle décisif et nécessitant l’avis d’un expert [64] [68].

4.2. Etat de l’art sur les modules de détection de la somnolence basé sur la
vision

Beaucoup d'efforts ont été rapportés dans la littérature sur le développement des systèmes de
surveillance de la somnolence/fatigue non-intrusifs basés sur la vision. Flores et al. [70] ont
présenté deux systèmes qui détectent la somnolence d’un conducteur. Le premier système
fonctionne avec des conditions de lumière du jour et le deuxième avec des conditions nocturne.
Pour le système de jour, ils utilisent la méthode de Viola et Jones [71] pour la détection de
visage. Ils localisent les yeux en utilisant les propriétés anthropométriques avec l’incorporation
les informations des pixels en niveau de gris. Le processus de suivi a été développé en utilisant
L’algorithme de Condensation (CA) [72] [73] en conjonction avec les réseaux de neurones pour
le suivi de visage et avec la mise en correspondance (Template matching) pour le suivi des
yeux. SVM (Support Vector Machine) est utilisée pour la classification de l’état des yeux
(ouvert ou fermé). Et pour le système de nuit, ils utilisent une caméra avec un système de
luminosité proche de l’infrarouge. Ils commencent directement par la détection des yeux en
basant sur l’effet de pupille brillante. Et pour la classification de l’état des yeux, les contours et
FRST (Fast Radial Symmetry Transform) image [74] sont utilisés.

D’Orazio et al. [75] proposent un algorithme de détection des yeux qui les recherche dans
l’image complète, cette recherche est basé sur la transformé de Hough cercles pour localiser les
yeux candidats, ensuite, ils ont passé vers le réseau de neurones pour faire la classification entre

25
Chapitre 2
État de l’art des systèmes ADAS

l’œil et non-œil. Les principales limitations de cet algorithme sont les suivantes : il est
applicable uniquement lorsque les yeux sont visibles dans l’image et il n’est pas robuste aux
changements d’éclairage.

Horng et al. [76] présentent un système qui utilise un modèle de couleur de peau dans l’espace
de couleur HSI pour la détection de visage. L’information des contours pour la localisation des
yeux, et la mise en correspondance dynamique pour le suivi des yeux. L’état des yeux est défini
en utilisant l’information de couleur de l’œil. Ainsi l’état du conducteur peut être calculé. Si les
yeux sont fermés pendant cinq frames consécutifs, le conducteur est supposé assoupi.

Brandt et al. [77] montrent un système qui surveille la fatigue du conducteur et le manque
d’attention. Pour cette tâche, la méthode de Viola et Jones [71] est utilisée pour la détection de
visage du conducteur. Ce système est capable de calculer l’état du conducteur en employant
l’algorithme de flux optique sur les yeux et la tête.

Tian et Qin [78] construisent un système qui vérifie l’état de l’œil du conducteur. Leur système
utilise les composantes Cb et Cr de l’espace de couleur YCbCr. Ce système localise le visage
avec une fonction de projection verticale, et les yeux avec une fonction de projection
horizontale. Une fois que les yeux sont localisés le système calcule l’état des yeux en utilisant
une fonction de complexité.

Dong et Wu [79] ont présenté un système de détection de la fatigue du conducteur. Le visage


est localisé en utilisant les caractéristiques de couleur de peau, ensuite les yeux sont détectés
par projections. Après avoir localisé les yeux ils calculent l’indice de la fatigue en utilisant la
distance de la paupière pour classer si les yeux sont ouverts ou fermés. Si les yeux sont fermés
pendant cinq frames consécutifs le conducteur est considéré somnolent.

Branzan et al. [80] ont aussi présenté un système de surveillance qui s’utilise la mise en
correspondance pour analyser l’état de l’œil.

Hong et al. [81] définissent un système de détection de l'état de l'œil en temps réel pour identifier
l'état de somnolence du conducteur. La région de visage est détecté à base de la méthode de
Viola et Jones optimisé [71]. La région des yeux est obtenue par la projection horizontale.
Finalement, une nouvelle fonction de complexité avec un seuil dynamique pour identifier l'état
d'œil.

Su et al. [82] présentent un système de surveillance d’inattention du conducteur. Ils ont adopté
la méthode proposée dans [71] [83] à base de la méthode VJ pour la détection de visage. Les
yeux sont détectés par les algorithmes p-till et K-means. Ce système détecte les mouvements
de la paupière et donne aussi une mesure qualitative d'orientation faciale. En basant sur ces
mesures, un signal d'alarme sera publié pour alerter le conducteur quand la fatigue ou la
détection d'inattention atteint un niveau prédéfini.

Singh et Papanikolopoulos [84] proposent un système non-intrusif de suivi de l’’œil en temps


réel. Le système est capable de localiser et suivre la pupille d’un conducteur dès qu’il s’assiéra
devant la caméra. Ce système emploie une approche basée sur la couleur de peau pour localiser

26
Chapitre 2
État de l’art des systèmes ADAS

le visage et extraire les yeux à base de niveau de gris. Le système peut diagnostiquer
automatiquement la fatigue en surveillant les yeux pour microsleep 1 . Ceci est réalisé en
comptant le nombre des frames consécutifs dans lesquelles les yeux s'avèrent pour être fermés.

Malla et al. [85] développent un système insensible à la lumière. Ils ont utilisé l’algorithme de
Haar pour détecter les objets [71] et un classificateur de visage implémenté par [86] dans les
librairies d’OpenCV [87]. Les régions des yeux sont dérivées de la région de visage avec des
facteurs anthropométriques. Ensuite, ils détectent la paupière pour mesurer le niveau de
fermeture de l’œil.

Vitabile et al. [88] implémentent un système pour détecter les symptômes de la somnolence du
conducteur basé sur une caméra infrarouge. En exploitant le phénomène de pupilles lumineuses,
un algorithme pour détecter et suivre les yeux du conducteur a été développé. Quand un état de
somnolence est détecté, le système avertit le conducteur avec un message d'alarme.

Bhowmick et Kumar [89] définissent une méthodologie de détection de l'œil et de classification


de son état pour l'identification de somnolence de conducteur utilisant une caméra IR. Le
seuillage d'Otsu [90] est employé pour extraire la région de visage. La localisation de l'œil est
faite en localisant les bornes limites faciales telles que le sourcil et le centre possible de visage.
L'opération morphologique et K-means sont employés pour la segmentation précise d'œil. Un
ensemble des caractéristiques de forme sont calculés avec un apprentissage SVM non-linéaire
pour obtenir l’état de l'œil.

Sous la lumière de ce qui a été mentionné ci-dessus, l’identification de l'état assoupi des
conducteurs donné par le PERCLOS est généralement passée par les étapes suivantes :

- Détection de visage.
- Localisation des yeux.
- Suivi de visage et des yeux.
- Identification de l’état des yeux.
- Calcul de PERCLOS.
- Identification de l’état de conducteur.

5. Conclusion
Au cours de ce chapitre, nous avons dressé un état de l’art des systèmes avancés d’aide à la
conduite où un état de l’art fut élaboré pour chaque étape dans les trois modules que nous avons
développé: la détection des véhicules, la poursuite de véhicules détectés, la mesure de distance
et de vitesse, la détection et la classification des panneaux de signalisation, la détection de la
fatigue et de somnolence basée sur la vision.

11
Microsleep : un épisode peut durer jusqu’à 30 secondes au cours de laquelle des stimuli externes ne sont pas
perçus. La poly-somno-graphie se change brusquement de l’état éveillé vers l’état de dormir [146].

27
Chapitre 3

Outils de développement
du notre système

28
Chapitre 3
Outils de développement du notre système

1. Introduction
Ce chapitre est consacré à la description des différents outils qu’ont été utilisés dans notre
système, elle nous aide à développer notre algorithme global qui est présenté dans le chapitre
suivant. Nous citons ici quelques outils étudiés et implémentés :

- La calibration de caméra, pour connaitre les paramètres intrinsèques et extrinsèques de


notre caméra utilisée. Ainsi cette opération permet de trouver la relation entre les
coordonnées spatiales d'un point de l'espace avec le point associé dans l'image prise par
la caméra.
- La Transformée de Hough, pour détecter les lignes et les cercles dans une image,
- Les techniques de calcul de la symétrie dans l’image, pour localiser les objets
symétriques.
- Le filtre de Gabor.
- La technique de l’image intégrale.
- Après, nous discutons sur les espaces de couleur, pour nous collaborer dans la technique
de la détection de couleur de peau humaine dans une image.
- Nous présentons une étude sur les différentes approches existées pour construire un
modèle de couleur.
- Les opérations morphologiques telles que l’érosion et la dilatation sont exposées.
- La technique de labellisation des objets dans une image binaire.
- L’algorithme de K-means.
- Quelques techniques de suivi (mise en correspondance) dans l’image sont présentées et
implémentées, tel que : SAD, SSD, NCC, ZNCC,…etc.

2. La calibration de caméra
Dans un processus de vision, il est utile de connaitre la physique de l’instrument qui fournit les
données de base. Cette connaissance permet en particulier de calculer la position exacte des
éléments de la scène à partir de l’image. La calibration consiste à obtenir les paramètres du
modèle de la caméra. Calibrer une caméra consiste à déterminer ses paramètres intrinsèques
et sa position et orientation par rapport au référentiel du monde. Calibrer un banc de
stéréovision, constitué de deux caméras, consiste à déterminer les paramètres intrinsèques de
chacune des caméras, et la position et l’orientation relative de ces deux capteurs. Ces paramètres
de calibrage sont nécessaires pour calculer, par triangulation, les coordonnées
tridimensionnelles d’un point correspondant à des pixels appariés dans les deux images.

Nous commençons par la modélisation d’une caméra prenant en compte les principales
distorsions géométriques liées à son système optique section 2.1. Puis, dans la section 2.2, nous
présentons une méthode de calibrage d’une caméra.

2.1. Modélisation d’une caméra

Une caméra est un système optronique composé de trois éléments : le premier est la source
(objectif), le deuxième est un élément optique placé entre la source et le détecteur qui a pour
but de focaliser l’image d’un objet sur ce détecteur, et le troisième élément, c’est le détecteur
29
Chapitre 3
Outils de développement du notre système

qui est un dispositif à transfert de charges [91]. Nous étudions dans cette section la modélisation
géométrique de la caméra, conduisant au modèle de projection perspective dit sténopé, ou trou
d’épingle (pinhole en anglais), qui associé à un modèle de distorsion, propose un bon
compromis de précision et de simplicité.
Le modèle sténopé est séparé en une partie intrinsèque (interne à la caméra) et une partie
extrinsèque (externe à la caméra). Dans la partie intrinsèque nous développons la formulation
de la fonction de projection, mais aussi de distorsion (bien qu’en dehors du modèle sténopé).
La pose (position et orientation) de l’appareil de prise de vue est modélisée par la partie
extrinsèque du modèle.
2.1.1. La fonction de projection perspective linéaire
Comme le montre la figure 3-1, le modèle sténopé est constitué d’un plan image I et d’un
centre optique C. La principale caractéristique de ce modèle est que tous les rayons
optiques issus d’un point de la scène passent par un unique point C. L’intersection du rayon
optique avec le plan image I définit le point projeté m.
Avec un système de coordonnées homogènes, la fonction de projection transformant M en un
point de l’image m est modélisée par la matrice K telle que.
~ (3.1)

Figure 3-1: Le modèle sténopé : la projection m du point M est définie par l’intersection de la droite
(C, M) et du plan image I.

où les points m et M sont exprimés en coordonnées homogènes. Le signe ~ signifie


que m est égal à un facteur d’échelle près. La fonction se compose d’une étape de projection
proprement dite et d’une étape de conversion d’unité. La première étape consiste à projeter le
point 3D M dans le plan rétinien (équivalent au plan image) comme suit :

f 0 0 0
m~ 0 f 0 0 M (3.2)
0 0 1 0
L’unique paramètre de cette fonction est la distance focale f. Le point 2D mr obtenu est exprimé
avec les mêmes unités que M. Les coordonnées de ce point dans le plan image (qui est un
échantillonnage en pixels du plan rétinien) et les coordonnées du même point dans le plan
rétinien sont liées par l’équation suivante :

30
Chapitre 3
Outils de développement du notre système

k 0 c
m ~ 0 k c m (3.3)
0 0 1
où (cx, cy) sont les coordonnées du point principal (à l’intersection de l’image et de l’axe
optique), kx et ky les facteurs d’échelle horizontal et vertical (en pixel /unité de longueur).
L’application consécutive des équations 3.2 et 3.3 donne la forme de la matrice K de l’équation
3.1 :
k 0 c f 0 0 0 α 0 c 0
K 0 k c 0 f 0 0 0 α c 0 (3.4)
0 0 1 0 0 1 0 0 0 1 0
Les paramètres kx f, ky f, cx et cy définissent la partie intrinsèque du modèle sténopé.
Ce sont ces paramètres qui vont être déterminés via la calibration.

2.1.2. Distorsions géométriques


Dans un système optique centré, un rayon n’intersecte généralement pas le plan image. Ces
écarts à l’optique par axiale ne sont plus négligeables si la distance du point objet à l’axe optique
est grande et les angles d’inclinaisons des rayons incidents ne sont plus petits [92]. De plus, il
est difficile de réaliser un système optique dont toutes les lentilles sont parfaitement parallèles,
leurs centres optiques parfaitement colinéaires, et le plan image parallèle au plan du détecteur.
Dans ce cas, le modèle sténopé ne suffit plus à décrire le comportement de la caméra. Il est
donc nécessaire de prendre en compte ces défauts dans le modèle de caméra. L’approche
la plus utilisée consiste à modéliser les distorsions par un modèle paramétrique qui vient
corriger les coordonnées (x, y) du modèle sténopé :

x x δ x, y (3.5)

y y δ x, y (3.6)

où (x, y) sont les coordonnées sans distorsion (non-observables) et (xd, yd) sont les coordonnées
avec distorsion (le point réellement observé). Comme l’indique les équations 3.5 et 3.6,
l’erreur de positionnement dépend de la position du point. Les défauts les plus fréquemment
rencontrés avec des objectifs standards sont la distorsion radiale, la distorsion de décentrage, et
la distorsion prismatique [93] comme le montre la figure 3-2. Le plus souvent [94] [95] [96],
seule la distorsion radiale est traitée. Ce type de distorsion provient essentiellement
d’imperfections dans la courbure de la lentille.

Les fonctions de distorsion radiale sont approximées par les fonctions polynomiales δx et δy.
Elles s’écrivent comme suit :

δ x, y x c ∑ k x y (3.7)

δ x, y y c ∑ k x y (3.8)

31
Chapitre 3
Outils de développement du notre système

Où ki sont les coefficients de distorsions, et (cx, cy) les coordonnées du centre optique. En
pratique, une approximation d’ordre 3 (i = {1, 2, 3}) suffit à modéliser la distorsion radiale de
la plupart des caméras.

Distorsion radiale Distorsion de décentrage Distorsion prismatique


Figure 3-2: Les différents types de distorsions.

2.1.3. Paramètres extrinsèques


Les paramètres extrinsèques du modèle expriment une transformation rigide liée à la pose de
la caméra par rapport au repère monde (RW). Car, dans la partie intrinsèque, la fonction
de projection perspective (équation 3.1) présuppose que le système de coordonnées, dans lequel
sont exprimés les points 3D, est centré sur la caméra (C). Par la suite, nous aurons exprimé les
coordonnées des points 3D dans un référentiel RW (système, voiture, monde, etc.), différent de
RC. Pour pouvoir appliquer la fonction de projection, il est nécessaire de transformer les
coordonnées M de manière à ce qu’elles soient exprimées dans le repère caméra RC. Nous
notons un point exprimé dans le repère monde, et le même point exprimé dans le
repère de la caméra.
Quelle que soit la transformation, elle peut toujours être décomposée en une rotation
suivie d’une translation figure 3-3. L’ordre dans lequel sont appliquées ces deux opérations est
très important car l’opération n’est pas commutative. La fonction de rotation est notée R et la
fonction de translation t. Un point initialement exprimé dans le repère RW est converti dans le
système de coordonnées C par la transformation suivante :
(3.9)

où t est un vecteur à trois composantes, et R est une matrice de taille 3*3 de la forme suivante :

(3.10)

La transformation rigide correspondante (rotation et translation) peut s’écrire sous la forme


suivante :

(3.11)
0 1

32
Chapitre 3
Outils de développement du notre système

Figure 3-3: Le changement de repère est une transformation rigide composée d’un rotation puis
d’une translation.

2.1.4. La matrice de projection


En combinant les équations (3.4) et (3.11) nous obtenons les équations de projection pour une
caméra avec des paramètres intrinsèques et une position orientation données :

0 0
0 0 (3.12)
0 1
1 0 0 1 0
1

Ceci nous permet donc de définir une matrice de projection 3×4 d’un point de l’espace
Euclidien 3D de la scène, exprimé dans le repère du monde, en un point de l’image, exprimé
dans le repère 2D.

2.2. Calibrage d’une caméra

Après la description d’un modèle de caméra pour notre application, il importe de savoir de
quelle façon il est possible d’accéder aux valeurs des paramètres du modèle. C’est le rôle de la
phase de calibration. Nous pouvons distinguer trois techniques principales de calibration :

 La calibration photogramétrique (la calibration classique): La calibration de la


caméra est effectuée en observant un objet (la mire) de calibration dont la géométrie
dans l’espace euclidien est connue avec une bonne précision. Cette méthode permet
d’aboutir à une calibration très fine. La mire de calibration se compose généralement
de deux ou trois plans orthogonaux entre eux, supportant un ensemble de points
facilement et précisément repérables. Une alternative (qui se ramène toutefois au
procédé décrit ici) consiste à utiliser un même plan qu’on déplace d’une façon connue
avec précision entre chaque prise de vue [94].
 La calibration hybride : La technique proposée dans cette catégorie nécessite
l’utilisation d’une mire plane dont les coordonnées bidimensionnelles de certain points
caractéristiques sont connues, basée sur les homographies définissant les
transformations entre les plans de la mire (dans ses différentes positions successives) et

33
Chapitre 3
Outils de développement du notre système

le plan de la caméra (ou des caméras) à calibrer [96]. La caméra ou la mire peuvent
être déplacées et il n’est pas nécessaire de connaître a priori les déplacements relatifs
effectués. Cette approche se situe entre la calibration photogramétrique et l’auto
calibration puisque la connaissance préalable de certaines informations
dimensionnelles relatives à la mire est requise et que cette méthode utilise par ailleurs
des propriétés de la géométrie projective elles-aussi exploitées par l’auto calibration.

 L’auto calibration : Les techniques associées à cette catégorie ne nécessitent


l’utilisation d’aucune mire de calibration, elle se base essentiellement sur la géométrie
épipolaire. L’idée consiste à déplacer la caméra dans une scène statique. La rigidité de
la scène fournit généralement deux contraintes [97] sur les paramètres intrinsèques de
la caméra. Si les images sont prises avec la même caméra (dont on suppose les
paramètres intrinsèques fixes), la mise en correspondance entre trois images est
suffisante pour extraire les paramètres intrinsèques et extrinsèques [97] [98]. Malgré la
flexibilité de cette approche, celle-ci manque encore de maturité. Vu le nombre de
paramètres à estimer, on n’obtient pas toujours des résultats fiables [99].

Les calibrations photogramétrique et hybride présentent de meilleurs résultats en termes de


robustesse comparativement aux techniques d’auto calibration. En effet, les techniques d’auto
calibration proposées jusqu’à présent sont adaptées aux problématiques des systèmes de vision
actifs dont les paramètres des caméras varient continuellement mais ne conviennent pas aux
systèmes qui exigent une précision importante des informations métriques (la majorité de ces
techniques supposent l’absence de distorsions optiques ou supposent connaître les coordonnées
de la projection du centre optique).

Pour les raisons citées ci-dessus, nous nous sommes plutôt orientés vers la calibration
hybride puisque cette technique, moins précise que la calibration photogramétrique, fournit
néanmoins un compromis tout à fait valable entre la précision et la flexibilité, répondant ainsi
aux exigences que nous nous étions fixées.

2.2.1. La calibration hybride

Cette approche consiste à estimer les paramètres de la caméra à partir de la géométrie d’une
mire connue avec exactitude. Les paramètres à estimer sont alors les seuls paramètres
intrinsèques (4 paramètres intrinsèques et 3 paramètres de distorsion si on se limite à une
correction de la distorsion radiale d’ordre 3) et extrinsèques (3 paramètres pour l’orientation et
3 paramètres pour la position).

Nous considérons n images d’une mire plane composée de p points acquises par une caméra.
La figure 3-4 présente une séquence de 9 images d’une mire de calibration composée de 156
points. Les points de la mire peuvent être les coins des carrés qui composent le damier comme
le montre la figure 3-5. Une fois les points de mire extraits, l’estimation des paramètres à
minimiser est généralement la somme des erreurs quadratiques entre les coordonnées des points
extraits dans les images et les coordonnées calculées par le modèle de caméra pour chaque point
correspondant de la mire.

34
Chapitre 3
Outils de développement du notre système

Figure 3-4: Exemple d’une séquence de 9 images d’une mire de calibrage.

Figure 3-5: Exemple sur le choix des points de calibration.

Nous nous intéressons seulement à la distance focale de la caméra, qui nous aidera à connaitre
à priori la taille en pixels d’un objet dans l’image en connaissant sa distance et sa taille réelle.

Les fabricants d'optique utilisent un système de calcul approximatif. Selon la taille de la matrice,
et par le tableau de correspondance (Tableau 3-1) ou par la figure 3-6, deux distances focales
sont calculées ; l'une dite verticale, l'autre horizontale :

Tableau 3-1: Tableau de correspondance des matrices.

Format 1 pouce 2/3 pouce 1/2 pouce 1/3 pouce 1/4 pouce
V 9.6 mm 6.6 mm 4.8 mm 3.6 mm 2.7 mm
H 12.8 mm 8.8 mm 6.4 mm 4.8 mm 3.6 mm

35
Chapitre 3
Outils de développement du notre système

Figure 3-6: Dimensions réelles en mm des matrices CCD.


Notre caméra est fabriquée avec un capteur CCD de format 1/3 pouce. La distance focale
obtenue par la calibration est en pixels, nous pouvons la représenter en mm en appliquant la
relation suivante :


(3.13)

3. Transformée de Hough
La transformée de Hough (TH) (Hough, 1962) est une technique qui localise des formes
dans les images. En particulier, elle a été utilisée pour extraire les lignes, les cercles et les
ellipses [100].

En général, la TH consiste à transformé un problème inconnu (retrouver des formes) en un


problème mieux connu (retrouver un nuage de points). Ceci est obtenu en associant à l’espace
de l’image (dénoté I et défini par ses variables d’espace {i, j}) un espace de paramètres (espace
de Hough) [101].

3.1. Transformée de Hough Ligne (THL)

Toute droite peut être représentée dans les coordonnées cartésiennes par :

(3.14)
Inconvénients des coordonnées cartésiennes : Si la droite est verticale alors la tangente tendra
vers l’infini →∞ .
Nous préférons le passage vers l’espace des coordonnées polaires (Figure 3-7). Car avec cette
représentation, les valeurs des paramètres sont bornées.

36
Chapitre 3
Outils de développement du notre système

(3.15)

Figure 3-7: Représentation d’une ligne dans les coordonnées polaire.

(a) (b)
Figure 3-8: Principe de la THL polaire.
(a) Deux points dans l’image, (b) Leurs représentants dans l'espace Hough.
Le principe de la THL (polaire) est que pour chaque point contour dans l’image, on incrémente
l’accumulateur (l’espace de paramètres Hough) par une courbe (Figure 3-8). Les valeurs
maximums dans l’accumulateur (correspondent aux points d’intersection des courbes)
représentent des lignes dans l’espace de l’image. L’implémentation de cet algorithme est
détaillée dans l’organigramme de Figure 3-9.

37
Chapitre 3
Outils de développement du notre système

3.1.1. Algorithme Transformé de Hough Ligne

Image binaire I de
dimension (h x w)

Création de matrice
Accumulateur H de
dimension x 360
avec √

Initialiser H par zéros

Non
, 1

Oui
Incrémenter ,
par :

0 : 360

Si , seuil
Tracer les droites

1
tan

sin

Figure 3-9: Organigramme de l’algorithme de la THL.

38
Chapitre 3
Outils de développement du notre système

3.2. Transformée de Hough Cercle

La Transformée de Hough pour détecter les cercles (THC) n’est qu’une extension de la
THL en remplaçant l’équation de la courbe par l’équation d’un cercle de rayon r :

(3.16)

Nous pouvons représenter cette équation par ces équations dans l’espace de paramètres :

cos
sin (3.17)

Chaque point dans l'espace de l'image génère un cercle dans l'espace de paramètre (Hough). Le
principe de la THC est pour chaque point dans l’image, on trace un cercle dans l’espace de
paramètre Hough avec un rayon connu (Figure 3-10). Les valeurs maximums dans
l’accumulateur (correspondent aux points d’intersection des cercles) représentent des cercles
dans l’espace de l’image. L’implémentation de cet algorithme est détaillée dans
l’organigramme de (Figure 3-11).

Figure 3-10: Chaque point dans l'espace de l'image génère un cercle dans l'espace de paramètre (Hough).

39
Chapitre 3
Outils de développement du notre système

3.2.1. Algorithme Transformé de Hough Cercle

Image binaire I de
dimension (h x w)

Création de matrice
Accumulateur H de
dimension x

Initialiser H par zéros


Initialiser rayon r

Si ,
1
Non

Oui

Incrémenter ,
avec :
cos
sin

0 : 360

Si
, seuil

Oui

Tracer les cercles dont


les centres sont
, et de rayon r

Figure 3-11: Organigramme de l’algorithme de la THC.

40
Chapitre 3
Outils de développement du notre système

3.3. Résultats obtenus

La figure 3-12 représente quelques résultats obtenus par la THL et la THC.

(a) (b)

(c) (d)

(e) (f)

(g)
(h)
Figure 3-12: Résultats obtenus avec transformée de Hough.

(a) Image originale, (b) Image contour,


(c) Détection de lignes, (d) Accumulateur Hough lignes,
(e) Détection de cercle de rayon 40 pixels, (f) Accumulateur Hough cercle rayon 40 pixels,
(g) Détection de cercle de rayon 80 pixels, (h) Accumulateur Hough cercle rayon 80 pixels.

41
Chapitre 3
Outils de développement du notre système

4. La Symétrie
On peut dire qu’un objet ayant une forme symétrique, lorsqu’on peut échanger tous les
points de la moitié gauche de cet objet avec tous les points sur la moitié droite sans que
l’apparence soit modifiée.

Il existe plusieurs types de symétrie selon les dimensions (Figure 3-13) :

1. Espace 2D : symétrie par rapport à un point, et à une droite (axe).


2. Espace 3D : symétrie par rapport à un point, à une droite (axe) et par rapport à un
plan dans l’espace.

(a) (b)

(c)
Figure 3-13: Types de symétrie. (a) Symétrie 2D par rapport à un point, (b) Symétrie 2D par rapport à un
axe, (c) Symétrie 3D par rapport à un plan.

4.1. Algorithme de calcul de la symétrie

Nous nous intéressons d’étudier juste la symétrie axiale (réflexion) qui est une
transformation géométrique du plan qui modélise un "pliage" ou un "effet miroir". Un objet
dans une image a une forme symétrique si on peut le diviser en deux moitiés égaux et chaque
côté est une réflexion de l’autre côté par rapport à un axe vertical.

Nous avons modélisé la symétrie dans une image numérique par un signal unidimensionnel
(vecteur accumulateur), qui nous donne la valeur correspondante à la position de l’axe vertical
de la symétrie des objets dans l’image.

Notre algorithme de la méthode de calcul de la symétrie est illustré dans l’organigramme de la


figure 3-15. La figure 3-14 montre le résultat de cette méthode appliquée sur une image avec
des objets symétriques et asymétriques.

42
Chapitre 3
Outils de développement du notre système

Image I de
dimension (h x w)

Détection de contour ( )

Création de vecteur accumulateur


sym de taille

(a)
Initialiser sym par zéros

Non
Si :
, 1

Oui
(b)
Si : Non
, 1

Oui

Incrémenter

(c)
Correspond à la position de
l’axe vertical de la symétrie Figure 3-15: Détection de symetrie. (a) Image
maximale originale,(b) Image contour,(c) Signal de la
symetrie.
Figure 3-14: Organigramme de l’algorithme de calcul de la
symétrie.

43
Chapitre 3
Outils de développement du notre système

5. Filtre de Gabor
Un filtre de Gabor est un filtre linéaire dont la réponse impulsionnelle est une association
d’un filtre gaussien et une sinusoïde orientée (Figure 3-16).

En traitement d’image, nous travaillons dans le domaine spatial en 2 dimensions, ce qui nous
permet d'écrire la fonction de Gabor de la manière suivante [102]:

, , , . sin 2 (3.18)

Avec :
jθ j cosθ i sinθ
(3.19)
iθ i cosθ j sinθ

est l'orientation de la sinusoïde,


sa fréquence,
, l'écart-type de la gaussienne selon l’axe des abscisses et des ordonnées
respectivement.

L'application d'un filtre de Gabor de masque G de taille (g x g) à une image I de taille (m x n),
se résume donc à la formule suivante :

∗ (3.20)

Où J est la matrice résultante, et ‘ * ’ est l’opérateur de convolution.

Le filtre de Gabor permet d'isoler les contours d'une image d'orientation perpendiculaire à θ et
répondant à une certaine épaisseur, qui dépend de f. Ceci justifie le fait que pour détecter
l'ensemble des contours d'une image, on lui applique généralement un ensemble de filtres de
Gabor appelé banc.

Les filtres de Gabor est un opérateur particulièrement commode pour l'extraction et la détection
de contours.

Les représentations du filtre de Gabor en 2D et 3D sont illustrées dans la figure 3-16 et la figure
3-17, respectivement.

44
Chapitre 3
Outils de développement du notre système

Multiplication
(a) (b)

(c)

Figure 3-16: Filtre de Gabor en 2D. (a) Enveloppe gaussienne, (b) Une sinusoïde
orientée, (c) Filtre de Gabor obtenu.

Multiplication
(a) (b)

(c)
Figure 3-17: Filtre de Gabor en 3D. (a) Enveloppe gaussienne, (b) Une sinusoïde orientée,
(c) Filtre de Gabor obtenu.

45
Chapitre 3
Outils de développement du notre système

Le tableau 3-2 présente divers exemples d'utilisation de filtre de Gabor sur la même image, afin
d'expliciter l'influence des différents paramètres :

Tableau 3-2: Influence des paramètres du filtre de Gabor [102].

paramètres Filtre de Gabor résultats

Orientation :
L’application d’un seul
filtre fait ressortir les
contours orientés
perpendiculairement par
rapport à son orientation.

Orientations multiples :
L'application d'un banc à
plusieurs orientations
permet de détecter des
contours plus nombreux.

Écarts-types :
Si l'on fait varier de
manière à ce qu'il soit
inférieur à , les
filtres deviennent moins
sensibles aux contours et
le banc se comporte (dans
un état limite) comme un
simple flou gaussien.
Si l'on applique la
variation inverse, le
résultat, légèrement plus
net, ne présentera pas de
grandes différences avec
un filtrage symétrique.

Fréquence :
Si on utilise plusieurs
fréquences, le tracé
devient beaucoup plus net,
le filtre est sensible à de
plus nombreux contours
en termes d'épaisseur.

46
Chapitre 3
Outils de développement du notre système

6. L’image intégrale
Une image intégrale (summed area table) est une représentation sous la forme d'une image
numérique et un algorithme permettant de calculer rapidement des sommes de valeurs dans des
zones rectangulaires.

Proposée à l'origine comme une méthode d'infographie en 1984, les images intégrales sont
surtout connues en vision par ordinateur depuis 2001 par leur reformulation dans la méthode de
Viola et Jones [71].

L’image intégrale est une représentation sous la forme d'une image, de même taille que l'image
d'origine, qui en chacun de ses points contient la somme des pixels situés au-dessus et à gauche
de ce point. L’image intégrale II est définie à partir de l'image originale I par la formule
suivante :

II i, j ∑ I i ,j (3.21)

Cette somme peut se calculer par récurrence, par :

s i, j s i, j 1 I i, j (3.22)
II i, j II i 1, j s i, j (3.23)

Où , est la somme cumulée de la ligne jusqu'à la colonne ( , 1 0 et


1, 0 . L'image intégrale peut donc se calculer avec un seul parcours de l'image originale.

Grâce à cette représentation sous forme de table de correspondance, la somme des valeurs dans
une zone rectangulaire peut être calculée en seulement 4 accès à l'image intégrale et donc en
temps constant quelle que soit la taille de la zone. Alors, la somme des pixels à l'intérieur de
n'importe quel rectangle ABCD (Figure 3-18) peut être évaluée par :

∑ I j ,i II A II C II B II D (3.24)

Figure 3-18: La somme des pixels dans le rectangle ABCD.

47
Chapitre 3
Outils de développement du notre système

7. Les espaces de couleur


L’infographie et les standards de la transmission du signal vidéo ont donné naissance à
beaucoup d'espaces de couleur avec différentes propriétés, nous passerons en revue brièvement
les espaces de couleur les plus populaires et leurs propriétés.

7.1. Espace RVB (RGB)

C’est l’espace le plus utilisé, puisqu’il intervient dans la plus part des appareils de prise
d’images couleurs, ainsi que dans les moniteurs couleurs.
Cet espace RVB est composé de trois couleurs primaires rouge, vert et bleu. La couleur est
reconstituée par synthèse additive de ces trois informations.
L’espace RVB est un cube représenté dans un espace cartésien (Figure 3-19), chacune de ces
trois composantes peut prendre les valeurs comprises entre 0 et 255. La diagonale principale
représente les niveaux de gris.

Figure 3-19 : L’espace RVB sous forme d’un cube.

Le système RVB normalisé correspond aux chromacités en RVB :

; ; (3.25)

7.2. Espace YCbCr

Il faut noter qu’il existe aussi les espaces YIQ et YUV et que la confusion est fréquente
parmi ces trois espaces. Les espaces YUV, YIQ et YCbCr sont trois espaces semblables. YUV
est utilisé pour le codage des couleurs dans le système de télévision PAL, YIQ pour le système
NTSC.

Ces deux systèmes sont dépendants des appareils, quant à l’espace YCbCr, c’est un standard de
vidéo numérique. De ce point de vu, l’espace YCbCr est le plus intéressant.

Y correspond à la luminance, Cb et Cr aux chrominances, ils peuvent s’obtenir à partir des


composantes R, V et B (intervalle [0-255]) [103] par la transformation suivante :

48
Chapitre 3
Outils de développement du notre système

0.257 0.504 0.098 16


0.148 0.291 0.439 128 (3.26)
0.439 0.368 0.071 128
La transformation inverse est donnée par :

R 1.164 0 1.596 Y 16
V 1.164 0.391 0.813 Cb 128 (3.27)
B 1.164 2.018 0 Cr 128
7.3. Espace TSL (HSV)

L’espace TSL (Teinte-Saturation-Luminance) ou HSV (Hue, Saturation, Value) est plus


proche de la perception de la couleur. Ce modèle utilise un espace en forme d'hexagone dont
l'axe est celui de la luminance L (Figure 3-20).

La teinte T est donnée par l'angle entre l'axe rouge et un point de l'hexagone. La saturation S
est donnée par la distance entre l'axe de la luminance et un point de l'hexagone. L’espace de
couleur TSL est de forme cylindrique.

L’espace TSL est relié à l’espace RVB par des formules non linéaires, [104]:

arccos
(3.28)
2 arccos

(3.29)

, ,
1 3 (3.30)

Figure 3-20: L’espace TSL sous forme d’hexagone.


49
Chapitre 3
Outils de développement du notre système

8. Détection de couleur d'objet d'intérêt


La détection de couleur d'objet d'intérêt consiste à détecter les pixels correspondant à un
objet dans une image couleur. Chaque pixel peut être considéré comme objet ou non-objet selon
un classificateur.

La figure 3-21 montre une image couleur et son masque binaire après une détection des régions
de peau.

(a) (b)
Figure 3-21: Exemple de détection de peau. (a) Image couleur, (b) Son masque binaire après
une détection des régions de peau.

La détection d’objet par ce couleur dans les images couleurs est une technique importante
utilisée dans de nombreux problèmes de reconnaissance de formes. Elle est souvent une étape
préliminaire indispensable pour des problèmes tels que :

 La détection de visages qui composent la majorité des systèmes utilisant ce type


d’algorithmes [105] [106] [107] [108] ;
 La détection des panneaux de signalisation [8] [9] ;
 La détection des mains [109] ;
 Filtrage des pages web (image censurés, etc...).
La détection de couleur n'est pas une tâche facile pour des raisons diverses telles que les
conditions d’éclairage généralement inconnues, la diversité ethnique avec des teintes qui varient
selon la personne et selon les différentes races, sans oublier qu’un décor complexe peut
compliquer cette tâche.

L’exploitation de l’information de couleur est également un moyen simple et efficace pour la


discrimination entre les pixels d’objet et ceux de non-objet. De nombreux chercheurs [110]
[111] [112], ont montré que chaque couleur est localisée dans une bande étroite de l’espace de
couleur. Cette information peut donc facilement être utilisée pour marquer les pixels de couleur
d'objet d'intérêt.

Plusieurs modèles de couleur ont été proposés pour la détection des pixels d'objet dans les
images couleur. La majorité de ces modèles utilisent une méthode de segmentation basée sur le
calcul d’histogramme de couleur ou une méthode qui dérive de cette dernière [113].

50
Chapitre 3
Outils de développement du notre système

Nous distinguons principalement deux axes de recherche dans la détection de couleur. Le


premier concerne le choix de l’espace de couleur que nous devons adopter pour une bonne
classification. Le deuxième axe concerne la modélisation d'objet /non-objet permettant de
distinguer les pixels de couleur d'objet ceux de non-objet.

8.1. L’espace de couleur


8.1.1. Espace RVB

Dans les travaux [114] [115] [116] [117], l’espace de couleur RVB a été utilisé pour la
segmentation d’image de couleur. L’espace de couleur RVB normalisé est aussi populaire. De
nombreux articles recommandent une détection de peau dans cet espace [118] [119] [120] ou
détection des panneaux de signalisation [8] [9]. L’utilisation de l’espace RVB semble troublante
puisque cet espace ne tient pas compte de la séparation de l’information en deux parties
(luminance et chrominance).

8.1.2. Espace TLS

L’espace de couleur TLS ainsi que ses variantes, HSI (Hue, Saturation, Intensity) et
HLS (Hue, Lightness, Saturation) ont été utilisés fréquemment dans les travaux [107] [112]
[121] [122].
L’espace TLS donne des très bons résultats pour la détection de couleur d'objet en tenant
compte deux comparaisons seulement pour la prise de décision (cosTmin, cosTmax). Mais, il
possède quelques inconvénients : le temps de conversion pour passer de YCbCr à TLS passe
tout d’abord par l’espace RVB, et possibilité de détection des zones d’objet « trouées » et des
fausse détections occasionnellement avec des seuils quelquefois difficiles à trouver.

8.1.3. Espace YCbCr

Plusieurs articles [106] [123] [124] [125] [126] [78] affirment que l’espace de couleur
YCbCr permet de donner une bonne détection des pixels de la peau ou de panneaux de
signalisation.
Avec cet espace on n’a pas besoin de faire la conversion, le traitement est direct sur les
composantes des images de la séquence vidéo. Et il est adapté comme l’espace TLS pour faire
la détection d’objet à cause de la séparation luminance-chrominance (elles sont dé-corrélées
entre eux). Ainsi cet espace permet de détecter des zones d’objet rarement trouées.

Par contre, il a un inconvénient de la possibilité de détecter des fausses détections


occasionnellement avec quatre seuils de comparaisons pour la prise de décision (Cbmin, Cbmax,
Crmin, Crmax) quelquefois difficiles à trouver.

8.2. La méthode implémentée

Dans notre projet, la détection de couleur est juste une étape préalable pour la détection
d'objet d'intérêt, elle devrait donc être rapide et efficace en même temps.

51
Chapitre 3
Outils de développement du notre système

8.2.1. Création du classifieur

Notre classifieur de détection de couleur basé sur la méthode de région explicitement


définie comme objet d'intérêt. Pour le réaliser, nous avons préparé notre propre base de données
d’images contenant plusieurs objets de diverses possibilités avec des teintes qui varient selon
l’objet, et sur différentes conditions réelles d’éclairage.

Dans chaque image nous sélectionnons plusieurs régions d'objet d'intérêt, et on construit un
histogramme avec les valeurs (R, V, B) et (Y, Cb, Cr) des pixels de ces régions (Figure 3-22)
et (Figure 3-23).

V
Figure 3-22: Distribution de couleur de peau dans l’espace RVB.

Figure 3-23: Distribution de couleur de peau dans l’espace YCbCr.

52
Chapitre 3
Outils de développement du notre système

D’après les figures de l’histogramme (Figure 3-22 et Figure 3-23), nous avons tiré les
remarques suivantes :
Pour l’espace RVB :
- Il n’est pas possible de trouver des seuils donnant des résultats satisfaisants, car la
distribution des couleurs de peau est assez étalée.
Pour l’espace YCbCr :
- La luminance Y prend quasiment toutes les valeurs possibles comprises entre 0 et 255,
ce qui montre bien que la luminance n’est pas une information discriminante pour
détecter la peau.
- La distribution dans le plan Cb, Cr est assez concentrée (étroite).
Effectivement, après des essais, on a choisi des paramètres qui respectent les contraintes de
notre projet :

1. L’espace YCbCr, sans la nécessité de conversion vers un autre espace, donc moins de
complexité et avec sa détection de couleur de peau robuste et fiable.
2. La méthode de région explicitement définie comme peau.
Qu’ils respectent les plus des contraintes de notre projet.

8.2.2. Algorithme de détection de couleur

L’algorithme proposé pour la détection de couleur est donné par l’organigramme de la


figure 3-26.

Les figures 3-24 et 3-25 montrent quelques résultats obtenus par le classificateur de couleur
proposé.

(a) (b)
Figure 3-24: Résultats de détection de peau.
(a) Image originale, (b) Masques binaire après la détection de couleur de peau.

(a) (b)
Figure 3-25: Résultats de détection des panneaux de signalisation.
(a) Image originale, (b) Masques binaire après la détection de couleur rouge.
53
Chapitre 3
Outils de développement du notre système

Image couleur I de
dimension (h x w x 3)
en YCbCr

Création de masque M
binaire de dimension
(h x w)

Initialiser M par zéros

Classificateur
Non
*
Conditions
sur ,

Oui

, 1

Figure 3-26: Organigramme de détection de couleur.

* : Quatre (4) condition pour chaque pixel de l’image.

8.3. Optimisation de l’algorithme de détection de couleur

Nous proposons une méthode optimisée pour une classification plus rapide. Au lieu de
faire quatre testes « Si » sur chaque pixel de l’image, nous proposons une matrice de
taille 256 x 256 dont les coordonnées et les abscisses sont , respectivement remplies avec
1 pour les pixels d’objet et 0 de ceux non-objet.

Pour chaque pixels , de l’image , nous prenons ses valeurs et et on affecte au


masque la valeur de , , , .

Nous créons la matrice une seule fois pour chaque couleur à base de l’histogramme
obtenus dans la section 8.2.1, et la sauvegardons pour l’utiliser dans la détection de couleur.

8.3.1. Création de la matrice objet

Nous proposons trois méthodes pour créer de la matrice objet.

Méthode 1 : Nous modélisons les pixels de peau par un rectangle qui vérifie les quatre
conditions.

54
Chapitre 3
Outils de développement du notre système

, , (3.31)

Où , , , , : sont déterminés à partir de


l’histogramme.

Puisque la distribution de couleur dans le plan , n’a pas une forme rectangulaire, il est
possible de détecter des fausses détections occasionnellement.

Méthode 2 : nous prenons directement les valeurs de l’histogramme du plan , , dans la


matrice . Avec cette méthode les fausses détections sont rares, mais on obtient des
régions d’objet trouées.

Méthode 3 : dans cette méthode nous modélisons la distribution de couleur avec un


quadrilatère dans le but de bien entourer la distribution de couleur dans le plan , . Avec
cette méthode les fausses détections sont très rares, avec des régions d’objet non-touées. Les
résultats obtenus par chaque méthode sont montrés dans la figure 3-27.

(a)

(b) (c) (d)

(e) (f) (g)

Figure 3-27: Résultats des méthodes optimisées. (a) Image originale, (b), (c) et (d) Les différentes matrices
PEAU, (e), (f) et (g) Leurs résultats respectivement.

55
Chapitre 3
Outils de développement du notre système

9. Opérations morphologiques
Les opérations de la dilatation et de l'érosion sont fondamentales en traitement d'images
morphologique [127]. Ces opérations sont définies et illustrées de façon détaillée dans les
sections suivantes.

9.1. Dilatation

La dilatation est une opération qui "agrandit" ou "épaissit" des objets dans une image binaire.
La manière spécifique de cet épaississement est commandée par une forme dénommée un
élément structurant noté B. L’élément structurant est une configuration élémentaire de pixels à
rechercher dans l’image.

La figure 3-28 montre comment la dilatation fonctionne. Avec une image d’entrée binaire
simple I contenant un objet rectangulaire et un élément structurant, une ligne de cinq pixels
diagonaux dans ce cas.

Les éléments structurants sont généralement représentés par une matrice de 0 et 1; comme
illustré dans la figure 3-28(b). En outre, l'origine de l'élément structurant doit être clairement
identifiée (encadré dans la figure).

La figure 3-28(c) représente graphiquement la dilatation comme un processus qui balaie


l'origine de l'élément structurant partout dans le domaine de l'image et vérifie où elle se
chevauche avec les pixels d'une valeur de 1. L'image de sortie dans la figure 3-28(d) prend la
valeur 1 à chaque emplacement de l'origine de telle sorte que l’élément structurant se chevauche
au moins avec un pixel d’une valeur de 1 dans l'image d'entrée.

Mathématiquement, la dilatation est définie en termes d'opérations d’ensemble. La dilatation


de I par B, notée ⨁ , est défini comme :

⨁ ∩ ∅ (3.32)

Avec est la transposée de B (symétrie par rapport à l’origine).


est la translation de groupe par le point , .
∅ est un ensemble vide.

56
Chapitre 3
Outils de développement du notre système

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 (b)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(a)
L’élément structurant balayé dans
ces positions ne se chevauche pas
avec des pixels de valeur 1 dans
l’image originale.
• • • • • • •
• • • • • • • •
1 1 1 1 1 1 1 • •
• 1 1 1 1 1 1 1 •
• • 1 1 1 1 1 1 1
• • • • • • • • Quand l’origine est balayée dans
• • • • • • • les positions « • » l’élément
structurant se chevauche avec
des pixels de valeur 1 dans
l’image originale
(c)

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1 1 1 1 1 1 1 0 0 0
0 0 0 0 0 0 1 1 1 1 1 1 1 1 0 0 0
0 0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0
0 0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0
0 0 0 1 1 1 1 1 1 1 1 1 0 0 0 0 0
0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0
0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(d)

Figure 3-28: Illustration de la dilatation [127].


(a) Image binaire originale avec un objet rectangulaire, (b) Elément structurant,
(c) Elément structurant balayé en plusieurs positions de l’image, (d) Image de sortie.

57
Chapitre 3
Outils de développement du notre système

9.2. Erosion

L'érosion ''rétrécit" ou "amincit" des objets dans une image binaire. Comme dans la
dilatation, la manière spécifique de ce rétrécissement est commandée par un élément
structurant.

La figure 3-29 montre le procédé d'érosion sur la même image binaire I utilisée dans la
dilatation, mais l'élément structurant cette fois est une ligne verticale courte de trois pixels
(Figure 3-29 (b)).

La figure 3-29 (c) représente graphiquement l'érosion comme processus qui balaie l'origine de
l'élément structurant partout dans le domaine de l'image et vérifie où elle se chevauche
entièrement avec les pixels d'une valeur de 1. L'image de sortie dans la figure 3-29 (d) prend la
valeur 1 à chaque emplacement de l'origine de telle sorte que l’élément structurant se chevauche
seulement avec les pixels d’une valeur de 1 dans l'image d'entrée. (En outre, tous les pixels de
l’élément structurant font partie de l’image d’entrée).

Mathématiquement, l’érosion est définie en termes d'opérations d’ensemble. L’érosion de I par


B, notée ⊖ , est défini comme :

⊖ | ∩ ∅ (3.33)

Avec est la translation de groupe par le point , .


est le complément de .
∅ est un ensemble vide.

58
Chapitre 3
Outils de développement du notre système

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0 1
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0
1
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 (b)
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(a)

La sortie égale à 0 dans cette


position ne chevauche pas
complètement avec l’image
originale.
1 1 1 1 1 1 1
1 1 1 1 1 1 1
1 1 1 1 1 1 1
La sortie égale à 1 ici parce que
l’élément structurant se chevauche
entièrement avec l’image originale.

(c)

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 1 1 1 1 1 1 1 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(d)
Figure 3-29: Illustration de l’érosion [127]. (a) Image binaire originale avec
un objet rectangulaire, (b) Elément structurant, (c) Elément structurant
balayé en plusieurs positions de l’image, (d) Image de sortie.

59
Chapitre 3
Outils de développement du notre système

Nous appliquons les opérations morphologiques « l’érosion et la dilatation » sur le


masque obtenu par la détection de couleur de peau, les résultats sont illustrés dans la figure 3-
30.

(a)

(b) (c)
Figure 3-30: Application des opérations morphologiques sur un masque binaire. (a) Masque binaire, (b)
Erosion du masque, (c) Dilatation de l’image (b).

10. La labélisation des objets


La labélisation (ou étiquetage) est une opération fondamentale en traitement d’images. Elle
consiste à segmenter et séparer chaque objet composant l’image, en affectant un numéro
d’identification, label (étiquette), à chaque ensemble de pixels connexes d’une image binaire
(figure 3-31). Il peut s'agir par exemple de séparer les objets du fond.

L’étiquetage des régions n’est pas un traitement local, car le voisinage d’un point de l’image
n’est pas suffisant pour lui affecter un numéro d’identification [128].

Nous avons proposé une technique permettant la labélisation en utilisant un masque de balayage
(Figure 3-32) pour donner des labels aux pixels en fonction de leur voisinage local en 8
connexités.

Pour s’affranchir des problèmes liés aux effets de bord de l’image, une ligne de zéros sur les
bords haut et une colonne sur les bords gauche de l’image sont ajoutées (Zeros-Padding).

(a) (b)
Figure 3-31: Labélisation de l’image binaire. (a) Image binaire, (b) Résultat de la labélisation.

60
Chapitre 3
Outils de développement du notre système

A B C
D X

Figure 3-32: Masque proposé pour la labélisation.

X : pixel que nous voulons lui attribué un label.


A, B, C, D : sont les voisins du pixel X.

Nous balayons l’image avec le masque, si X = 0 aucune opération est effectuée. Si X = 1, nous
testons les valeurs A, B, C et D pour donner un label à X. il existe trois cas possibles :

1- Si tous les voisins sont nuls, X prend un nouveau label.


2- Si un des voisins ou plus ont le même label, X prend ce label.
3- Si (B = 0) ET (C=L2) ET (A = L1 OU D=L1). X prend le label de A ou D ‘L1’ et nous
changeons tous les valeurs du label ‘L2’ par la valeur de ‘L1’.
Nous appliquons notre technique de labélisation sur un masque binaire obtenu par la détection
de couleur de peau suivi par les opérations morphologiques érosion et dilatation. Les résultats
sont illustrés dans la figure 3-33.

(a) (b)
Figure 3-33: Résultat de la labélisation. (a) Masque binaire, (b) Objets labélisés.

11. Algorithme de K-means


K-means est un algorithme de quantification vectorielle. Il cherche à séparer un ensemble
de points en les partitionnant en K groupes ("clusters", ou "classes") qui ne se chevauchant pas
[129]. Ce résultat est obtenu en positionnant K centroïdes dans les régions de l'espace les plus
peuplées avec une densité élevée en suivant une règle dite "la Distance Minimale". Chaque
groupe contient donc les points qui sont plus proches d'un certain centroïde que de tout autre
centroïde (Figure 3-34).

Figure 3-34: Regroupement par K-means.


61
Chapitre 3
Outils de développement du notre système

11.1. Description

Supposons que :

- Les avec i ∈ 1, … , n sont les points à séparer.


- Les sont les variables indicatrices associées aux telle que 1 si appartient
au groupe k, 0 sinon. est la matrice des .
- est le vecteur des , où est le centre de groupe K (centroïde).
La mesure de distorsion , est donnée par :

, ∑ ∑ ‖ ‖ (3.34)

11.2. Algorithme

Le but de l’algorithme est de minimiser , en appliquant les étapes suivantes :

1- Choisir le vecteur qui contient les k moyennes initiales. (nous proposons de choisir
les deux points le plus proche le plus loin de l’origine de l’image si K=2, et ces deux
points avec le point dans le milieu entre eux si K=3).
2- Nous minimisons par rapport à ∶ 1 pour
∈ ‖ ‖ (3.35)

Autrement dit, nous associons à le centre le plus proche.


3- Nous minimisons par rapport à

(3.36)

4- Retourner à la deuxième étape jusqu’à la convergente est atteint quand il n'y a plus de
changement ou si nous arrivons au nombre d’itérations s’il est défini à priori.
Nous appliquons l’algorithme K-means un ensemble de points que nous voulons séparer.
Les résultats sont montrés dans la figure 3-35.

62
Chapitre 3
Outils de développement du notre système

(a) (b)

(c) (d)
Figure 3-35: Regroupement sur un ensemble de points K-means.
(A) Les points à séparer en 2D, (b) Les points à séparer en 3D,
(c) Regroupement par K-means K=3, (d) Regroupement par K-means K=2.

12. Le Suivi
Le suivi visuel d’objets dans des séquences d’images est devenu une des tâches les plus
utilisées, parmi celles développées pour la vision par ordinateur. Les différents champs
d’application comprennent entre autres: la vidéoconférence (suivi des interlocuteurs), la
vidéosurveillance (détection, suivi, reconnaissance du comportement de personnes, d’intrus),
la segmentation et l’édition de séquences vidéo, sans oublier les applications plus
traditionnelles de la robotique, suivi d’un opérateur (corps, visage, main…).

12.1. Méthodes de suivi

Plusieurs classifications des méthodes de suivi visuel d’objets ont été proposées dans la
littérature; elles dépendent autant des auteurs, que du but pour lequel ces méthodes ont
été conçues. Nous considérons la classification donnée dans [130], où selon les auteurs, les
méthodes de suivi visuel peuvent être divisées en quatre classes [131].

63
Chapitre 3
Outils de développement du notre système

12.1.1. Méthodes de suivi fondées sur des modèles

Ces méthodes repèrent des caractéristiques connues dans la scène et les utilisent pour
mettre à jour la position de l’objet. Parmi ces méthodes, citons celles qui exploitent les
modèles géométriques fixes [132], et les modèles déformables [133].

12.1.2. Méthodes de suivi de régions ou blobs

Ce genre de méthodes se caractérise par la définition des objets d’intérêt comme


ceux qui sont extraits de la scène en utilisant des méthodes de segmentation. Citons les
nombreuses méthodes qui détectent une cible à partir de son mouvement sur un fond statique
ou quasiment statique [134].

12.1.3. Méthodes de suivi à partir de mesures de vitesse

Ces méthodes peuvent suivre les objets en exploitant les mesures de leur vitesse dans
l’image, avec des mesures telles que le flux optique ou des équivalents [135].

12.1.4. Méthodes de suivi de caractéristiques

Ces méthodes suivent certaines caractéristiques de l’objet, comme des points, des
lignes, des contours [136], caractéristiques ou primitives image auxquelles il est possible aussi
d’imposer de restrictions globales [137]. Ces caractéristiques peuvent être aussi définies par
la texture ou la couleur [138].

Cette classification n’est pas exhaustive, et à ce jour, il existe de nombreux recouvrements


entre les classes, c’est-à-dire, des méthodes qui peuvent être classifiées dans deux ou plus de
classes. Nous considérerons que ces méthodes sont des combinaisons des approches
existantes.

12.2. Les méthodes de suivi implémentées

Les méthodes décrites dans cette section sont basées sur la différence des motifs (ou
modèles) entre deux régions.

L’idée principale est de mesurer à un instant donnée t, la différence entre un motif (model) pré
déterminé (référence issue par exemple d’un module de détection dans l’image), et une position
possible (zone d’intérêt) de ce motif dans l’image.

Le tableau 3-3 résume les mesures de différence et de corrélation. Les mesures de similitude
les plus simples sont basées sur la Somme de différences absolues (SAD) ou la Somme de
différences carrées (SSD), qui est zéro pour l'identique. Les mesures de similitude qui ont plus
de complexité telles que la corrélation croisée normalisée (NCC), obtenir les valeurs dans
l'intervalle [-1, 1], avec 1 correspond aux images identiques, tandis que les valeurs de
corrélation croisée normalisée avec moyenne nulle (ZNCC), sont entre [0, 2], où 0 représente
la valeur de corrélation la plus élevée.

64
Chapitre 3
Outils de développement du notre système

Tableau 3-3: Résumé des mesures de différence et de corrélation

Sum of Absolute
Differences , | , , |
(SAD)
Zero-mean Sum
of absolute , | , , , |
differences
(ZSAD)
Sum of squared
differences , , ,
(SSD)
Zero-mean Sum
of squared , , , ,
differences
(ZSSD)

Normalized cross ∑ ∑ , . ,
, 1
correlation
∑ ∑ , . ∑ ∑ ,
(NCC)

Zero-mean
∑ ∑ , , . ,
normalized cross , 1
correlation ∑ ∑ , , . ∑ ∑ ,
(ZNCC)

Puisque nous traitons des images réelles qui ont été prises pendant la journée sous différents
challenges comme le changement d'illumination brusque et les variations significatives de
contraste qui peuvent influer sur le résultat de suivi.

L'utilisation des mesures de similitude avec moyenne nulle (Zero-mean) (ZSAD, ZSSD,
ZNCC) tendent à lisser ces anomalies, ainsi elles augmentent la performance et améliorent les
résultats. Cependant, ces mesures augmentent la complexité de calcul. Et donc, il est évident
que la complexité augmente selon la taille d'image.

Dans notre travail, nous nous focaliserons seulement sur les approches de suivi basées sur les
différences de motifs qui proposent d’estimer les variations de pose du motif. En effet, nous
choisirons les méthodes qui ont montré une très bonne efficacité et qui de ce fait, peuvent
être implémentées en temps réel.

L’organigramme de suivi d’un modèle par mesure de similitude est illustré dans la figure 3-36.

65
Chapitre 3
Outils de développement du notre système

Etape de détection et Image I en niveau de


d’extraction du modèle gris

Position possible
Le modèle recherché
(Zone de recherche)

Mesure de similitude

Déterminer le maximum de
ressemblance

Position de modèle dans


l’image

Figure 3-36: Organigramme de suivi d’un objet en mouvement par mesure de similitude.

13. Conclusion
Nous avons vu dans ce chapitre la description des différents outils qu’ont été utilisés dans notre
système. Nous avons évoqué tout d’abord la calibration de caméra, pour trouver les paramètres
intrinsèques et extrinsèques ainsi que cette opération permet de trouver la relation entre les
coordonnées spatiales d'un point de l'espace avec le point associé dans l'image prise par la
caméra. Ensuite, nous avons détaillé la transformée de Hough ligne et cercle. Puis, nous avons
présenté les techniques de calcul de la symétrie qui permettent de localiser les objets
symétriques. Ainsi, nous avons vu le filtre de Gabor et la technique de l’image intégrale. Après,
nous avons évoqué les espaces de couleur, pour apporter notre contribution dans la technique
de détection de couleur dans une image. Nous avons également présenté une étude sur les
différentes approches existantes pour construire un modèle de couleur. Ensuite, nous avons
présenté les opérations morphologiques telles que l’érosion et la dilatation. Par la suite, nous
avons vu la technique de labellisation des objets dans une image binaire, et l’algorithme de K-
means. Enfin, nous avons évoqué quelques techniques de poursuite basées sur la méthode de
la mise en correspondance tels que : SAD, SSD, NCC, ZNCC,…etc.

66
Chapitre 4

Mise en œuvre du notre système

67
Chapitre 4
Mise en œuvre du notre système

1. Introduction
Dans ce chapitre, nous évoquons notre système proposé qui se constitue de trois modules
principaux :
 Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).
 Module de Classification des Panneaux de Signalisation Routière (MCPSR).
 Module de Détection de Fatigue et de Somnolence (MDFS).
En fait, ces modules utilisés conjointement permettent d’aider le conducteur à prendre la
décision appropriée.
Dans chaque module, nous détaillons les étapes fondamentales utilisées afin de concevoir un
modèle développé qui permet d’améliorer les systèmes de conduite intelligents.
Dans un premier temps, nous abordons le premier module de détection de véhicules et de
mesure de distance et de vitesse. Nous proposons de trouver de nouvelles solutions, qui
conduisent au calcul de la vitesse ainsi qu’au temps de collision des véhicules pour éviter la
collision.
Dans le deuxième module de classification des panneaux de signalisation routière, nous
classifions les panneaux de signalisation de la route. Ce module aide le conducteur à faire la
liaison entre la route et les signalisations de la route afin de prendre des précautions pour éviter
des manœuvres dangereuses.
Dans le dernier module de détection de fatigue et de somnolence, nous travaillons sur
l’élaboration de notre système à travers le contrôle de l’état de somnolence et de fatigue de
conducteur

2. Module de détection de véhicules et mesure de distance et de vitesse


L’algorithme proposé s’articule sur quatre modules majeurs à savoir la modélisation de la
route, la détection de véhicules, la poursuite des véhicules, et enfin la mesure de la distance et
de la vitesse .Le schéma synoptique décrit par la figure 4-1. Dans les sections qui suivent, on
présentera le travail réalisé au niveau de chaque étape de l’algorithme. On commence d’abord
par déterminer les contours.
Source vidéo

Prétraitement

Modélisation de la route

Détection de Mesure de la Méthode


LCP
véhicule distance d’interpolation
Symétrie
Suivi de Mesure de Méthode du champ
Énergie véhicule vitesse de vision
Mise en Inter-
correspon Frame

Figure 4-1: Le diagramme de module proposé.

68
Chapitre 4
Mise en œuvre du notre système

2.1. Prétraitement
2.1.1. Les Contours de l’image

L’idée en quelque sorte d’extraire les contours de l’image originale, en lui appliquant des
filtres spécifiques tels que Sobel, Canny, filtre morphologique. Ce dernier est appliqué à une
image filtré par Sobel, et en dernier la méthode LOC est employée pour construire une nouvelle
image de contour.

(a) (b) (c)

(d) (e) (f)

(g) (h) (i)

Figure 4-2: Différentes méthodes de détection de contour.(a) Image originale ,(b)Filtre Sobel , (c)Application de
filtre morphologie (dilatation) sur sobel , (d)Filtre Canny , (e )Déphasage de quatre pixels, (f) Différence entre
deux images
2.2. impaires , (g) Application
Modélisation de filtre sobel sur l’image (f) , (h) LOC Horizontal, (i) LOC Vertical.
de la route

Cette procédure utilise une matrice de coefficient prédéfinie et l'équation 4.1, pour
représenter la variation d'intensité directionnelle du voisinage du pixel en question. Le modèle
mathématique est donné par l’équation suivante [57] :

, ∑, , . , , , (4.1)

69
Chapitre 4
Mise en œuvre du notre système

Où b n, m représente l’image d’entrée en niveau de gris, b n, m représente image de


sortie, k i, j représente un coefficient de la matrice de voisinage est un seuil t, I est le voisinage
soit de connexité 4 ou 8, et u(.) est la fonction échelon unité.
0 1 0
é4 2 4
0 8 0
1 2 4
é8 8 16
32 64 128
Où R est la référence.
On applique à l’image de la scène le LOC avec la matrice de voisinage connexité 8. Le résultat
de cette procédure produit une image dont les valeurs se situent entre 0 et 255. Les valeurs 7,
224 de cette dernière représentent les composantes de contours à direction horizontale, et les
valeurs 41, 148 représentent les composantes de contours à direction verticale, comme il en est
le cas sur la figure 4-2 On obtient par la suite une image formée par des pixels noir sur fond
blanc.
La modélisation de la route dans nos séquences d’images est une étape incontournable pour la
réalisation de notre module. Cette étape peut servir aussi dans d’autres applications telle que la
détection d’objets sur la route ou l’évitement des sorties de route.
2.2.1 Réduction l’espace de recherche
On peut facilement prouver que toutes les approches basées sur l’apparence du
véhicule peuvent conduire à l’échec et générer beaucoup de fausses hypothèses sur les endroits
des véhicules. La symétrie, LCP, les ombres, …etc. sont tous des caractéristiques qui peuvent
décrire des objets ou des zones présents dans les séquences vidéo qui ne sont pas des véhicules
comme le montre la figure 4-3. C’est une constatation intéressante pour décider de délimiter
notre espace de recherche.

La réduction de l’espace de recherche de véhicules, Se traduit par un bénéfice sur le temps


d’exécution qui est une notion primordiale dans une application nécessitant un fonctionnement
en temps réel.

La modélisation de la route consiste à extraire les droites liées délimitant celle-ci. Cette
opération peut se faire de façon automatique par l’emploi de la transformée de Hough, Cette
dernière fait appel au fondement mathématique décrivant la transformée de Hough pour la
détection des droites.

Pour délimiter notre espace de recherche on procède selon deux actions :

70
Chapitre 4
Mise en œuvre du notre système

2.2.1.1. Recherche des lignes candidates à délimiter la zone de recherche


Cette première phase consiste à faire ressortir toutes les lignes prononcées de l’image en
utilisant la transformée de Hough. D’abord on extrait les contours de l’image originale, par des
filtres spécifiques tels que filtre Sobel, filtre Canny sur la version niveau de gris de l’image
originale.

Ensuite, Les images résultantes subissent une transformée de Hough pour faire ressortir les
lignes prononcées de l’image comme le montre la figure 4-3. Ces lignes sont candidates pour
délimiter la zone de recherche.

Figure 4-3: Transformé de Hough appliquée sur l’image binaire obtenue par : (a)Filtre Sobel, (b) Filtre
morphologie (dilatation) sur sobel , (c) Filtre Canny , (d )Déphasage de quatre pixels, (e)Application de filtre
sobel sur différence entre deux images impaires, (f) L’image de LOC.
(d) (e)

2.2.1.2. Choix adéquat des deux meilleures bordures

Dans la deuxième partie, nous abordons trois techniques pour aboutir au résultat escompté.
1) La première technique se charge de choisir parmi toutes les lignes candidates trouvées dans
la figure 4-3, deux lignes qui feront l’objet des deux bordures représentant au mieux notre
espace de recherche. Le choix de ces bordures s’appuie sur une constatation discernée après
l’étude et l’observation de nos séquences, nous nous sommes basés sur l’observation du fait
que la zone route contient beaucoup moins de contours que la zone non route.

On peut s’apercevoir clairement sur la figure 4-4 que la zone route à la propriété d’être une
zone homogène présentant un minimum de contours, par contre une zone non route divulgue
un nombre important de contours (végétation, habitats, barrières, etc.).

71
Chapitre 4
Mise en œuvre du notre système

Zone non route

Zone route

Figure 4-4: Zone route et zone non route de détection de contour de déphasage de quatre pixels.

Donc chaque ligne candidate possède deux accumulateurs : un accumulateur « route » et un


autre « non route », les deux meilleures lignes sont choisies selon ces accumulateurs.
2) Dans la deuxième technique, on applique le choix d’angle afin de trouvé le meilleur choix
d’angle pour cette technique, on calculant l’angle qui existe entre les deux droite qui sont
trouvées par HOUGH de plusieurs images successives, ensuite on prend le résultat calculer de
chaque image qui serons approximative quand celui-ci s’éloigne on se base sur l’angle
précèdent, comme le montre la figure 4-5.

Figure 4-5: Le choix d’angle.


3) La troisième technique, est la distance euclidienne (di) selon (4.2) et (4.3) entre deux droites
des deux images successives trouvées par HOUGH, cette distance doit être faible. La figure 4-
6 illustre ce principe de cette technique.
d1 = a1 a2 a1 a2 (4.2)

d2 = b1 b2 b1 b2 (4.3)

72
Chapitre 4
Mise en œuvre du notre système

b1
b2

a2
a1

Figure 4-6: La distance Euclidienne entre deux droites.

On obtient après les contributions précédentes, les paramètres des deux bords représentant au
mieux notre espace de recherche, on peut apriori ignorer toutes les informations se trouvant à
l’extérieur de ces deux lignes.

Figure 4-7: Intervalle de recherche obtenu.

2.3. La détection de véhicules

Une fois la route délimitée, nous entamons la deuxième étape de notre algorithme qui
consiste à détecter les véhicules.
Dans cette section nous allons aborder, trois techniques :

 La méthode de symétrie.
 La méthode base sur les modèles locaux de découpe « LCP ».
 La méthode base sur les l’énergie.
2.3.1. Méthode de symétrie de véhicules
Nous allons appliquer la méthode de symétrie pour notre objet d’intérêt qui est le véhicule.
En fait, la symétrie est un rituel dans tous les travaux précédemment étudiés. On se limite
d’étudier de la symétrie axiale qui est une transformation géométrique du plan, elle modélise
un pliage ou un effet miroir. Un objet dans une image a une forme symétrique si on peut le

73
Chapitre 4
Mise en œuvre du notre système

diviser en deux moitiés égales et chaque côté est une réflexion de l’autre par rapport à un axe
vertical.
En premier lieu, on balaye toute l’image avec un rectangle de taille fixe et avec un déplacement
qui vaut 1 pixel, cela est très lourd comme calcul à faire. D’une autre part, la taille du véhicule
est supposée diminuer en s’éloignant de la camera et donc la taille du rectangle doit être
dynamique. Mais l’objectif de ce premier essai est d’étudier la pertinence de la symétrie.
Une solution au problème de la complexité, celui du temps perdu, est d’augmenter la cadence
de déplacement du rectangle en faisant des déplacements de plusieurs pixels au lieu d’un seul
en passant de (T) a (T+1) (verticalement et horizontalement) comme montré dans la figure 4-
8.

Rectangle (T)
Rectangle (T+1)
1 pixel Déplacements de N pixels

Solution

Figure 4-8: La foulée du Balayage.

Il est aussi peu réaliste de positionner l’axe de symétrie parfaitement au milieu de la vue arrière
du véhicule. Surtout si le pas de déplacement du rectangle est bien supérieur à 1.
 Analyse du travail 1
Après avoir effectué suffisamment de tests sur nos séquences d’images, Il s’est avéré que
l’environnement composé du le ciel et de la route expriment une forte symétrie dans les
séquences d’images. Ils posent un grand problème, le résultat obtenu est illustre par la figure 4-
9:

91%

29
%

77%

Figure 4-9: La symétrie en premier abord.

74
Chapitre 4
Mise en œuvre du notre système

 Interprétation

Les zones homogènes présentent un taux de symétrie nettement supérieur aux zones
recherchées qui contiennent d’éventuels véhicules.
Cette méthode s’avère insuffisante, ce qui nous a poussés à modifier l’algorithme de symétrie
en introduisant l’information des contours dans le calcul du taux de la symétrie.
Le taux de la symétrie dans ce cas est calculé seulement sur les points formant des contours.
Cette opération s’effectue en incrémentant un accumulateur de la symétrie pour chaque deux
pixel symétrique noir retrouvés (Dans ce qui suit, les couleurs dans les figures représentant des
contours sont inversées pour une meilleure apparence).

1%

46

1%

Figure 4-10: Symétrie des contours.

 Analyse du travail 2
Bien que le problème des zones homogènes soit complétement éliminé comme le montre la
figure 4-11, la génération d’hypothèses apporte beaucoup de fausses détections, car un bon
nombre d’objets ou de zones dans une image retient une densité des contours et donc un fort
taux de symétrie.

72%
60%

Figure 4-11: Fausses détection sur symétrie.

75
Chapitre 4
Mise en œuvre du notre système

 Interprétation
Même si la symétrie reste une méthode incontournable pour de nombreux travaux antérieurs,
les réflexions mentionnées au-dessus sont suffisantes pour décider d’éviter la symétrie au
premier abord.
Les démonstrations vues dans cette partie et le nombre important de fausses détections
engendrées par les régions non véhicules nous ont conduit à travailler seulement sur un
intervalle pertinent cela en délimitant l’espace de recherche.
La figure ci –dessous présente un organigramme qui montre les étapes de l’algorithme de la
symétrie.

Image I

Détection des contours

Réduire l’espace de
recherche « T-Hough »

Balayage avec le masque


idéal et trouver la valeur
maximale de la symétrie

Véhicule détecté

Figure 4-12: Organigramme de l'algorithme de détection de véhicule par symétrie

Un objet dans une image a une forme symétrique si on peut le diviser en deux moitiés égaux,
et chaque côté est une réflexion de l’autre côté par rapport à un axe vertical comme cette
symétrie est formulée par les équations (4.4) [69].
∑ ∑ / , ,
Symétrie (4.4)

Avec G(x, y) est détection de contour du point (x, y), H et F dénotent la hauteur et la largeur de
la fenêtre respectivement.
Nous modélisons la symétrie dans une image numérique par un signal unidimensionnel, qui
nous donne la valeur correspondante à la position de l’axe vertical de la symétrie des objets
dans l’image, la figure 4-13 illustre ce résultat.

76
Chapitre 4
Mise en œuvre du notre système

Figure 4-13: Le signal de symétrie.

Comme nous spécifions la symétrie par un rectangle qui va dépendre de la taille de véhicule,
ce rectangle saisit le maximum de symétrie dans notre espace de recherche comme le montre la
figure 4-14.

Figure 4-14: Détection de véhicule avec la technique de symétrie.

2.3.2. Méthodes basées sur les modèles locaux de découpe


Dans cette section, on applique la méthode basée sur les modelés LCP afin de détecter le
véhicule.

Le modèle des contours locaux LCP (Local Contours Patterns) est défini comme une mesure
sur les images binaires pour trouver des structures géométriques locales [139].

Parada et al. [139] ont travaillé sur cette méthode pour la détection des différents panneaux de
signalisation routière : triangulaires et circulaires. Le principe est de numéroter chaque pixel
actif (point blanc) dans l’image contours par un numéro en vérifiant ses pixels voisin s’ils ont
des structures géométriques locales définies pour chaque orientation (Figure 4-15).

La méthode LCP est la deuxième approche qu’on a appliquée pour détecter le véhicule. Les
étapes de cet algorithme sont montrées dans l’organigramme de la figure 4-16.
L’équation régissant le code LCP peut s’écrire selon la formule suivante [139]:

LCP , ∑ P2 (4.5)
Où N représente la longueur impaire de la région carrée autour du pixel contour central. B
fonction de N, est la longueur du code. Par exemple, N = 3 produit des codes à B = 8 bits, N =
5 produit des codes à B = 24 bits, N = 7 produit des codes à B = 48 bits. Les grandes valeurs de

77
Chapitre 4
Mise en œuvre du notre système

N fournissent une flexibilité accrue pour définir les structures complexes, mais introduisent plus
de bruit lors du processus et compliquent le regroupement des codes.

Figure 4-15: Deux exemples des structures simples codées par LCP8, 3, le fond dessus près de 0º et
dessous inférieure près de 90º.

Image I

Détection des contours

Réduire l’espace de
recherche « T-Hough »

Appliquer la
fonction LCP

Balayage avec le masque


idéal et trouver la
maximale valeur

Véhicule détecté

Figure 4-16: Organigramme de l'algorithme de détection de véhicule par LCP.

Détecter des structures linéaires simples peut suffire pour de nombreuses applications comme
celle décrite à présent. A titre d'exemple, la figure 4-15 montre quelques exemples de structures
simples codées par LCP8,3 où l’objectif est la détection de véhicule. Les pixels noirs représentent
le centre de la région de recherche de 3x3, et les pixels colorés représentent les pixels voisins
avec la valeur 1.

78
Chapitre 4
Mise en œuvre du notre système

En appliquant une convolution d’une image de contour avec un masque de 0° et de 90°


(Figure4-16), puis, on fait un balayage sur l’image cherchant le lien avec un masque idéal (voir
la figure 4-17) et le résultat sera identifié par un rectangle, comme le montre la figure 4.18.
3 2 3

1 1

3 2 3

Figure 4-17: Masque idéal.

Figure 4-18: Détection de véhicule avec la technique de LCP.

2.3.3. L’énergie
Les étapes de cet algorithme sont montrées dans l’organigramme de la figure 4-19.

Image I

Détection des contours

Réduire l’espace de
recherche « T-Hough »

Balayage avec le masque


idéal et trouver la valeur
maximale de l’énergie

Véhicule détecté

Figure 4-19: Organigramme de l'algorithme de détection de véhicule par l’énergie.

79
Chapitre 4
Mise en œuvre du notre système

En appliquant une convolution d’une image de contour avec un masque de 0° et de 90°


(Figure4-16), ensuite on fait un balayage avec une fenêtre de la taille du véhicule est opéré sur
l’image résultante, et à partir du maximum de l’énergie calculé dans cette fenêtre, le résultat
sera identifié par un rectangle, comme il est montré dans la Figure 4-20.

Figure 4-20: La détection de véhicule avec la technique de l’énergie.

2.3.4. Adaptation de la fenêtre de recherche


La route prend la forme d’un trapèze qui s’élargit quand on s’approche de la caméra. On
constate le même effet sur les véhicules, plus on s’éloigne et plus la largeur des véhicules
exprimée en pixel diminue. Cependant, la taille réelle des véhicules ainsi que la largeur de la
route « L » demeurent constantes ou fixes.
La difficulté concerne la variabilité de la taille des véhicules. La solution proposée à ce
problème est d’adapter la taille du rectangle au fur et à mesure du déplacement sur l’image.
Cela revient à calculer la largeur de la route, pour connaitre la largeur du véhicule à partir de
cette relation comme exemple : largeur du véhicule= largeur de la route/n, On obtient le résultat
escompté (la variation de la taille de véhicule).
j1 j2
distance
Trouver Équation 1
Trouver Équation 2

abs(j2-j1) Distance

Trouver Vecteur
‘distance ‘

Equation1 Equation2
Figure 4-21: Méthode d’adaptation de la fenêtre.

2.4. La poursuite de véhicule

Les véhicules détectés sont poursuivis tout au long de la séquence vidéo. Pour ce faire, la
technique utilisée est la recherche de concordance entre les véhicules de chaque deux images
successives par le biais de la mise en correspondance plus connue sous le nom de Matching.
Dans le cadre de nos travaux, nous nous intéresserons particulièrement aux méthodes de mise
en correspondance par corrélation des niveaux de gris.
80
Chapitre 4
Mise en œuvre du notre système

Une façon simple de suivre un objet est de minimiser une fonctionnelle dépendant de l’objet
initial et d’un objet candidat. Cette fonctionnelle peut simplement être fondée sur la différence
pixel à pixel entre deux objets (e.g. fonctions SAD et SSD, etc.).
2.4.1. L’étape de mise en correspondance
 Sélectionner la fenêtre f de largeur Lf et de hauteur Hf résultante de détection de
véhicule,
 Délimiter une zone de recherche ZR au tour de la fenêtre ;
 Balayer la zone de recherche ZR par la fenêtre f en appliquant le critère SAD, ligne par
ligne, colonne par colonne ;
 Dans le cas idéal, le point homologue offre une valeur nulle pour la SAD, mais dans la
pratique, on prendra la valeur minimale. La figure 4-22 illustre le procédé de mise en
correspondance.
La figure 4-23 représente le résultat du suivi des véhicules par mise en correspondance par
mesure de corrélation par l’algorithme SAD.

Une Séquence d’image

It-4
It-3
It-2
It-1
It

Zone de recherche

Figure 4-22: Procédé de mise en correspondance par mesure de corrélation.

81
Chapitre 4
Mise en œuvre du notre système

Figure 4-23: Détection et poursuite de véhicule.

2.4.2. Fusion de donnée


Dans la littérature, plusieurs auteurs associent deux types d’algorithmes de suivi pour
renforcer le résultat obtenu lors du suivi des objets. Dans ce cas d’étude, on s’est retrouvé face
au problème suivant : le résultat du suivi moyennant un certain degré d’erreur est-il correct ?
Dans ce qui suit, on va introduire la solution proposée pour la vérification du résultat du suivi.
A l’instant t, on dispose de deux données capitales, à savoir la détection des objets, et le suivi
des objets au même instant t, issus de la détection à l’instant t-1. L’objectif c’est d’être en
mesure d’établir une relation entre ces deux informations.
 L’opération de la fusion des données de détection et de suivi va permettre de répertorier les
objets détectés à l’instant t selon trois catégories, qui sont :

Instant t-1 Instant t

Figure 4-24: Principe de la fusion de données.

1. Catégorie 1 : un objet en cour de traitement, c.à.d. que l’objet en question est encore
poursuivi car il apparait toujours dans notre champ de vision. Cette catégorie va rassembler
toutes les correspondances entre les résultats du suivi et de la détection. Ce cas est illustré sur
la figure ci-dessus par les flèches numérotées 1 et 2.
2. Catégorie 2 : cette catégorie va répertorier essentiellement les résultats de la poursuite à
laquelle ne correspond aucune détection. On rencontre ce cas dans deux situations : la première,
une mauvaise détection qui ne fait pas apparaitre l’objet devant être détecté, la seconde, un objet
qui n’est plus dans la zone d’intérêt. Ce cas est représenté dans la figure 4-24 par la flèche 3.
3. Catégorie 3 : tout objet issu de la détection et au quel ne correspond aucun suivi, est
considéré comme un nouvel objet venant d’être détecté. Ce cas est représenté par la figure ci-
dessus par l’objet numéroté 4.

82
Chapitre 4
Mise en œuvre du notre système

L’attribution d’un identifiant pour les objets de catégorie 3, et insertion de ces derniers dans
l’entité appelé ‘historique’. Un élément de cette entité va contenir les informations que montre
la figure suivante :

1 2 3 4 5 6 7 8 9 10

Figure 4-25: Sauvegarde des données dans l’entité ‘historique’.

En rouge, on a les informations relatives à l’objet détecté pour la première fois:


1. Numéro de l’image de la première détection ;
2. coordonnée horizontale du point bas gauche de l’objet ;
3. coordonnée verticale du point bas gauche de l’objet ;
4. hauteur de l’objet ;
5. largeur de l’objet ;
Une fois ces informations enregistrées, on peut les manipuler. Elles servent essentiellement
à dire quand est ce que cet objet est apparu dans le champ de vision d’intérêt.
Mise à jour des données à partir de la catégorie 1, à savoir la nouvelle position et taille de
l’objet. Les six autres cases en vert, serviront à la mise à jour de mêmes données citées ci-dessus
une fois que ce même objet se voit être répertorié en catégorie 1, et donc :
6. Numéro de l’image ou il apparait une nouvelle fois ;
7. Nouvelle coordonnée horizontale du point haut gauche de l’objet ;
8. Nouvelle coordonnée verticale du point haut gauche de l’objet ;
9. Nouvelle hauteur de l’objet ;
10. Nouvelle largeur de l’objet ;

2.5. Mesure de distance

Nous avons vu dans la section précédente une étape intermédiaire pour localiser ou
positionner l’objet cible. Dans cette section, nous étudions les approches qui servent de mesurer
la distance de l’objet détecté. Notre processus de mesure est basé sur une approche qui utilise
une seule caméra (système mono-vision), nous verrons les détails dans les sections suivantes.
2.5.1. Approche mono-vision
Le système mono-vision emploie une seule caméra pour mesurer la distance de l’objet
mobile détecté. Dans ce cas, nous distinguons deux méthodes :
 Méthode d’interpolation.
 Méthode du champ de vision [140].

2.5.1.1. Méthode d’interpolation


L’idée générale de cette méthode est la modélisation des points de la route dans l’image
acquise par une fonction polynomiale quelle que soit la hauteur hj de la caméra, comme
l’illustre la figure 4-26.Dès que nous trouvons cette dernière, nous pouvons l’utiliser pour
calculer la distance DM (hj) de l’objet détecté par rapport à la caméra.

83
Chapitre 4
Mise en œuvre du notre système

h1 h0

α α M
DM (h0)
DM (h1)
Figure 4-26: Le principe de base de la méthode d’interpolation.

 Calcul de la fonction polynomiale


Nous choisissons des points connus réellement de la route dans l’image, ensuite nous
interpolons ces points par une fonction polynomiale de degré inférieur, et nous augmentons ce
degré jusqu’à obtenir le modèle convenable, comme l’illustrent les figures 4-27 l’équation (4.6)
décrit notre modèle :

∑ (4.6)

(a) (b)

Figure 4-27: (a) Interpolation par la fonction polynomiale f(x) de degré 10, (b) Interpolation par la
fonction polynomiale f(x) de degré 6.

 Relations entre le calcul de la distance et la pose de caméra.


Dans ce paragraphe, on étudie les relations trigonométriques qui existent entre le calcul
de la distance par la fonction polynomiale f(x) et la pose (la position du centre optique) de
caméra dans le référentiel monde Rw (X, Y, Z).

84
Chapitre 4
Mise en œuvre du notre système

 Par rapport l’axe Z : translater la caméra en haut et en bas pour varier la hauteur hj à
chaque expérience.
 Calcul de la distance DM (hj)
Une fois la fonction polynomiale calculée, nous pouvons déterminer les distances
DM (hj) pour chaque hauteur hj, comme suit :
1. Choisir la hauteur h0 comme hauteur de référence ;
2. Calculer la distance DM (h0) par la formule (4.6) :

, ∑ (4.7)
3. Trouver la relation trigonométrique entre la distance DM (h0) et les distances DM
(hj).

Z
Ψ lacet
Rw
Ф roulis
Θ tangage
h2 X

h0
Y
DM (h2) α M
h1

DM (h0) α M

DM (h1) α M

Figure 4-28: Les relations trigonométriques entre les distances DM (hj) et l’hauteur hj.

Les triangles rouges dans la figure 4-28 donnant les formules suivantes:

tan (4.8)

donc :

(4.9)

De l’équation (4.9), on peut déduire la formule générale de DM (hj) :

85
Chapitre 4
Mise en œuvre du notre système

(4.10)

 Par rapport l’axe longitudinal X : la rotation de caméra autour de cet axe est donnée
par l’angle de roulis Ф, comme l’indique la figure 4-29.


Calcul de la distance DM (Ф j)
Une fois la fonction polynomiale calculée, nous pouvons déterminer les distances
DM (Ф j) pour chaque rotation Ф j, comme suit :
1. Choisir l’angle Ф 0 comme angle de référence ;
2. Calculer la distance DM (Ф0) par la formule (4.6).
3. Trouver la relation trigonométrique entre la distance DM (Ф0) et les distances DM
(Фj).
Le couple du triangle {abc, abd}, dans la figure 4-30 donnant les formules suivantes:

Z
Ψ lacet
Ф Rw
Ф roulis
Θ tangage
X

Y
h0

α M
Ф
DM (Ф) α- Ф
M
DM (Ф0)

Figure 4-29: Rotation de caméra autour de l’axe longitudinal X.

tan α ⇒ arctan (4.11)

et

tan Φ ⇒ Φ (4.12)

86
Chapitre 4
Mise en œuvre du notre système

De l’équation (4 .11), et (4.12), on peut déduire la formule générale de DM (Фj) :

Φ (4.13)

 Par rapport l’axe transversal Y : l’angle de tangage Θ n’influe pas sur le calcul de la
fonction polynomiale f(x).

Фj

h0

M
α α- Фj M
b c d
DM (Ф0)
DM (Фj)
Figure 4-30: Les relations trigonométriques entre les distances DM (Фj) et les angles Фj.

2.5.1.2. Méthode du champ de vision


Le champ de vision donne le volume de la scène qui peut être observé par la caméra [140].
Il se calcule en fonction des dimensions du capteur (horizontale et verticale), de la distance
focale de l’objectif et des angles de vue. L’exploitation des notions de champ de vision
s’effectue comme suit:

En considérant que :
- La caméra est connue, donc les dimensions TC du capteur sont aussi connues.
- L’objectif est connu, donc on connaît la distance focale f.
- L’objet est connu, alors on connait sa taille réelle TO.
On veut trouver la distance D (Tc, To) à une certaine taille d’un objet sous un angle θ par
une méthode trigonométrique simple, et en utilisant les formules suivantes (voir figure 4-31) :

tan (4.14)

, . (4.15)

87
Chapitre 4
Mise en œuvre du notre système

TO : Taille d’objet
θ angle de vue
TC : Taille de

Objet
capteur
C

f : la distance focale

D (Tc, To) : distance entre la caméra et l’objet


Figure 4-31: Le calcul du champ de vision.

Ce type de raisonnement géométrique très simple va nous permettre de trouver la distance de


l’objet en fonction de sa taille réelle TR et sa taille TI dans l’image (voir figure 4-32), comme
l’indique l’équation suivante :

, . (4.16)

TR: taille réelle de l’Objet


TI: taille Objet
dans l’image

f : la distance focale

D (TI, TR) : distance entre la caméra et l’objet


Figure 4-32: Calcul de distance d’un objet par la formule du champ de vision.

De l’équation (4.16), nous remarquons qu’une grande variation de la taille apparente TI de


l’objet dans l’image implique un changement significatif de la distance D.

2.6. Mesure de vitesse

L’exploitation de la vitesse s’effectue comme suit :


1. Calculer la distance aux frame (i) et frame (i-30) pour obtenir la distance Δd ;
2. Calculer la différence temporelle entre les frame (i) et frame (i-30) pour obtenir le temps
Δt.
La relation correspondante est alors :

| |
(4.17)

88
Chapitre 4
Mise en œuvre du notre système

2.7. Le module d’alerte

Les systèmes ADAS analysent les situations pour chaque véhicule en temps réel à l’aide des
capteurs de vision et de distance. Ils avertissent le conducteur et peuvent contrôler certaines
fonctions pour éviter l’accident [141], en fournissant des signaux sonores et visuels au
conducteur [142].
Afin d’éviter un obstacle inattendu, les conducteurs ont le choix entre deux stratégies : le
freinage ou le offset latéral. Selon les situations, ils peuvent ainsi appliquer l’une ou l’autre de
ces stratégies, ou encore les deux à la fois. En reprenant le contexte du suivi de véhicule, le
temps à collision peut être exprimé par l’équation (4.18), en supposant les accélérations des
véhicules constantes :
(4.18)
/

d : Distance entre véhicules (m), La distance inter-véhiculaire représente la distance qui existe
entre deux véhicules qui s’en suivent.
v : Vitesse relative (m/s), La vitesse relative représente la vitesse qui existe entre deux véhicules
qui s’en suivent.
2.7.1 Le temps de collision (TTC)

Le temps à collision représente la période de temps avant une collision probable. Cette période
donne une marge de manœuvre nécessaire pour éviter la collision ou déterminer son impact si
la collision est inévitable.
La courbe de la figure 4-33 illustre la fonction classique du risque de collision qui est formée
de deux zones où le niveau de risque est constant :
1- Si le TTC est inférieur à 3s : le risque est maximal et la collision est inévitable en cas
d’événement, comme par exemple un freinage brusque.
2- 2- Si le TTC est supérieur à 5 s : ce temps donne la possibilité au conducteur d’anticiper
le risque et de réagir correctement. Dans ce cas, le risque est minimal.
Entre ces deux zones, il existe une partie où la variation du niveau de risque est linéaire en
fonction du TTC. Jusqu’à maintenant, le TTC est toujours le principal indicateur de risque
[143].

Niveau de risque

Max

Min TTC sec


3 sec 5 sec
Figure 4-33: La fonction du risque.

89
Chapitre 4
Mise en œuvre du notre système

3. Module de Classification des Panneaux Signalisation Routière


Pour l’identification des panneaux routiers, la plupart des méthodes de traitement d’image se
composent de deux étapes : la localisation de panneaux dans la scène routière et la
reconnaissance de leur type. Les modules d’identification des panneaux de signalisation
routière sont généralement évalués globalement. En effet, la localisation est souvent une tâche
plus difficile que la classification. Par ailleurs, la qualité de la détection (localisation)
conditionne la qualité des résultats de la classification. Cette démarche ne permet
malheureusement pas d’analyser finement les performances de chaque étape. Il est donc
difficile de savoir si c’est l’étape de la localisation ou l’étape de la classification qu’il convient
d’améliorer afin d’obtenir un module plus performant. Nous nous focalisons ici sur une
localisation rapide et efficace des panneaux routiers suivie d’une classification en combinant
les performances de transformé de Hough avec la rapidité de K-means.

3.1. Localisation des panneaux dans une scène vidéo

Il existe huit types de panneaux de


signalisation qui sont mentionnés dans le code
de la route :
(a) Danger.
(b) Interdiction.
(c) Obligation.
(d) Avertissement et information.
(e) Fin de l'interdiction.
(f) Les panneaux temporaires.
(g) Priorité.
(h) Direction des signes.

La forme et la couleur sont deux


informations essentielles pour notre approche,
les panneaux d'avertissement sont des triangles
équilatéraux avec un sommet vers le haut. Ils
ont un fond blanc et sont entourés par une
bordure rouge. Les signes d’interdiction sont
des cercles avec un fond blanc ou bleu et une
bordure rouge. Les panneaux d'avertissement
et les signes d’interdiction ont un fond jaune
s'ils sont situés dans un secteur où il y a des
travaux publics (panneaux temporaires).Les
signes d’obligation et d’instruction sont des
cercles avec un fond bleu.
Figure 4-34: Panneaux de signalisation. (a) Danger,
(b) Interdiction, (c) Obligation, (d) Avertissement et
d'information, (e) Fin de l'interdiction, (f) Les
panneaux temporaires, (g) Priorité, (h) Direction des
signes.

90
Chapitre 4
Mise en œuvre du notre système

Tableau 4-1: Signification des panneaux de signalisation en fonction de sa forme et de couleur

Forme Couleur Signification


Triangle bordure rouge (up) Danger
bordure rouge (en bas) Céder le passage
Cercle bordure rouge Interdiction
bleu Obligation
Jante noire fin de la prohibition
Square Bleu avertissement
informations
Panneaux de direction d'autoroutes
vert Panneaux de direction primaires
jaune Route prioritaire
Pour détecter la position du panneau dans la scène, nous devons connaître les deux
propriétés que nous avons citées précédemment (la couleur et la forme voir figure 4-35).

Figure 4-35: Catégorisation panneau de signalisation en utilisant la couleur et la forme.

3.2. Détection

La détection des panneaux repose sur deux approches fondamentales :


‐ Approche colorimétrique.
‐ Approche géométrique.
3.2.1. Approche colorimétrique
Une segmentation en composantes connexes fondée sur un modèle de couleur présenté dans le
chapitre 3.

3.2.1.1. Segmentation de la couleur rouge


Pour la segmentation de la couleur rouge, nous avons utilisé un seuil élevé sur la matrice de
la chrominance rouge(Cr) et matrice de luminance (Y).

91
Chapitre 4
Mise en œuvre du notre système

Figure 4-36: Segmentation de la couleur rouge.

3.2.1.2. Segmentation de la couleur bleu


Pour la segmentation de la couleur bleu, nous avons utilisé un seuil élevé sur la matrice Cb
porteuse de l’information sur la chrominance bleu, pour remédier aux problèmes de luminance
on a ajouté un seuil large sur la matrice de luminance (Y).

Figure 4-37: Segmentation de la couleur bleu.

3.2.1.3. Segmentation de la couleur jaune


En ce qui concerne la couleur jaune, nous avons opté un seuillage bas sur la matrice Cr,
sachant que le jaune est la couleur la moins révélé sur la matrice Cr, en ajoutant à ce dernière
un seuil large sur luminance (Y) car le jaune est la couleur la plus porteuse de luminance.

Figure 4-38: Segmentation de la couleur jaune.

3.2.1.4. Segmentation de la couleur blanche


Le blanc est la couleur la plus sombre dans la mire des couleurs, pour cette raison
on a utilisé un seuil bas sur (Y) de la matrice des luminances.

92
Chapitre 4
Mise en œuvre du notre système

Figure 4-39: Segmentation de la couleur blanc.

3.2.2. Approche géométrique


L’utilisation des formes géométriques des panneaux de signalisation pour la détection a un
certain avantage et peut faire face à quelques difficultés. Parmi les avantages et les difficultés
de la détection basée sur la forme des panneaux de signalisation, on cite les points suivants :
- Les objets semblables aux panneaux de signalisation peuvent exister dans la scène
comme les fenêtres, les boîtes de courrier et les voitures …etc.
- Les panneaux de signalisation peuvent être endommagés, occlues par d'autres objets.
- Ils peuvent être désorientés verticalement ou horizontalement.
- La distance du panneau : lorsque la distance entre l'appareil-vidéo et le panneau varie,
la taille du panneau varie également. Quand le panneau est très petit, il sera
méconnaissable.
- L'angle de visionnement : Quand l'angle de visionnement n'est pas frontal, la géométrie
des panneaux peut également être affectée.
Le travail avec les formes nécessite un détecteur de contour puissant ainsi qu’un algorithme de
détection de forme robuste. Néanmoins, les formes ne sont pas affectées par les variations de
jour, ou les variations des intensités.

Figure 4-40: Détection de contour.

3.3. Extraction des régions d’intérêt

Le procédé de segmentation va générer des masques binaires qui sont des régions où il-y-a
une probabilité d’existence de panneaux de signalisation, le but de cette étape est d’extraire ces
régions tout en éliminant le bruit de segmentation et les régions non-homogènes et ainsi
minimiser la probabilité de fausse détection.

93
Chapitre 4
Mise en œuvre du notre système

3.3.1. Prétraitement (érosion & dilatation)


Pour éliminer les bruits de segmentation, on fait appel aux opérateurs morphologiques.
L’analyse par morphologie mathématique vise à modifier la structure et la forme des objets de
l’image comme la séparation des objets. La transformation morphologique modifie la valeur
d’un pixel de l’image en fonction de ses voisins. Pour cela, on utilise un élément structurant,
qui est un masque binaire. Il permet de prendre en compte le voisinage du pixel, parmi les
masques qui ont été proposés, nous avons opté pour l’élément suivant :
0 1 0
1 1 0
0 0 0
Les traitements morphologiques sont définis à partir de deux opérations de base qui sont
l’érosion et la dilatation.

(a) (b)
Figure 4-41: (a) image acquise, (b) dilation de l’érosion.
3.3.2. Extraction
3.3.2.1. Etiquetage
L’extraction par labélisation (étiquetage) présentée dans le chapitre 3 section 10 consiste à
séparer les régions dans le masque obtenu de la détection (Figure 4-41(b)). On associe à chaque
région une valeur entière (label) en utilisant un voisinage de connexité 8. La figure 4-42 montre
le résultat d’extraction par la labélisation.

(a) (b)

Figure 4-42: Localisation par labélisation. (a) Le masque M avec labélisation,


(b) L’extraction des panneaux de signalisation.

94
Chapitre 4
Mise en œuvre du notre système

3.3.2.2. Projection
Le rôle de cette méthode est de localiser les régions d’intérêt. Cette étape est accomplie en
effectuant une projection horizontale et verticale des régions candidates. Dans cette projection,
nous avons calculé le nombre de pixel verticalement et horizontalement à l’aide de l’équation
(4.19).
∑ ù , ,…, (4.19)
Après le calcul des projections, nous obtenons les graphes illustrés dans la figure 4-43 (a).Nous
avons effectué un seuillage au-dessus des projections pour éliminer les petites accumulations
(bruit), ainsi éliminer les bruits de segmentation. Pour déterminer le début ou la fin d’une
région, nous avons calculé la variance des transitions, si cette dernière est négative, elle
signalera le début de la région, sinon elle signalera la fin de la région.

3.3.2.3. Vérification
Après l’extraction des régions d’intérêt, on procède à une vérification afin d’éliminer les
régions qui ne ressemblent pas à des panneaux de signalisation et ainsi minimiser la probabilité
de fausse détection. Cette vérification peut être effectuée en exploitant les caractéristiques des
panneaux de signalisation, on peut classer ces approches selon leur nature.

3.3.2.3.1. Approche colorimétrique

Cette approche est basée sur les couleurs représentatives des panneaux de signalisation citées
précédemment. Le procédé consiste à faire une recherche de ces couleurs dans les régions
extraites précédemment.

3.3.2.3.2. Approche géométrique

Cette deuxième approche consiste à éliminer certaines régions, en se basant sur l’étude de leurs
formes. En effet toute région circulaire ou qui possède pas aux moins 3 segments et aux plus 4
segments peut être considérée comme une région dont la probabilité de contenir un panneau est
élevée, pour cela on a fait appel à la transformée de Hough et l’algorithme des K-means qui
seront détaillés ultérieurement.

(a) (b)

(c) (d) (e)


Figure 4-43: (a) Projection verticale et horizontale, (b) Extraction, (c) Les masques après la vitrification
géométrique, (d) Résultats après la vitrification colorimétrique, (e) Résultats de l’extraction.

95
Chapitre 4
Mise en œuvre du notre système

3.4. Classification de forme

L’identification des panneaux de signalisation peut être accomplie par plusieurs méthodes.
Dans ce travail, nous avons retenu deux approches :
 Détection de formes
 Détection de couleurs

La détection de forme des panneaux routiers est une étape primordiale dans notre travail. En
effet, l’objectif de cette étape est de détecter, à partir d’une image obtenue par segmentation des
couleurs de l’image initiale, certaines formes caractéristiques des panneaux de signalisation
routière (carré, triangle, rond). On supposera les panneaux de taille raisonnable par rapport à
l’image et peu inclinés pour avoir des formes plus ou moins fixes. Le procédé comprend cinq
étapes principales :

1) Etape 1, nous appliquons un filtre morphologique (dilatation) permettant l’ajout de


pixels aux extrémités de formes extraites et de remplir les trous afin d’obtenir un
ensemble de points connectés ayant une forme simple, (voir figure 4-44(b)).Pour
adoucir les contours et régulariser les formes obtenue nous utilisons un filtrage de Sobel.
(voir figure 4-44(c)).

(a) (b) (c)


Figure 4-44: (a) Les masques des résultats de l’extraction, (b) Après filtre morphologique (dilatation),
(c) Après filtre Sobel.

2) Etape 2, nous appliquons la transformation de Hough ligne pour détecter les droites
dans l’image et obtenir l'espace de Hough, comme l’illustre la figure 4-45.
3) En effet, dans l'espace de Hough, nous avons affronté le problème de multiplication de
droites détectées, ce qui signifie qu’une seule droite peut être divisée en plusieurs
droites, ainsi que la forme des deux bords de l'un est à l'intérieur et l'autre à extérieur, et
afin de regrouper toutes ces droites en une seule droite, on a appliqué le K-means dans
l'espace de Hough.
4) Dans cette étape, en appliquant le K-means de classification non supervisée pour
calculer les moyennes de classes initiales uniformément réparties dans l'espace de
données. Puis itérativement, grouper les points dans la classe la plus proche utilisant
une technique de distance minimale. A chaque itération, on recalcule les moyennes de
classes est reclasses les points par rapport aux nouvelles moyennes. Tous les points sont
classés dans la classe la plus proche. Chaque droite dans l'espace de Hough est
représentée en coordonnée polaires (r, θ) par (rho, et thêta), donc on peut appliquer le
K-means deux fois pour K= 3 et K= 4. Pour K= 3, on calcule la variancei pour ri et thetai

96
Chapitre 4
Mise en œuvre du notre système

pour chaque cluster (voir figure4-46(a)), et si tous les variances sont inférieurs au seuil
de distance, cela signifies que on a un triangle. Pour K= 4, on calcule aussi la variancei
pour ri et thetai pour chaque cluster, et si elles sont inférieurs au seuil de distance, donc
on obtient la forme de carrée ou rectangle.

Figure 4-45: L'espace de Hough (r, ).

5) Etape 5, application de la transformée de Hough cercle. Dans cette étape, on considère


simplement le cas de variancei qui sont supérieures au seuil de distance, et afin
d’identifier la forme du cercle, on compare le nombre de points regroupés avec le
nombre de points du cercle de référence.

Variancei
Variancei

Variancei

(b)
(a)
Figure 4-46: (a) K-means appliqué aux l'espace de Hough avec k=3, (b) L'espace de Hough.

97
Chapitre 4
Mise en œuvre du notre système

4. Module de Détection de Fatigue et de Somnolence


Les systèmes ADAS se développent de plus en plus, en incorporant plusieurs fonctions qui
sont utiles à la conduite .Parmi ces fonctions, on s’est intéressé dans ce travail de thèse au
module de fatigue et de somnolence par vision .on suppose que le conducteur est en face d’une
caméra embarquée .La région d’intérêt est le visage du conducteur.

Dans ce chapitre, nous allons présenter les méthodes actuelles de détection de visage,
détection des yeux, et la décision de l’état des yeux. Nous allons passer par la suite à la
description des méthodes qui ont été implémentées avec nos contributions pour l’amélioration
et l’optimisation.

Dans la phase de détection de visage, nous avons implémenté les méthodes suivantes :

- La méthode basée sur couleur de peau.


- Méthode symétrie exploitant la symétrie du visage.
- Méthode par énergie en mouvement.
- Méthode par LCP.
- Méthode par Viola & Jones.
Dans la phase de détections des yeux, nous avons implémenté les méthodes suivantes :

- Méthode utilisant la symétrie des yeux.


- Méthode utilisant masque circulaire.
- Méthode utilisant masque de lunette.
Et dans la phase de décision de l’état des yeux, nous avons implémenté les méthodes suivantes
:

- Décision de l’état des yeux par la transformé de Hough cercle.


- Décision de l’état des yeux par la somme des points contours.
- Décision de l’état des yeux par le masque circulaire.
- Décision de l’état des yeux par K-means.

4.1. Détection de visage

La détection de visage consiste à détecter un visage humain dans une image. Elle a de très
nombreuses applications directes en vidéo-surveillance, biométrie, robotique, commande
d'interface homme-machine, photographie, etc...

La détection de visage est un sujet difficile, notamment dû à la grande variabilité d'apparence


des visages dans différents conditions. Les problèmes qui sont associés à la détection de visage
peuvent être attribués aux facteurs suivants :

- Variabilité intrinsèque des visages humains (couleur, taille, forme).


- Présence ou absence de caractéristiques particulières (cheveux, moustache, barbe,
lunettes...).
- Expressions faciales modifiant la géométrie du visage (sourire, clin d’œil, froncement
des sourcils, le bâillement …).

98
Chapitre 4
Mise en œuvre du notre système

- Occultation par d'autres objets ou d'autres visages.


- Orientation et pose (de face, de profil).
- Conditions d'illumination et qualité de l'image.

4.1.1. Les méthodes de détection de visage


Dans la littérature, il existe plusieurs méthodes pour résoudre le problème de détection du
visage. Ces méthodes sont classées en quatre catégories [123]:

4.1.1.1. Méthodes basées sur des connaissances


Ces méthodes dépendent de l’utilisation des règles à propos des caractéristiques du visage
humain. Il est facile de proposer des règles simples pour décrire les caractéristiques de visage
et la relation entre eux. Par exemple, un visage apparaît souvent dans une image avec deux yeux
qui sont symétriques entre eux, un nez, et une bouche. Après la détection de ces caractéristiques,
une vérification est faite pour réduire la fausse détection. Cette approche est bonne pour une
image frontale, mais la difficulté est comment traduire la connaissance humaine en règles
connues et détecter les visages dans différentes poses. Ces méthodes sont conçues
principalement pour la localisation de visage.

4.1.1.2. Méthodes basées sur l’image


Dans cette approche, il y a un modèle standard prédéfini de visage est employé pour comparer
avec les segments dans l'image pour déterminer si elles sont des visages ou non. Elle emploie
des algorithmes d’apprentissage pour classifier des régions en deux classes : visage ou non-
visage. Les techniques basées sur l’image dépendent du balayage de fenêtre multi-résolution
pour détecter des visages, ainsi ces techniques ont des taux élevés de détection mais plus lents
que les techniques basées sur les caractéristiques. Les Eigen-face et les réseaux de neurones
sont des exemples des techniques basées sur l’image. Cette approche a l'avantage d'être simple
pour l’implémentation, mais elle ne peut pas traiter d’une manière effective la variation
d’échelle, de la pose et de la forme.

4.1.1.3. Méthodes basées sur les caractéristiques invariantes


Cette approche dépend de l'extraction de caractéristiques faciales qui ne sont pas affectés par
des variations des conditions d'éclairage, de pose, orientation et d'autres facteurs. Ces méthodes
sont préférées pour les systèmes en temps réel où le balayage de fenêtre de multi-résolution
employé par des méthodes basées sur l’image n’est pas applicable. La couleur de la peau
humaine est une caractéristique invariable très efficace utilisée pour détecter le visage. Ces
méthodes sont conçues principalement pour la localisation de visage.

4.1.1.4. Méthodes basées sur la mise en correspondance


Les méthodes basées sur la mise en correspondance emploient la corrélation entre le modèle
dans l'image d'entrée et les modèles standards stockés d'un visage entier ou des caractéristiques
de visage pour déterminer la présence d'un visage ou des caractéristiques de visage. Des
modèles prédéfinis aussi bien que les modèles déformables peuvent être utilisés.

Le tableau 4-2 réalisé par Yang et al. [144] résume les algorithmes et les travaux effectués pour
la détection de visage dans une image par ces quatre approches.

99
Chapitre 4
Mise en œuvre du notre système

Tableau 4-2: Quelques algorithmes utilisés pour la détection de visage.

Approches Travail effectué


basées sur des connaissances
- Méthode basée sur des règles multi-résolution
basées sur les caractéristiques invariantes
- caractéristiques faciales - Groupage des contours
- Texture - Matrice de dépendance en niveau de gris de
modèle de visage
- couleur de peau - Mixture gaussienne
- plusieurs caractéristiques - Intégration de couleur de peau, taille, et forme

basées sur la mise en correspondance


- modèles prédéfinis de visage - Modèle de forme
- modèles déformables - modèle de forme actif

basées sur l’image


- Eigen face - Eigen-vecteur décomposition et groupement
- Basée sur la distribution - Distribution gaussienne
- Réseau de neural - Ensemble de réseau neural
- SVM (Support Vecteur Machine) - SVM avec noyau polynomial
- Classificateur de Bayes naïf - statistiques communes d'aspect et de position
locaux
- HMM (Hidden Markov Model) - ordre statistique élevé avec HMM
- Approche de théorie d’information - information relative de Kullback
4.1.2. Les méthodes implémentées
Dans notre projet, nous avons implémenté plusieurs méthodes pour détecter le visage dans
l’image en utilisant :
1- La couleur de la peau.
2- La symétrie de l’objet d’intérêt.
3- L’énergie du mouvement de visage.
4- Techniques de contours LCP (Local Contours Patterns).
5- La méthode de Viola & Jones.
Chaque méthode comprend les trois étapes suivantes :
1- Détection.
2- Localisation.
3- Vérification.
Dans notre module, la camera est fixe et le conducteur peut bouger dans une zone limitée. Ainsi
nous pouvons estimer à l’aide de focale de la caméra, la taille du visage du conducteur qu’on
cherche à détecter dans l’image en pixels. Cette taille doit être limitée par une taille minimale
et une autre maximale. On suppose que la taille de la zone représentant le visage se situe dans
une limite par une taille minimale et une taille maximale.

Nous allons maintenant décrire en détail les méthodes de détection déjà citées auparavant.

100
Chapitre 4
Mise en œuvre du notre système

4.1.3. Détection de visage par la couleur de peau


Cette méthode est parmi celle basées sur des caractéristiques invariables en utilisant la
couleur de la peau humaine comme une caractéristique efficace utilisée pour détecter des
régions contenants des visages.

4.1.3.1. Détection de couleur de peau


Nous avons parlé sur la détection de peau dans le chapitre 3 sections 8 de façon générale où
on obtient une image classifiée (masque binaire) contenant des pixels peau et non-peau. Dans
cette section, nous traitons ce masque pour détecter le visage.

Dans notre cas, Nous nous intéressons au masque utilisé. La caméra fournit une image
comprenant la partie supérieure du corps de conducteur et l’arrière-plan (l’intérieure de
véhicule). Nous améliorons le masque obtenu en utilisant les opérations morphologiques :
l’érosion pour éliminer toutes petites zones de couleur de peau non significative, et la dilatation
pour remplir les zones trouées de couleur de peau figure 4-47.

Figure 4-47: Opérations morphologiques sur le masque de couleur de peau.


(a) Image originale, (b) Masque de couleur de peau, (c) Erosion, (d) Dilatation.

4.1.3.2. Localisation de visage


Dans cette section, nous allons localiser les visages détectés par l’application de deux
techniques : 1. Labellisation, 2. Projection.

101
Chapitre 4
Mise en œuvre du notre système

A. Localisation par labélisation

La localisation par labélisation (étiquetage) présentée dans le chapitre 3 section 10 consiste


à séparer les régions dans le masque obtenu lors de la phase de la détection (Figure 4-48(a)).
On associe à chaque région une valeur entière (label) en utilisant un voisinage de connexité 8.
La figure 4-48(b) montre le résultat de localisation par la labélisation.

Figure 4-48: Localisation par Labélisation. (a) Le masque M,


(b) Localisation des candidats.

B. Localisation par projection

La localisation par projection comprend les étapes suivantes :

On commence par réaliser une projection verticale et horizontale sur le masque pour
obtenir les signaux de projection .

∑ ,
(4.20)
∑ ,

Ensuite, une image binaire est obtenue grâce à une opération de seuillage, les signaux obtenus
par la projection pour éliminer les petites régions inutiles.

1
(4.21)
0

Puis, nous extrairons les régions situées dans l’intersection des deux projections qui contiennent
les pixels de peau. La figure 4-49 illustre le résultat de localisation par la projection.

Les régions qui sont séparées par une distance inferieure à un seuil (Figure 4-50), nous les
regroupons dans une seule région commune.

102
Chapitre 4
Mise en œuvre du notre système

Figure 4-49: Localisation par Projection. (a). Le masque M, (b) Projection horizontale, (c)
Projection verticale, (d) Localisation des candidats.

Figure 4-50: Effet de regroupement des régions. (a) Sans regroupement, (b) Avec regroupement.

103
Chapitre 4
Mise en œuvre du notre système

4.1.3.3. Vérification
L’objectif principal de cette étape est de vérifier chaque région candidate si elle représente
un visage ou non en respectant certains critères que nous avons proposés :

1- La taille du visage détecté doit être limitée, donc, nous éliminons les petites et les très
grandes régions comme suit :
_
(4.22)
_

2- Chaque région restante doit respecter les conditions suivantes :


(4.23)

(4.25)

où est la somme des points blancs dans la région, et


.

Enfin, puisque nous nous intéressons au visage du conducteur pour le traiter, nous éliminons
les autres visages qui peuvent être détecté au siège arrière du véhicule, en choisissant la plus
grande région qui satisfait toutes ces conditions parce que le visage du conducteur est le plus
proche de la camera.

Après plusieurs tests expérimentaux, nous avons remarqué que le cou de la personne est détecté
avec le visage si la quantité est supérieur à un , alors nous avons décidé
d’éliminer 20% du bas du visage détecté pour éliminer la région de cou (Figure 4-51).

Figure 4-51: Elimination de la région ‘cou’ du visage. (a) Résultat avant l’opération,
(b) Résultat après l’opération.
L’organigramme de figure 4-52 résume les étapes principales de détection de visage par couleur
de peau.

Deux techniques de vérification sont proposées afin d’améliorer la détection de visage : La


fusion entre la projection et la labélisation et le pose frontale du visage.

104
Chapitre 4
Mise en œuvre du notre système

Image I

Détection de
couleur de peau

Erosion &
Dilatation

Localisation des régions de


peau
Labélisation Projection

Non
Eliminer Vérification

Oui
Visage détecté

Si
1

Oui

Eliminer le cou

Figure 4-52: Organigramme de l’algorithme de détection de visage par couleur de peau.

1- La fusion entre la projection et la labélisation

Pour bien détecter le visage, nous proposons une nouvelle méthode permettant de bénéficier
des avantages des deux méthodes précédentes. Cette méthode est basée sur la fusion de la
projection et de la labélisation. Premièrement, nous localisons les objets détectés par la méthode
de projection suivie par la méthode de la labélisation. Puis, nous retenons un visage candidat
respectant les conditions de vérification pour chaque méthode de localisation. Ensuite, nous
calculons le pourcentage d’intersection entre les deux rectangles de visages détectés. Si le
pourcentage est supérieur à un seuil alors, on dit que la détection du visage est bonne et le visage
final sera donné par l’union des deux rectangles. La figure 4-53 montre l’organigramme de cette
méthode de vérification.

105
Chapitre 4
Mise en œuvre du notre système

Image I

Détection de couleur de peau

Erosion & Dilatation

Localisation par Localisation par


Non projection labellisation Non
& &
vérification vérification

Oui Oui

Visage non Si
Non
détecté

Oui

Visage détecté

Figure 4-53: Organigramme de l’algorithme de détection de visage par couleur de peau en


utilisant la fusion entre la projection et la labélisation pour la vérification.

106
Chapitre 4
Mise en œuvre du notre système

2- La pose frontale du visage :

Le visage détecté peut-être incliné ou en pose non frontale, ce qui nous donne un mauvais
modèle pour l’utiliser dans le suivi (Chapitre 3 section 12), donc nous devons vérifier la pose
frontale du visage détecté en ajoutant une condition pour dire que le visage détecté est en face
ou non. Cette condition est basée sur la présence de l’oreille dans le masque résultant par la
détection de la peau, en utilisant l’opération logique OU exclusive suivi d’une
négation entre les deux régions de l’extrémité gauche et droite du visage détecté. La
figure 4-54 montre bien l’efficacité de cette opération.

Figure 4-54: Vérification de la position frontale du visage. (a) Visage n’est pas accepté pour le suivi (non-
frontal), (b) Visage accepté pour le suivi (frontal).

4.1.4. Détection de visage par symétrie


Parmi les caractéristiques les plus importantes du corps humain, on peut exploiter la symétrie.
En effet, celle-ci est fortement symétrie dans plusieurs région du corps humain telles que : les
mains, les pieds, et les régions du visage contenant les yeux et les oreilles .Ainsi, nous profitions
de l’existence de cette propriété pour détecter le visage.

Note problème, concerne la détection du visage du conducteur, Pui est supposé le plus proche
de la camera, par conséquent le visage du conducteur serait le plus grand dans l’image à traiter,
avec une symétrie fortement prononcée par rapport aux autres visages éventuels présents dans
la scène.

Dans ce contexte, nous allons présenter plusieurs techniques proposées pour la détection et la
localisation de visage par exploitation de la symétrie :

1- Détection de visage par symétrie utilisant un rectangle de taille du visage.


2- Détection de visage par symétrie utilisant l’algorithme de symétrie.
3- Détection de visage par symétrie sur la différence.

4.1.4.1. Méthode de symétrie utilisant un rectangle de taille du visage


Cette méthode est considérée comme une étape de détection et de localisation simultanée.
Nous balayons l’image contours par un rectangle de taille estimée à celle du visage.

107
Chapitre 4
Mise en œuvre du notre système

En effet, on se place dans le cas d’une caméra fixe, quant au conducteur est supposé longer
dans une zone limitée permettant une estimation de la taille du visage à l’aide de focale de la
camera.

Pendant le balayage nous exploitons la symétrie d’une façon simple en calculant le niveau de
superposition du côté gauche avec la réflexion verticale du côté droit du masque rectangulaire
(Figure 4-55). Le rectangle qui a un indice de symétrie maximal correspond au visage.

L’organigramme de figure 4-56 résume les étapes principales de cette méthode.

_
, ∑ ∑_ /
, & , (4.26)

Avec :

1∶ _ _
1∶ _ _

_ .
_

_
_

Figure 4-55: Méthode de symétrie en utilisant un rectangle de taille du visage.

La figure 4-57 illustre quelques résultats de détection de visage par symétrie en utilisant un
rectangle de taille du visage.

Nous avons applique cette méthode de symétrie en utilisant une image contours obtenue par le
filtre de Sobel (Figure 4-57(b)), ou par le filtre de Gabor (Figure 4-57(c)) ou obtenue par une
image de différence (Figure 4-57(d)). Que cette dernière nécessite une opération supplémentaire
de dilatation.

108
Chapitre 4
Mise en œuvre du notre système

Image I

Détection de contour (*)

Calculer en balayant
l’image par un rectangle

Localisation
du visage

Figure 4-56: Organigramme de l’algorithme de détection de visage


par symétrie en utilisant un rectangle.

Figure 4-57: Résultats de détection de visage par un rectangle de taille de visage.


(a) Image originale, (b) Résultat sur l’image contours par Sobel, (c) Résultat sur l’image contours par filtre de
Gabor, (d) Résultat sur l’image contours de différence avec dilatation.

Nous remarquons que l’application de cette technique de symétrie de détection de visage sur
l’image différence avec dilatation donne le meilleur résultat.

109
Chapitre 4
Mise en œuvre du notre système

4.1.4.2. Méthode de détection utilisant le signal de symétrie


Dans ce qui suit, nous allons introduire des améliorations .En appliquant l’algorithme de
symétrie présenté dans le chapitre 3 section 4 sur l’image contours obtenu par la détection de
contours par filtre de Sobel. Nous considérons cette étape comme une phase de détection de
présence de symétries dans l’image.

Pour la localisation, nous extrairons la région verticale de l’image contours (région d’intérêt)
correspondant à l’indice de symétrie maximal du signal de symétrie obtenu. Puis, cela, nous
prenons un rectangle de taille estimée à peu près de la taille de visage et nous balayons cette
région d’intérêt en appliquant l’algorithme de symétrie sur le rectangle. Le rectangle qui a un
indice de symétrie maximal correspond au visage (Figure 4-59). Les étapes principales de cette
méthode sont présentées dans l’organigramme de la figure 4-58

Image I de dimension (h x w)

Détection de contour ( )

Calcul de symétrie (sym)

À la position de , on
coupe l’image

Calcul de symétrie
par rectangle

Rectangle qui a un indice de


symétrie maximal est le visage.

Figure 4-58: Organigramme de détection de visage


par symétrie.

Figure 4-59: Détection de visage par symétrie simple. (a)


Image originale, (b) Image contour, (c) Signal de la symétrie,
(d) Région d’intérêt, (e) Visage détecté.

110
Chapitre 4
Mise en œuvre du notre système

Dans ce qui suit, nous allons introduire des améliorations sur l’algorithme de calcul de la
symétrie dans une image pour une meilleure adaptation de la détection du visage en appliquant
un ensemble de règles permettant de donner un meilleur calcul de symétrie de visage. Les règles
proposées sont :

- Au lieu de calculer la symétrie entre deux points dans l’image, on la calcule entre deux
fenêtres Z1 et Z2 de taille initialisée (zone) en balayant Z1 dans toute l’image (Figure
4-60).
- Pour chaque fenêtre Z1, nous balayons la fenêtre Z2 dans la zone d’intérêt déterminée
par les paramètres S_min, S_max, et H avec :
- S_min : le début de recherche de la symétrie.
- S_max : la fin de recherche de la symétrie.
- H : la hauteur pour détecter une symétrie avec une légère orientation sans
indiqué l’angle.
- Nous calculons la symétrie entre ces deux fenêtres Z1 et Z2 que si le nombre de pixels
de contours est situé entre les seuils S1 et S2 (max et min) avec :
- S1 : seuil minimum pour diminuer la complexité.
- S2 : seuil maximum pour éliminer le bruit et éliminer un calcul inutile de la
symétrie.

Z1 Z2

S_min
S_max

Figure 4-60: La nouvelle méthode pour améliorer le calcul de la symétrie dans l’image.

La figure 4-61 montre l’effet de cette nouvelle technique de calcul de symétrie pour détecter le
visage du conducteur avec une amélioration de résultat.

111
Chapitre 4
Mise en œuvre du notre système

Figure 4-61: Détection de visage par symétrie simple.(a) Image originale, (b) Image contour, (c) Signal de la
symétrie, (d) Localisation du max de symétrie, (e) Zone d’intérêt, (f) Visage détecté.

4.1.4.3. Méthode de symétrie sur la différence entre les images


Puisque nous travaillons sur des images prises en environnement réels dont l’arrière-plan
est toujours complexe; cette situation va perturber les résultats de symétrie (Figure 4-62). La
méthode utilisant :

Figure 4-62: Un exemple de fausse détection de visage par symétrie. (a) Image originale, (b) signal de symétrie.

Nous proposons de faire un prétraitement qui consiste à faire la différence entre l’image actuelle
et l’image précédente dans l’étape de détection de signal de symétrie pour éliminer les contours
de fond qui ont une mesure forte de symétrie (Figure 4-62) comme les sièges et le cadre des
vitres … etc. Car ils sont des contours statiques par rapport à une caméra fixe installée dans le
véhicule.

4.1.4.3.1. Calcul de signal de la symétrie

Cette étape repose sur le calcul du signal de symétrie dans l’image de différence pour
détecter le visage candidat. Le calcul de différence a été effectué par trois techniques
proposées :

112
Chapitre 4
Mise en œuvre du notre système

- 1ère technique proposée :


Dans cette contribution, nous faisons tout d’abord la différence entre deux images
successives en niveaux de gris, puis nous utilisons le filtre de Sobel pour détecter les contours
sur l’image de différence . Ensuite, nous appliquons l’algorithme de la symétrie sur l’image
contours résultante (Figure 4-63).

(4.27)

où , 1 sont les images en niveaux de gris à l’instant (t) et (t-1) respectivement ;

et est l’image différence en niveaux de gris.

Figure 4-63: La différence en niveau de gris.


(a) et (b) Deux frames successifs, (c) et (d) Leurs niveau de gris, (e) Image de différence, (f) Détection des
contours de l’image différence, (g) Signal de symétrie.

- 2ième technique proposée :


Dans cette proposition nous faisons la différence entre deux images contours successives
en utilisant l’opération logique OU exclusive (XOR), puis nous appliquons l’algorithme de la
symétrie sur l’image résultante (Figure 4-64).

⨁ (4.28)

113
Chapitre 4
Mise en œuvre du notre système

où , 1 sont les images contours à l’instant (t) et (t-1) respectivement, et est l’image
de différence.

Figure 4-64: Détection de visage par symétrie améliorée.(a) Image originale 1, (b) Image contour 1,
(c) Image originale 2, (d) Image contour 2, (e) Différence en les images contours, (f) Calcul de la symétrie.

- 3ième technique proposée:

Puisque le changement entre deux images successives est très léger (différence de 1/30
seconde entre deux frames), nous proposons de faire la différence entre deux images contours
successives avec un pas d’une image, c’est-à-dire nous faisons la différence entre les images
contours à l’instant (t) et à l’instant (t-2) en utilisant l’opération logique OU exclusive (XOR),
puis nous appliquons l’algorithme de la symétrie sur l’image différence résultante.

⨁ (4.29)
où , 2 sont les images contours à l’instant (t) et (t-2) respectivement, et ; l’image de
différence.

114
Chapitre 4
Mise en œuvre du notre système

Ces trois techniques de prétraitement introduisent des améliorations significatives sur les
résultats de symétrie, car on arrive à éliminer plusieurs contours statiques dans l’arrière- plan
dans le véhicule (e.g les sièges et le cadre des vitres … etc.) qui ont une forte mesure de
symétrie.

 Amélioration du calcul de la symétrie

D’après les résultats expérimentaux de la méthode de symétrie sur la différence, nous


remarquons que la région de visage a un signal de symétrie de forme spécifique qui la
caractérise par rapport aux autres régions restantes. Cette forme du signal de symétrie a une
allure d’un sinus cardinal avec une harmonique principale très grand par rapport aux
harmoniques secondaires surtout quand la pose du visage est frontale, au contraire des autres
régions du signal qui ont des forme aléatoires, malgré qu’elles ont parfois une mesure de forte
symétrie par rapport au visage.

Toutes ces remarques nous conduisent à proposer un filtrage de notre signal de symétrie ‘sym’
par un filtre de forme illustré par la (figure 4-65 a) d’intervalle de largeur du visage pour
améliorer notre signal de symétrie original (Figure 4-65).

g c d

é (4.30)
∑ ∑
_

Figure 4-65: Amélioration par filtrage du signal de la symétrie.


(a) Filtre proposé, (b) Signal de symétrie avant filtrage, (c) Signal de symétrie originale et filtré, (d) Signal
de symétrie après filtrage.
4.1.4.3.2. La localisation du visage

Dans cette étape, nous extrairons la région verticale de l’image contours (région d’intérêt)
correspondant à l’indice de symétrie maximal du signal de symétrie obtenu. Ensuite, nous
pouvons appliquer deux techniques pour localiser le visage.

La première technique consiste à prendre un rectangle de taille proche de la taille de visage.


Nous calculons la symétrie dans cette région d’intérêt de la même manière que dans la méthode
de symétrie utilisant un rectangle. Le rectangle retenu dont l’indice de symétrie maximal
correspond au visage.

La deuxième technique consiste à balayer la région d’intérêt avec le même rectangle de la


technique précédente mais cette fois ci nous cherchons la région qui contient le maximum
d’énergie qui correspond au visage. Parce que nous avons gardé que les contours du visage en

115
Chapitre 4
Mise en œuvre du notre système

éliminant les contours statiques du fond. Cette dernière technique peut être améliorée en termes
de complexité en utilisant l’image intégrale (Chapitre 3 section 6).

Un échantillon des résultats est montré dans la Figure 4-66.

Figure 4-66: Etape de localisation de visage par symétrie.

4.1.4.4. La vérification du visage


Nous proposons une vérification sur deux axes : la variance de la position du visage détecté
en fonction du temps. C’est-à-dire, dans plusieurs images successives, il faut que la variance
des positions de visage détecté soit limitée par une variance maximale; en effet la vitesse de
mouvement du visage est limitée de quelques pixels d’une frame à une autre.

4.1.5. Méthode d’énergie du mouvement de visage


Cette méthode est inspirée de la méthode de symétrie sur la différence, elle consiste à faire
la différence entre deux images contours successives en supprimant les contours statiques du
fond suivi par l’opération de dilatation. Puis, nous cherchons la région qui contient l’énergie
maximale en balayant l’image de différence par le masque avec d’taille du visage estimée. Si
la région trouvée contient une énergie supérieure à un seuil, nous la considérons comme région
de visage. Cette technique peut être améliorée en diminuant la complexité avec l’utilisation de
l’image intégrale (Chapitre 3 section 6).

Cette méthode donne de très bons résultats dans les séquences de nuit prises par une caméra
infrarouge à cause de la nature des images infrarouge du fait les rayons IR font apparaitre le
visage du conducteur seulement et élimine le fond (Figure 4-67).

Nous utilisons la même technique de vérification citée dans la section 3.1.4.4.

116
Chapitre 4
Mise en œuvre du notre système

Figure 4-67: Méthode de détection de visage par l‘énergie du mouvement de visage. (a) et (c) Les
images de différence de contours des images (b) et (d) respectivement avec résultats, (b) Image
de jour avec résultat, (d) Image de nuit IR avec résultat.

4.1.6. Détection de visage par LCP


Le modèle des contours locaux LCP (Local Contours Patterns) est défini comme une mesure
sur les images binaires pour trouver des structures géométriques locales [139].

Parada et al. [139] ont travaillé sur cette méthode pour la détection des différents panneaux de
signalisation routière : triangulaires et circulaires. Le principe est de numéroter chaque pixel
actif (point blanc) dans l’image contours par un numéro en vérifiant ses pixels voisin s’ils ont
des structures géométriques locales définies pour chaque orientation (Figure 4-68).

Dans notre cas, nous avons proposé de prendre seulement trois orientations 45°, 90° et 135° qui
ont une fréquence d’apparition élevée dans les contours du visage.

La matrice résultante R de cette fonction LCP est une matrice avec des valeurs 1, 2 et 3 pour
les orientations 45°, 90° et 135° respectivement.

Ensuite, nous utilisons le masque M (avec des valeurs 0: noir, 1 : rouge, 2 : vert, 3 : bleu)
(Figure 4-70(a)) et nous balayons la matrice R en calculant le nombre des numéros LCP
intersectés avec le masque M. La valeur maximale correspond à la position du visage. (Figure
4-70).

117
Chapitre 4
Mise en œuvre du notre système

135°

90°

45°

Figure 4-68: Exemples des codes LCP.

L’organigramme (Figure 4-69) montre les étapes à suivre dans cette méthode.

Image I

Détection des contours

Appliquer la
fonction LCP

Balayage la matrice R en calculant le


nombre des numéros LCP intersectés
avec le masque M et trouver la valeur
maximale

Visage détecté

Figure 4-69: Organigramme de l'algorithme de détection de visage par LCP.

118
Chapitre 4
Mise en œuvre du notre système

Figure 4-70: Détection de visage par LCP.


(a) Le masque M, (b) La matrice R, (c) Résultat de détection.

4.1.6.1. Optimisation de la LCP


Cette méthode peut être accélérée énormément si on utilise l’image intégrale. L’idée
consiste à créer une image intégrale comme sortie de chaque orientation. Pour un rectangle de
taille quelconque limité par les coins , , , le nombre d’apparition N du
numéro LCP peut être rapidement calculé avec la simple opération :

, , , , (4.31)

4.1.6.2. Vérification
Dans cette phase, nous utilisons deux étapes de vérification.

La première étape est au niveau du frame courante, elle consiste à détecter plusieurs régions
candidates (Figure 4-71(b) et (d) avec des rectangles verts) qui sont supérieurs à un seuil et nous
vérifions les positions de ces régions, si elles se sont proches nous prenons la région moyenne
(Figure 4-71(b) avec le rectangle rouge) ayant une possibilité d’être une région de visage. Dans
la Figure 4-71(d) cette condition n’est pas vérifiée, alors nous ne la prenons pas en considération
et elle est négligée.

La deuxième étape de vérification consiste à mesurer la variance de cette région moyenne en


fonction du temps dans les frames successifs de la même technique présentée dans les méthodes
de détection de visage par symétrie.

4.1.6.3. D’autres propositions pour améliorer la méthode de


détection de visage par LCP
1- Application de la fonction LCP sur l’image contours de différence

De la même façon d’utilisation de l’image contours de différence dans la méthode de détection


de visage par symétrie, nous appliquons la fonction LCP sur cette image de différence (Figure
4-72).

119
Chapitre 4
Mise en œuvre du notre système

Figure 4-71: Vérification de détection de visage par LCP.


(a) et (c) Les images originales, (b) et (d) Leurs matrices R avec le résultat.
2- Combinaison de la méthode LCP avec les filtres de Gabor

Cette combinaison nous permet de profit propriétés de filtre du Gabor pour trouver les
contours orientés. Ainsi au lieu de faire une détection des contours avec le filtre de Sobel suivi
de l’application de la fonction LCP pour déterminer les orientations, nous utilisons directement
le filtre de Gabor avec des orientations que nous voulons rechercher. Les contours détectés avec
les orientations 45°, 90° et 135° prennent les valeurs entières 1, 2 et 3 respectivement dans la
matrice résultante R. Après cette étape nous balayons la matrice R avec le même masque M
(Figure 4-70(a)) pour calculer le niveau d’intersection. La valeur maximale correspond à la
position du visage (Figure 4-72).

Figure 4-72: Utilisation des filtres de Gabor pour trouver les orientations.

120
Chapitre 4
Mise en œuvre du notre système

4.1.7. Détection de visage par la méthode de VJ (Viola Jones)


La méthode de Viola et Jones est une méthode de détection des visages dans une image,
proposée par les chercheurs Paul Viola et Michael Jones en 2001 [71].

Il existe de nombreuses implémentations du détecteur de Viola et Jones, la plus utilisée étant


celle en C++ présenté dans la libraire de vision par ordinateur OpenCV [87].

Nous avons utilisé le code source en C++ en intégrant la fonction VJ disponible dans la librairie
d’OpenCV pour tester la détection de visage, Nous avons aussi téléchargé le code source [145]
sous MATLAB qui utilise le Classificateur Haar Cascade de OpenCV. Les résultats obtenus
sont illustrés dans la figure 4-73.

Figure 4-73: Détection de visage par la méthode de VJ. (a) et (b) par OpenCV avec deux
classificateurs différents, (c) par MATLAB.

4.2. Détection des yeux

La détection des yeux est une tâche très importante pour notre projet. Il est très difficile de
détecter les yeux dans une image d’une façon robuste car ce problème reste mal posé. Parmi les
difficultés, on trouve : le changement de luminosité, la résolution et la qualité de l’image, la
distance des personnes, la forme des yeux, la couleur de pupille, la variation d’états des yeux
(ouverte ou fermée) et est-ce que la personne porte des lunettes ou non ?...

La détection des yeux est une étape principale utilisée dans plusieurs applications. Comme la
reconnaissance et l’identification des personnes par l’iris, le suivi du regard, la commande des
objets par l’œil, …etc. Dans notre projet, nous nous intéressons à la détection des yeux et
connaitre leurs états pour déterminer l’état du conducteur.

Généralement, la détection des yeux demande une phase de détection de visage, donc au lieu
de chercher les yeux dans l’image entière nous les cherchons seulement dans le visage détecté.

Puisque les yeux sont toujours dans une zone bien définie dans le visage (propriétés
anthropométrique du visage), nous limitons notre recherche dans la zone située entre le front et
la bouche (région d’intérêt) (Figure 4-74), car il est impossible de trouver les yeux dans une
autre zone.

Nous avons implémenté plusieurs techniques de détection des yeux dans un visage :
1- Détection des yeux par symétrie.
2- Détection des yeux par un masque circulaire.

121
Chapitre 4
Mise en œuvre du notre système

3- Détection des yeux par un masque lunette.


Nous verrons les détails de ces méthodes dans la section suivante.
l_visage

Région

h_visage
d’intérêt

Figure 4-74: Région d’intérêt pour la détection des yeux.

4.2.1. Détection des yeux par symétrie


Dans cette méthode, nous bénéficions de la caractéristique symétrique des yeux pour les
détecter dans le visage. Nous balayons tout d’abord, verticalement la région d’intérêt par un
masque rectangulaire de hauteur estimée de la hauteur des yeux, et, de largeur égale à la largeur
du visage. Puis, nous appliquons l’algorithme de symétrie pour calculer la symétrie entre les
deux yeux. La région des yeux correspond à la position qui a une forte mesure de symétrie.
Ensuite, dans cette région obtenue, nous appliquons l’algorithme de symétrie une deuxième fois
dans les deux cotés gauche et droite pour calculer la symétrie d’un seul œil dont l’indice
maximale de symétrie correspond au centre de l’œil (Figure 4-75). Le résultat obtenu est montré
dans la figure 4-76.
l_visage

a
h_visage

Figure 4-75: Détection des yeux par la symétrie.

122
Chapitre 4
Mise en œuvre du notre système

Figure 4-76: Résultats de détection des yeux par symétrie.


(a) Image contours par le filtre de Sobel horizontal, (b) Résultat de détection des yeux.

4.2.2. Détection des yeux par un masque circulaire


L’idée principale de cette méthode est de trouver directement l’iris parce qu’elle se
caractérise par son niveau de gris sombre par rapport au niveau de gris de la peau du visage.

Alors, nous utilisons un masque M (Figure 4-77(a)) pour détecter les zones sombres
correspondantes aux iris en le convoluant avec la région d’intérêt en niveau de gris I, le résultat
obtenu est une matrice dont les deux valeurs minimales de cette matrice correspondent aux
iris.

, ∗ ∑ ∑ , . , (4.32)

Figure 4-77: Detection des yeux par masque circulaire.


(a) Le masque circulaire M, (c) Résulats de convolution R, (c) Les yeux detectées sur le visage .

4.2.3. Détection des yeux par un masque lunette


Nous avons proposé un masque avec une forme de lunette (Figure 4-78) en estimant sa taille
par rapport à la taille de visage (Tableau 4-3).

123
Chapitre 4
Mise en œuvre du notre système
l_visage

d
c H
a

h_visage
L
b

Figure 4-78: Modèle de lunette proposé pour la détection des yeux.

Tableau 4-3: Les paramètres du modèle de visage proposé.

Description Grande lunette Petite lunette


a hauteur de l’œil h_visage /6 h_visage /10
b largeur de l’œil. l_visage /3 l_visage /4
c distance entre les deux yeux l_visage /6 l_visage /6
la zone supérieure qui est impossible de
d h_visage /5 h_visage /5
trouver les yeux
la zone inferieure qui est impossible de
e h_visage /2.5 h_visage /2.5
trouver les yeux
L Changement de distance entre les yeux 0.5*c c
H La hauteur entre les deux yeux 0.5*a a

Nous observons que l’énergie dans l’image du visage se concentre au niveau des yeux, donc
nous extrairons la région d’intérêt à partir d’une image contours obtenue par le filtre de Sobel.
Nous balayons la région d’intérêt avec le carré gauche du masque lunette et pour chaque
position nous balayons le carré droit dans la zone étendue par H et L comme le montre la figure
4-78, ensuite nous cherchons les deux zones qui satisfont les conditions suivantes :

- La différence entre la somme locale des points contours des deux zones est inférieure à
un seuil :

(4.33)
,

où : , sont l’énergie du carré gauche et droit respectivement.

124
Chapitre 4
Mise en œuvre du notre système

- Si la première condition est vérifiée nous cherchons que l’énergie des deux carrés
soit maximale.
Les résultats obtenus sont montré dans la Figure 4-79.

Figure 4-79: Résultat de détection des yeux par le masque lunette.


(a) Image contours par Sobel, (b) et (c) Image originale avec résultat utilisant grande et petite lunette
respectivement.

Cette méthode nous a également permis d’obtenir de bons résultats, mais nous remarquons que
les contours des côtés du visage ont des mauvaises influences sur la détection des yeux comme
le montre la figure 4-80. Donc nous proposons une solution pour éliminer cette influence en
extrayant la région d’intérêt à partir d’une image contours obtenue par le filtre de Sobel
horizontal pour éliminer les contours verticaux (Figure 4-80).

Figure 4-80: Détection des yeux avec masque lunette sur image de contours (Sobel horizontal). (a)
Image contours par Sobel horizontal, (b) et (c) Image originale avec résultat utilisant grande et petite
lunette respectivement.
Pour rendre la méthode de détection soit à la fois robuste et rapide pour satisfaire les exigences
du temps réel, on introduit des améliorations utilisant l’image intégrale présenté dans le chapitre
3 section 6.

On peut aussi augmenter le taux de détection des yeux, en appliquant l’opération ‘ET’ logique
entre le carré du masque lunette et un masque E (équation 4.33) d’une allure elliptique de même
taille que le carré du masque lunette du visage (Figure 4-81). Pour vérifier d’un part que l’œil
détecté est dans le centre des carrés du masque lunette, et d’autre part diminuer l’influence des
contours de sourcils sur la détection de l’œil.

125
Chapitre 4
Mise en œuvre du notre système

,
, (4.34)
, 1

Avec : est l’équation de l’ellipse de la forme :

, (4.35)

où 0
, 0 le centre de l’ellipse

, b j

(a)

(b)
Figure 4-81: La nouvelle forme du masque de lunette. (a) Les paramètres de l’ellipse, (b) Le masque
lunette.

La méthode de détection des yeux par le masque lunette peut être étendue en extrairont la région
d’intérêt à partir d’une image seuillée ou d’une image contours obtenue par le filtre de Gabor.
Nous allons expliquer les deux propositions dans la section suivante.

4.2.3.1. Détection des yeux par une image seuillée


Nous remarquons que les deux zones des yeux dans l’image du visage ont les niveaux de
gris les plus sombres, alors nous proposons de faire un seuillage de l’image par la relation :

,
, (4.36)
,

Nous faisons les mêmes étapes de la méthode de détection des yeux en traitant maintenant les
points blancs de l’image seuillée (Figure 4-82).

126
Chapitre 4
Mise en œuvre du notre système

Figure 4-82: Résultat de détection des yeux par masque lunette en utilisant l'image seuillée. (a) Image en
niveau de gris, (b) Image seuillée, (c) Image originale avec résultat.

4.2.3.2. Détection des yeux par le filtre de Gabor


Dans ce cas, nous proposons de détecter les contours de la zone d’intérêt par le filtre de
Gabor (Chapitre 3 section 5) en reposant sur le principe de somme des points contours de Sobel.
L’utilisation du banc de filtres Gabor permet d’extraire des contours épais avec différentes
orientations (Figure 4-83).

Figure 4-83: Résultat de détection des yeux par masque lunette en utilisant l'image obtenue par le
filtre de Gabor. (a) Image contours avec filtre de Gabor, (b) et (c) Image originale avec résultat
utilisant grande et petite lunette respectivement.
4.2.4. Améliorer la détection des yeux
4.2.4.1. Masque elliptique de visage
Nous améliorons la détection des yeux dans une image de visage par élimination de
l’effet du fond qui a une influence sur la qualité des résultats. Nous diminuons la région d’intérêt
en appliquant de l’opération ‘ET’ logique entre l’image du visage et un masque d’une allure
elliptique E (4.33) de même taille que l’image du visage (Figure 4-84(c)) donc la région
d’intérêt devient comme le montre la figure (Figure 4-84(d)(e)).

Cette technique est applicable pour toutes les méthodes de détection des yeux citées
précédemment.

127
Chapitre 4
Mise en œuvre du notre système

Figure 4-84: Amélioration de détection des yeux par le masque elliptique de visage. (a) Image en
niveau de gris, (b) Image contours, (c) Le masque elliptique E, (d) et (e) Image en niveau de gris et
image contours après l’application du masque.

4.2.4.2. Masque de couleur de peau


Si nous avons détecté le visage à base de couleur de peau nous pouvons utiliser le masque
obtenu par la détection de peau pour bien entourer la région réelle du visage en appliquant
l’opération ‘ET’ logique entre l’image du visage et ce masque, et améliorant les résultats
obtenus par l’application de deux opérations morphologiques (l’érosion et la dilatation) et nous
remplissons les trous s’ils existent (Figure 4-85).

128
Chapitre 4
Mise en œuvre du notre système

Figure 4-85: Amélioration de détection des yeux par le masque de couleur de peau du visage. (a) Image
en niveau de gris, (b) Image contours, (c) Le masque de couleur de peau du visage, (d) et (e) Image en
niveau de gris et image contours après l’application du masque.

4.2.5. Orientation du visage


A partir des positions des yeux, nous pouvons calculer l’orientation du visage (Figure 4-
86) qui nous aidera plus tard. Le calcul est effectué par cette relation :

(4.37)

où , sont les positions des lignes de l’œil droit et gauche respectivement.

et , sont les positions des colonnes de l’œil droit et gauche respectivement.

129
Chapitre 4
Mise en œuvre du notre système

Figure 4-86: L'orientation du visage à partir des positions des yeux.

4.2.6. Localisation de la bouche


Une autre mesure qui peut être calculée à partir des positions des yeux est la localisation de
la bouche qui nous aidera à détecter le bâillement du conducteur. Le calcul est effectué par la
relation illustré dans la figure 4-87:

Figure 4-87: Localisation de la bouche, (a) La relation entre les yeux et la bouche,
(b) Un exmaple de positionnement de la bouche.

4.2.7. Détection de bâillement


Nous proposons une méthode utilisant l’algorithme de K-means (avec K=2) pour classifier
l’état de la bouche fermée ou ouverte. L’idée est basée sur le changement de la distance entre
les deux centroïdes des deux groupes classifiés par l’algorithme (Figure 4-88).

Nous avons remarqué dans deux frames successives que :

1- Il y a une variation négative entre les distances si la première est une bouche fermée et
la deuxième est ouverte.
2- Il y a une variation positive entre les distances si la première est une bouche ouverte et
la deuxième est fermée.
3- Il y a une petite variation entre les distances si les deux frames ont la même état de la
bouche.

130
Chapitre 4
Mise en œuvre du notre système

Figure 4-88: Détection de bâillement par la méthode de K-means. (a) et (b) Image de la bouche
fermé et ouvert respectivement, (c) et (d) Regroupement par K-means les intensités de Y en
fonction de Cb.

4.3. Etats des yeux

Cette étape de décision de l’état des yeux (ouvert ou fermé) est parmi les phases principales
permettant de déterminer l’état du conducteur. La détermination de l’état des yeux consiste à
classifier l’œil en deux états : ouvert ou fermé.

La performance de cette étape de classification dépend de l'efficacité de détection des yeux.

Après la détection des yeux nous extrayons les régions de l’œil gauche et droit, et nous faisons
le traitement au niveau de ces dernières pour connaitre ses états.

Dans notre projet, nous avons proposé d’utiliser différentes méthodes pour déterminer l’état des
yeux à base de :

1- La Transformé de Hough cercle.


2- La Somme des points contours.
3- Masque circulaire.
4- K-means.

4.3.1. Etat des yeux par la transformée de Hough cercles


L’implémentation de cette méthode nécessite différentes étapes données par
l’organigramme de la figure 4-89. La première étape consiste à détecter les contours par le
masque de Sobel. Ensuite, nous détectons les cercles de rayons définis par la transformé de
Hough cercles (THC) présenté dans la (Chapitre 3 section 3), et nous prenons à la fin le cercle

131
Chapitre 4
Mise en œuvre du notre système

qui a une grande valeur dans l’accumulateur de Hough pour tous les rayons. Puis, nous
appliquons l’opération logique ‘ET’ logique entre l’image contours et le cercle complet obtenu
par la transformée de Hough en calculant le niveau d’intersection entre eux « S ». Enfin, l’état
de l’œil « œ » est défini en testant la valeur « S » par un seuil :

œ (4.38)

où « 1 » représente un œil ouvert et « 0 » représente un œil fermé.

Nous répétons ces étapes pour les deux yeux gauche et droit pour déterminer l’état de chaque
œil , , et on prend une seule mesure d’état des yeux « Etat » qui est :

| (4.39)

Les résultats sont illustrés dans la Figure 4-90.

Image de l’œil
I

Détection des
contours

Transformée de
Hough Cercle

Calculer
l’intersection
« »

Oui Si Non

Etat : ouvert Etat : fermé

Figure 4-89: Organigramme de l’algorithme de décision de l’état de l’œil par la THC.

132
Chapitre 4
Mise en œuvre du notre système

Figure 4-90: La décision de l’état de l’œil par la THC.


(a) et (c) Images contours, (b) et (d) Résultats de l’état d’un œil ouvert et un autre fermé à partir
des images (a) et (c) respectivement.

4.3.2. Etat des yeux par la Somme des points contours


D’après les expériences qui ont été faites, nous remarquons que l’énergie de l’image
avec un œil ouvert est grande par rapport à l’énergie de l’image avec un œil fermé. Cette énergie
varie d’une façon remarquable quand l’œil passe d’un état à un autre.

A partir de ce principe en s’inspirant de l’idée de la méthode de détection des yeux avec la


somme des points contours, et en utilisant cette propriété pour la classification de l’état de l’œil
selon les étapes suivantes :

1- Détection des contours par le masque de Sobel.


2- Calcul de la somme des points contour « S ».
3- Comparaison avec un seuil fixe (normalisé avec la taille de l’image de l’œil) pour
connaitre l’état de l’œil.

œ (4.40)

où « 1 » représente l’œil ouvert et « 0 » représente l’œil fermé.

L’organigramme de la Figure 4-91 résume les étapes à suivre dans cette méthode, et la figure
4-92 illustre les résultats obtenus par cette méthode.

133
Chapitre 4
Mise en œuvre du notre système

Image de
l’œil I

Détection des
contours

Calculer « S »

Si

Etat : ouvert Etat : fermé

Figure 4-91: Organigramme de l'algorithme de décision de l'état de l'œil.

Figure 4-92: Etat des yeux par la méthode somme des points contours. (a) et (c) Images contours d’un œil
ouvert et fermé respectivement, (b) et (d) Résultat de décision pour l’image (a) et (c) respectivement.

4.3.2.1. Extension de la méthode


Nous proposons une extension de cette méthode ; en traitant l’image de l’œil obtenue
selon les deux propositions suivantes : 1. Avec un seuillage simple ou 2. Avec la détection des
contours par le filtre de Gabor. Nous comparons ensuite la somme des point blancs dans cette
image avec un seuil de décision diffèrent d’une proposition à une autre pour déterminer l’état
de l’œil. (Figure 4-93).

134
Chapitre 4
Mise en œuvre du notre système

Figure 4-93: Extension de la méthode.


(a) et (b) Image contours par Sobel pour un œil ouvert et un œil fermé respectivement,
(c) et (d) Image contours par Gabor pour un œil ouvert et un œil fermé respectivement,
(e) et (f) Leurs résultats.

4.3.3. Etat des yeux par un masque circulaire


La détermination de l’état des yeux consiste à classifier l’œil en deux états : ouvert ou fermé.
La performance de cette étape de classification dépend de l'efficacité de la détection des yeux.

Parmi les différences entre l’image de l’œil ouvert et l’image de l’œil fermé, nous trouvons
un facteur permettant de déterminer directement l’état de l’œil, c’est la présence de l’iris. Nous
travaillons cette fois avec l’image de l’œil en niveau de gris pour détecter l’iris.

L’idée de cette méthode est à la même idée que nous avons proposée dans la méthode de
détection des yeux par un masque circulaire (Section 3.2.2). Elle consiste à faire la convolution
entre l’image de l’œil et le même masque circulaire M (Figure 4-77(a)). Puis, nous testons la
valeur minimale de la matrice résultante R avec un seuil pour déterminer l’état de l’œil :

œ (4.41)

Où « 1 » représente l’œil ouvert et « 0 » représente l’œil fermé.

L’organigramme de la figure 4-94 montre les étapes principales de cette méthode, et les
résultats obtenus sont illustrés dans la figure 4-95.

135
Chapitre 4
Mise en œuvre du notre système

Image de l’œil I
en niveau de gris

Calculer

Trouver

Si

Etat : ouvert Etat : fermé

Figure 4-94: Organigramme de l’algorithme de décision de l’état de l’œil par un masque circulaire.

Figure 4-95: Décision de l’état des yeux par le masque circulaire.


(a) Image d’œil fermé avec résultat, (b) Image d’œil ouvert avec résultat.

4.3.4. Etat des yeux par la fusion entre la méthode de masque circulaire et la THC
Cette méthode consiste à déterminer l’état des yeux en fusionnant la méthode de masque
circulaire et la Transformée de Hough Circulaire (THC).

Premièrement, nous convoluons le masque circulaire M avec l’image de l’œil I en niveau de


gris. Puis, nous testons la valeur minimale de la matrice résultante R avec un seuil pour
déterminer l’état de l’œil.

′ ′
œ (4.42)
é

136
Chapitre 4
Mise en œuvre du notre système

Si l’œil est ouvert, nous passons à la phase de vérification en utilisant la méthode d’état des
yeux par la THC dans la région de l’iris trouvée pour confirmer la présence de l’iris par sa forme
circulaire. Dans ce cas, l’état des yeux dépend de cette vérification (Figure 4-96)

Figure 4-96: Etat des yeux. (a) Œil ouvert avec vérification de THC, (b) Œil fermé.

4.3.5. Etat des yeux par K-means


Nous avons remarqué que les pixels de l’image de l’œil ouvert en niveau de gris peuvent
se regrouper en trois groupes :

1er groupe : les pixels les plus sombres correspondants à l’iris.


2ème groupe : les pixels les plus clairs correspond à la sclérotique.
3ème groupe : les pixels entre les deux autres groupes correspond au niveau de gris de peau.

Pour l’œil fermé en niveau de gris ce regroupement est perturbé. Dans ce cas, nous proposons
d’appliquer l’algorithme K-means pour classifier l’état de l’œil fermé ou ouvert.

Nous appliquons cet algorithme avec K=3 sur une image d’un œil ouvert et une autre image
d’un œil fermé en prenant la composante Y comme axe des abscisses et Cb axe des
coordonnées. Nous avons trouvé que la variance du groupe le plus grand est variable d’un œil
fermé à un œil ouvert. Quand l’œil est fermé la variance est petite par contre cette variance est
grande quand l’œil est ouvert.

Donc, nous pouvons déterminer l’état de l’œil en testant par un seuil la variance du plus grand
groupe.

, ,
œ (4.43)

La figure 4-97 illustre les résultats obtenus par l’algorithme de K-means (K=3) appliqué sur des
images de l’œil ouvert et fermé.

137
Chapitre 4
Mise en œuvre du notre système

Figure 4-97: Etat des yeux par K-means.


(a) Œil ouvert, (b) Œil fermé,
(c) Regroupement de pixels de l’image de l’œil ouvert avec k-means (K = 3),
(d) Regroupement de pixels de l’image de l’œil fermé avec k-means (K = 3).

5. Conclusion
Nous avons présenté dans ce chapitre les méthodes du chaque étape dans notre système qui se
compose de trois module. Premièrement, les capteurs utilisés en vision ne permettent pas une
mesure directe de la vitesse. Il faut donc mettre en œuvre des méthodes spécifiques. La solution
la plus intuitive consiste alors à mettre en correspondance au cours du temps les détections
successives fournies par le processus de détection des véhicules. Dans ce module, nous avons
commencé par une description du processus de modélisation de la route, puis la détection et la
poursuite de véhicules, pour ensuite mesurer la distance et la vitesse. Et pour le deuxième
module, nous avons présenté les méthodes de détection et de classification de panneaux de
signalisation. Dans le troisième module, nous avons abordé les méthodes de détection de visage,
de détection des yeux, et de décision de l’état de ces derniers, qui ont été mis en œuvre avec
nos contributions pour l’amélioration et l’optimisation des résultats.

138
Chapitre 5

Résultats et discussions

139
Chapitre 5
Résultats et discussions

1. Introduction
Dans ce chapitre, nous allons tout d’abord présenter nos modules proposés :

1. Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).


2. Module de Classification des Panneaux de Signalisation Routière (MCPSR).
3. Module de Détection de Fatigue et de Somnolence (MDFS).
Il se constitue de deux parties :

 Partie matérielle : dans cette section, nous décrirons le matériel utilisé durant la
réalisation de notre système.
 Partie logicielle : dans cette section, nous présenterons sur les logiciels utilisés pour
implémenter nos algorithmes.
Ensuite, nous discuterons les résultats obtenus par chaque module et chaque méthode appliquée
sur des séquences vidéo de notre base de données.

Nous allons passer par la suite à la description de nos algorithmes global de chaque module qui
collectent les différents blocs cités dans le chapitre précédent. Enfin, des discussions sur les
résultats obtenus seront présentées.

2. Le système réalisé
Notre système se compose de deux parties inséparables : Matérielle et logicielle.

2.1.Matériel utilisé
Dans cette partie, nous citons tous le matériel utilisé pour le développement et la réalisation
de notre système.

2.1.1. Les Caméras


2.1.1.1. Caméra 1
Nous avons utilisé une caméra CCD 1/3 SONY (Model : CNB-G1318PF) (Figure 5-1) pour
capter l’information visuelle. Celle-ci génère un signal vidéo composite PAL, 480 line, qui vont
être traité par la suite.

Figure 5-1: Camera une CCD 1/3 SONY (Model : CNB-G1318PF) .

140
Chapitre 5
Résultats et discussions

2.1.1.2. Caméra 2
Nous utilisons une deuxième camera (Modèle : 1/3’’ SONY IR DOME CAMERA DM-
621D) (Figure 5-2) avec des diodes infrarouges IR qui s’activent automatiquement quand les
conditions de luminosité seront insuffisantes ou dans la nuit. Cette caméra génère des images
infrarouges en fournissant un signal vidéo PAL à la sortie.

Figure 5-2: Mini-camera IR.


2.1.2. Carte d’acquisition
Nous utilisons deux cartes d’acquisition pour enregistrer les séquences vidéo dans le
PC :

• EasyCAP (Figure 5-3(a)).


• Pinnacle Systems GmbH 710 USB Rev 1.0 (Figure 5-3(b)).

(b)
(a)
Figure 5-3: Carte d’acquisition (a) EasyCAP, (b) Pinnacle Systems GmbH 710 USB.

2.1.3. Ordinateur portable


Nous utilisons un ordinateur portable pour la création des bases des données et procéder
aux traitements nécessaires.

141
Chapitre 5
Résultats et discussions

2.1.4. Support de fixation de la caméra


Nous utilisons ce support pour fixer la caméra devant le conducteur en haut pour qu’il
ne soit pas gêné pendant la conduite. Ce support flexible peut être facilement fixé dans la vitre
de la voiture (Figure 5-4).

Figure 5-4: Support de fixation de la caméra.

2.1.5. Alimentation
L’alimentation du système dans la voiture est assurée par un transformateur 12V continu
issu de l’allume cigarette vers 220V alternatif (Figure 5-5).

Figure 5-5: Transformateur 12V vers 220V.

2.2.Logiciels utilisés
Nous avons implémenté nos algorithmes sous l’environnement MATLAB afin d’effectuer
la validation des algorithmes propose .Il est à noter que cet environnement n’est pas
approprié pour un traitement au temps réel, il est utilisé pour la confirmation de résultants
de nos solutions.

142
Chapitre 5
Résultats et discussions

3. L’appareillage de notre système embarqué au bord du véhicule


La réalisation de notre système se devise en deux phases : 1. Phase de créations de bases
des données, 2. Phase de développement.

Dans la première phase, nous utilisons le matériel pour installer notre système pour créer
des bases des données.

Dans la deuxième phase, nous utilisons les bases de données pour développer notre système.

Figure 5-6: Notre système installé dans la voiture à base de camera IR.

4. Collection de la base de données


Nous avons créé notre propre base de données constituée des séquences vidéo qui ont été
capturé par une seule caméra pour chaque module. Ces séquences ont été enregistrées à Oran à
l’intérieur de la voiture dans des conditions réelles pendant la journée et la nuit.

Nous avons enregistrés les vidéos en utilisant la caméra avec une carte d’acquisition. Les
images vidéo ont une dimension de 720 x 480 pixels avec 30 fps.

Quelques échantillons sont présentés dans la figure 5-7:


143
Chapitre 5
Résultats et discussions

(a) TSAC_Karma1 (b) TSAC_Karma1 (c) TSAC_ Les falaise

(d) TSAC_ Pépéniaire (e) TSAC_ Akid Lotfi

(f)

(g)
Figure 5-7: Echantillons des séquences enregistré par la caméra.

5. Résultats expérimentaux
Dans le quatrième chapitre, nous avons décrit les différents blocs de nos modules et nous
avons donné quelques résultats expérimentaux. Cette description nous donne une idée claire sur
le principe de fonctionnement des modules à implémenter. Dans cette section, nous nous
intéressons à analyser tous les résultats expérimentaux obtenus de chaque bloc de notre système.

144
Chapitre 5
Résultats et discussions

5.1. Module de Détection de Véhicules et Mesure de Distance et de Vitesse


(MDVDV).
5.1.1. Modélisation de la route
Les techniques de la modélisation de la route qu’ont été présentées dans le chapitre 4 basées
sur la transformation Hough sont : modélisation de la route avec deux accumulateurs, choix
d’angle, et distance euclidienne, les résultats sont excellents pour toutes les techniques. Comme
le montre le tableau 5-1.

Tableau 5-1: Résultats de la modélisation de la route.

TSAC_ TSAC_Karma TSAC_ Les TSAC_ TSAC_Akid


Les techniques de la Karma1 2 falaise Pépéniaire Lotfi
modélisation de la 4900 frames 1060 frames 150 frames 1050 frames 450 frames
route
FD % FD FD % FD FD % FD FD % FD FD % FD

Deux
7 0.14 3 0.28 1 0.66 2 0.19 3 0.66
accumulateurs
Transformée de Hough

Choix d’angle 3 0.06 - 0 - 0 1 0.09 2 0.44

Distance
10 0.20 5 0.47 3 2 7 0.66 5 1.11
euclidienne

FD : Fausse Détection.

5.1.2. Les méthodes de détection de véhicule


Les techniques de détection de véhicule qu’ont été présentées dans le chapitre 4 sont : détection
par LCP, symétrie, et l’énergie. Chaque méthode a ses avantages et ses inconvénients, et peut
être jugée par son pourcentage de détection et le temps de calcul nécessaire pour l’exécution.

En effet, d’après les résultats que nous avons obtenus, la méthode de détection de véhicule par
LCP fournit d’excellents résultats dans toutes les séquences (Tableau 5-2)

145
Chapitre 5
Résultats et discussions

Tableau 5-2 : Résultats de détection de véhicule.

TSAC_ TSAC_ TSAC_ Les TSAC_ TSAC_


TOTAL
Méthode Karma1 Karma2 falaise Pépéniaire Akid Lotfi
de
1050
détection 4900 frames 1060 frames 150 frames 450 frames 7610 frames
frames
de véhicule
FD % FD FD % FD FD % FD FD % FD FD % FD FD % FD

LCP 99 2.03 47 4.43 15 32 56 5.33 32 7.11 249 3.27

Symétrie 196 4 97 9.12 13 55 55 5.23 55 12.22 416 5.47

Energie 123 2.51 64 6 17 42 61 5.8 42 4 307 4.03

5.1.3. Les méthodes de suivi


Comme évoqué dans le chapitre 4 section 1.4, nous présentons ici les résultats comparatifs de
suivi de véhicule comme l’illustres dans le tableau 5-2.

Le suivi par toutes les techniques avec la fusion de donnée donne des bons résultats. Parmi les
approches appliquées, nous choisissons la technique de SAD pour réaliser la phase de suivi,
parce qu’elle offre un bon compromis entre la complexité et la qualité de suivi.

Tableau 5-3: Résultats de suivi de véhicule.

TSAC_ TSAC_ TSAC_ Les TSAC_ TSAC_ Akid


Karma 1 Karma2 falaise Pépéniaire Lotfi
Méthode de suivi
de véhicule 4900 frames 1060 frames 150 frames 1050 frames 450 frames

FD % FD FD % FD FD % FD FD % FD FD % FD

SAD

SSD

NCC
Bon pour toutes les séquences
ZSAD

ZSSD

ZNCC

146
Chapitre 5
Résultats et discussions

5.1.4. Mesure de distance et de vitesse


Dans ce qui suit, on va introduire le résultat de mesure de distance et de vitesse obtenu pour le
sous module basé sur la détection de véhicule, avec deux méthode de mesure, une se basant sur
la taille de l’objet et taille de la route, et la seconde se basant sur la fonction d’interpolation.
Aussi, on va présenter une étude comparative de ces deux dernières.

Pour une bonne étude des deux techniques employées, on se propose de tracer trois lignes
horizontales sur l’image, et au niveau de chaque ligne on donne la distance estimée de véhicule
par rapport à la caméra. Cette opération est réalisée pour trois véhicules différents. Les tableaux
suivant introduisent le résultat des tests.

Tableau 5-4: Résultats des tests de mesure de distance par la méthode 1 pour trois véhicules.

N° de Distance Distance véhicule Distance véhicule Distance véhicule


test réelle 1 (mètres) 2 (mètres) 3 (mètres)
1 40 38.25 40.26 43.71
2 30 29.42 30.6000 33.26
3 20 18.90 21.6774 20.84

Tableau 5-5: Résultats des tests de mesure de distance par la méthode 2 pour trois véhicules.

N° de Distance Distance véhicule Distance véhicule Distance véhicule


test réelle 1 (mètre) 2 (mètre) 3 (mètre)
1 40 39.13 38.41 39.13
2 30 29.43 29.71 30
3 20 20.13 20.23 19.42
On voit clairement que la deuxième méthode pour la mesure de la distance (en mètre) se basant
sur la fonction interpolation, est plus fiable et correcte que la première méthode se basant sur la
taille du véhicule et la taille de la route.

Dans le tableau suivant on introduit le résultat de mesure de la distance parcouru pour un totale
de 5 véhicules, ainsi que leur vitesse moyenne.

Tableau 5-6: Résultats des tests de mesure de distance et de vitesse moyenne pour cinq véhicules.

Distance Distance Distance Temps Vitesse en Vitesse Vitesse


initiale final parcouru (secondes) mètres/secondes en km/h en
(mètre) (mètre) (mètre) km/h
(réelle)
46.3235 20.0637 26.2598 3.2340 8.1199 29.2317 30
45.9854 20.0000 25.9854 2.6400 9.8430 35.4346 35
51.6393 19.9367 31.7026 5.0820 6.2382 22.4576 20
45.0000 19.8738 25.1262 3.0690 8.1871 29.473 30
47.0149 19.8738 27.1411 3.1020 8.7496 31.4984 30

147
Chapitre 5
Résultats et discussions

Pour le calcul du temps, on se réfère à l’entité historique contenant toutes les informations
relatives aux objets, et notamment le moment de la première mesure de distance ainsi que la
distance finale. Le tableau suivant introduit ces dernières. On rappelle par la figure 5-8 les
enregistrements des données dans l’entité ‘historique’.

1 2 3 4 5 6 7 8 9 10

Figure 5-8: Sauvegarde des données dans l’entité ‘historique’.

1. Numéro de l’image de la première détection.


2. Coordonnée horizontale du point haut gauche de l’objet.
3. Coordonnée verticale du point haut gauche de l’objet.
4. Hauteur de l’objet.
5. Largeur de l’objet.
6. Numéro de l’image ou il apparait une nouvelle fois.
7. Nouvelle coordonnée horizontale du point haut gauche de l’objet.
8. Nouvelle coordonnée verticale du point haut gauche de l’objet.
9. Nouvelle hauteur de l’objet.
10. Nouvelle largeur de l’objet.

Tableau 5-7: Historique regroupant les informations relatives à l’évolution des cinq véhicules.

1243 22 194 37 33 58 1341 189 74 90 76 278


1243 28 252 33 30 60 1323 198 182 83 68 280
1291 12 183 32 28 43 1445 192 28 90 77 281
1305 34 246 31 29 64 1398 208 196 75 65 282
1423 26 206 32 29 57 1517 203 111 80 72 282
Dans ce qui, on se propose de vérifier l’exactitude des résultats obtenus au-dessus en utilisant
des séquences qui ont été enregistrées au sein de l’Université des Sciences et de la Technologie
Mohammed Boudiaf d’Oran. La séquence a été prise à l’aide d’une caméra analogique CCD,
et les véhicules qui apparaissent dans le champ de vision de cette dernière se déplacer à
plusieurs vitesses constantes. Les tableaux suivants illustrent les vitesses pratiquées par les
véhicules.

Tableau 5-8: Mesure de vitesses aux différentes distances D.

Vitesse (mesurée) Vitesse (mesurée)


Vitesse (réelle)
D [m] [km /h], méthode [km /h], méthode du
[km /h]
d’interpolation champ de vision
[0 - 18,94] 20 [18 ,5 - 21,5] [18 - 22]
[18,94 - 50] 20 [16,5 – 23,5] [16 – 23,5]
[0 – 22,84] 30 [28,5 – 31,5] [28 – 32]
[22,84 - 50] 30 [26 - 34] [26 - 34]
[0 – 26,12] 40 [38,5 – 41,5] [38 – 42]

148
Chapitre 5
Résultats et discussions

[26,12 - 50] 40 [36 - 44] [36 - 44]


[0 – 35,83] 60 [58,5 – 61,5] [58 – 63]
[35,83 - 50] 60 [54 - 66] [54 - 66]
[0 – 42,84] 80 [78 - 82] [77 – 82.5]
[42,84 - 50] 80 [75 - 85] [75 – 85.5]

Les figures suivantes illustrent les vitesses pratiquées par les véhicules

5.1.4.1. Les méthodes de la mono-vision


 Hauteur (h) de la caméra = 1 .28 m
 Vitesse réelle = 20 ± 2 Km/h
30 50

28
45
26
40
24

35
Vitesse [ Km/h ]

Vitesse [ Km/h ]

22

20 30

18
25
16
20
14

15
12

10 10
10 15 20 25 30 35 40 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-9: Vitesse en fonction de la distance (h=1.28 m, v=20 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

45 50

40 45

40
35

35
30
Distance [ M ]

Distance [ M ]

30
25
25
20
20

15
15

10 10

5 5
200 220 240 260 280 300 320 200 220 240 260 280 300 320
Pixels Pixels

(a) (b)
Figure 5-11: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=20 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

149
Chapitre 5
Résultats et discussions
45 50

40 45

40
35

35
30
Distance [ M ]

Distance [ M ]
30
25
25
20
20
15
15

10
10

5 5
360 380 400 420 440 460 480 500 520 540 560 360 380 400 420 440 460 480 500 520 540 560
Number Frame Number Frame
(a) (b)
Figure 5-12: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=20 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
 Hauteur (h) de la caméra = 1 .28 m
 Vitesse réelle = 40 ± 2 Km/h
70 70

65 65

60 60

55 55
Vitesse [ Km/h ]

Vitesse [ Km/h ]

50 50

45 45

40 40

35 35

30 30
10 15 20 25 30 35 40 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]

(a) (b)
Figure 5-13: Vitesse en fonction de la distance (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 50

45
60

40
50
35
Distance [ M ]

Distance [ M ]

40 30

30 25

20
20
15

10
10

0 5
200 220 240 260 280 300 320 200 220 240 260 280 300 320
Pixels Pixels

(a) (b)
Figure 5-14: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

150
Chapitre 5
Résultats et discussions
70 50

45
60

40
50
35

Distance [ M ]
Distance [ M ]

40 30

25
30

20
20
15

10 10

0 5
250 260 270 280 290 300 310 320 330 340 350
200 250 300 350
Number Frame
Number Frame

(a) (b)
Figure 5-15: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 70

65 65

60 60

55 55
Vitesse [ Km/h ]
Vitesse [ Km/h ]

50 50

45 45

40 40

35 35

30 30
310 315 320 325 330 335 340 345 350 355 360 310 315 320 325 330 335 340 345 350 355 360
Number Frame Number Frame

(a) (b)
Figure 5-16: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

 Hauteur (h) de la caméra = 1 .28 m


 Vitesse réelle = 60 ± 3 Km/h
80 80

75 75

70 70

65 65
Vitesse [ Km/h ]
Vitesse [ Km/h ]

60 60

55 55

50 50

45 45

40 40
10 15 20 25 30 35 40 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-17: Vitesse en fonction de la distance (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

151
Chapitre 5
Résultats et discussions
50 50

45 45

40 40

35 35
Distance [ M ]

Distance [ M ]
30 30

25 25

20 20

15 15

10 10

5 5
200 210 220 230 240 250 260 270 200 210 220 230 240 250 260 270
Pixels Pixels
(a) (b)
Figure 5-18: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

50 50

45 45

40 40

35 35
Distance [ M ]

Distance [ M ]

30 30

25 25

20 20

15 15

10 10

5 5
160 170 180 190 200 210 220 230 160 170 180 190 200 210 220 230
Number Frame Number Frame
(a) (b)
Figure 5-19: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

80 80

75 75

70 70

65 65
Vitesse [ Km/h ]

Vitesse [ Km/h ]

60 60

55 55

50 50

45 45

40 40
170 180 190 200 210 220 170 180 190 200 210 220
Number Frame Number Frame
(a) (b)
Figure 5-20: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=60 ± 3 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

152
Chapitre 5
Résultats et discussions

 Hauteur (h) de la caméra = 1 .28 m


 Vitesse réelle = 80 ± 4 Km/h
120 120

110
110
100
100
90

90 80
Vitesse [ Km/h ]

Vitesse [ Km/h ]
70
80
60

70 50

40
60
30
50
20

40 10
15 20 25 30 35 40 45 50 55 15 20 25 30 35 40 45 50 55
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-21: Vitesse en fonction de la distance (h=1.28 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
60 55

55 50

50
45
45
40
40
Distance [ M ]

Distance [ M ]

35
35
30
30
25
25

20
20

15 15

10 10
205 210 215 220 225 230 235 240 245 205 210 215 220 225 230 235 240 245
Pixels Pixels
(a) (b)

Figure 5-22: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
60 55

55 50

50
45

45
40
40
Distance [ M ]

Distance [ M ]

35
35
30
30
25
25

20
20

15 15

10 10
160 170 180 190 200 210 220 230 180 185 190 195 200 205 210 215 220 225
Number Frame Number Frame

(a) (b)
Figure 5-23: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

153
Chapitre 5
Résultats et discussions

 Hauteur (h) de la caméra = 1 .28 m


 Vitesse réelle = 100 ± 5 Km/h
150 180

140 170

130 160

120 150
Vitesse [ Km/h ]

Vitesse [ Km/h ]
110 140

100 130

90 120

80 110

70 100

60 90

50 80
15 20 25 30 35 40 45 50 15 20 25 30 35 40 45 50
Distance [ M ] Distance [ M ]

(a) (b)
Figure 5-25: Vitesse en fonction de la distance (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
50 55

45 50

40 45

40
35

35
Distance [ M ]

Distance [ M ]

30
30
25
25
20
20
15
15

10
10

5 5
200 210 220 230 240 250 260 270 200 210 220 230 240 250 260 270
Pixels Pixels
(a) (b)
Figure 5-26: Distance mesurée et son équivalant dans l’image (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
50 55

45 50

45
40

40
35
35
Distance [ M ]

Distance [ M ]

30
30
25
25
20
20

15
15

10 10

5 5
115 120 125 130 135 140 145 150 155 160 115 120 125 130 135 140 145 150 155 160
Number Frame Number Frame

(a) (b)
Figure 5-27: Distance mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
154
Chapitre 5
Résultats et discussions
150 180

140 170

130 160

120 150
Vitesse [ Km/h ]

Vitesse [ Km/h ]
110 140

100 130

90 120

80 110

70 100

60 90

50 80
115 120 125 130 135 140 145 150 155 115 120 125 130 135 140 145 150 155
Number Frame Number Frame

(a) (b)
Figure 5-28: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.28 m, v=100 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

 Hauteur (h) de la caméra = 2.2 m


 Vitesse réelle = 40 ± 2 Km/h
60 100

55 90

80
50

70
45
Vitesse [ Km/h ]

Vitesse [ Km/h ]

60
40
50
35
40

30
30

25 20

20 10
15 20 25 30 35 40 45 50 10 20 30 40 50 60 70
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-29: Vitesse en fonction de la distance (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 70

60 60

50 50
Distance [ M ]
Distance [ M ]

40 40

30 30

20 20

10 10

0 0
200 220 240 260 280 300 320 340 360 380 220 240 260 280 300 320 340
Pixels Pixels
(a) (b)
Figure 5-30: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
155
Chapitre 5
Résultats et discussions
70 70

60 60

50 50
Distance [ M ]

Distance [ M ]
40 40

30 30

20 20

10 10

0 0
140 160 180 200 220 240 260 280 300 150 200 250 300
Number Frame Number Frame
(a) (b)
Figure 5-31: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
60 100

55 90

80
50

70
45
Vitesse [ Km/h ]

Vitesse [ Km/h ]

60
40
50
35
40

30
30

25 20

20 10
160 180 200 220 240 260 280 160 180 200 220 240 260 280
Number Frame Number Frame
(a) (b)
Figure 5-32: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=40 ± 2 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
 Hauteur (h) de la caméra = 2.2 m
 Vitesse réelle = 80 ± 4 Km/h
120 120

110 110

100
100

90
90
Vitesse [ Km/h ]

Vitesse [ Km/h ]

80
80
70
70
60

60
50

50 40

40 30
0 10 20 30 40 50 60 70 0 10 20 30 40 50 60 70
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-33: Vitesse en fonction de la distance (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

156
Chapitre 5
Résultats et discussions
70 70

60 60

50 50
Distance [ M ]

Distance [ M ]
40 40

30 30

20 20

10 10

0 0
200 220 240 260 280 300 320 340 200 220 240 260 280 300 320 340
Pixels Pixels

(a) (b)

Figure 5-34: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

70 70

60 60

50 50
Distance [ M ]

Distance [ M ]

40 40

30 30

20 20

10 10

0 0
110 120 130 140 150 160 170 180 110 120 130 140 150 160 170 180
Number Frame Number Frame
(a) (b)
Figure 5-35: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

120 120

110 110

100
100

90
90
Vitesse [ Km/h ]

Vitesse [ Km/h ]

80
80
70
70
60

60
50

50 40

40 30
110 120 130 140 150 160 170 180 120 130 140 150 160 170
Number Frame Number Frame
(a) (b)
Figure 5-36: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=80 ± 4 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

157
Chapitre 5
Résultats et discussions

 Hauteur (h) de la caméra = 2.2 m


 Vitesse réelle = 110 ± 5 Km/h
120

180
110

100
160

90
Vitesse [ Km/h ]

Vitesse [ Km/h ]
140
80

70
120

60

100
50

40
80

30
0 10 20 30 40 50 60 70 10 15 20 25 30 35 40
Distance [ M ] Distance [ M ]

(a) (b)
Figure 5-37: Vitesse en fonction de la distance (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 45

40
60

35

50
30
Distance [ M ]

Distance [ M ]

40 25

20
30

15

20
10

10 5
210 220 230 240 250 260 270 280 290 210 220 230 240 250 260 270 280 290
Pixels Pixels
(a) (b)
Figure 5-38: Distance mesurée et son équivalant dans l’image (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
70 45

40
60

35

50
30
Distance [ M ]

Distance [ M ]

40 25

20
30

15

20
10

10 5
120 130 140 150 160 170 180 140 145 150 155 160 165 170 175
Number Frame Number Frame
(a) (b)
Figure 5-39: Distance mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

158
Chapitre 5
Résultats et discussions
120 170

110 160

150
100

140
90
Vitesse [ Km/h ]

Vitesse [ Km/h ]
130
80
120
70
110
60
100

50
90

40 80

30 70
125 130 135 140 145 150 155 160 165 170 140 145 150 155 160 165 170
Number Frame Number Frame

(a) (b)
Figure 5-40: Vitesse mesurée en fonction du numéro du frame (temps) (h=2.2 m, v=110 ± 5 Km/h).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
 Hauteur (h) de la caméra = 1.31 m
 Vitesse réelle = 20 ± 2 Km/h
 l’angle de roulis Ф =10 °
30 30

28
25
26

24
20
Vitesse [ Km/h ]

Vitesse [ Km/h ]

22

20 15

18

16 10

14
5
12

10
10 15 20 25 30 35 40 45 50 5 10 15 20 25 30 35
Distance [ M ] Distance [ M ]
(a) (b)
Figure 5-41: Vitesse en fonction de la distance (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
55 40

50
35
45
30
40

25
35
Distance [ M ]

Distance [ M ]

30 20

25
15
20
10
15

5
10

5 0
20 40 60 80 100 120 140 160 20 40 60 80 100 120 140 160
Pixels Pixels
(a) (b)
Figure 5-42: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

159
Chapitre 5
Résultats et discussions
60 45

55 40

50
35
45
30
40
Distance [ M ]

Distance [ M ]
25
35
20
30
15
25

10
20

15 5

10 0
80 100 120 140 160 180 200 220 40 60 80 100 120 140 160 180 200 220 240
Number Frame Number Frame

(a) (b)
Figure 5-43: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
40 40

35 35

30 30
Vitesse [ Km/h ]
Vitesse [ Km/h ]

25 25

20 20

15 15

10 10

5 5
80 100 120 140 160 180 200 220 80 100 120 140 160 180 200 220
Number Frame Number Frame

(a) (b)
Figure 5-44: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=20 ± 2 Km/h, Ф =10 °).
(a)Méthode d’interpolation, (b) Méthode du champ de vision.
 Hauteur (h) de la caméra = 1.31 m
 Vitesse réelle = 50 ± 2 Km/h
 l’angle de roulis Ф =10 °
80 100

90
70
80

70
60
Vitesse [ Km/h ]

Vitesse [ Km/h ]

60

50 50

40
40
30

20
30
10

20
5 10 15 20 25 30 35 5 10 15 20 25 30 35 40 45 50
Distance [ M ] Distance [ M ]

(a) (b)
Figure 5-45: Vitesse en fonction de la distance (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

160
Chapitre 5
Résultats et discussions
50 35

45
30

40
25
35
Distance [ M ]

Distance [ M ]
30 20

25 15

20
10
15

5
10

5 0
20 40 60 80 100 120 140 160 180 200 20 40 60 80 100 120 140 160 180 200
Pixels Pixels
(a) (b)
Figure 5-46: Distance mesurée et son équivalant dans l’image (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.

70 40

60 35

30
50

25
Distance [ M ]

Distance [ M ]

40
20
30
15

20
10

10 5

0 0
180 200 220 240 260 280 300 180 200 220 240 260 280 300
Number Frame Number Frame

(a) (b)
Figure 5-47: Distance mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d’interpolation, (b) Méthode du champ de vision.
80 80

70 70

60 60
Vitesse [ Km/h ]

Vitesse [ Km/h ]

50 50

40 40

30 30

20 20
230 240 250 260 270 280 290 230 240 250 260 270 280 290
Number Frame Number Frame

(a) (b)
Figure 5-48: Vitesse mesurée en fonction du numéro du frame (temps) (h=1.31 m, v=50 ± 2 Km/h, Ф =10 °).
(a) Méthode d'interpolation, (b) Méthode du champ de vision.

161
Chapitre 5
Résultats et discussions

5.1.5. Algorithme global


Capturer l’image

T-Hough
Non
Modélisation de
la route

Bon
Détection de véhicule

Suivi de véhicule

Classification des objets en


catégories
Mesure de distance

Mise à jour des données

Mesure de vitesse

Calculer TTC

Non
Détection de
collision

Oui

Alarme

Figure 5-49: Organigramme global de notre modules de détection de véhicules et mesure de


distance et de vitesse.

Dans cette section, nous discutons notre organigramme global de notre module qui est illustré
dans la figure 5-49, dont plusieurs modules sont présentés :

 Modélisation de la route.
 Détection de véhicule.
 Suivi de véhicule.
 Mesure de distance.
 Mesure de vitesse.

162
Chapitre 5
Résultats et discussions

5.1.5.1. Description de l’algorithme


Notre module commence par une phase d’initialisation, qui est la modélisation de la route. Dans
ce cas, s’il n’y a pas à bon modélisation alors le module passe au frame suivant. Dans le cas où
le module modélise la route, nous extrairons la région et passons à l’étape suivante qui consiste
la détection de véhicule pour extraire les différentes informations telles que les coordonnée
horizontale du point haut gauche de l’objet, les coordonnée verticale du point haut gauche de
l’objet, la hauteur de l’objet, la largeur de l’objet ; après cette étape mesure de distance et de
vitesse pour la détection de collision. Si symptôme apparait alors, il faut faire une alarme qui
fait alerter le conducteur. Qui peut être un signal sonore.

(a) TSAC_Karma1 (b) TSAC_Karma1 (c) TSAC_ Les falaise

(d) TSAC_ Pépéniaire (e) TSAC_ Akid Lotfi

Figure 5-50: Quelques exemples des résultats obtenus.

163
Chapitre 5
Résultats et discussions

5.2. Module de Classification des Panneaux de Signalisation Routière


(MCPSR).
5.2.1. Détection et localisation

La technique de détection de panneaux de signalisation qu’ont été présentées dans le chapitre


4 est l’détection par couleur. En effet, d’après les résultats que nous avons obtenus, la méthode
de détection par les couleurs des panneaux fournit d’excellents résultats dans toutes les
séquences en utilisant les différentes techniques de localisation : labélisation, et projection.
Cette méthode n’est pas ni complexe, ni gourmande en temps de calcul. De plus, la technique
de localisation par projection est influencée par la présence de plusieurs objets qui ont une
couleur similaire à la couleur des panneaux, mais elle peut être améliorée en appliquant une
vérification sur chaque région détectée.

Tableau 5-9: Résultats de détection de localisation panneaux de signalisation.

TSAC_ TSAC_ TSAC_ Les TSAC_ TSAC_ Akid


Karma1 Karma2 falaise Pépéniaire Lotfi
Les techniques de
localisation 4900 frames 1060 frames 150 frames 1050 frames 450 frames

FD % FD FD % FD FD % FD FD % FD FD % FD

Projection 163 3.33 78 7.36 25 16.6 62 5.90 58 12.89


Détection

Labélisation 115 2.35 53 5 13 8.67 46 4.38 27 6

5.2.2. Classification des panneaux de signalisation

Comme évoqué dans le chapitre 4 section 2.4, nous présentons ici les résultats de
classification des panneaux de signalisation l’illustrés dans le tableau 5-13.

164
Chapitre 5
Résultats et discussions

Tableau 5-10: Résultats de détection de classification panneaux de signalisation.

TSAC_ TSAC_ TSAC_ Les TSAC_ TSAC_ Akid


Karma1 Karma2 falaise Pépéniaire Lotfi
Les techniques de
la classification 4900 frames 1060 frames 150 frames 1050 frames 450 frames

FD % FD FD % FD FD % FD FD % FD FD % FD

K=3 45 0.92 17 1.60 5 3.33 21 2 9 2


K-means

K=4 30 0.61 15 1.41 1 0.66 15 1.43 11 2.44

HOUGH Circule 12 0.24 10 0.94 2 1.33 9 0.86 16 3.56

5.2.3. Algorithme global

Dans cette section, nous discutons notre organigramme global de notre module qui est illustré
dans la figure 5-51, dont plusieurs modules sont présentés :

 Détection des panneaux de signalisation.


 Localisation des panneaux de signalisation.
 Classification des panneaux de signalisation.

165
Chapitre 5
Résultats et discussions

Capturer l’image

Jaune

Bleu Localisation

Vert

Vérification
Rouge

Oui
Blanc
Extraction de contours

Segmentation de la couleur

Transformation de Hough Ligne

K-means . k=3 K-means . k=4

Non
Variancei < s Variancei > s
Oui Non
Oui

Vérification
couleur Jaune
Oui Non

Transformation de Hough circule

Vérification
H/w>S
Non
Vérification
circule Oui

Oui

Vérification
couleur Jaune Non
Oui

Figure 5-51: Organigramme global de notre modules de classification des panneaux de signalisation routière.

166
Chapitre 5
Résultats et discussions

5.2.3.1. Description de l’algorithme


Notre module de classification des panneaux de signalisation routière commence par une phase
de détection des couleurs, qui est la détection des cinq couleurs. Dans ce cas le module passe à
l’étape suivant pour localiser les panneaux et après le module passe à l’étape de vérification
géométrique et colorimétrique, et pour l’étape de classification nous avons appliqué la
transformée Hough ligne pour trouver les line dans chaque zone après l’extraction .Dans le
cas où le module détecte la couleur rouge, nous appliqué K-means pour k=3. Dans le cas où le
module détecte les couleurs verte, jaune, et bleu nous appliqué K-means pour k=4. Si toutes les
variances sont petites, nous classons les panneaux, sinon nous appliquons Hough cercles, et à
la fin nous vérifions si les panneaux sont temporisés ou non.
Si un de ces symptômes apparait alors, il faut faire une alarme qui alerte le conducteur et affiche
les panneaux. La figure 5-52 montre les résultats obtenus.

Figure 5-52: Quelques exemples des résultats obtenus.

167
Chapitre 5
Résultats et discussions

5.3. Module de Détection de Fatigue et de Somnolence (MDFS).


5.3.1. Les méthodes de détection de visage
Les techniques de détection de visage qu’ont été présentées dans le chapitre 4 sont :
détection par la couleur de peau, par symétrie, par l’énergie du mouvement de visage, et par
LCP. Chaque méthode a ses avantages et inconvénients, et peut être jugée par son pourcentage
de détection et le temps de calcul nécessaire pour l’exécution.

Toutes ces méthodes fonctionnent dans le jour comme la nuit sauf la méthode de détection de
visage par la couleur de peau qui ne peut pas être applicable sur les images IR comme le montre
le tableau 5-11.

En effet, d’après les résultats que nous avons obtenus, la méthode de détection de visage par
couleur de peau fournit d’excellents résultats dans toutes les séquences de jour en utilisant les
différentes techniques de localisation : labélisation, localisation et la fusion entre eux. Et elle
n’est pas ni complexe, ni gourmande en temps de calcul. De plus, la technique de localisation
par projection est influencée par la présence de plusieurs objets qui ont une couleur similaire à
la couleur de peau, mais elle peut être améliorée en appliquant une deuxième passe de projection
sur chaque région détectée. En outre, les quatre méthodes de symétrie donnent des bons
résultats dans le jour comme la nuit. De plus, notre méthode proposée basée sur la différence
introduit une amélioration remarquable, notamment les résultats obtenus pendant la nuit.

La méthode de l’énergie de mouvement du visage fournit des très bons résultats sur les
séquences de nuit. Par ailleurs, la méthode de LCP donne des bons résultats sur les séquences
de jour et de nuit, et elle est plus efficace sur la différence.

168
Chapitre 5
Résultats et discussions

Tableau 5-11: Résultats de détection de visage.

Conducteur 1 Conducteur 2 Conducteur 3


Méthode de détection de Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames)
visage
FD % FD FD % FD FD % FD FD % FD FD % FD FD % FD

Projection 7 3.5 - - 2 1 - - 4 2 - -
Couleur de

Labellisation 2 1 - - 0 0 - - 7 3.5 - -
peau

Fusion projection
1 0.5 - - 0 0 - - 2 1 - -
labellisation

Rectangle 50 25 42 21 56 28 39 19.5 59 29,5 50 25

Normal 30 15 10 5 33 16.5 9 4.5 40 20 15 7.5


Symétrie

simple
Filtré 10 5 6 3 12 6 8 4 21 10.5 8 4
Normal 5 2.5 1 0.5 6 3 2 1 7 3.5 1 0.5
Différence
Filtré 3 1.5 0 0 2 1 0 0 4 2 0 0

Energie en mouvement 11 5.5 8 4 12 6 7 3.5 15 7.5 10 5

Simple 15 7.5 13 6.5 11 5.5 9 4.5 12 6 5 2.5


LCP

Différence 12 6 10 5 14 7 6 3 10 5 13 6.5

Filtre de Gabor 9 4.5 7 3.5 8 4 7 3.5 11 5.5 9 4.5

FD : Fausse Détection.

169
Chapitre 5
Résultats et discussions

5.3.2. Les méthodes de détection des yeux


Le tableau 5-12 résume les résultats des différentes techniques de détection des yeux
qu’ont été présentées dans le chapitre 4.

D’après le tableau 5-12, ces méthodes opèrent dans le jour comme la nuit, et elles sont
applicables sur les images normales et IR.

Les résultats montrent clairement que la méthode de détection des yeux par symétrie donne des
bons résultats quand le visage est frontal, et la méthode de masque circulaire fournit des très
bons résultats sur toutes les séquences. En outre, la méthode de masque de lunette donne
également d’excellents résultats.

170
Chapitre 5
Résultats et discussions

Tableau 5-12: Résultats de détection des yeux.

Conducteur 1 Conducteur 2 Conducteur 3


Méthode de détection des
Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames)
yeux
FD % FD FD % FD FD % FD FD % FD FD % FD FD % FD
Sans masque de
30 15 32 16 40 20 38 19 29 14.5 42 21
Symétrie

visage
Avec masque de
27 13.5 31 15.5 36 18 32 16 31 15.5 23 11.5
visage
Sans masque de
10 5 13 6.5 11 5.5 10 5 9 4.5 13 6.5
circulaire

visage
Masque

Avec masque de
2 1 5 2.5 7 3.5 9 4.5 7 3.5 10 5
visage

Image Grande
7 3.5 6 3 6 3 6 3 5 2.5 6 3
Contours lunette
Sobel H Petite
13 6.5 11 5.5 12 6 10 5 18 9 16 8
lunette
Masque lunette

Grande
8 4 13 6.5 10 5 12 6 11 5.5 17 8.5
Image lunette
seuillée Petite
13 6.5 16 8 20 10 15 7.5 17 8.5 22 11
lunette
Grande
Image 6 3 9 4.5 13 6.5 15 7.5 12 6 18 9
lunette
contours
Gabor Petite
11 5.5 8 4 14 7 17 8.5 17 8.5 14 7
lunette

171
Chapitre 5
Résultats et discussions

5.3.3. Les méthodes de suivi de visage et des yeux


Comme évoqué dans le chapitre 4 section 1.14, nous présentons ici les résultats
comparatifs de suivi de visage et des yeux comme l’illustre le tableau 5-13.

Le suivi par toutes les techniques avec un modèle non-fixe donne des bons résultats au départ
de suivi, mais ces méthodes présentent évidement un inconvénient : elles accumulent l’erreur à
cause de changement de pose de modèle recherché.

En outre, les résultats sont excellents par les techniques avec un modèle fixe au départ du 1er
frame en le recherchant dans les autres frames suivantes. Donc, notre contribution pour fixer le
modèle apporte une réelle amélioration des résultats et ceci, pour les diverses conditions de
tests. Parmi les approches appliquées, nous choisissons la technique de SAD pour réaliser la
phase de suivi, parce qu’elle offre un bon compromis entre la complexité et la qualité de suivi.
Mais s’il y a un changement brusque de luminosité, les résultats peuvent être influés, parce que
le modèle de référence est le même tout au long le processus de suivi et c’est la raison pour
laquelle nous avons proposé de faire une mise à jour régulière du modèle pour lui adapter à
chaque fois aux conditions de luminosité pendant la conduite en faisant un test de suivi

172
Chapitre 5
Résultats et discussions

Tableau 5-13: Résultats de suivi de visage et des yeux

Conducteur 1 suivi de visage Conducteur 1 suivi des yeux

Méthode de détection de suivi Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames)

mauvais % mauvais % mauvais % mauvais %

SAD

SSD
Modèle non-fixe

NCC
Bon pendent quelques frames mais mauvais dans toute les séquences
ZSAD

ZSSD

ZNCC

SAD

SSD
Modèle fixe

NCC
Bon pour toutes les séquences
ZSAD

ZSSD

ZNCC

173
Chapitre 5
Résultats et discussions

5.3.3.1. Le test de suivi


Nous avons fait une étude sur les résultats de suivi obtenus au cours de la séquence.
Pour chaque frame nous prenons la valeur minimale de la matrice SAD obtenue et nous la
normalisons par :

/ (5.1)

Ensuite, nous traçons la courbe de variation de cette dernière. Les résultats de la séquence (S1)
sont illustrés dans la figure 5-53 pour le suivi de visage, le suivi de l’œil gauche et le suivi de
l’œil droit avec les couleurs vert, rouge et bleu, respectivement.

Les résultats montrent clairement que la valeur SAD est inversement proportionnelle à la
qualité de suivi dont, le SAD prend une petite valeur quand le suivi est bon et vice-versa.

Nous avons répété cette expérience sur les autres séquences d’image et nous avons obtenu les
mêmes résultats.

Cette expérience nous a montré que nous pouvons vérifier la qualité de suivi en se basant sur
les valeurs obtenues de suivi et en testant la valeur par un seuil.

(5.2)

174
Chapitre 5
Résultats et discussions

(a)

(b)

(c)

Figure 5-53: La variation de la valeur de SADN pendant le suivi.


(a) Modèle de référence, (b) Bon résultat de suivi au 109eme frame,
(c) Mauvais résultats de suivi au 329eme frame.

175
Chapitre 5
Résultats et discussions

5.3.4. Les méthodes de décision de l’état des yeux


Les techniques de décision de l’état des yeux qu’ont été présentées dans le chapitre 4
sont : décision par la THC, par somme des points, par masque circulaire, par K-means, et par
la fusion entre la THC et le masque circulaire. Toutes ces méthodes fonctionnent dans le jour
comme la nuit, sauf la méthode de K-means parce qu’elle est applicable seulement sur les
images couleurs dans l’espace YCbCr.

Le tableau 5-14 illustre les résultats des différentes méthodes de décision de l’état des yeux.

D’après les résultats obtenus, la méthode de la THC donne des bons résultats, mais elle est un
peu lourde en temps du calcul par rapport aux autres méthodes.

La méthode de somme des points fournit des très bons résultats, mais le seuil de décision est
sensible au changement de luminosité qui influence beaucoup sur les images contours.

La méthode de fusion entre la méthode du masque d’iris avec la méthode qui utilise la THC
comme vérification de la présence d’iris donne des excellents résultats.

Les autres méthodes du masque circulaire donnent aussi des bons résultats dans la décision de
l’état des yeux.

176
Chapitre 5
Résultats et discussions

Tableau 5-14: Résultats de décision de l’état des yeux.

Conducteur 1 Conducteur 2 Conducteur 3


Méthode de décision Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames) Jour (200 frames) Nuit (200 frames)
l’état des yeux
FEO FEF %FE FEO FEF %FE FEO FEF %FE FEO FEF %FE FEO FEF %FE FEO FEF %FE

THC 12 10 11 8 3 5.5 10 9 9.5 8 4 6 13 7 10 11 4 7.5

Image Contours
17 5 11.5 15 6 10.5 16 5 10.5 14 5 9.5 13 5 9 11 7 9
Sobel
Somme des
points

Image seuillée 12 5 8.5 13 9 11 17 6 11.5 16 6 11 12 3 7.5 11 5 8

Image contours
11 2 6.5 10 4 7 10 3 6.5 13 2 7.5 10 6 8 9 8 8.5
Gabor

Masque circulaire 4 0 2 6 3 4.5 5 1 3 7 2 4.5 5 2 3.5 6 3 4.5

K-means 6 9 7.5 - - - 5 9 7 - - - 4 10 7 - - -

Fusion entre Masque


8 0 4 3 3 3 7 0 3.5 1 0 0.5 6 1 3.5 6 3 4.5
circulaire et THC
FEO : Fausse Etat Ouvert, FEF : Fausse Etat Fermé, %FE : Pourcentage de Fausse Etat.

177
Chapitre 5
Résultats et discussions

5.3.5. Algorithme global

Capturer l’image

Initialisation

Mauvais Non
Suivi de visage Détection de visage

Bon Oui

Mauvais Non
Suivi des yeux Détection des yeux

Bon Oui

Localisation
de la bouche
Mouvement
de la tête
Détection de
Etat des yeux
bâillement

Calculer
PERCLOS

Détection de Non
somnolence

Oui

Alarme

Figure 5-54: Organigramme global de notre module de détection de fatigue et de somnolence.

178
Chapitre 5
Résultats et discussions

Dans cette section, nous discutons notre organigramme global de notre module qui comprend
plusieurs modules. Il est illustré par la figure 5-54:

 Détection de visage.
 Détection des yeux.
 Suivi de visage.
 Suivi des yeux.
 Etat des yeux.
 Détection de bâillement.
 Mouvement de la tête.
 Détection de somnolence.

5.3.5.1. Description de l’algorithme


Notre module commence par une phase d’initialisation, qui est la détection de visage et la
détection des yeux. Dans ce cas, s’il n’y a pas de détection alors le module passe à la frame
suivante.

Dans le cas où le module détecte le visage et les yeux, nous extrairons les régions du visage et
les yeux en les prenant comme des modèles pour les poursuive dans les frames suivantes, et
pour chaque suivi nous testons est ce que le suivi est bon ou mauvais. S’il est mauvais nous
retournons à l’étape d’initialisation, sinon nous passons à l’étape suivante qui consiste à extraire
les différentes informations telles que l’état des yeux, la localisation de la bouche pour détecter
le bâillement et le mouvement de la tête. Tous ces facteurs ont une relation directe avec la
somnolence et le niveau de vigilance du conducteur. La somnolence est détectée s’il y a un de
ces symptômes :

1- PERCLOS : le conducteur est considéré somnolent s’il a fermé les yeux dans 5 frames
successives ou plus plusieurs fois pendant une durée de 3 secondes au maximum.
2- Le bâillement est la phase qui arrive juste avant le sommeil, alors il est important de le
détecter pour connaitre l’état du conducteur. S’il y a un bâillement fréquent plusieurs
fois périodiquement, alors le conducteur risque d’être somnolent.
3- Si la tête du conducteur est fixe pendant une période, il risque d’être distrait, par exemple
si le conducteur est dans une autoroute sans déviation il risque d’être facilement
inattentif.

Pour chacun de ces symptômes, il faut faire une alarme qui alerte le conducteur. Cette alarme
peut être un signal sonore ou une vibration du volant ou du siège de conducteur pour l’éveiller.

La Figure 5-55 montre le niveau de vigilance des conducteurs.

179
Chapitre 5
Résultats et discussions

(a) (b)

(c) (d)

Figure 5-55: Quelques exemples des résultats obtenus.


(a) et (d) Conducteur en état normal, (b) Conducteur en état somnolent (danger), (c) Conducteurs en état
presque-somnolent.

180
Conclusion générale & Perspective

Conclusion générale & Perspective


Dans cette thèse, nous avons présenté la conception et la réalisation d’un modèle avancé d’aide
à la conduite. Il comprend trois modules : Module de Détection de Véhicules et de Mesure de
Distance et Vitesse (MDVDV), Module de Classification des Panneaux de la Signalisation
Routière (MCPS), et Module de Détection de Fatigue et de Somnolence (MDFS). Le but est
d’avertir le conducteur pour réduire le risque d’accidents et ainsi améliorer la sécurité routière.

Nous avons fait appel aux systèmes de transports intelligents en développant un système ADAS
qui regroupe plusieurs dispositifs d’aide à la conduite intégrés au véhicule pour améliorer le
confort et la sécurité du conducteur.

On a effectué un état de l’art dans lequel on a introduit les procédures pour la réalisation de tels
modules et les différentes techniques employées.

Dans le troisième chapitre, nous avons détaillé les différents aspects théoriques qu’ont été
implémentés et utilisés dans notre système et qui nous ont aidé à développer l’algorithme global
comme : la calibration de caméra, la transformée de HOUGH, les techniques de calcul de la
symétrie dans l’image pour localiser les objets symétriques, le filtre de Gabor, … etc.

Dans le quatrième chapitre, nous avons présenté les principaux blocs de nos algorithmes des
trois modules. L’objectif de module de détection de véhicules et de mesure de distance et vitesse
(MDVDV) est de construire un sous module permettant de mesurer de manière précise la
distance et la vitesse d’un véhicule par un module de vision embarqué au bord du véhicule.
Dans cette partie, une étude approfondie de plusieurs algorithmes apparentés de ce module a
été menée. Cette étude nous a permis de mesurer le degré d’efficacité, et les limites de chaque
algorithme. Ce module nous a permis de concevoir un système d’alerte au conducteur afin de
l’aider à éviter les accidents de collision vers l’avant. En effet, notre module permet de diminuer
les collisions routières.

Ce module commence par l’extraction des deux droites délimitant la route par la transformée
de Hough. Ensuite, une détection d’objets est opérée pour détecter les véhicules. Puis, une
poursuite de véhicules détectées est effectuée à l’aide des algorithmes de mise en
correspondance. Par la suite, une fusion de données issues de la détection et de la poursuite est
faite afin de contrôler le comportement des véhicules dans la scène.

Pour finir, à l’aide des fondements géométriques, la distance de véhicule et la vitesse de ce


dernier sont calculées. A partir de la vitesse relative, le temps de collision peut etre déterminé.

Dans le module de classification des panneaux de signalisation routière (MCPS), nous avons
traité trois problèmes de la détection et la reconnaissance des panneaux de signalisation routière
par l’analyse d'une source vidéo. Afin de l'automatiser, nous avons développé deux modules,
un pour la détection et l’autre pour la reconnaissance en déterminant si l'on est bien en
présence d'un panneau ou non. Dans l’éventualité de présence d’un panneau on spécifie le type
de ce panneau.

181
Conclusion générale & Perspective

Nous avons développé un algorithme de détection exploitant les deux propriétés des panneaux
de signalisation à savoir l’information de la couleur (par la segmentation) et l’information de la
forme (par Hough). Nous avons ajouté un traitement intermédiaire afin d'améliorer les
performances de l'ensemble.

Dans le troisième module, nous avons débuté par la présentation de principaux blocs de notre
algorithme de l’analyse de somnolence qui se compose de : la détection de visage, la détection
des yeux et la décision de l’état des yeux. Nous avons également introduit nos contributions
pour améliorer et optimiser les résultats de chaque bloc. Ensuite, nous avons évoqué notre
module de somnolence proposé.

Dans le cinquième chapitre, nous avons présenté une évaluation de chaque module développé
séparément ainsi que les résultats de notre système global avec une discussion sur son
fonctionnement. En effet, les modules réalisés fournissent des bons résultats permettant de
répondre aux exigences de chaque module.

Contributions

Pendant la réalisation de ce travail, nous avons identifié plusieurs difficultés. La résolution de


chacune de ces difficultés a fait l’objet d’une contribution.

Dans le premier module, la première contribution concerne la modélisation de la route. Dans


cette partie, nous avons proposé les étapes suivantes pour faire un choix adéquat des deux
meilleures bordures par :

• l’introduction de deux accumulateurs : un accumulateur « route » et un autre « non route ».


• le Choix de l’angle.
• le Calcul de la distance euclidienne.
Deuxièmement, dans la partie de détection de véhicules, nous avons proposé d’utiliser la
technique LCP.

Troisièmement, nous avons proposé d’adapter la taille de fenêtre pour détection de véhicules.

La quatrième contribution concerne la phase de poursuite de véhicule en utilisant la fusion des


données.

Enfin, dans la mesure de distance, nous avons proposé d’utiliser la méthode d’interpolation.

Dans le deuxième module la première contribution concerne la détection de panneaux de la


signalisation par couleur est l’utilisation de la matrice OBJECT pour accélérer le processus de
détection.

La deuxième contribution concerne la partie de classification des panneaux de signalisation en


utilisant de l’algorithme de K-means pour la classification de la forme du panneau.

Dans le troisième module, la première contribution concerne la détection de visage par la


couleur de peau. Dans cette partie, nous avons proposé d’effectuer les trois étapes suivantes :

182
Conclusion générale & Perspective

 La vérification de pose du visage,


 L’élimination de la région du cou,
 L’utilisation de la matrice PEAU pour accélérer le processus de détection,
 La fusion entre la projection et la labellisation.
La deuxième contribution concerne la partie de détection du visage par symétrie. Nous avons
proposé l’application de symétrie sur la différence entre les images de contours. Cette méthode
proposée donne de bons résultats par rapport à la méthode de symétrie simple, et le filtrage du
signal de symétrie…etc.

La troisième contribution concerne les méthodes de détection de visage par la méthode de LCP,
et l’énergie du mouvement de visage.

La quatrième contribution concerne la phase du suivi en réinitialisant l’étape de détection si le


résultat de poursuite est mauvais.

La cinquième contribution concerne la phase de détection des yeux en utilisant le modèle de la


lunette, et le masque circulaire.

La sixième contribution concerne la phase de décision de l’état des yeux. Dans cette partie,
nous avons proposé les méthodes suivantes : la somme des points de contour, le masque
circulaire, et la fusion entre le masque circulaire et THC.

Perspectives

Plusieurs perspectives peuvent être envisagées dans le prolongement de ces travaux de thèse.
Le premier point concerne le module de détection de véhicules. Les algorithmes utilisés
devraient être évalués sur de séquences de scènes routières de différents endroits ainsi que dans
différentes conditions météorologiques afin d’assurer la fiabilité du notre système.

De nombreuses autres perspectives sont possibles par notre travail tant sur l'aspect théorique et
pratique.
 Modification du module d’alerte par un freinage automatique, parce que l’alerte sonore
ou visuelle est insuffisante pour mettre le conducteur en éveil.
 Amélioration de la méthode de calcul de vitesse de notre véhicule (cas des virages, les
situations de dépassement…)
 Création de notre propre base de données de la stéréovision et faire une étude
comparative avec les deux systèmes : monovision et stéréovision
 Amélioration de odule, pour qu’il puisse faire une régulation automatique de vitesse de
véhicule sans toucher à la pédale d’accélérateur.
Dans le deuxième module, les étapes les plus longues sont la vérification et la classification de
forme qui sont basés sur la transformée de Hough qui est très lourde de point de vu temps de
calcul, une optimisation de cette transformée est envisagée. L’ajout d’un sous module de
poursuite est aussi envisagé, il aura la charge de rechercher le panneau dans un périmètre plus
restreint et ainsi minimiser le temps de calcul, le sous module de poursuite peut jouer le rôle de

183
Conclusion générale & Perspective

confirmation de décision ce qui va augmenter considérablement la probabilité de détection et


minimiser par conséquent la probabilité de fausse détection.

Dans le troisième module, la première réflexion peut se faire au niveau de l’exploitation


d’autres indices qui peuvent déterminer l’état de fatigue du conducteur tels que le bâillement,
la position et le mouvement de la tête.

D’autre part, d’après les techniques implémentées dans cette thèse, nous pouvons déterminer
d’autres paramètres que la somnolence du conducteur, par exemple : la détection des activités
dangereuses du conducteur et mouvements qui influent sur la qualité de la conduite : détection
si le conducteur est distrait, …etc.

Nous voulons valider les performances de notre module par la détermination de l’état du
conducteur fondé sur un avis médical en faisant des collaborations avec des experts dans le
domaine de l’ophtalmologie et la neurologie.

D’autres solutions peuvent être envisagées, comme l’implémentation temps réel des
algorithmes proposés pour avoir des solutions optimales.

184
Bibliographie

Bibliographie

[1] La prevention routiere association, «Statistiques-d'accidents.Principaux facteurs


d’accidents,» 1 Janvier 2011. [En ligne]. Available: www.preventionroutiere.asso.fr.
[Accès le 10 Aout 2013].

[2] J. M. Bob McQueen, Intelligent transportation systems architectures, Boston House:


Artech, 1999.

[3] A. d. l. Escalera, L. E. .Moreno, M. A. Salichs et J. M. Armingol, «Road traffic sign


detection and classification,» IEEE Transactions on Industrial Electronics, vol. 44,
n° %16, pp. 848 - 859, 1997.

[4] G.Piccioli, E.DeMicheli, P.Parodi et M.Campani, «Arobust method for roadsign


detection and recognition,» Image and Vision Computing, vol. 14, n° %13, p. 209–223,
1996.

[5] P. Paclík, J. Novovicova, P. Pudil et P. Somol, «Road signs classification using the
Laplace kernel classifier,» Pattern Recognition Letters, vol. 21, n° %113-14, p. 1165–
1173, 2000.

[6] X. Gao, L. Podladchikova, D. Shaposhnikov, K. Hong et N. Shevtsova, «Recognition


of traffic signs based on their colour and models shape features extracted using human
vision,» Elsevier, vol. 17, n° %14, p. 675–685, 20 October 2005.

[7] K. Zhang, S. Y. et L. J, «Automatic detection of road traffic signs from natural scene
images based on pixel vector and central projected shape feature,» Intelligent
Transport Systems, vol. 6, n° %13, pp. 282 - 291, 2012.

[8] J. Khan, S. Bhuiyan et R. Adhami, «Image Segmentation and Shape Analysis for
Road-Sign Detection,» IEEE Transactions on Intelligent Transportation Systems , vol.
12, n° %11, pp. 83 - 96 , 2011.

[9] J. Greenhalgh et M. Mirmehdi, «Real-Time Detection and Recognition of Road Traffic


Signs,» IEEE Transactions on Intelligent Transportation Systems , vol. 13, n° %14, pp.
1498 - 1506 , 2012.

[10] B. Ali, Détection des panneaux de signalisation, ORAN: USTO-MB,LSI, 2011.

[11] J. Miura, T. Kanda et Y. Shirai, «An active vision system for real-time traffic sign
recognition,» chez IEEE Intelligent Transportation Systems, Dearborn, MI , 2000.

[12] W.-Y. Wu, T.-C. Hsieh et C.-S. Lai, «Extracting Road Signs using the Color
Information,» International Journal of Computer Science & Engineering, vol. 2,
n° %11, pp. 9-13, 2008.

185
Bibliographie

[13] H. Amini, A. B. Abbes, M. Chakroun, N. Chan, C. Chandesris et E. Charbit,


«Reconnaissance des panneaux routiers sur une image,» Le Département
d'Informatique de l'ENS, Paris, 2006.

[14] U. Zakir, I. Zafar et E. A. Edirisinghe, «Road Sign Detection and Recognition by


Using Local Energy based Shape Histogram (LESH),» International Journal of Image
Processing, (IJIP), vol. 4, n° %16, pp. 576-583, 2010.

[15] H. Fleyeh, «Road and Traffic Sign Color Detection and Segmentation - A Fuzzy
Approach,» chez MVA2005 IAPR Conference on Machine VIsion Applications,
Tsukuba Science City; Japan, 2005.

[16] M. Bénallal et J. Meunier, «Real-time color segmentation of road signs,» chez IEEE
CCECE 2003. Canadian Conference on Electrical and Computer Engineering,
Montréal, 2003.

[17] L. L. David et F. Olac, «Color-Based Road Sign Detection and Tracking,» chez 4th
international conference on Image Analysis and Recognition, USA; Texas, 2007.

[18] Y. Ishizuka et E. A. Puente, «Segmentation of road sign symbols using opponent-color


filters,» chez ITSWC, Nagoya, 2004.

[19] P. Suau, «Robust artificial landmark recognition using polar histograms,» Lecture
Notes in Computer Science, vol. 3808, p. 455–461, 2005.

[20] S. Lafuente-Arroyo, P. Garcıa-Dıaz, F. J. Acevedo-Rodrıguez, P. G.-. Jimenez et S.


Maldonado-Bascon, «Traffic sign classification invariant to rotations using support
vector machines,» chez Advanced Concepts for Intelligent Vision Systems, Brussels,
Belgium, 2004.

[21] G. Mo et Y. Aoky, «Recognition of traffic signs in color images,» chez TENCON,


Chiang Mai , 2004.

[22] T. T. Le, S. T. Tran, S. Mita et T. D. Nguyen, «Real Time Traffic Sign Detection
Using Color and Shape-Based Features,» Lecture Notes in Computer Science , vol.
5991, pp. 268-278 , 2010.

[23] E. Cardarelli, P. Medici, P. P. Porta et G. Ghisio, «Road signs shapes detection based
on Sobel phase analysis,» chez IEEE Intelligent Vehicles Symposium, Xi'an , 2009.

[24] S. Vitabile, G. Pollaccia, G. Pilato et F. Sorbello, «Road signs recognition using a


dynamic pixel aggregation technique in the hsv color space, in: Proceedings of the 11th
International Conference on Image Analysis and Processing,» chez 11th International
Conference on Image Analysis and Processing, Palermo, Italy, 2001.

[25] H. Liu, D. Liu et J. Xin, «Real-time recognition of road traffic sign in motion image
based on genetic algorithm,» chez 1st International Conference on Machine Learning
and Cybernetics, 2002.

186
Bibliographie

[26] Y. Aoyagi et T. Asakura, «A study on traffic sign recognition in scene image using
genetic algorithms and neural networks,» chez 22nd IEEE International Conference on
Industrial Electronics, Control and Instrumentation, Taipeh, Taiwan, 1996.

[27] B. Igor, K. Ivan, K. Ivan et S. Sinisa, «Addressing false alarms and localization
inaccuracy in traffic sign detection and recognition,» chez 16th Computer Vision
Winter Workshop, Zagreb, 2011.

[28] C.Y.Fang, S.W.Chen et C.S.Fuh, «Road sign detection and tracking,» IEEE
Transactions on Vehicular Technology, vol. 52 , n° %15, pp. 1329 - 1341 , 2003.

[29] RAFerlis, «Infrastructure intersection collision avoidance,» chez Intersection Safety,


Milwaukee, 2001.

[30] H. A. O. M. C. M. H. V. R. J. e. N. P. K. Stubbs, « A Real-Time Collision Warning


System for Intersections,» chez 13th Annual Meeting on Intelligent Transportation
Systems America, Minneapolis,USA, 2003.

[31] K. Funderburg, «Update on intelligent vehicles and intersections,» Public roads, vol.
67, n° %14, pp. 34-39, 2004.

[32] R. M. e. Q. Huang, «An adaptive peer-to-peer collision warning system.,» chez IEEE
Vehicular Technology Conference, Barcelona, 2002.

[33] P. L. K. S. A. e. V. R. B. Zador, « Automotive collision avoidance system (ACAS)


program,» NHTSA, Washington, 2000.

[34] D. E. D. W. B. Z. e. V. J. M. Le Blanc, « On-road evaluation of the save-it vehicle


prototype,» Final Report for the SAfetyVEhicles using adaptive Interface Technology ,
2008.

[35] G. Motors, «Automotive collision avoidance system field operational test,» NHTSA,
Washington, 2005.

[36] R. S. T. B. e. C. D. Parasuraman, « A model for types and levels of human interaction


with automation,» IEEE Transactions on Systems, Man and Cybernetics, Part A :
Systems and Humans, vol. 30, n° %13, p. 286–297, 2000.

[37] J. P. e. A. S. A. Bliss, «Alarm mistrust in automobiles : how collision alarm reliability


affects driving,» Applied Ergonomics , vol. 34, n° %16, p. 499–509, 2003.

[38] V. e. P. V. Portouli, «On-road study on short-term effects of ADAS on driving


behaviour,» chez Driver support and information systems: Experiments on learning
.appropriation and effects of adaptiveness , 2008, pp. 74-96.

[39] T. J. T. K. L. Y. N. T. E. M. K. S. &. C. T. Michael A. Regan, «On-road evaluation of


intelligent speed adaptation, following distance warning and seatbelt reminder
systems,» TAC SafeCar, Monash University Accident Research Center, 2006.

187
Bibliographie

[40] B. e. J.-F. Cahour, «Does projection into use improve trust and exploration? an
example with a cruise control system,» Safety Science, vol. 47, n° %19, p. 1260–1270,
2009.

[41] H. SENOUCI et F. SEMSAR, Mesure de distance et de vitesse d’un véhicule par


caméra embarquée, ORAN: USTO-MB,LSI, 2013.

[42] M. Herbert, «Active and Passive Range Sensing for Robotics,» chez IEEE Int’l Conf.
Robotics and Automation, 2000.

[43] T. S. K. a. K. H. S. Park, «A Novel Signal Processing Technique for Vehicle Detection


Radar,» chez IEEE MTT-S Int’lMicrowave Symp, Digest, 2003.

[44] C. a. A. S. C. Wang, « Ladar-Based Detection andTracking of Moving Objects from a


Ground Vehicle at HighSpeeds,» chez IEEE Intelligent Vehicles Symp, 2003.

[45] G. a. Q. Z. R. Chellappa, «Vehicle Detection and Tracking Using Acoustic and Video
Sensors,» chez IEEE Int’l Conf.Acoustics, Speech, and Signal Processing, 2004.

[46] A. Kuehnle, «Symmetry-Based Recognition for Vehicle Rears,» Pattern Recognition


Letters, vol. 12, n° %14, p. 249–258, 1991.

[47] M. a. W. v. S. T. Zielke, «Intensity and Edge-Based Symmetry Detection with an


Application to Car-Following,» CVGIP: Image Understanding, vol. 58, n° %12, p.
177–190, 1993.

[48] C. a. W. v. S. T. Kalinke, « A Texture-Based Object Detection and an Adaptive


Model-Based Classification,» chez IEEE Int’l Conf. Intelligent Vehicles, 1998.

[49] H. Charkai, « Shadow and Rhythm as Sign Patterns of Obstacle Detection,» chez Int’l
Symp. Industrial Electronics, 1993.

[50] R. D. D. T. H. M. M. F. T. J. S. E. D. Dickmanns, «The Seeing Passenger Car


‘Vamors-PX,» chez Int’lSymp. Intelligent Vehicles, 1994.

[51] A. a. S. C. M. Bertozzi, «A Real-Time Oriented System for Vehicle Detection,»


Systems Architecture, vol. 43, n° %11-5, pp. 317 - 325, 1997.

[52] E. H. a. L. S. D. M. Betke, «Real-time multiple vehicle detection and tracking from a


moving vehicle,» Machine Vision and Applications, vol. 12, n° %12, p. 69–83, Aout
2000.

[53] B. Steux, Maps, un environnement logiciel dédie `a la conception d’applications


embarqués temps-réel. Utilisation pour la détection automatique de véhicules par
fusion radar/vision, Paris, France: Ecole des Mines de Paris, Décembre 2001.

[54] F. Marmiton, Détection et suivi par vision monoculaire d’obstacles mobiles


coopératifs à partir d’un véhicule expérimental automobile, Clermont-Ferrand, F:
Université Blaise, 2000.

188
Bibliographie

[55] F. M. R. C. F. C. a. J. P. D. R. Aufrere, «Détection de route et suivi de véhicules par


vision pour l’acc,» chez Traitement du Signal, 2000.

[56] R. Piccardi, «Vehicle Detection under Day and Night Illumination,» chez Int’l ICSC
Symp. Intelligent Industrial Automation, 1999.

[57] U. Handmanna, T. Kalinke, C. Tzomakas, M. Werner et W. Seelen, «An image


processing system for driver assistance,» Image and Vision Computing, vol. 18,
n° %15, pp. 368-376, 2000.

[58] W. Kruger, W.E. et S. Rossle, « Real-Time Estimationand Tracking of Optical Flow


Vectors for Obstacle Detection,» chez IEEE Intelligent Vehicle Symp, 1995.

[59] M. a. V. T. A. Giachetti, «The Use of Optical Flowfor Road Navigation,» chez IEEE
Trans. Robotics and Automation, 1998.

[60] L. L. B. B. B. a. M. R. Mandelbaum, « Real-Time Stereo Prcessing, Obstacle


Detection, and Terrain Estimation from Vehicle-Mounted Stereo Cameras,» chez IEEE
Workshop Applications of Computer Vision, 1998.

[61] V. M. P. N. N. H. J.-P. T. a. D. A. Pierre Charbonnier, «La stéréovision appliquée à


l'analyse de scènes routières,» Centre pour la communication scientifique directe,
Paris, 2009.

[62] G. Yuta, «Obstacle Detection by Vision System for Autonomous Vehicle,» chez
Intelligent Vehicles, 1993.

[63] B. A. Massimo Bertozzi, «GOLD: A Parallel Real-Time Stereo Vision System for
Generic Obstacle and Lane Detection,» IEEE TRANSACTIONS ON IMAGE
PROCESSING, vol. 7, n° %11, pp. 62 - 81 , 1998.

[64] M. Gonzalez Mendoza, "Surveillance temps-réel des systèmes Homme-Machine.


Application à l'assistance à la conduite automobile," Doctorat, Institut National des
Sciences Appliquées, Toulouse, 16 Juillet 2004.

[65] J. Roge, T. Pebayle and A. Muzet, "Variations of the level of vigilance and of
behavioral activities during simulated automobile driving," Accident Analysis and
Prevention, vol. 33, pp. 181-186, 2001.

[66] S. Boverie, «Facteurs Biologiques et Environnementaux de la Dégradation de la


Vigilance chez les conducteurs et Système de Détection Automatique des Baisses de
Vigilance, Programme PREDIT III, Conventions de recherche,» 2003.

[67] A. S. BAQUHAIZEL et M. A. OUIS, Système de détection de la somnolence du


conducteur basé sur la vision, ORAN: USTO-MB.LSI, 2012.

[68] A. Anund et B. Peters, «Deliverable 7.1. Preliminary Pilot Plans. AWAKE Project
IST-2000-28062,» September, 2002.

189
Bibliographie

[69] E. Bekiaris, "SAVE (System for effective Assessment of the driver state and Vehicle
controle in Emergency situations), Final report, TR1047," TELEMATICS
APPLICATIONS, Brussels, 1999.

[70] M. J. Flores, J. M. Armingol and A. d. l. Escalera, "Driver DrowsinessWarning


SystemUsing Visual Information for Both Diurnal and Nocturnal Illumination
Conditions," EURASIP Journal on Advances in Signal Processing, vol. 2010, no.
438205, p. 19, 2010.

[71] P. Viola and M. Jones, "Rapid Object Detection using a Boosted Cascade of Simple
Features," in Proceedings of the IEEE Computer Society Conference on Computer
Vision and Pattern Recognition, 2001.

[72] M. Isard et A. Blake, «CONDENSATION—Conditional Density Propagation for


Visual Tracking,» International Journal of Computer Vision, vol. 29, n° %11, pp. 5-
28, 1998.

[73] M. A. Isard, «Visual Motion Analysis by Probabilistic Propagation of Conditional


Density,» Ph.D. thesis, University of Oxford, Oxford, UK, 1998.

[74] G. Loy and A. Zelinsky, "Fast Radial Symmetry for Detecting Points of Interest,"
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,
vol. 25, no. 8, pp. 959-973, 2003.

[75] T. D'Orazio, M. Leo and A. Distante, "Eye detection in face images for a driver
vigilance system," in IEEE Intelligent Vehicles Symposium, Parma, Italy, June 14-17,
2004.

[76] W.-B. Horng, C.-Y. Chen, Y. Chang and C.-H. Fan, "Driver Fatigue Detection Based
on Eye Tracking and Dynamic’ Template Matching," in IEEE International
Confercncc on Nclvorkinp, Sensing & Control, Taipei, Taiwan, March 2004.

[77] T. Brandt, R. Stemmer et A. Rakotonirainy, «Affordable Visual Driver Monitoring


System for fatigue and monotony,» chez IEEE lntemational Conference on Systems,
Man and Cybemetics, 2004.

[78] Z. Tian et H. Qin, «Real-time Driver's Eye State Detection,» chez IEEE International
Conference on Vehicular Electronics and Safety, October 2005.

[79] W. Dong and X. Wu, "DRIVER FATIGUE DETECTION BASED ON THE


DISTANCE OF EYELID," in IEEE International Workshop on VLSI Design and
Video Technology, Suzhou-China, May 2005.

[80] A. A. Branzan, B. Widsten, T. Wang, J. Lan et J. Mah, «A Computer Vision-Based


System for Real-Time Detection of Sleep Onset in Fatigued Drivers,» chez IEEE
Intelligent Vehicles Symposium, Eindhoven, The Netherlands, June 2008.

190
Bibliographie

[81] T. Hong, H. Qin and Q. Sun, "An Improved Real Time Eye State Identification System
in Driver Drowsiness Detection," in IEEE International Conference on Control and
Automation, Guangzhou, CHINA, 2007.

[82] M. Su, C. Hsiung and D. Huang, "A Simple Approach to Implementing a System for
Monitoring Driver," in IEEE International Conference on Systems, Man, and
Cybernetics, Taipei, Taiwan, October 8-11, 2006.

[83] R. Lienhart, A. Kuranov and V. Pisarevsky, "Empirical Analysis of Detection


Cascades of Boosted Classifiers for Rapid Object Detection," Technical Report,
Microprocessor Research Lab (MRL), Intel Labs, USA, 2002.

[84] S. Singh and N. Papanikolopoulos, "Monitoring Driver Fatigue Using Facial Analysis
Techniques," in IEEE Intelligent Transport System, Tokyo, Japan, October 1999.

[85] A. Malla, P. Davidson, P. Bones, R. Green and R. Jones, "Automated Video-based


Measurement of Eye Closure for Detecting Behavioral Microsleep," in 32nd Annual
International Conference of the IEEE EMBS, Buenos Aires, Argentina, 2010.

[86] R. Lienhart and J. Maydt, "An Extended Set of Haar-like Features for Rapid Object
Detection," in IEEE International Conference on Image Processing, 2002.

[87] Intel Corporation, Open Source Computer Vision Library Reference Manual, U.S.A:
Intel Corporation, 2001.

[88] S. Vitabile, A. Paola and F. Sorbello, "Bright Pupil Detection in an Embedded, Real-
time Drowsiness Monitoring System," in 24th IEEE International Conference on
Advanced Information Networking and Applications, 2010.

[89] B. Bhowmick and C. Kumar, "Detection and Classification of Eye State in IR Camera
for Driver Drowsiness Identification," in IEEE International Conference on Signal and
Image Processing Applications, 2009.

[90] N. Otsu, "A Threshold Selection Method from Gray-Level Histograms," IEEE
Transactions on Systems,Man and Cybernatics, vol. 9, no. 1, pp. 62-66, 1979.

[91] O. F. P. S.Gupte, «Detection and Classification of Vehicles,» IEEE transactions


intelligent transportation systems, vol. 3, n° %11, pp. 37-47, 2002.

[92] J.-P. Pérez, Optique géométrique et ondulatoire, 4e éd., Paru: Masson, 1994.

[93] P. C. M. H. J. Weng, « Camera calibration with distortion models and accuracy


evaluation,» IEEE Transactions on Pattern Analysis and Machine Intel ligence, vol.
14, n° %110, pp. 965 - 980 , 1992.

[94] R. Tsai, «A versatile camera calibration technique for high-accuracy 3D machine


vision metrology using off-the-shelf tv cameras and lenses.,» IEEE Journal of Robotics
and Automation, vol. 3, n° %14, pp. 323-344, August 1987.

191
Bibliographie

[95] H. A. Beyer, «Accurate Calibration of CCD Cameras,» chez IEEE Conferene on


Computer Vision and Pattern Reognition (CVPR'92), 1992.

[96] Z. Zhang, «A Flexible New Technique for Camera Calibration,» IEEE Transactions on
Pattern Analysis and Machine Intelligence, vol. 22, n° %111, pp. 1330-1334, 2000.

[97] Q.-T. Luong, Matrice Fondamentale et calibration Visuelle sur l’Environnement Vers
une plus grande autonomie des systèmes robotiques, Orsay, Université de Paris-Sud:
Centre d’Orsay, 1992.

[98] M. Hariti, Une Méthode Rapide D’appariement d’Images Stéréoscopiques :


Application à la Perception de l’Environnement d’Un Véhicule Routier, Belfort-
Montbéliard: Université de Technologie de Belfort-Montbéliard, 2004.

[99] S. Bougnoux, «From projective to Euclidian space under any practical situation, a
criticism of self-calibration,» chez 6th International Conference on Computer Vision,
1998.

[100] M. S. Nixon and A. S. Aguado, Feature Extraction and Image Processing, 2nd ed.,
Oxford: Jordan Hill, Oxford OX2 8DP, UK, 2008.

[101] T. Zouagui, Cours : Transformée de Hough, Master 1, Oran, Algérie: Université des
Sciences et de la Technologie d'Oran, Faculté Génie Electrique - Departement
d'Electronique, 2009.

[102] A. Calmettes et G. Cedille, «Filtres de Gabor,» 9 May 2008. [En ligne]. Available:
www.calmettes.arnaud.free.fr. [Accès le 1 Aout 2013].

[103] K. Jack, Video Demystified A Handbook for the Digital Engineer, 5th Edition éd.,
Jordan Hill, Oxford OX2 8DP, UK, 2007.

[104] A. Ford and A. Roberts, "Colour Space Conversions," 1998. [Online]. Available:
ftp://wmin .ac.uk/put/itrg/. [Accessed 15 Aout 2012].

[105] M. Hammami, «Modèle de peau et application à la classification d’images et au


filtrage des sites Web,» These Ph.D, Ecole Centrale de Lyon, Lyon, France, 2005.

[106] R. Hsu, M. AbdelMottaleb and A. Jain, "Face Detection in Color Images," IEEE
Transaction on Pattern Analysis and Machine Intelligence, vol. 24, no. 5, pp. 696-706,
May, 2002.

[107] J. C. Terrillon, M. N. Shirazi, H. Fukamachi and S. Akamatsu, "Comparative


Performance of Different Skin Chrominance Models and Chrominance Spaces for the
Automatic Detection of Human Faces in Color Images," in Fourth IEEE International
Conference on Automatic Face and Gesture Recognition, 2000. Proceedings, Grenoble
, 2000.

192
Bibliographie

[108] H. Wu, T. Yokoyama, D. Pramadihanto and M. Yachida, "Face and facial feature
extraction from color images," in Second International Conference on Automatic Face
and Gesture Recognition, Killington, VT , 1996.

[109] H. OUHADDI, P. HORAIN and K. MIKOLAJCZYK, "Modélisation et suivi de la


main," in Actes 4emes Journées d'etudes et d'échange Compression et Representation
des Signaux Audiovisuels, Lannion, France, June 1998.

[110] M. M. Fleck, D. A. Forsyth et C. Bregler, «Finding naked people,» chez European


Conference on Computer Vision, Springer-Verlag, pp. 592-602, Berlin, Germany,
1996.

[111] D. A. Forsyth et M. M. Fleck, «Identifying nude pictures,» chez IEEE Workshop on


the Applications of Computer Vision, Sarasota, FL , 1996.

[112] R. Kjeldsen et J. kinder, «Finding skin in color images,» chez Proceeding of the 2nd
International Conference on Automatic Face and Gesture Recognition, pp. 312-318,
Vermont, 1996.

[113] V. Vezhnevets, V. Sazonov et A. Andreeva, «A survey on pixel-based skin color


detection techniques,» chez Proceeding of the 13th International Conference on the
Computer Graphics and Vision, Moscow, Russia, September 2003..

[114] T. A. Mysliwiec, "A freehand computer pointing interface, Vision Interfaces and
Systems, Technical report," University of Illinois, Chicago, 1994.

[115] F. K. H. Quek, T. Mysliwiec et M. Zhao, «Fingermouse: A freehand pointing


interface,» chez International Workshop on Automatic Face- and Gesture-Recognition,
Zurich, Switzerland, 1995.

[116] J. Brand et J. Mason, «A comparative assessment of three approaches to pixel-level


human skin-detection,» chez 15th International Conference on Pattern Recognition,
Barcelona, Spain, September, 2000.

[117] M. J. Jones and J. M. Rehg, "Statistical color models with application to skin
detection," International Journal of Computer Vision , vol. 46, no. 1, pp. 81-96,
January 2002.

[118] D. Brown, I. Craw et J. Lewthwaite, «A som based approach to skin detection with
application in real time systems,» chez British Machine Vision Conference, UK, 2001.

[119] M. Soriano, B. Martinkauppi, S. Huovinen and M. Laaksonen, "Skin detection in video


under changing illumination conditions," in Computer Vision and Pattern Recognition,
Barcelona , 2000.

[120] K. Schwerdt and J. L. Crowley, "Robust Face Tracking using Color," in 4th IEEE
International Conference on Automatic Face and Gesture Recognition, Grenoble,
France, Mars 2000.

193
Bibliographie

[121] L. Sigal, S. Sclaroff and V. Athitsos, "Skin color-based video segmentation under
time-varying illumination," IEEE Transactions on Pattern Analysis and Machine
Intelligence , vol. 26, no. 7, pp. 862-877, July 2004.

[122] L. Jordao, M. Perrone, J. Costeira and J. Santos-Victor, "Active face and feature
tracking," in International Conference on Image Analysis and Processing, Venice,
Italy, September 1999.

[123] M. Aamer, W. Ying, J. Jianmin and I. Stan, "Face Detection based Neural Networks
using Robust Skin Color Segmentation," in 5th International Multi-Conference on
Systems, Signals and Devices IEEE, Amman, 2008.

[124] S. L. Phung, A. Bouzerdoum and D. Chai, "A novel skin color model in ycbcr color
space and its application to human face detection," in IEEE International Conference
on Image Processing (ICIP’2002), 2002.

[125] B. Menser and M. Wien, "Segmentation and tracking of facial regions in color image
sequences," in SPIE Visual Communications and Image Processing, Perth, Australia,
2000.

[126] D. Chai and A. Bouzerdoum, "A bayesian approach to skin color classification in
YCbCr color space," in IEEE Region Ten Conference (TENCON'2000), Kuala Lumpur
, 2000.

[127] R. C. Gonzalez, R. E. Woods and S. L. Eddins, Digital Image Processing Using


MATLAB, Pearson Prentice Hall, 2003.

[128] P. Lamaty et D. Demigny, «Opérateur matériel d’étiquetage de régions temps réel et


flot de données,» chez Dix-septième colloque GRETSI, Vannes, 13-17 septembre 1999.

[129] F. Bach et G. Obozinski, «"Cours 3 : K-means", EM, Mélange des Gaussiennes,


Théorie des graphes,» 2010/2011. [En ligne]. Available:
http://www.di.ens.fr/~fbach/courses/fall2010/. [Accès le 2012 Aout 12].

[130] P. F. McLauchlan and J. Malik, "Vision for Longitudinal Vehicle Contro," in


Proceedings of the Eighth British Machine Vision Conference (BMVC’97), GB, 1997.

[131] A. Marin Hernandez, "Vision dynamique pour la navigation d’un robot mobile," These
Ph.D, Laboratoire d’Analyse et d’Architecture des Systèmes du CNRS, Toulouse,
France, 2004.

[132] A. Blake and A. Yuille, "Active Vision," MIT press, USA, November, 1992.

[133] A. Blake et M. Isard, «Active Contours,» Springer-Verlag, London, 1998.

[134] D. Koller, J. Weber and J. Malik, "Robust multiple car tracking with occlusion
reasoning," in 3rd European Conference on Computer Vision (ECCV’94), Stockholm,
May, 1994.

194
Bibliographie

[135] S. Smith and J. Brady, "ASSET-2: Real-Time Motion Segmentation and Shape
Tracking," IEEE Transportation on Pattern Analysis and Machine Intelligence, vol.
17, no. 8, pp. 814-820, August 1995.

[136] B. Bascle, P. Bouthemy, R. Deriche and F. Meyer, "Tracking complex primitives in an


image sequence," Technical Report 2428, INRIA, Sophia-Antipolis, France, December
1994.

[137] T. Drummond and R. Cipolla, "“Real-time tracking of complex structures with on-line
camera calibration," Image and Vision Computing, vol. 20, no. 5-6, pp. 427-433, 2002.

[138] F. Dellaert, C. Thorpe and S. Thrun, "Super-Resolved Texture Tracking of Planar


Surface Patches," in IEEE/RSJ International Conference on Intelligent Robotic
Systems, October, 1998.

[139] F. Parada-Loira et J. L. Alba-Castro, «Local Contour Patterns for Fast Traffic Sign
Detection,» IEEE Intelligent Vehicles Symposium, 2010.

[140] B. Alshaqaqi, Mesure de Distance et Vitesse d’un objet mobile par Système de Vision,
ORAN: Université des Sciences et de la Technologie d’Oran-MB-, 2009.

[141] R. V. D. H. e. E. M. V. Marchau, «Desirability of advanced driver assistance from road


safety perspective : the case of ISA,» Safety Science, vol. 43, n° %11, pp. 11-27, 2005.

[142] K. Laughery, «Safety communications : Warnings,» Applied ergonomics, vol. 37,


n° %14, p. 467–478, 2006.

[143] S. A. e. F. Nashashibi, «Real time trajectory prediction for collision risk estimation
between vehicles,» chez IEEE 5th International Conference on Intelligent Computer
Communication and Processing (ICCP), _, 2009.

[144] M.-H. Yang, D. J. Kriegman and N. Ahuja, "Detecting Faces in Images: A Survey,"
IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,
vol. 24, no. 1, p. 34, JANUARY 2002.

[145] K. Dirk-Jan, "Viola Jones Object Detection," Nov 2010. [Online]. Available:
www.mathworks.com/matlabcentral/fileexchange/29437-viola-jones-object-detection.

[146] AASM, "(American Academy of Sleep Medicine) The International Classification of


Sleep Disorders, Revised. Diagnostic and Coding Manual," USA, 2001.

[147] Moto caradisiac, «Arrivée du nouveau GPS Garmin pour deux roues: le Nuvi 510,»
Moto caradisiac, 01 novembre 2008. [En ligne]. Available: www.moto.caradisiac.com.
[Accès le 1 Aout 2013].

[148] RuggedCom, «applications.transportation.Active Traffic Management,» RuggedCom,


1 Janvier 2011. [En ligne]. Available: www.ruggedcom.com. [Accès le 1 Aout 2013].

195
Bibliographie

[149] BMW, «newvehicles.x.x6.2012.showroom.comfort.active_cruise_control,» BMW, 1


Janvier 2001. [En ligne]. Available: www.bmw.be. [Accès le 2013 Aout 1].

[150] Streets blogs, «Bus Stop. Hamburg, Germany,» Streets blogs, 1 Janvier 2010. [En
ligne]. Available: www.streetsblog.org. [Accès le 2013 Aout 1].

[151] M. G. MENDOZA, Surveillance temps-réel des systèmes Homme-Machine.


Application à l'assistance à la conduite automobile, Toulouse: Institut National des
Sciences Appliquées de Toulouse, 2004.

196
‫ملخص‬
‫ اذ ان‬.‫ وخاصة المركبات اذ انھا أكثر وسائل النقل المستخدمة وأقلھا أمنا‬،‫أمن وسائل النقل ھو محور الكثير من األبحاث‬
‫ في العادة فان السائقين ھم سبب وقوع الحادث بسبب‬.‫الحوادث تقع نتيجة فشل في النظام المؤلف من السائق والسيارة والبيئة‬
‫ من أجل الحد من آثار ھذه األخطاء‬.‫ أو بسبب عدم السيطرة الكافية على ديناميكية السيارة‬،‫التصور غير الدقيق لبيئة الطريق‬
‫ ھدف ھذه االبحاث ھو تنبيه سائق لمدى‬.‫ فقد بدأت العديد من األبحاث لتطوير انظمة مساعدة السائق في القيادة‬،‫البشرية‬
‫ حيث يتم استخراج‬.‫ توفر ھذه النظم معلومات فورية عن حالة بيئة الطريق حول السيارة‬.‫خطورة الوضع الذي يجد نفسه فيه‬
‫ وبھدف المساعدة في انظمة القيادة الذاتية في الطرق فإننا واعتمادا‬.‫ يتم بعدھا لتنبيه السائق‬،‫بعض المؤشرات الديناميكية للبيئة‬
‫ فقد اقترحنا نظاما لمساعدة السائق اعتمادا على االنظمة البصرية التي يمكن أن تلبي عددا من‬،‫على أنظمة النقل الذكية‬
:‫ ويتكون ھذا النظام من ثالث وحدات رئيسية ھي‬.‫الوظائف‬
.‫• وحدة الكشف عن المركبات وقياس المسافة والسرعة‬
.‫• وحدة تصنيف الفتات إشارات المرور‬
.‫• وحدة الكشف عن التعب والنعاس‬
‫ وتحديد مواقعھا وسرعتھا النسبية بالنسبة‬،‫ الكشف عن المركبات‬:‫والھدف من ذلك ھو تصميم نظام يعتمد على عدة خطوات‬
.‫ وكشف النعاس والتعب أثناء القيادة‬،‫ اضافة الى تصنيف لوحات عالمات طريقھم‬،‫السيارة المجھزة بالنظام وتتبع المسارات‬
‫ والتي أثبتت فعاليتھا من خالل التجارب العملية التي‬،‫تحصلنا من خالل ھذه الوحدات على نتائج مرضية في جميع المراحل‬
‫ أجرينا الكثير من‬،‫ ومع ذلك‬،‫ نجد أنه من الضروري أن نؤكد أن ھذا العمل في المقام األول ھو عمل بحثي‬،‫ وأخيرا‬.‫قمنا بھا‬
.‫التجارب خارج المختبر لتوفير نتائج أكثر واقعية‬

Résumé
La sécurité des moyens de transport a fait l'objet d'une attention de nombreux travaux de
recherche, en particulier la voiture qui est généralement le moyen de transport le plus utilisée
et le moins sécurisé. En effet, un accident apparaît comme un disfonctionnement du système
constitué du conducteur, du véhicule et de l'environnement.
Typiquement, l'homme est à l'origine de l'accident, soit à cause d'une perception imprécise de
l'environnement routier, soit à cause d'un contrôle inadapté de la dynamique du véhicule.
Afin de limiter les conséquences de ces fautes humaines, de nombreuses recherches sont
entamées pour la mise en place de systèmes embarqués d'aide à la conduite. Leur l'objectif est
d'informer le conducteur du degré de dangerosité de la situation dans laquelle il se trouve. Ces
systèmes embarqués fournissent des informations instantanées sur l'état de l'environnement
routier autour du véhicule. Certains indicateurs sont extraits de cette cartographie dynamique
de l'environnement, puis exploités pour alerter le conducteur.
Dans l'objectif d'aider la navigation autonome dans un environnement routier des systèmes de
transport intelligents, nous avons proposé un système d'aide à la conduite basé vision qui permet
de satisfaire un certain nombre de fonctions. Ce système se compose de trois modules
principaux :
 Module de Détection de Véhicules et Mesure de Distance et de Vitesse (MDVDV).
 Module de Classification des Panneaux de Signalisation Routière (MCPSR).
 Module de Détection de Fatigue et de Somnolence (MDFS).
L'objectif est de concevoir un système suivant plusieurs étapes : la détection des objets dans la
scène, leur positionnement et leur vitesse par rapport au véhicule porteur du système,
l'initialisation et le suivi de leur trajectoire, la classification de panneaux de signalisations
routières, et la détection de somnolence et de fatigue du conducteur au volant.
Ces modules fournissent des résultats satisfaisants dans toutes les étapes, et ils ont prouvé leur
efficacité à travers des expériences pratiques effectuées.
Enfin, nous trouvons qu'il est nécessaire de souligner que ce travail, en premier lieu, est un
travail de recherche, cependant nous avons effectué plusieurs travaux à l’extérieur en dehors du
laboratoire afin de fournir des résultats plus réalistes.

View publication stats

Vous aimerez peut-être aussi