Vous êtes sur la page 1sur 39
CEA/SACLAY DIRECTION DE LA RECHERCHE TECHNOLOGIQUE DEPARTEMENT DES TECHNOLOGIES DES SYSTEMES INTELLIGENTS SERVICE
CEA/SACLAY DIRECTION DE LA RECHERCHE TECHNOLOGIQUE DEPARTEMENT DES TECHNOLOGIES DES SYSTEMES INTELLIGENTS SERVICE
CEA/SACLAY DIRECTION DE LA RECHERCHE TECHNOLOGIQUE DEPARTEMENT DES TECHNOLOGIES DES SYSTEMES INTELLIGENTS SERVICE
CEA/SACLAY DIRECTION DE LA RECHERCHE TECHNOLOGIQUE DEPARTEMENT DES TECHNOLOGIES DES SYSTEMES INTELLIGENTS SERVICE

CEA/SACLAY DIRECTION DE LA RECHERCHE TECHNOLOGIQUE DEPARTEMENT DES TECHNOLOGIES DES SYSTEMES INTELLIGENTS SERVICE ARCHITECTURES ET CONCEPTION

Service Architectures et Conception

Saclay, le 21 août 2008

REF. : DTSI/SARC/08-339/ZN Modélisation du fond pour la vidéosurveillance

Par

Zénabou NGOUNGOURE

CEA-LIST

DRT – LIST - DTSI

Service Architectures et Conception

CEA/SACLAY – 91191 GIF-SUR-YVETTE CEDEX TÉL : +33 (0)1 69 08 65 25 - FAX : +33(0)1 69 08 83 95 – E-MAIL : thierry.collette@cea.fr

Etablissement public à caractère industriel et commercial R.C.S. PARIS B 775 685 019

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

IDENTIFICATION :

Rapport DTSI/SARC/08-339/ZN

TITRE :

Modélisation du fond pour la vidéosurveillance

AUTEURS :

Zénabou NGOUNGOURE

Mots-clefs :

Vidéosurveillance, soustraction de fond, ombres

UNITE :

DRT/LIST/DTSI/SARC/LSVE

RESUME/Contexte

Dans les applications d'analyse de vidéos, les objets d'intérêts, aussi appelés "cibles" doivent être segmentés avec précision. Cette tâche est couramment rendue difficile par la présence d'ombres, le plus souvent créé par l'objet lui-même. Ce projet a pour but l'implantation et l'évaluation de plusieurs algorithmes existants pour la détection et/ou la suppression d'ombres dans des flux vidéo en temps réel. Les algorithmes s'intègreront dans un système de suivi d'objets modulaire basé sur un algorithme de soustraction de fond existant au CEA LIST. La méthode implémentée qui exploite les principales propriétés des ombres, est assez robuste et les résultats, plutôt concluants, permettront éventuellement leur exploitation dans divers projets de R&D.

Ce document est la propriété du CEA. Il ne peut être reproduit ou communiqué sans son autorisation.

 

REDACTEUR

VERIFICATEUR

CHEF DE SERVICE

NOM

Z. NGOUNGOURE

François GASPARD

Thierry COLLETTE

DATE

DATE
DATE
DATE

SIGNATURE

SIGNATURE
SIGNATURE
SIGNATURE

2/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Liste de diffusion :

CEA/DRT/DTSI/SARC

CEA/DRT/DTSI/SARC/LSVE

Polytech’Clermont-Ferrand Campus des Cézeaux 24, Avenue des Landais BP 206 63174 AUBIÈRE CEDEX

3/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Remerciements

Je tiens à remercier tout d’abord ceux qui m’ont permis de réaliser ce stage au sein du CEA LIST, notamment Thierry Collette, chef de Service Architecture et Conception, et François Gaspard, chef du laboratoire des Systèmes de Vision Embarqués.

Je remercie tout particulièrement mon maître de stage Mr Yoann Dhome, pour son encadrement et ses conseils de tous les jours. Les quelques lignes restantes ne suffiront pas malheureusement, à citer tous ceux que j’ai eu à rencontrer durant le stage pour leur amabilité à mon égard.

Je prie les membres qui me font l’honneur d’assister à ce jury, d’agréer l’expression de mon profond respect.

4/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Résumé

Le stage dont le rapport vous est présenté, a été effectué au Commissariat à l’Énergie Atomique (CEA) dans un laboratoire du CEA LIST (Laboratoire d'Intégration des Systèmes et des Technologies) spécialisé en systèmes de vision embarqués. Mon stage abordera plus particulièrement les domaines de la vidéosurveillance et de la vidéo-assistance. Dans certaines applications d'analyse de vidéos, les objets d'intérêts, aussi appelés "cibles" doivent être segmentés avec précision. Cette tâche est couramment rendue difficile par la présence d'ombres, le plus souvent créés par l'objet lui-même. Ce projet a pour but l'implantation et l'évaluation de plusieurs algorithmes existants pour la détection et/ou la suppression d'ombres dans des flux vidéo en temps réel. Le travail commencera par une analyse de la littérature scientifique sur ce sujet. Les algorithmes s'intègreront dans un système de suivi d'objets modulaire basé sur un algorithme de soustraction de fond existant au CEA. La méthode implémentée qui exploite les principales propriétés des ombres, est assez robuste et les résultats, plutôt concluants, permettront éventuellement leur exploitation dans divers projets de R&D.

Abstract

The internship, whose report is presented to you, was carried out at Commissariat à l'Energie Atomique (CEA) in a laboratory of CEA LIST (Laboratoire d'Intégration des Systèmes et des Technologies) which is specialized in embedded computing vision system. My training course will focus on video-surveillance and video-assistance domains. In many image analysis and interpretation applications, objects of interest, so called "target", must be segmented with precision. This task is usually made difficult by the presence of shadows, generally created by the object itself (self shadow). The purpose of this project is to establish and evaluate several existing algorithms that deal with detection and/or suppression of shadows in video streams in real-time. The present report will start with an analysis of the scientific literature on this subject. The algorithms will be integrated in a modular objects tracking system based on a background subtraction algorithm existing at the CEA. The implemented method which exploits principal properties of shadows is rather robust and the results, quite conclusive, will probably allow their exploitation in various projects of R&D.

5/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Plan

Remerciements

Résumé

Plan

Table des figures Introduction

1. Présentation du Commissariat à l’Energie Atomique

1.1. Histoire, implantation géographique et chiffres

1.2. Organisation

1.2.1. Le pôle défense

1.2.2. Le pôle nucléaire

1.2.3. Le pôle recherche

1.2.4. Le pôle technologique

1.3. Le laboratoire LIST

1.4. Le laboratoire LSVE

2. Cadre de travail et problématique du stage

2.1.

La vidéosurveillance

2.1.

Exemples d’applications du domaine de la vision

2.2.

Problématique

3. Modèle actuel

3.1.

3.2. Soustraction de fond

Rappels

3.2.1.

Principe

3.2.1.

Modèle multicouches

3.2.2.

Méthode par bloc

3.3. Exemples

3.4. Faiblesses

4. Modélisation des ombres dans une image

4.1. Propriétés spectrales d’une ombre

4.2. Propriétés géométriques d’une ombre

5. Les principales étapes de l’algorithme

5.1. Critère du Gradient

5.2. Filtre des ombres

5.3. Notre contribution

5.3.1. Utilisation des valeurs

5.3.2. Utilisation du model YUV

5.3.3. Méthode proposée

c ,

1

c

2

,

c

3

6. Résultats et discussion

6.1.

Résultats

6.1.

Performances et limitations des algorithmes

Conclusion

Bibliographie

4

5

6

7

8

9

9

10

10

11

11

11

12

12

14

14

15

16

17

17

18

18

19

20

22

23

25

25

26

27

27

29

30

31

31

32

34

34

37

38

39

6/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Table des figures

Figure 1 : Implantations des 9 centres

9

Figure 2 : Hiérarchie du LSVE

10

Figure 3 : Caméra de vidéosurveillance

14

Figure 4 : Salle des moniteurs

15

Figure 5 : Représentation matricielle d'une image

17

Figure 6 : Soustraction de fond

18

Figure 7 : Un exemple de l’histogramme contraste d’un bloc d’une image à niveau de gris

21

Figure 8 : Exemple de soustraction de fond méthode par bloc et l’approche pixellique

22

Figure 9 : Exemple de soustraction de fond méthode par bloc

23

Figure 10 : Problème d’ombre lors de la soustraction de fond

24

Figure 11 : Illustration de la formation de l’ombre portée d’un objet

25

Figure 12 : Illustration des contours de l’ombre

26

Figure 13 : Traitement d’ombres sur le critère du gradient

27

Figure 14 : Illustration d’élimination de bruit par le critère du gradient

28

Figure 15 : Les variations admises de couleurs sont définies par un cône autour de la valeur originale

29

Figure 16 : Faiblesse de la méthode existante

30

Figure 17 : Traitement d’ombres

31

Figure 18 : Utilisation du model YUV pour le traitement d’ombres

32

Figure 19 : Résultat de la différence de gradient

33

Figure 20 : Méthode proposée de traitement d’ombres

33

Figure 21 : Résultats sur une scène à extérieure

35

Figure 22 : Résultats sur une scène à l’intérieure

36

Figure 23 : Limite de la méthode proposée

37

Figure 24 : Exemple de cas critiques

37

7/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Introduction

Ce rapport présente le travail effectué en stage de seconde année d’école d’ingénieur du 2 juin au 29 aout 2008 au CEA LIST à Saclay, dans le « Laboratoire des Systèmes de Vision Embarqués » (LSVE). Durant ce stage de 3 mois, j'ai traité un sujet de vidéosurveillance, et me suis intéressée plus particulièrement à la détection et la suppression des ombres pour l’optimisation d’un algorithme de soustraction de fond. La vidéosurveillance est un domaine en plein essor de part ses nombreuses applications potentielles tant dans le domaine de la surveillance militaire que civile : surveillance des carrefours, assistance aux personnes âgées à leur domicile …

Dans les applications de vidéosurveillance, une approche classique est de repérer dans un premier temps les "zones d'intérêts" avant de focaliser sur ces "objets" des traitements plus spécifiques : typiquement pour la surveillance routière, il est intéressant de déterminer dans l’image les zones où une voiture est présente. Pour cela, lorsque la caméra est fixe, on utilise généralement une méthode de soustraction de fond. Schématiquement, le système modélise et mémorise la scène vide. Un objet entrant dans la scène va provoquer un changement dans l’image. Détecter ce changement permet de détecter l’objet. Il existe plusieurs méthodes de modélisation dont les plus complexes permettent de gérer des mouvements parasites complexes (feuillage dans le vent, escalator…). Cependant, dans certaines applications de suivi d'objets dans une vidéo, les objets cibles doivent être segmentés avec précision. Cette tâche est rendue difficile par la présence d'ombres. Il arrive que les ombres soient dans des zones d’intérêts séparées, elles sont alors suivies comme des objets, ou alors comme faisant partie des cibles.

Le but de mon stage est donc l'implantation et l'évaluation de plusieurs algorithmes existants pour la détection et/ou la suppression d'ombres dans des flux vidéo en temps réel. Le travail commencera par l’apprentissage des logiciels internes et continuera par une analyse de la littérature scientifique sur ce sujet. Les algorithmes s'intègreront dans un système de suivi d'objets modulaire basé sur un algorithme de soustraction de fond existant au CEA.

Dans ce rapport, nous allons tout d’abord présenter différentes techniques utilisées pour segmenter une image et différencier le fond des objets mobiles (Blob). Ensuite, je présenterai différentes approches permettant la détection et la suppression d’ombres dans une séquence vidéo pour optimiser les algorithmes de soustraction de fond.

8/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

1. Présentation du Commissariat à l’Energie Atomique

1.1. Histoire, implantation géographique et chiffres

Le Commissariat à l'Énergie Atomique (CEA) est un établissement public de recherche fondamentale et technologique. L'ordonnance de la création du CEA a été approuvée par le gouvernement du général de Gaulle, le 18 octobre 1945. Cet établissement est chargé de donner à la France la maîtrise de l'atome et de ses applications. Mais les activités du CEA se sont développées dans tous les domaines connexes au nucléaire. Cette diversification a permis au CEA d'être un acteur majeur de la recherche dans des domaines liés au nucléaire mais aussi très éloignés de ce dernier : dissuasion nucléaire, micro et nano technologies, astrophysique, Le CEA est réparti sur neuf centres dans toute la France. Il existe deux types de centres :

- les centres d'études pour les applications militaires (Bruyères-le-Châtel, Cesta, Valduc et le Ripault) - les centres d'études civils (Fontenay-aux-Roses, Saclay, Grenoble, Cadarache, Valrhô)

(Fontenay-aux-Roses, Saclay, Grenoble, Cadarache, Valrhô) Figure 1 : Implantations des 9 centres En quelques chiffres

Figure 1 : Implantations des 9 centres

En quelques chiffres :

Le CEA fonctionne avec un budget de 3.4 milliards d'euros annuels et emploie plus de 15 000 personnes. Il travaille notamment pour les entreprises. En 2001 par exemple, 1300 contrats ont été signés avec l'industrie. Plus récemment, en 2005, 14 projets dans lesquels le CEA est impliqué ont été labellisés comme pôles de compétitivité, dont 5 projets mondiaux. On retrouve dans ces projets les principales thématiques de recherche et développement du CEA :

fusion, fission, énergies renouvelables, hydrogène, sciences du vivant, sciences de la matière, technologies de l'information et de la communication et défense.

9/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

1.2.

Organisation

LaSTRE LCE
LaSTRE
LCE

Figure 2 : Hiérarchie du LSVE

Le CEA est organisé autour de 4 grands pôles d'activités :

1.2.1. Le pôle défense

La stratégie de défense française est basée sur la dissuasion nucléaire. Dans ce contexte, la Direction des Applications Militaires (DAM), qui constitue le pôle Défense du CEA, conçoit, fabrique, maintient en condition opérationnelle, puis démantèle les têtes nucléaires qui équipent les forces océaniques et aéroportées. Le pôle Défense doit être en mesure de garantir au président de la République la sûreté et la fiabilité des têtes nucléaires qu'il met à la disposition des armées. Après l'arrêt définitif des essais nucléaires, cette garantie devra être apportée, pendant toute la durée de vie des armes, par la simulation numérique. C'est l'objectif du programme Simulation. La DAM est également responsable de l’approvisionnement en matières nucléaires pour les besoins de la défense, et ceci dans le respect de la décision d’arrêter la production de matières fissiles destinées aux armes et de démanteler les usines de production associées. Elle est chargée de la conception et de l’entretien des réacteurs nucléaires assurant la propulsion des bâtiments de la Marine nationale (sous-marins et porte-avions). Enfin, la DAM contribue, pour les instances nationales et internationales, à la surveillance du respect du Traité d’interdiction des essais nucléaires (Tice) et à la lutte contre la prolifération nucléaire et le terrorisme.

10/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

1.2.2. Le pôle nucléaire

La Direction de l'Energie Nucléaire (DEN) mène la réalisation de programmes majeurs sur les systèmes présents et futurs de production de l'énergie nucléaire ainsi que sur les aspects combustibles, sûreté, gestion des déchets et traitement des combustibles usés. Elle apporte son soutien aux industriels et développe, dans son domaine d'activité, des coopérations sur le plan national et international. Elle a la responsabilité de l'assainissement et du démantèlement des installations du CEA civil. Les axes essentiels de ses missions sont la préparation du futur et la gestion rigoureuse des activités nucléaires du CEA, le soutien aux industriels pour le nucléaire existant et le maintien au plus haut niveau des connaissances et des moyens du CEA.

1.2.3. Le pôle recherche

Le pôle de recherche est composé de deux directions :

- La Direction des Sciences du Vivant (DSV) : Le premier axe de recherche de cette direction

concerne la recherche biologique et médicale pour l'énergie nucléaire. Il comprend l'étude des

effets sur la matière vivante des rayonnements ionisants et des toxiques utilisés dans la

recherche et l'industrie nucléaire. Le second axe de recherche privilégié porte sur les applications des technologies issues du nucléaire à la santé et aux biotechnologies (exemple :

marquage lors d'examens médicaux).

- La Direction des Sciences de la Matière (DSM) : Les recherches à la DSM sont orientées sur des domaines très variés tels que le domaine de l'énergie et de l'environnement (chimie,

), de

physique, …), des sciences de la matière pour l'innovation industrielle (nano physique,

l'utilisation des technologies du nucléaire en recherche biologique et médicale, de la

connaissance de la matière (physique des noyaux et des particules, astrophysique, …).

1.2.4. Le pôle technologique

La Direction de la Recherche Technologique (DRT), créée en janvier 2001, fixe les orientations stratégiques et les missions du pôle recherche technologique. Les missions fondamentales de la Direction de la Recherche Technologique sont :

- Mettre en œuvre des plates-formes partenariales d'innovation ouvertes sur l'extérieur et permettant de favoriser la création d'une forte culture technologique mêlant la recherche amont, la recherche appliquée et la valorisation industrielle.

- Identifier et développer les nouvelles technologies de l'information et de la communication,

qui répondent aux attentes des industriels en améliorant leur compétitivité, dans les domaines

des micro et nano technologies et des systèmes à logiciel prépondérant.

- Identifier et développer, en collaboration avec les autres pôles, les nouveaux matériaux et

procédés et les nouvelles technologies pour l'énergie et l'environnement en pilotant les actions

de développement et de partenariat industriel. - Développer avec les industriels les actions de partenariat et de valorisation des connaissances et des savoir-faire acquis par la DRT dans ses domaines de compétences.

11/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

- Proposer et mettre en œuvre la politique de valorisation du CEA dans le cadre des orientations fixées par la direction générale, animer la politique du CEA en faveur de la promotion et de la protection de la propriété industrielle, de l'essaimage et de la création d'entreprise, assurer la relation avec les entreprises créées dans le cadre de l'essaimage, et avec les PME/PMI la diffusion des technologies développées par l'ensemble du CEA. Ce pôle est constitué de trois unités de recherche que sont le Laboratoire d'Électronique et des Technologies de l'Information (LETI) dont les activités principales sont la microélectronique, les micro-technologies, l'optronique, les techniques informatiques, et l'instrumentation et qui est l'un des plus gros laboratoires européens de recherche appliquée en électronique, le Laboratoire d'Innovations pour les Technologies des Energies nouvelles et les Nanomatériaux (LITEN) et le Laboratoire d'Intégration des Systèmes et des Technologies (LIST).

1.3. Le laboratoire LIST

Il développe des systèmes numériques destinés à être intégrés dans des produits et des procédés innovants. Il regroupe des compétences dans les domaines des systèmes embarqués

(autonomes), des systèmes interactifs (interaction homme-machine, réalité virtuelle, robotique), de l'instrumentation et de la métrologie, ainsi que dans celui des matériaux (assemblage et contrôle non destructif de systèmes mécaniques, élaboration et mise en forme de matériaux). Ce laboratoire est structuré autour de deux départements :

- le DÉpartement des TEchnologies du Capteur et du Signal (DETECS)

- le Département des Technologies des Systèmes Intelligents (DTSI)

Le DTSI est chargé des travaux de recherche et développement sur les technologies associant

le logiciel au matériel pour constituer des systèmes à fort niveau d'intégration. Le DTSI est constitué de quatre services :

- le Service Outils Logiciels (SOL)

- le Service Robotique Interactive (SRI)

- le Service Cognitique Robotique et Interaction (SCRI)

- le Service Architectures et Conception (SARC)

Ce dernier est constitué de quatre laboratoires qui étudient et développent des systèmes

embarqués destinés à des applications de traitements d'images et de données, disposant d'une très forte puissance de calcul, sous contraintes opérationnelles (volume et consommation) et environnementales (robustesse) :

- le Laboratoire de Fiabilité des Systèmes Embarqués (LFSE)

- le Laboratoire des Systèmes de Vision Embarqués (LSVE)

- le Laboratoire Calculs Embarqués (LCE)

- le Laboratoire fondements des Systèmes Temps Réel Embarqués (LaSTRE)

1.4. Le laboratoire LSVE

Le Laboratoire des Systèmes de Vision Embarqués (LSVE) est composé de 12 permanents, 9 doctorants et 6 post-doctorants et ingénieurs. Le principal axe de recherche et développement

12/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

du LSVE, menés depuis plus de 10 ans, est l’étude et le développement d'algorithmes très avancés assurant l'exploitation de l'image pour les domaines allant du contrôle industriel à la vidéosurveillance et la vidéo-assistance en passant par la reconstruction 3D et la localisation temps-réel de caméra. Fortement lié au monde industriel à travers de nombreux projets européens et nationaux ainsi que des contrats directs, le LSVE s’attache aussi à maintenir des liens forts avec des laboratoires universitaires renommés de son domaine d’activité.

13/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

2. Cadre de travail et problématique du stage

2.1. La vidéosurveillance

La vidéosurveillance consiste à placer des caméras de surveillance dans un lieu public ou privé pour visualiser et/ou enregistrer en un endroit centralisé tous les flux de personnes au sein d'un espace ouvert au public pour surveiller les allers et venus, prévenir les vols, agressions, fraudes et gérer les incidents et mouvements de foule [7].

La vidéosurveillance s'est développée d'abord au Royaume-Uni, en réponse aux attaques de l'IRA. Les premières expériences en Grande Bretagne dans les années 70 et 80 ont conduit à des programmes de grande ampleur au début des années 1990. Ces succès conduisirent le gouvernement à faire une campagne de promotion auprès de la population, et lança une série d'installations de caméras.

D'autres pays comme la France ont installé des systèmes de vidéosurveillance. En 1998, le nombre de caméras en France était estimé à un million dont 150 000 dans le domaine public. Ces caméras sont présentes dans divers lieux tels que les aéroports, les gares, les routes, les transports publics. Ces installations vidéo commencent aussi à fleurir dans les villes.

vidéo commencent aussi à fleurir dans les villes. Figure 3 : Caméra de vidéosurveillance Les causes

Figure 3 : Caméra de vidéosurveillance

Les causes de l'installation de systèmes de vidéosurveillance sont diverses, toutefois la sécurité publique ainsi que la protection des biens mobiliers ou immobiliers font office d'éléments phares dans la justification de la vidéosurveillance. Les attentats du 11 septembre 2001 à New York ou plus récemment ceux de juillet 2005 à Londres, ont renforcé ce sentiment d'insécurité.

Toutefois la mise en place de la vidéosurveillance ne peut s'expliquer uniquement par l'insécurité grandissante ou la protection des biens. Certaines autres raisons moins connues du grand public existent également. La mise en place de la vidéosurveillance permet une amélioration de la gestion des incidents ainsi qu'une augmentation de l'efficacité et de la rapidité d'intervention. Par exemple, dans la prévention du suicide ou encore lors d'accidents qui pourraient survenir sur la voie publique. La surveillance des axes routiers sert à informer en temps réel les automobilistes sur les conditions du trafic.

14/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Législation :

La vidéosurveillance obéit à un cadre réglementaire très précis. Tous les lieux ouverts au public (restaurants, magasins, pharmacies…) souhaitant s'équiper d'un dispositif de vidéo surveillance doivent au préalable faire une demande en préfecture. Le public doit être avertit par un panonceau répondant à des critères bien précis de l'existence d'un système de vidéosurveillance. Le personnel doit également être informé de l'installation et le dispositif doit être présenté au comité d'entreprise s'il y en a un. Dans les lieux qui ne sont pas ouverts au public on sort alors du domaine de compétence des préfectures pour rentrer dans celui de la Commission Nationale de l’Information et des Libertés (CNIL).

2.1. Exemples d’applications du domaine de la vision

Dans de nombreuses applications, les données acquises sont stockées et ne seront utilisées que si l’on désire en tirer des informations a posteriori (par exemple pour retrouver le suspect d’un crime).

Cependant dans des secteurs sensibles, il peut être nécessaire d’avoir un contrôle immédiat des données, c’est ce qu’on appelle un contrôle en "temps réel". Un exemple de contrôle en temps réel est la surveillance des routes. La vidéosurveillance permet d’agir de manière préventive en détectant, par exemple, si un automobiliste ne roule pas sur la bonne voie. Dans ce cas, l’approche classique est de filmer la scène à surveiller, puis de la projeter sur un moniteur où un responsable peut contrôler de manière directe les données (Figure 4), la personne se fiant à sa faculté de discernement pour détecter les anomalies éventuelles.

de discernement pour détecter les anomalies éventuelles. Figure 4 : Salle des moniteurs Ce travail, qui

Figure 4 : Salle des moniteurs

Ce travail, qui peut paraitre fastidieux, a longtemps été effectué par des hommes faute d’autres solutions. Cependant, les récents développements dans la puissance des calculateurs informatiques combinés aux développements de nouvelles techniques algorithmiques permettent à présent d’envisager de remplacer l’homme par la machine.

15/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

2.2.

Problématique

Tout au long de sa vie, l’être humain reçoit un flot continu d’informations visuelles, dues à l’interaction de la lumière et de la matière. L’analyse des phénomènes résultant de cette interaction nous apporte des informations essentielles sur notre environnement. Ainsi, l’ombre, résultat le plus immédiatement perceptible de cette interaction, nous permet d’appréhender la nature tridimensionnelle des objets. Bien qu’essentiel, ce type d’information n’est que rarement pris en compte de façon consciente. En effet, la plupart des méthodes d’extraction d’objets en mouvement dans une séquence vidéo prennent rarement en compte les effets liés à l’illumination, tels que les reflets ou les ombres.

Pour les systèmes de vision par ordinateur, traiter l’information visuelle d’une façon similaire au system visuel humain, c’est à dire en prenant en compte également les effets liées à l’illumination est assez complexe. Ces phénomènes sont en effet plutôt gênants dans le cadre de tâches courantes en analyse d’images, telles que la segmentation ou la description d’objets. Très souvent les ombres sont détectées comme étant des objets ou une partie des objets ce qui peut être très nuisible pour des applications de vidéosurveillance. En effet, pour une machine, il se peut que des changements anodins (mouvement des branches d’arbres, changement de lumière, ombres …) soient détectés par le calculateur comme des objets étrangers. Ceci est en partie dû au faite que le programme traite les données par zones et n’a en faite aucune vu d’ensemble et donc aucune compréhension de la scène dans sa globalité (domaine de l’intelligence artificielle).

L’ombre est un phénomène difficile à modéliser car son apparence varie en fonction des surfaces sur lesquelles elle est projetée. Il est donc important d’exploiter les multiples propriétés dérivant des analyses spectrale, géométrique et temporelle des ombres afin de développer des techniques efficaces conduisant à leur extraction. Un exposé des solutions existantes reposant sur l’utilisation de l’information couleur est tracé, précisant les fondamentaux, les modèles de couleur adoptés, ainsi que les liens avec certains problèmes de recherches tels que la constance ou l’invariance de couleur.

Il existe des méthodes, appelées soustraction de fond, qui permettent de tenir compte de certains de ces éléments. L’une d’elle est implémentée au laboratoire et sert de socle pour beaucoup d’applications (tracking, reconnaissance, …). Le but de mon stage est donc d’étudier ses faiblesses pour ensuite trouver un moyen de les combattre.

Dans un premier temps, nous allons donc présenter le modèle actuel, ses atouts comme ses faiblesses. Dans toute la suite, on s’intéresse à une caméra fixe et on cherche à détecter les objets étrangers ou en mouvement passant dans le champ de la caméra.

16/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

3. Modèle actuel

3.1.

Rappels

Une image 2D est une matrice de pixel : c’est l’image matricielle. Le pixel est l'unité de base d'une image numérique, il représente un « point » de l’image.

Un pixel peut être de nature variée, cette nature peut être décrite en donnant le nombre de composante du pixel ainsi que l’ensemble des valeurs qu’une composante peut prendre. Le nombre de composante détermine le nombre de couleur :

- image nuance de gris : pixel à une composante Y (luminance).

- image couleur : pixel à trois composante R, G et B.

L’ensemble de valeur permet de définir les nuances pour chaque composante. En général on utilise des valeurs fixées correspondant à un type informatique : par exemple le type uchar

(unsigned char) correspond aux valeurs entières de 0 à 255.

char) correspond aux valeurs entières de 0 à 255. Figure 5 : Représentation matricielle d'une image

Figure 5 : Représentation matricielle d'une image

Si on note M la représentation matricielle d’une image, M (i, j) indique le pixel situé ligne i , colonne j . Par exemple, dans la Figure 5, sur la première image, M (124,363) = 130 . Pour une image couleur, on rajoute un indice indiquant le numéro de la couche (R=1, G=2, B=3). Sur la seconde image, M (124,363)[2] = 136 .

Une vidéo n’est rien d’autre qu’une succession d’image. On peut aussi la voir comme une matrice 3D de pixel : les deux premières dimensions correspondant à celle de l’image, la troisième représentant le temps.

17/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

3.2. Soustraction de fond

3.2.1.

Principe

Une vidéo est une succession d’images qui montrent l’évolution d’un ou plusieurs objets dans un environnement donné (fond). Dans le cas d’objets mobiles et d’un fond stable au cours du temps, ou qui évolue relativement lentement, on peut extraire les objets mobiles par une technique de soustraction de fond. Cette méthode permet, en faisant la différence entre une image du modèle de fond et une image où un objet se déplace, de déterminer une carte des objets mobiles.

Image courante (fond +objet) – Image modèle (fond) = Image résultante (objet)

+objet) – Image modèle (fond) = Image résultante (objet) Objet + fond - fond = Figure

Objet + fond

-

modèle (fond) = Image résultante (objet) Objet + fond - fond = Figure 6 : Soustraction

fond

=

Figure 6 : Soustraction de fond

Objet + fond - fond = Figure 6 : Soustraction de fond objet Il est donc

objet

Il est donc possible de connaître les zones de l’image où un changement a eu lieu. Ainsi, le critère déterminant pour une segmentation performante est d’avoir un fond suffisamment robuste pour assurer une bonne détection. Le modèle mis en place dans notre projet est une approche de modélisation dynamique du fond, c’est-à-dire qui se met à jour au fil du temps. Ceci va permettre de compenser la plupart des changements d’illumination. En effet, nous évaluons le mouvement grâce à un critère de distance entre le modèle du fond et le pixel considéré. Dans les scènes d’extérieur, entre le jour et la nuit, la luminosité des pixels du fond va varier. En faisant la différence d’une scène nocturne avec un fond réalisé en plein jour, du mouvement sera alors détecté sur toute l’image. En utilisant un modèle qui évolue au cours du temps, la luminosité décroissante sera reportée progressivement dans le modèle. Cette évolution peut également s’adapter aux changements de temps (passage de nuages, temps pluvieux, temps ensoleillé, etc.) Le principe est de comparer un pixel de l’image avec son équivalent en coordonnées dans le modèle de fond. S’il est vraiment "différent", le pixel appartient à un objet en mouvement et sa valeur n’est pas utilisée pour modifier le modèle de fond. Si sa valeur est proche de celle du modèle de fond dans une plage particulière (la proximité peut être définie par un modèle gaussien), alors le pixel est rattaché au fond. A ce moment là, la valeur du pixel de fond de mêmes coordonnées voit sa valeur pondérée par celle du pixel de l’image courante. La vitesse d’évolution du modèle de fond dépend du coefficient de pondération.

Quel critère permet de définir si un pixel est semblable ou non au modèle de fond ?

18/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Un pixel d’une image peut coder l’information couleur de plusieurs façons. La représentation la plus courante est la représentation RVB (rouge, vert, bleu, ou RGB en anglais). Dans la réalité, la valeur d’un pixel reste rarement constante, à cause du bruit électronique du capteur, de changements légers d’illumination, et de mouvements imperceptibles (mouvement d’une feuille qui oscille sous le vent par exemple). Par rapport au type de bruit ainsi qu’aux variations de couleur on peut associer à un pixel du fond une probabilité suivant une loi gaussienne définie par sa moyenne et sa variance [1] [2]. Ce type de modèle permet de tolérer les variations de luminosité et de teinte pour un pixel. La mesure de distance utilisée est celle de Mahalanobis. Elle est basée sur la corrélation entre des variables par lesquelles différents modèles peuvent être identifiés et analysés. C'est une manière utile de déterminer la similarité entre une série de données. Elle diffère de la distance euclidienne par le fait qu'elle prend en compte la corrélation de la série de données. Ainsi, à la différence de la distance euclidienne où toutes les composantes des vecteurs sont traitées de la même façon, la distance de Mahalanobis accorde un poids moins important aux composantes les plus bruitées (nous rappelons que chaque composante est une variable aléatoire de type gaussien). Soient x r et y r deux vecteurs aléatoires de même distribution à comparer, la distance entre elles se définie comme suit :

d

(

x r y r

,

)

=

entre elles se définie comme suit : d ( x r y r , ) =

(

x r

y r

)

1 (

x r

y r

),

est la matrice de covariance.

La valeur moyenne et la variance associée évolueront en fonction du temps pour s’adapter, par exemple à la baisse de luminosité avec la tombée du jour. L’intérêt est de gérer parfaitement les variations lentes.

3.2.1. Modèle multicouches

Il est possible qu’une partie des éléments du fond soit soumise à un mouvement périodique de plus ou moins faible amplitude. Par exemple le balancé des branches lorsqu’il y a du vent constitue un bruit. Autre exemple, un pixel du fond aura des variations autour d’une teinte de vert due à des feuilles, et d’une teinte bleue du ciel, lorsque les feuilles bougent. Un modèle gaussien simple ne peut représenter correctement les deux modes simultanément. Les modèles multicouches [3] ou multimodaux permettent de pallier ce problème. Chaque couche est constituée d’un modèle simple gaussien. Une probabilité est alors associée à la couleur et à sa variance. Ainsi à chaque image courante le pixel est comparé aux différentes couches du modèle de fond dans l’ordre de probabilité décroissante. Cette probabilité est définie par un indice de confiance. Plus le nombre de couches est important, plus le modèle décrira les variations de couleur d’un pixel, mais il perdra en robustesse et en vitesse car il sera trop tolérant. Pour améliorer l’efficacité de l’algorithme de soustraction de fond le modèle multicouche a été combiné à une segmentation hiérarchique de l’image. Ce qui a pour conséquence une diminution du temps d’exécution et aussi des résultats de meilleurs qualité. Les images n’étant pas parfaites, on obtient malheureusement du bruit dans nos nouvelles images binaires ce qui rend notre tâche un peu plus difficile. Pour diminuer les erreurs dues au bruit, on utilise la technique des filtres morphologiques. On commence par une dilatation suivie d’une érosion, ce qui permet de diminuer le bruit à l’intérieur des blobs, c'est-à-dire d’éliminer les trous dans les cibles et de renforcer la cohérence des zones en avant-plan. Cette méthode modélise chaque pixel indépendamment ce qui a pour principale avantage une

19/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

extraction des objets avec un contour assez raffiné, cependant elle est très sensible aux bruits. Pour palier à ce problème une méthode fondé sur une approche par bloc combiné à ce modèle fourni de meilleurs résultats.

3.2.2. Méthode par bloc

Cette méthode hiérarchique [4] consiste à combiner le modèle multicouches et une approche par bloc de pixels. En effet pour chaque bloc de 8 8 pixels on calcul un descripteur appelé "histogramme des contrastes", donnant une idée globale du bloc à évaluer. Pour ce faire on effectue tout d’abord un lissage de l’image en lui appliquant le filtre gaussien. Soit I l’image à lisser et L le résultat du filtrage gaussien il vient :

L( p,

) = G( p,

) * I ( p) ,

p est un pixel donné, * la convolution et G( p, ) la distribution gaussienne de

variance

pour les images en noir et blanc par la formule défini ci-dessous :

. Une fois l’image divisée en bloc on calcul les valeurs de l’histogramme contraste

C

(

p

,

p

c

)

= L

(

p

)

L

(

p

c

)

, où p est un pixel du bloc

B

c

.

Nous rappelons que nous travaillons avec des blocs de taille 8 8 et donc dans ce cas il

n’existe pas de pixel central

centraux comme l’illustre l’exemple de la Figure 7 ci-dessous. Après avoir divisé le bloc en quatre quadrants on soustrait cette valeur moyenne aux autres pixels du bloc et on regroupe les valeurs positives et les valeurs négatives de chaque quadrant comme suit :

p . Sa valeur est approchée par la moyenne des quatre pixels

c

CH

CH

+

qi

qi

(

(

p

p

c

c

)

)

=

=

{ )

C

(

p

,

p

c

p

q

i

et

C

(

p

,

p

c

)

>

0

}

 

card

+

,

qi

{ )

C

(

p

,

p

c

p

q

i

et

C

(

p

,

p

c

)

<

0

}

   

,

 

card

qi

 

Pour i= 0,…,3 ;

contrastes positives et négatives dans le quadrant qi . En résumé, le descripteur d’un bloc

sont respectivement le nombre total de pixels à valeurs

card

+

qi

et

card

qi

B

c d’une image en mode niveau de gris est un vecteur huit-dimensionnel définit comme suit :

CH

G

( p )

c

=

(CH

+

q

0

,CH

q

0

,CH

+

q

1

,CH

q

1

,CH

+

q

2

, CH

q

2

, CH

+

q

3

,CH

q

3

), où CH

G

( p )

c

R

8

20/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

93 185 102 67 -27 65 -18 -53 174 136 87 178 54 16 -33
93
185
102
67
-27
65
-18
-53
174
136
87
178
54
16
-33
58
112
133
127
142
-8
13
7
22
80
135
15
114
138
98
-6
18
-22
120
120
117
148
(a)
(b)

Figure 7 : Un exemple de l’histogramme contraste d’un bloc d’une image à niveau de gris

La figure 7 illustre un exemple de calcul du descripteur d’un bloc de taille 8 8 d’une image

nuance de gris (a). Comme nous l’avons vu plus haut la valeur du pixel central

en faisant la moyenne des quatre pixels du centre du bloc : 120 = (80 + 135 + 117 + 148) / 40 . Par simple soustraction, on calcule les valeurs de l’histogramme des quatre quadrants. En (b)

les valeurs positives et négatives du deuxième quadrant

dans des cases blanches et grises. Pour ce quadrant on obtient :

p

c

se trouve

q sont respectivement représenter

1

CH

CH

+

q 1

q 1

=

(65

+

54

+

16

+

58

+

13

+

7

+

22

+

15

+

18) / 9

=

29.79

, et

=

(

27

18

53

33

8

6

22) / 7

=

23.86

.

Ce descripteur est efficace pour l’extraction des objets cibles dans plusieurs situations de plus il est assez rapide à implémenter. Cependant il n’est pas toujours suffisant pour la description de certaines scènes, par exemple des couleurs différentes peuvent avoir un niveau de gris similaire et il est impossible de les distinguer. Pour résoudre ce problème on rajoute au descripteur des combinaisons entre les trois composantes couleurs (R, G et B) des pixels du

bloc. Soient j {R, G, B} et k {R, G, B} les composantes couleurs des pixels p et

respectivement, les valeurs positives et négatives de l’histogramme contraste des couleurs se définissent comme suit :

p

c

CH

CH

j k

q

i

,

j k

q

,

i

; +

;

(

p

c

(

p

c

) =

) =

{

j k

C

,

(

p

,

p

c

)

p

q

i

et

C

,

j k

(

p

,

p

c

)

>

0

}

 

card

+

 
 

q

i

}

{

)

C

,

j k

(

p

,

p

c

p

q

i

et

C

,

j k

(

p

,

p

c

)

<

0

card

q

i

, et

21/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

la

composante k de p . Il ya 9 combinaisons possibles du couple ( j, k ) ce qui induit un

respectivement, où

c

C

,

j k

(

p

,

p

c

)

est la valeur contraste entre la composante

j

de

p et

descripteur 72(= 9 4 2) -dimensionnel pour chaque bloc. Cependant il n’est pas nécessaire

d’utiliser

toutes

les

pairs,

nous

n’en

choisirons

que

six

d’entre

elles,

( j, k) {(R, R), (R, G), (R, B), (G, G), (G, b), (B, B)} et

au

final

on

se

retrouve

avec

un

l’algorithme de soustraction de fond. Dans le système en place au CEA LIST, le descripteur de couleur des blocs implémenté est 51-dimensionnel. En effet trois valeurs correspondant aux composants couleurs (R, G et B) moyennes du bloc ont été rajoutées au descripteur car ils peuvent être utiles dans certains traitements (ombres…). Une fois le descripteur construit on applique l’approche du modèle multicouche pour comparer les blocs et soustraire les objets en avant plan. Les résultats expérimentaux (Figure 8) montrent que cette méthode est beaucoup plus stable que l’approche pixellique qui en plus d’être plus sensible au bruit demande un temps d’exécution plus long. C’est pour cette raison qu’elle a été retenue au LSVE pour l’algorithme de soustraction de fond.

descripteur de couleur 48(= 6 4

plus efficace pour

2) -dimensionnel,

CH

C

( p )

c

R

48

Modèle de fond

bloc+MOG

MOG

CH C ( p ) c R 48 Modèle de fond bloc+MOG MOG Figure 8 :

Figure 8 : Exemple de soustraction de fond méthode par bloc et l’approche pixellique

3.3.

Exemples

Voici quelques exemples où la soustraction de fond fonctionne correctement, chaque exemple est constitué de deux images, la première montre l’image modèle, et la seconde le résultat de la soustraction de fond. Pour illustrer le résultat de la segmentation fond/objet, on applique un masque gris-rouge, le gris correspond aux zones fixes et le rouge aux zones détectées par la soustraction de fond comme intéressantes.

22/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par
Modélisation du fond pour la vidéosurveillance Figure 9 : Exemple de soustraction de fond méthode par

Figure 9 : Exemple de soustraction de fond méthode par bloc

3.4.

Faiblesses

Le modèle ci-dessus est déjà implémenté au laboratoire, cependant il existe encore quelques problèmes liés à l’illumination et l’apparition des ombres. Dans ces cas, l’image est souvent détectée comme ayant changé. En effet la ressemblance au niveau des couleurs ne fonctionne pas toujours très bien malgré l’utilisation d’un descripteur assez robuste, en partie à cause des

23/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

ombres. Par exemple, si un objet a beaucoup d’ombre sur une image et moins sur l’image suivante, la ressemblance entre les couleurs devient une mesure moins efficace.

Il arrive que les ombres soient dans des blobs séparés, elles sont alors suivies comme des objets, ce qui cause parfois des problèmes avec le suivi des autres objets. On obtient donc de très mauvais résultats si on utilise une séquence d’une durée assez longue avec des images où il y a beaucoup de soleil ou une forte luminosité. Il arrive que l'orientation de l’ombre se déplace légèrement ce qui cause beaucoup trop de bruit lorsqu'on la compare avec les images.

trop de bruit lorsqu'on la compare avec les images. Figure 10 : Problème d’ombre lors de

Figure 10 : Problème d’ombre lors de la soustraction de fond

Le but de ce stage est donc d’implémenter une méthode permettant résoudre les problèmes liés à l’apparition des ombres lors la soustraction de fond. Pour ce faire nous allons essayer de détecter et supprimer les ombres afin d’améliorer les résultats de l’algorithme de détection d’objets en avant plan.

Avant de se lancer dans la recherche des méthodes efficaces pour l’extraction des ombres dans une image ou une séquence d’images il est important de comprendre comment naissent les ombres et de connaitre ses caractéristiques.

24/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

4. Modélisation des ombres dans une image

Une ombre est une zone sombre crée par l’interposition d’un objet opaque(ou seulement partiellement transparent) entre une source de lumière et la surface sur laquelle se réfléchit cette lumière. Elle se matérialise par une silhouette sans épaisseur. La taille de l’ombre portée dépend de la taille de l’objet intercalé et de sa distance relative à la source lumineuse. Plus l’objet est près de la source de lumière, plus la zone d’ombre sera grande. Lorsque l’illumination n’est que partiellement couverte par l’objet, il apparait une zone appelé pénombre (penumbra en anglais) dont l’étude peur s’avérer être utile lors de la détection d’ombre pour la soustraction de fond. Dans la suite nous nous intéresserons aux propriétés spectrales et géométriques d’une ombre.

aux propriétés spectrales et géométriques d’une ombre. (a) (b) Figure 11 : Illustration de la formation

(a)

(b)

Figure 11 : Illustration de la formation de l’ombre portée d’un objet

4.1. Propriétés spectrales d’une ombre

L’ombre est un phénomène difficile à modéliser car son apparence varie en fonction des surfaces sur lesquelles elle est projetée. Le model le plus rencontrer dans la littérature sur le traitement et qui prend en compte des éléments mentionnés plus haut est le suivant. Soit

L (

r

r

, p)

r

le rayonnement lumineux réfléchit à un point p sur une surface dans l’espace 3D

définit comme suit :

L (

r

r

, p)

=

L (

a

)

+

L (

b

r

, p)

+

L (

s

r

, p),

sont respectivement la réflexion ambiante, du corps de l’objet et

de la surface, et est la longueur d’onde. Lorsque l’objet obstrue complètement la lumière l’intensité d’un point dans une zone d’ombre est :

L (

a

), L (

b

r

, p), L (

s

r

, p)

L

r

shadow

(

, p) r

=

L

a

(

, p) r

.

25/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Comme nous l’avons vu plus haut l’ombre assombrit la zone où elle apparait ainsi soient

respectivement les vecteurs de couleur d’un point sur une zone

illuminée et de ce même point en zone d’ombre on a :

r

C(x, y)

lit

et

r

C(x, y)

shadow

r

C

r

C

(

(

x

x

,

,

y

y

)

)

lit

=

(

shadow

R

=

lit

(

,

G

lit

,

B

R

shadow

,

lit

)

G

shadow

,

B

shadow

)

R

G

B

shadow

shadow

shadow

<

<

<

R

lit

G

lit

B

lit

,

,

.

L’invariance photométrique est une autre propriété spectrale de l’ombre souvent matérialiser par la constance des valeurs R, G et B normalisées, de la teinte H (hue en anglais), de la

saturation S, des valeurs

c ,

1

c

2 ,

 

c

3

définies ci-dessous. Le model de la teinte est le suivant :

 

(

x

 

y

)

=

arctan

 

R

(

x

,

y

)

c

1

,

max(

G

(

x

,

y

),

B

(

x

,

y

))

,

 

(

x

 

)

=

arctan

 

G

(

x

,

y

)

c

2

,

y

max(

R

(

x

,

y

),

B

(

x

,

y

))

,

 

(

x

 

)

=

arctan

 

B

(

x

,

y

)

c

3

,

y

max(

R

(

x

,

y

),

G

(

x

,

y

))

,

R(x, y), G(x, y) et B(x, y) les composants rouge vert et bleu d’un pixel de l’image. Ce model sera utilisé dans l’algorithme de soustraction de fond pour la détection d’ombre. Nous allons maintenant nous intéresser aux propriétés géométriques d’une ombre.

4.2. Propriétés géométriques d’une ombre

La forme d’une ombre dépend des objets et de l’état de la scène (ensoleillé, obscurité,…). Cependant il est possible d’identifier certaines caractéristiques géométriques de l’ombre, notamment ses contours sans aucune connaissance de la scène et de la structure de l’objet. La figure ci-dessous illustre les quatre types de contours engendrés par l’ombre. La ligne AB sépare la surface illuminée et la surface non-illuminée d’un objet. La projection de l’ombre portée d’un objet suivant la direction de la source lumineuse crée la ligne DE. La ligne CD sépare l’objet de son ombre portée, et CE correspond à sa partie invisible.

son ombre portée, et CE correspond à sa partie invisible. Figure 12 : Illustration des contours

Figure 12 : Illustration des contours de l’ombre

26/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

5. Les principales étapes de l’algorithme

Nous présenterons dans cette partie les deux méthodes déjà implémentées au laboratoire pour la détection et la suppression des ombres lors de la soustraction de fond pour l’approche pixellique. La première méthode consiste à évaluer les différences de gradient afin de redimensionner les blobs, et la deuxième méthode utilise un filtre pour la détection d’ombres. Après l’adaptation de ces méthodes à l’approche par blob et à l’analyse des résultats pas très satisfaisant nous avons établi des propositions d’amélioration.

5.1. Critère du Gradient

Cette méthode consiste à évaluer le gradient des blobs (objets mobiles) en utilisant l’algorithme de détection de contours avec l’opérateur Canny. Tout d'abord, on élimine le bruit de l'image par convolution par un noyau gaussien. Ensuite, on calcul le gradient des blobs de l'image dans les deux directions X et Y. Enfin, on supprime les points du gradient qui ne correspondent pas à des maxima locaux. Une fois les gradients calculés, on procède au redimensionnement des blobs. La suppression d’ombre par critère du gradient que nous allons utiliser peut être schématisé par la chaîne de traitement suivante :

Résultat soustraction de fond (différence intensité/couleur)

Création des blobs

Elimination des blobs trop petits

Elimination des blobs ne faisant pas apparaitre de différence de gradient

Concentration des blobs autour de la différence de gradient

Figure 13 : Traitement d’ombres sur le critère du gradient

27/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Après la création des blobs on commence par éliminer ceux qui comportent un faible taux de pixels. Après la suppression des blobs à faible taux de gradient, on effectue une concentration des blobs restants autour des différences du gradient.

La figure ci-dessous illustre un exemple complet d’utilisation de cette méthode pour l’élimination de bruit.

de cette méthode pour l’élimination de bruit. Figure 14 : Illustration d’élimination de bruit par le

Figure 14 : Illustration d’élimination de bruit par le critère du gradient

28/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

5.2. Filtre des ombres

On peut représenter dans l’espace colorimétrique 3-D RGB les variations possibles de la couleur d’un pixel d’une zone d’ombre par un cône qui exprime les variations d’intensité et de teintes.

qui exprime les variations d’intensité et de teintes. Figure 15 : Les variations admises de couleurs

Figure 15 : Les variations admises de couleurs sont définies par un cône autour de la valeur originale

Ce filtre n’est évidement utilisé que pour évaluer les pixels détecter par l’algorithme de soustraction de fond comme étant des objets. Soit un pixel p à évaluer, on calcule le produit scalaire entre le vecteur à évaluer I ( p) et le vecteur du modèle de fond correspondant B( p) , et le produit scalaire entre le vecteur I ( p) et le vecteur unitaire de la couleur blanche w = (1,1,1). Soit le ratio r définit comme suit

r

=

 1  2   B ( p ) I ( P ) ◊
1
2
B
(
p
)
I
(
P
)
◊ B
(
p
)

si

I

(

p

)

B

(

p

)

>=

10

sinon

9

l’algorithme de classification du pixel en ombre est le suivant :

si

(

cos(

)

> cos(

thresh

)

)

et

(

(

r

1) *100

)

< 0

alors

p

est

un

pixel

d ombre

'

est l’angle formé entre les vecteurs I ( p) et B( p) , et cos(

thresh

avec l’angle entre B( p) et w ,

B

fil

l’angle seuil du filtre d’ombres.

)

=

max(cos(

B

), cos(

fil

))

Les résultats peu satisfaisants de la combinaison de ces deux algorithmes seront présentés dans la section 6.2 et seront comparés aux résultats obtenus avec notre contribution.

29/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

5.3. Notre contribution

Nous avons effectué plusieurs tests et avons remarqué que le filtre des ombres et la méthode de soustraction d’ombres avec le critère de gradient ne fonctionne pas toujours. En effet lorsque plusieurs objets et leurs ombres portées se trouvent dans le même blob, la concentration de ce dernier autour de la différence de gradient ne permet pas toujours d’éliminer les ombres ceci en partie à cause du mauvais fonctionnement du filtre actuel.

partie à cause du mauvais fonctionnement du filtre actuel. Figure 16 : Faiblesse de la méthode

Figure 16 : Faiblesse de la méthode existante

Les techniques de détection des ombres rencontrées dans la littérature peuvent être regroupées en deux principales catégories : la technique basée sur un modèle de fond (model-based en anglais), et l’autre basée sur les propriétés d’une ombre (property-based en anglais). La première méthode repose sur un modèle de fond représentant la géométrie de la scène, des objets et de l’illumination. La deuxième méthode quant à elle, exploite les propriétés spectrales et géométriques de l’ombre et s’avère être plus robuste que la précédente qui ne fonctionne qu’avec des applications particulières. Nous allons présenter deux algorithmes de segmentation des ombres portées qui utilisent le critère d’invariance colorimétrique et une nouvelle méthode qui utilise les propriétés géométriques et spectrales des ombres.

30/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

5.3.1. Utilisation des valeurs

c ,

1

c

2

,

c

3

Cette méthode [5] que nous avons implémentée se déroule en plusieurs étapes. Tout d’abord une hypothèse est émise sur la présence des ombres suivant la propriété qui stipule que l’ombre assombrit la zone où il apparait. Ensuite un critère d’invariance colorimétrique dans

permet de localiser d’éventuelles zones d’ombres. Enfin la dernière étape

confirme ou infirme les hypothèses émises.

l’espace

c

1

c

2

c

3

Soient I (x, y)

le pixel de référence, où R, G, B représente

les trois composantes couleurs, la figure ci-dessous présente le schéma de traitement employé par cette méthode.

et

= (R(x, y), G(x, y), B(x, y))

y

r

),

G

(

x

r

,

y

r

),

B

(

x

r

,

y

r

))

le

pixel

à

évaluer

I

( x

r

,

y

r

) =

(

R

(

x

r

,

Prédiction

   

S

c

=

{

(

x

,

y

) :

R

(

x

r

,

y

r

)

 

R

(

x

,

y

)

>

b

1

,

G

(

x

r

,

y

r

)

G

(

x

,

y

)

>

b

2

,

B

(

x

r

,

y

r

)

B

(

x

,

y

)

>

b

3

}

b

= (

b

1

,

b

2

,

b

3

)

représente le bruit et S

c

est l ensemble des pixels condidats

'

 
   

Correction

S

inv

=

{

f

(

x

,

= (

y

f

1

) :

,

c

,

1

f

2

(

f

x

3

r

)

,

y

y

représente les distorsions possibles

r

)

c

1

(

x

,

y

)

>

f ,

1

c

2

(

x

r

,

y

r

)

c

2

(

x

,

)

> f

2

,

c

3

(

x

r

,

y

r

)

c

3

(

x

,

y

)

> f

3

}

Décision

S

o

=

est l ensemble des pixels ombres

S

c

I

S

inv

S

o

'

Figure 17 : Traitement d’ombres

5.3.2. Utilisation du model YUV

Afin d’utiliser la propriété d’invariance colorimétrique d’une ombre, cette méthode utilise le modèle YUV. Le paramètre Y représente la luminance (c'est-à-dire l’information d’intensité lumineuse « noir et blanc »), tandis que U et V permettent de représenter la chrominance

(l’information couleur). Soient U et V les composantes couleurs normalisées dans cette espace avec U
(l’information couleur). Soient
U
et
V
les composantes couleurs normalisées dans cette
espace avec U = U Y
et V
= V Y . L’algorithme de détection d’ombres est le suivant [6] :

31/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Calcul de la différence de couleur

   

*

*

 

U

 

+

 

V

r

diff

=

U

c

e

r

V

e

U

 

et V

e

sont les valeurs normalisées du pixel à évaluer

P

 

e

,

 

U

r

et V

r

sont les valeurs normalisées du pixel de référence (modèle de fond)

correspondant B

Calcul de la différence de texture

 
 

4

diff

t

=

TH

(

P

Y

P

Yi

)

TH

(

B

Y

B

Yi

)

 

i

=

1

P

Y

est la composante Y du pixel P , pour i=1 4

P

Yi

sont les composantes

lumineuses des 4-voisins(direction verticale et horizontale) du pixel P .

La fonction TH est définie comme suit :

 

(

TH val

)

=

1

0

si val

sinon

>

seuil

 
 

Décision

Si diff

t

= 0

et diff

c

<

seuil

couleur et P

_

<

B

alors P est une ombre.

Pour le test

P < B il suffit de comparer les composants R, G et B des deux pixels

Figure 18 : Utilisation du model YUV pour le traitement d’ombres

5.3.3. Méthode proposée

Il s’agit d’une synthèse des méthodes exposées précédemment avec quelques améliorations sur le filtre des ombres et l’utilisation du gradient pour détecter les contours des ombres afin de faciliter leur élimination. En effet le filtre implémenté jusqu’à présent ne renvoyait que deux valeurs : fond(B) ou de l’objet(C). Le nouveau filtre émet une hypothèse sur les pixels candidats d’ombre ensuite après une étude du voisinage le pixel est classé soit en ombre (S), soit en fond(B), soit de type inconnue (U). Au final on se retrouve avec une cartographie du résultat à valeur dans B, S, U et C (objet), et pour ne garder que deux valeurs (B et C) nous analysons de nouveau le voisinage en comptabilisant les valeurs autour du pixel à évaluer. La différence de gradient entre l’image courante et l’image du modèle de fond montre que les

32/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

zones d’ombres présentent un très faible taux de gradient contrairement aux objets (Figure

20).

taux de gradient contrairement aux objets (Figure 20). Figure 19 : Résultat de la différence de

Figure 19 : Résultat de la différence de gradient

Cette propriété qui n’est pas toujours vérifiée à cause du bruit, combinée au résultat du nouveau filtre des ombres permet de détecter et de supprimer les ombres dans des séquences vidéo. La méthode de suppression d’ombre que nous avons adopté peut être schématisée par la chaîne de traitement suivante :

Résultat soustraction de fond (différence intensité/couleur)

Résultat du nouveau filtre d’ombres

Combinaison des deux résultats

IC : Image courante sous le format

c 1 c

2

c

3

IC : Image courante sous le format c 1 c 2 c 3 Calcul du gradient
Calcul du gradient d’IC

Calcul du gradient d’IC

Calcul du gradient d’IC
Calcul du gradient d’IC

IM : Image modèle sous le

format

c 1 c

2

c

3

IM : Image modèle sous le format c 1 c 2 c 3 Calcul du gradient
Calcul du gradient d’IM

Calcul du gradient d’IM

Calcul du gradient d’IM
Calcul du gradient d’IM
-
-
Résultat de la différence de gradient

Résultat de la différence de gradient

Résultat de la différence de gradient
Résultat de la différence de gradient
du gradient d’IM - Résultat de la différence de gradient Résultat final Figure 20 : Méthode

Résultat final

Figure 20 : Méthode proposée de traitement d’ombres

33/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

6. Résultats et discussion

6.1.

Résultats

La première partie du travail d’implémentation a été l’adaptation des deux outils d’élimination d’ombres des sections 5.1 et 5.2 à la méthode de soustraction de fond basé sur des blocs. Par la suite, plusieurs tests ont été effectué pour étudier les faiblesses et de trouver des améliorations. Les méthodes d’élimination d’ombres exposées dans les sections 5.3.1 et 5.3.2 ont été implémentées. Les résultats obtenus améliorent nettement les performances des algorithmes existants même si la méthode présente des limitations. Ceci pourrait s’expliquer par le fait que ces méthodes de raisonnement se font à l’échelle pixellique tandis que celles implémentées reposent sur des blocs de 8 8 pixels.

Dans cette partie nous présenterons uniquement les résultats de la méthode retenue (5.3.3), sur quelques exemples de vidéos. L’analyse des résultats permettra ensuite d’évaluer les performances et les limitations de la méthode proposée.

34/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Image normale

Sans traitement d’ombres

Méthode finale

Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale

Figure 21 : Résultats sur une scène à extérieure

35/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Image normale

Sans traitement d’ombres

Méthode finale

Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale
Image normale Sans traitement d’ombres Méthode finale

Figure 22 : Résultats sur une scène à l’intérieure

36/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

6.1. Performances et limitations des algorithmes

Plusieurs tests ont été effectués sur un large panel de vidéos représentant plus de 2000 images. L’algorithme proposé permet l’élimination des ombres. Cependant il arrive que des trous apparaissent dans la cible lorsque celle-ci possède très peu de gradients, ou en cas de forte ressemblance avec le modèle de fond. L’une des pistes d’amélioration consisterait à affiner la méthode de recherche de zone d’ombre. C'est-à-dire au lieu de raisonner sur des blocs de 8 8 pixels, on pourrait se ramener à une échelle pixellique ou alors utiliser des blocs de taille réduite pour le traitement des ombres tout en conservant la méthode actuelle de soustraction de fond.

en conservant la méthode actuelle de soustraction de fond. Figure 23 : Limite de la méthode

Figure 23 : Limite de la méthode proposée

Nous avons également observé quelques cas critiques (vidéos difficiles à analyser, ombres très prononcées …) où il reste quelques bruits dans le résultat après le traitement des ombres (Figure 24). Ceci peut s’expliquer par le fait que les images de la vidéo qui sont plutôt en nuance gris ce qui rend plus difficile la segmentation des ombres avec le critère couleur. La succession d’érosion et de dilatation effectuée lors de la soustraction de fond peut aussi être à l’origine de ces débordements sur la zone d’ombre. Il serait donc intéressant d’utiliser un critère de texture en plus ou combiner différemment les critères que nous avons vu pour la détection des ombres.

critères que nous avons vu pour la détection des ombres. Sans traitement d’ombre Méthode proposée Figure

Sans traitement d’ombre

vu pour la détection des ombres. Sans traitement d’ombre Méthode proposée Figure 24 : Exemple de

Méthode proposée

Figure 24 : Exemple de cas critiques

37/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Conclusion

Ce stage de seconde année d’école d’ingénieur au CEA LIST aborde un sujet de vidéosurveillance, et s'intéresse plus particulièrement la détection et la suppression des ombres pour l’optimisation d’un algorithme de soustraction de fond. L’analyse des algorithmes existants et l’étude des propriétés spectrales et géométriques des ombres ont permis la mise en place d’une méthode assez robuste. Les résultats plutôt concluants ont permis l’intégration de cet algorithme dans un système de suivi d'objets modulaire basé sur un algorithme de soustraction de fond existant au CEA LIST. La méthode que nous avons développée présente toutefois des limitations qui ont été identifiées. Des pistes d’amélioration ont été proposées pour pallier aux problèmes rencontrés. De plus la plupart des méthodes de détection et/ou de suppression des ombres rencontrées dans la littérature se font à l’échelle pixellique. Une question fondamentale se pose donc :

Le descripteur des blocs de 8 8 pixels utilisé pour la soustraction de fond est-il adapté au problème de suppression d’ombres ?

L’une des pistes d’amélioration consisterait à affiner la méthode de traitement d’ombres en

utilisant des blocs de tailles réduites ( 4 4, 2 2,

tout en conservant la méthode actuelle de soustraction de fond. Cependant l’avantage de l’approche par bloc étant de réduire les bruits lors de la détection des objets en mouvement, il serait peut être intéressant de combiner les critères différemment.

) ou se ramener à une échelle pixellique

Ce stage m’a permis à la fois d’acquérir de nouvelles connaissances techniques mais également de développer mon sens relationnel dans le cadre de cette insertion dans le milieu professionnel. D’un point de vue professionnel, le stage m’a permis de découvrir le domaine de la recherche en vision par ordinateur, d’y appréhender les méthodes de travail et de prendre conscience des difficultés inhérentes. Grâce à ce riche apprentissage, j’éprouve désormais un réel intérêt pour le traitement d’images et la vision par ordinateur, branches qui m’étaient alors peu connues lors de mon arrivée au laboratoire. De plus cela m’a permis de compléter et d’approfondir mes connaissances acquises en programmation orientée objet et d’appréhender de nouvelles notions telles que la programmation générique et collaborative.

Pour conclure, je qualifierais cette expérience de constructive et enrichissante tant au point de vue technique que relationnel et j’espère que ma présence aura apporté au sein de cette équipe autant de satisfaction qu’à moi-même.

38/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.

Modélisation du fond pour la vidéosurveillance

Bibliographie

[1] Fatih Porikli, Oncel Tuzel. Bayesian Background Modeling for Foreground Detection. Mitsubishi Electric research Labs.

[2] Fatih Porikli, Oncel Tuzel, Peter Meer. A Bayesian approach to background modeling. Computer Vision and Pattern Recognition, 2005 IEEE Computer Society Conference on Volume 3, 20-26 June 2005 Page(s):58 – 58.

[3] C. Stauffer, and W. E. L. Grimson. Adaptive background mixture models for real-time tracking. Computer Vision and Pattern Recognition, 2: 246-252, 1999.

[4] Yu-Ting Chen, Chu-Song. Chen, Chun-Rong Huang and Yi-Ping Hung: Efficient hierarchical method for background subtraction. Pattern Recognition, November 2006.

[5] E. Salvador, A. Cavallaro, and T. Ebrahimi. Cast shadow segmentation using invariant color features. Computer Vision and Image Understanding 95, pages 238–259, 2004.

[6] Jianpeng Zhou and Jack Hoang. Real time robust human detection and tracking system. Computer Vision and Pattern Recognition, 2005 IEEE Computer Society Conference.

[7] http://fr.wikipedia.org/wiki/Vidéosurveillance

39/39

Ce document et les informations qu’il contient, sont la propriété exclusive du CEA. Ils ne peuvent pas être communiqués ou divulgués sans une autorisation préalable du Cea-List.