Vous êtes sur la page 1sur 76

Chapitre 3 :

Mouvement Visuel

Vision par Ordinateur


2021 - 2022 M. SID AHMED BERRABAH
M2 - MID514
Analyse du mouvement visuel
2

Mouvement en 2D vs 3D

10/01/2021
Analyse du mouvement visuel
3

⚫En particulier, l’’information mouvement peut être utilisée dans :

➢ Détection des objets


➢ Segmentation de la scène
➢ Mouvement 3D
➢ Reconstruction 3D
➢ ...

10/01/2021
Analyse du mouvement visuel
4

⚫ Le but principal est d’estimer le mouvement relative entre la


camera et la scène

⚫ Supposant que les conditions d’illumination ne changent pas, les


changement dans l’image sont causés par le mouvement relative
entre la caméra et la scène :

➢ Caméra en mouvement, scène fixe


➢ Caméra fixe, la scène en mouvement
➢ Caméra en mouvement, la scène en mouvement

10/01/2021
Analyse du mouvement visuel
5

⚫ Comprendre un environnement dynamique nécessite l’extraction


des information visuelles des changements spatial et temporel
dans une séquence d’images.

10/01/2021
Séquence d’Images
6

⚫ Une séquence d’images est une série de N images (trames)


prises à des laps de temps Δt :

⚫tk = t0 + kΔt

⚫ Fréquence (cadence) d’images :

➢ Une fréquence d’images typique est de 1/30 sec

➢Une grande fréquence d’images implique un faible


déplacement de pixels d’une image à l’autre.

10/01/2021
Exemple : temps à l’impacte
7

Considérant une barre verticale perpendiculaire à l’axe optique et se


déplacement à une vitesse constante vers la caméra :

constant
velocity

at t=0
D(t)=D0-Vt

L, V, D0, et f sont inconnues


10/01/2021
Exemple : temps à l’impacte
8

Question : Est ce qu’on peut calculer le temps τ que prend la barre


pour atteindre la caméra juste à partir des données de l’image sans
connaitre la L ou sa vitesse en 3D ?

10/01/2021
Exemple : temps à l’impacte
9

Question : Est ce qu’on peut calculer le temps τ que prend la barre


pour atteindre la caméra juste à partir des données de l’image sans
connaitre la L ou sa vitesse en 3D ?

L
τ = V / D et l (t ) = f
D

dl (t ) L dD LV
l (t ) = =−f 2 = f 2 = l (t )
dt D dt D

l (t ) L(t) et l’(t) peuvent être calculées


=
l (t ) d’une séquences d’image
10/01/2021
Problèmes induit par le mouvement
10

⚫ Correspondance : Quel élément dans une image correspond à


quel élément dans l’image suivante ?

➢ Les disparités entre les images consécutives sont très faibles.

➢ Les algorithmes basées sur le tracking des features peuvent


être utilisés pour estimer les disparité dans les images qui
suivent.

10/01/2021
Problèmes induit par le mouvement
11

⚫ Reconstruction : Connaissant un nombre de correspondances


et les paramètres intrinsèques de la caméra, qu’est ce qu’on peut
dire du mouvement et structure 3D de la scène observée

➢ Les déplacements 3D entre la scène et la caméra ne sont pas


nécessairement créés par un seul mouvement rigide en 3D.

➢ La scène peut contenir plusieurs objets avec des mouvements


différents.

10/01/2021
Problèmes induit par le mouvement
12

⚫ Segmentation :

➢ Même si on suppose un seul mouvement rigide relative entre


la caméra et la scène observée ( les objets ne peuvent pas
avoir différent mouvement), pas d’objets déformables, et les
seuls changement d’illuminations sont dues au mouvement ;
Quelles régions de l’images plane qui correspondent aux
différent objets en mouvement

➢ Résoudre le problème de correspondance et après trouver les


correspondances des régions ? Ou trouver les régions d’abord
et ensuite chercher les correspondance des points ?

10/01/2021
Champ de mouvement
13

Un champ de mouvement 2D est le champ vectoriel


correspondant aux vitesses des pixels de l’image induites
par le mouvement relatif entre la caméra et la scène.
Il peut être considéré comme la projection du champ V du
mouvement 3D sur le plan de l’image.

V
P

10/01/2021
Champ de mouvement
14

⚫ Géométrie du mouvement :
- Définir la relation entre les
mouvements/structures 3D et la
projection 2D du champ de
mouvement.
⚫ Mouvement Apparent vs Vrai
mouvement :
⚫- Définir la relation entre la
projection du champ de mouvement Flux optique
et les variations des intensités entre
les images (flux optique).

10/01/2021
Champ de mouvement 3D
15

Supposant que la caméra a un mouvement en translation T


et une rotation w (vitesse angulaire). Le mouvement relative
entre la caméra et le point P de la scène est donné par
l’équation de Coriolis :
Ty

V = -T – ω x P P

Tx

Tz

10/01/2021
Champ de mouvement 3D
16

Ty

P
(1)
Tx

Tz

10/01/2021
Champ de mouvement 2D
17

La relation entre le vitesse de P dans l’espace et sa projection dans l’image peut


être calculée comme suite (la dérivée de p par rapport à t) :

dp (2)

10/01/2021
Champ de mouvement 2D
18

Remplaçant (1) dans (2) :

10/01/2021
Décomposition du Champ de mouvement 2D
19

Le champ de mouvement est la somme de deux composantes :

Composante de translation Composante de rotation

A noter : La composante de rotation ne donne aucune information


sur l’information profondeur (pas de dépendance en Z)
10/01/2021
Analyse du champ de mouvement : Cas d’une
pure translation.
20

Supposant w = 0 :

Le champ de mouvement est


radial (les vecteurs se
concentrent ou dispersent de P

10/01/2021
Analyse du champ de mouvement : Cas d’une
pure translation.
21

⚫ Si Tz < 0, les vecteurs pointent loin de p0 (p0 est appelé le


« le focus de l’expansion »

⚫Si Tz > 0, les vecteurs pointent vers de p0 (p0 est appelé le


« le focus de la contraction»

Tz < Tz >
0 0

10/01/2021
Analyse du champ de mouvement : Cas d’une
pure translation.
22

⚫ Si Tz = 0, alors

➢ Les vecteurs du champ de mouvement sont parallèles

➢ Leurs longueurs sont inversement proportionnelles à la


profondeur du correspondant point 3D

10/01/2021
Analyse du champ de mouvement : Cas d’un
mouvement plane.
23

⚫ Supposant une caméra observant une surface plane π

⚫ Si n(nx, ny, nz)T est la normale à π, et d est la distance de π


du centre de projection alors
nTP=d

⚫ Soit P du plan π, tenant compte de p = f P/Z alors :

10/01/2021
Analyse du champ de mouvement : Cas d’un
mouvement plane.
24

⚫ En remplaçant dans l’équation de base du champ de


mouvement, nous obtenons :

Les paramètres a1, a2, …, a8 sont fonctions de T, n, et d.

10/01/2021
Analyse du champ de mouvement : Cas d’un
mouvement plane.
25

⚫ En remplaçant dans l’équation de base du champ de


mouvement, nous obtenons :

Les paramètres a1, a2, …, a8 sont fonctions de T, n, et d.

➢ Le champ de mouvement d’une surface plane est un


polynôme quadratique de x, y, et f
10/01/2021
Analyse du champ de mouvement : Cas d’un
mouvement plane.
26

⚫ Peut on retrouver le mouvement et la structure 3D des


points coplanaires :

➢ On peut facilement démontrer que deux surfaces


planaire différentes avec différents mouvements 3D
peuvent produire le même champ de mouvement 2D

➢ Ceci implique que la reconstruction de la structure et le


mouvement 3D ne peuvent pas se baser sur les points
coplanaires.

10/01/2021
Estimation du champ de mouvement 2D
27

⚫ Comment peut on estimer le champ de mouvement 2D à partir


d’une séquence d’image ?
➢ Techniques différentielles
• Basées sur les variations spatiales et temporelles dans
l’intensité des pixels de l’image (méthodes du champ
d’optique).
• Très faible variations entre les images de la séquences.
• Dense correspondance

➢ Techniques de correspondances
• Correspondre et suivre les features dans l’image sur le temps
(e.g Filtre de Kalman).
• non dense correspondance.
10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
28

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
29

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
30

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
31

Supposition #1 :
L’intensité d’un point de l’image reste constante sur le temps

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
32

Supposition #2 :
Le déplacement et le pas du temps sont petits

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
33

Contrainte de la constance de l’intensité de l’image :

⚫ Supposons :

➢ L’intensité apparente des objets en mouvement reste constante

➢ L’intensité de l’image est continue et différentiable dans l’espace


et le temps.

⚫ Notons l’intensité de l’image par E(x, y, t), la contrainte de constance


de l’intensité implique :
dE / dt =0
(x(t),y(t))

(x(2),y(2))
E est fonction de x, y, et t (x(1),y(1))

x et y sont aussi fonction de t


E(x(t), y(t), t)
10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
34

Contrainte de la constance de l’intensité de l’image :

⚫ Selon la dérivation des fonctions composées :

(1)

⚫ Comme v = (dx/dt, dy/dt)T, nous pouvons réecrire l’équation (1) :

(l’équation de l’optical flow)

⚫avec

Gradient – dérivation spatiale dérivation temporelle


10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
35

⚫ Le gradient peut être calculé d’une seul image :

⚫ =E(x+1,y) – E(x,y)
(x,y) (x+1,y)
e.g.,

(x,y+1) (x+1,y+1) =E(x,y+1) – E(x,y)

⚫ La dérivée temporelle nécessite plus d’une image.

(x(t),y(t))
e.g., E(x(t),y(t)) - E(x(t+1),y(t+1)) …
(x(2),y(2))
(x(1),y(1))

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
36

⚫ est non nul dans les endroits où l’intensité change

⚫ C’est un vecteur pointant vers la direction du changement maximal


de l’intensité

⚫ Il est toujours perpendiculaire à la direction d’une bordure

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
37

Problème d’aperture
⚫ Nous ne pouvons pas retrouver complètement v comme nous avons
une seule équation avec deux variables !

Soit v = vn + vp avec vn est parallèle à et vp est perpendiculaire à

vn v
vp

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
38

Problème d’aperture

⚫ L’équation de la constance de l’intensité devient alors :

⚫ Nous pouvons calculer seulement la composante vn parallèle au


vecteur du gradient spatial

⚫ vn s’appelle « flux normal »

10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
39

Problème d’aperture

⚫ Considérons la bordure supérieure d’un rectangle en mouvement

⚫ Imaginer qu’on l’observe à partir d’une petite aperture

Il y a plusieurs mouvements du
rectangle compatibles avec ce qu’on
voit via l’aperture.
La composante du champ de mouvement
dans la direction orthogonale au gradient
spatial de l’image est non contrainte par
l’équation de constance de l’intensité de
l’image.
10/01/2021
Estimation du champ de mouvement 2D : Méthodes
basée sur le flux optique
40

⚫ La relation entre le champ du mouvement et le flux optique n’est pas


directe :

Nous pouvons avoir un mouvement


apparent nul (flux optique) pour un champ
de mouvement non nul.
e.g., une sphère avec une surface de couleur
constante tournant dans une illumination fixe.

Nous pouvons avoir aussi un mouvement


apparent non nul pour un champ de
mouvement nul.
e.g., une scène statique et une source de
lumière en mouvement.

10/01/2021
Estimation du flux optique
41

⚫ Pour estimer du flux optique nous avons besoin de d’autres


contraintes que la contrainte de la constance de l’intensité de l’image.

⚫ Exemples de contraintes :
1. Vitesse constante localement
2. Modèle paramétrique local
3. Contrainte de régularité

10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
42

⚫ Supposition d’une vitesse constante

⚫ Un flux optique constant pour chaque point pi de l’image dans un petit


voisinage Q de taille N x N. (e.g., 5x5)

⚫ Chaque point de Q nécessite de satisfaire l’équation de constance :

⚫ Obtenir v par la minimisation de : Q


pi

10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
43

⚫ La minimisation de ε2 est équivalente à résoudre

⚫ Le solution est équivalent à la matrice pseudo-inverse

Q
pi

⚫ Assigner au pixel du centre de Q

⚫ Un flux optique dense peut être calculé en répétant cette


procédure pour tous les pixels de l’image. 10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
44

⚫ Remarques

⚫ Quand la matrices devient singulière, le problème d’aperture ne peut


pas être résolu :
➢ Q a une intensité presque constante (faible texture) : les deux

valeurs propres sont proches de zéro.


➢ L’intensité change dans une seule direction : une des valeurs

propres est proche de zéro.


➢ SVD peut être utilisé dans ce cas pour obtenir la plus petite

solution normale vn
10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
45

⚫ Remarques :
➔ Faible texture

–λ1 petite, λ2 petite

10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
46

⚫ Remarques :
➔ Bordure

–λ1 grand, λ2 petite

10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
47

⚫ Remarques :
➔ Région forte texturée

–λ1 grand, λ2 grand

10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
48

⚫ Remarques :
➔ La fenêtre de mesure doit contenir suffisamment de
changement de gradient pour pouvoir estimer le mouvement

10/01/2021
Estimation du flux optique : (1) Vitesse constante localement
(algorithm de Lucas and Kanade )
49

⚫ Exemple de résultat du flux optique :

10/01/2021
Estimation du flux optique : (1) Models Paramétrique Local
(Approximation du premier ordre)
50

⚫ L’algorithme précédent (Lucas Kanade) suppose une vitesse


constante dans une région (valide seulement pour les petites
régions).

⚫ L’amélioration de cet algorithme peut être obtenue par


l’intégration de l’estimation du flux optique sur des régions plus
larges en utilisant un modèle paramétrique.

10/01/2021
Estimation du flux optique : (1) Models Paramétrique Local
(Approximation du premier ordre)
51

⚫ Modèle du premier ordre (Affine)

Supposons N estimations du flux optique (vx1,Vy1), (vx2,Vy2),...


(vxN,VyN) à N positions, nous aurons :

w = Ha
vy 1
ou

a = (HT H)-1 HT
α6
w
10/01/2021
Estimation du flux optique :
(3) Contrainte de régularité
52

⚫ Forcer une régularité locale avec des contraintes sur la


variations d’intensité

⚫ Nous avons alors 1+3 équations :

10/01/2021
Estimation du flux optique :
(3) Contrainte de régularité
53

⚫ Nous pouvons estimé (vx, vy) par résoudre le système


d’équation suivant

avec

10/01/2021
Estimation du flux optique :
(3) Contrainte de régularité
54

⚫ Imposer une contrainte de régularité globale sur v (c-à-d v


doit varier doucement (smoothly) à travers l’image

Avec λ qui contrôle l’importance du terme de régularisation

⚫ Ce qui donne une paire d’équations aux dérivées partielles :

10/01/2021
Estimation du flux optique :
(3) Contrainte de régularité
55

Ce système est résolu par une méthode itérative pour


estimer (vx, vy) : c’est l’algorithme de Horn and Schunk

Remarques :
⚫ La contrainte de régularité n’est pas vérifiée sur les bordure
des objets parce que les surfaces des objets peuvent être à
différentes profondeurs.

⚫ Cette contrainte est aussi non vérifiée quand les objets qui se
chevauchent sont en mouvement dans des directions
différentes.

10/01/2021
Estimer le champ de mouvement en utilisant la
correspondance des features
56

• Estimer le champ de mouvement aux points features seulement


(e.g. les coins) : cela génère un champ de mouvement dispersé
(sparse motion field)

• Supposant seulement 2 trames, l’idée est de trouver les couples de


correspondances des features entre les deux images (exp,
algorithme de block matching).

• Pour plusieurs trames, la correspondance trame-à-trame peut être


améliorer par le suivi (tracking).

10/01/2021
Estimer le champ de mouvement en utilisant la correspondance
des features entre 2 trames
57

• Supposant la correspondance entre des points features (e.g. coins)

➢ Soit un ensemble de points de correspondances p1 et p2 ;


estimer le déplacement d entre p1 et p2 en utilisant un
algorithme du flux d’optique (e.g. Lucas Kanade)

• Entrée : I1, I2 et un ensemble de points correspondants.

• Sortie : Une estimation de d pour tous les points features

10/01/2021
Estimer le champ de mouvement en utilisant la correspondance
des features entre 2 trames
58

Q’
Q1 Q2 p’
p

I1 I2
•Pour chaque point feature p faire :
• Initialiser d = 0
1) Estimer le déplacement d0 dans une petite région Q1 en
supposant une vitesse constante : d = d + d0
2) Envelopper (wrap) Q1 à Q’ selon le déplacement estimé
3) Calculer la corrélation SSD entre Q’ et Q2 (le patch
correspondant sur l’image I2)
4) Si SSD > t, alors Q1 = Q’, aller à l’étape (1), sinon arrêt.

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
59

• La correspondance des features entre deux trame peut être


amélioré en considérant toute la séquence.

• Idée: Faire une prédiction du mouvement des features sur base de


leurs trajectoire.

- Supposer que le mouvement observé est continu.

t+1
t
t-1

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
60

Suivi des features par le filtre de Kalman

• Le filtre de Kalman est un algorithme récursif qui permet d’estimer


la position et l’incertitude sur la prochaine image d’une feature en
mouvement.

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
61

Suivi des features par le filtre de Kalman (suite)

• Le Filtre de Kalman implique deux étapes principales :

➢ La prédiction de l’état
✓Basée sur le modèle de l’état

➢ La mise à jour de l’état

✓Basée sur le modèle des mesures

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
62

Suivi des features par le filtre de Kalman (suite)

• Considérons le point à suivre p=(xt,yt)T avec t le temps.

• Soit la vitesse vt=(v x,t, v y,t)

• et st l’état de p à l’instant t :

st=[xt, yt, v x,t, v y,t]T

Le but est d’estimer st+1 à partir de st

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
63

Suivi des features par le filtre de Kalman (suite)

• Avec l’algorithme du filtre de Kalman st+1 est relié linéairement à st


comme suite:
st+1=Φst + wt

• avec Φ est la matrice d’état et wt est l’incertitude

• wt suit une distribution Gaussienne , c-à-d, wt ~ N(0,Q)

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
64

Suivi des features par le filtre de Kalman (suite)

• Exemple : supposons que le mouvement des features entre les


trames consécutives est faible, alors la matrice de transition Φ peut
être exprimée par :

xt+1 = xt+v x,t+wx,t

yt+1 = yt+vy,t+wy,t

v x,t+1 = vx,t+wvx,t

vy,t+1 = v y,t+wvy,t
10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
65

Suivi des features par le filtre de Kalman (suite)

• Le Filtre de Kalman applique aussi un modèle de mesure donné par


:

• zt = Hst + vt
avec H reliant l’état courante st à la mesure courante zt et v t
représente l’incertitude de mesure.

zt est l’estimation de pt produite à travers le détection de feature (ex.


détection de coin)

vt suit une distribution Gaussienne, i.e., vt ~ N(0,R)


10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
66

Suivi des features par le filtre de Kalman (suite)

• Exemple: supposons que le détecteur de features estime la position


d’un point feature p, alors H peut être réprésenté par :

zx,t = xt + vx,y

zy,t = yt + v y,t

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
67

Suivi des features par le filtre de Kalman (suite)

• Le Filtre de Kalman implique deux étapes principales :

➢ La prédiction de l’état
✓Basée sur le modèle de l’état

➢ La mise à jour de l’état

✓Basée sur le modèle des mesures

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
68

Suivi des features par le filtre de Kalman (suite)

(1) Prédiction de l’Etat Σ-t+1


• Incertitude sur
la position

(x-t+1,y-t+1)

(xt,yt)
Prédiction du feature
au temps t+1
Prédiction du feature
au temps t

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
69

Suivi des features par le filtre de Kalman (suite)

(1) Prédiction de l’État

(1.1) Projection de l’État


(1.2) Estimation de la covariance de l’erreur

Etimation Σt est la
a priori covariance de st

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
70

Suivi des features par le filtre de Kalman (suite)

(2) Mise à jour de l’Etat


(x-t+1,y-t+1)
• predicted estimate
Σt+1L’incertitude
sur la position
Estimation finale
(xt+1,yt+1)
Zt+1 détectée
(xt,yt)
Feature finale
au temps t+1
Feature détectée
au temps t

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
71

Suivi des features par le filtre de Kalman (suite)

(2) Mise à jour de l’État :


(2.1) Obtenir zt+1 par l’utilisation du détecteur de features dans la
région de recherche définie par Σ-t+1

(2.2) Calculer le gain filtre de Kalman :


10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
72

Suivi des features par le filtre de Kalman (suite)

(2) Mise à jour de l’État :

(2.3) Combiner s-t+1 avec zt+1

Estimation
à posteriori
(2.4) Mise à jour de l’incertitude de st+1

Estimation
à posteriori

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
73

Initialisation du filtre de Kalman


⚫ Pour initialiser l’état, nous avons besoin de traiter d’abord au moins
deux trames (images) :

⚫ Σ−0 est généralement initialisée à des grandes valeurs qui vont


décroître pour atteindre rapidement un état stable

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
74

Initialisation du filtre de Kalman - suite


⚫ Pour initialiser Q, par exemple, nous pouvons assumer que la
déviation standard pour l’erreur de position est de 4 pixels et pour la
vitesse est de 2 pixels / trame.

⚫ Pour initialiser R, nous pouvons supposer que l’erreur de mesure


est 2 pixels

10/01/2021
Estimer le champ de mouvement en utilisant le suivi des
features entre plusieurs trames
75

Limitation du filtre de Kalman

⚫ Supposons que le modèle d’état est linéaire et que le vecteur d’état


suit une distribution gaussienne.

⚫ Plusieurs filtres sont nécessaires pour suivre plusieurs points.

⚫ Des améliorations de cet algorithme ont été proposé pour éviter ces
problèmes : exemple Le Filtre de Kalman étendu (Extended Kalman
Filter)

⚫ Une autre méthode appelée Filtre à particules (Particle Filtering) a


été proposée pour le suivi des objets dont l’état ne suit pas une
distribution Gaussienne.

10/01/2021
76

Chapitre suivant :
Estimer le mouvement et la structure 3D à partir d’un
ensemble de correspondances de features.

10/01/2021

Vous aimerez peut-être aussi