Académique Documents
Professionnel Documents
Culture Documents
F.LERASLE 2020-2021
Introduction
2
Sommaire (16h C/TD et 12h TP)
1. Acquisition 3D (8h)
1. Généralités
2. Modélisation de caméra
3. Stéréovision passive
4. Capteurs actifs
2. Modélisation 3D (3h)
3. Localisation et reconnaissance 3D (5h)
4. Applications par des exemples
3
Modélisation de caméra perspective
◼ Modèle mince → optique = épaisseur
nulle
◼ Modèle sténopé
◼ Dit modèle « pinhole » → un seul rayon
conservé
4
Modélisation de caméra perspective
◼ But : relation mathématique entre coordonnées
3D (monde) / 2D (image)
◼ Deux transformations :
◼ Projection perspective
◼ Transformation repères caméra / image (unité = pixel)
5
Modélisation de caméra perspective
◼ Projection perspective – en
coordonnées homogènes
Xc
s.xc f 0 0 0
Yc
s. yc = 0 f 0 0 .
Zc
s 0 0 1 0
1
Xc
s.u u 0 u0 0
Y
s.v = 0 v v0 0 . c
Zc
s 0 0 1 0
1
Xm
s.u .r + u0 .r31
u 11 .r + u0 .r32
u 12 .r + u0 .r33
u 13 u .Tx + u 0 .Tz
Ym
s.v = v .r21 + v0 .r31 v .r22 + v0 .r32 v .r23 + v0 .r33 v .Ty + v0 .Tz .
Zm
s r31 r32 r33 Tz
1
8
Modélisation de caméra perspective
◼
(ud )i = ui + ui ui = u r + ut
avec
(vd ) i = vi + vi vi = vr + vt
ur = (u − u0 ).(k1.r 2 + k 2 .r 4 + k3 .r 6 )
Distorsion vr = (v − v0 ).(k1.r 2 + k 2 .r 4 + k3 .r 6 )
coussinet
A estimer : k1 , k 2 , k3 , p1 , p2
9
Etalonnage de caméra
◼ Optimisation non linéaire
◼ Vecteur à estimer (ex : r t ) :
3 0
X = (u0 , v0 , u , v , , , , Tx , Ty , Tz , k1 , k 2 , k3 ) T
avec :
r11 . X i + r12 .Yi + r13 .Z i + t x
ui + vui = u0 + ui + u. = P( X )
r31 . X i + r32 .Yi + r33 .Z i + t z
r21 . X i + r22 .Yi + r23 .Z i + t y
vi + vvi = v0 + vi + v . = Q( X )
10 r31 . X i + r32 .Yi + r33 .Z i + t z
Etalonnage de caméra
◼ Optimisation non linéaire
◼Linéarisation autour d’une valeur initiale X 0
➔ système à résoudre : V = A. X - L
13 O1 O2
Stéréovision passive - Principe
◼ Appariements – types de primitives :
◼ Denses ou éparses ?
14
Stéréovision passive – Appariement de pixels
◼ Scores paramétriques :
+M +M
SSD( p1 , p2 ) = [ I (u1 − x, v1 − y ) − I ' (u2 − x,v2 − y )]2
x=− M y =− M
+M +M
CC ( p1 , p2 ) = I (u1 − x, v1 − y ).I ' (u2 − x,v2 − y )
x=− M y =− M
pl
x z prpr1pr2z x
y
Ol y
Or
◼ Rectification des images pour stéréo dense –
lignes épipolaire et image confondues
16
Stéréovision passive – Appariement de pixels
◼ Images rectifiées - Filtrage par étude de la
corrélation
Pixel à apparier – 4 contextes
17
Stéréovision passive - Reconstruction
◼ Sur images rectifiées → triviale si disparité (d) calculée
X c1 = X c2 , Yc1 = Yc2 + b, Z c1 = Z c2
b. v
Zc = ; d = v1 − v2 (caméras identiques)
d
18
Stéréovision passive - Récapitulatif
[lama.mpg]
[karma]
19
Reconstruction par stéréovision passive - Exemple
◼ Inspection optique de pièces aéronautiques chez AIRBUS :
panneaux de fuselage ou de voilure, métalliques ou composites
20
Reconstruction par stéréovision passive - Exemple
◼ Occupation d’un cockpit chez CONTINENTAL : capteur CMOS,
focale 2.1mm, illuminateur NIR
[siemens.avi]
21
Stéréovision passive - Exercice
◼ Exercice : stéréovision embarquée sur véhicule routier – Le
système est monté à une hauteur de 80cm. Le sol est supposé plat.
Les axes optiques sont orientés vers le bas d’un angle site de 20°.
On donne : résolution de 320x240 pixels, focale de 2.1mm, base
inter-caméras de 12cm, caméras en configuration épipolaire,
rétine CCD de 6.4x4.8mm
◼ Lister les avantages/inconvénients de cette focale.
◼ Calculer le champ de vue vertical. En déduire la largeur de la zone
aveugle sur le sol ou tout obstacle est indétectable.
◼ Montrer que v 105 . En déduire la disparité à la distance minimum de
perception sur le sol. Quelle disparité pour un point situé sur le sol à 3m
puis 5m du véhicule ?
◼ Conclure sur son utilisation en détection d’obstacles.
[videre.mpg]
22
Capteurs actifs
◼ Principe : émetteur et récepteur de
rayonnement
◼ Exemples :
◼ RADAR, peu utilisé
◼ Ultrason, télémétrie laser
◼ Lumière structurée : profilométrie, capteur RGB-D
◼ Caméra active
23
Télémétrie laser
◼ Mesure de distance
◼ Exemple du temps de vol – impulsion de courte durée –
mesure de temps entre émission / réception
v. = 2. [Deflexion.avi]
v vitesse de propagatio n
[Nav-SICK.avi] du signal
distance à l' objet
[Nav-Velod.mp4] temps de vol
◼ Télémétrie 3D ou 2D → système de déflexion (miroirs)
24
Télémétrie laser
◼ Avantages
◼ Mesure directe de distance
◼ Portée
◼ Signal peu divergent
◼ Inconvénients
◼ Surfaces spéculaires et réflexions multiples
◼ Problème des points de moyennage
◼ Résolution liée au système de déflexion
◼ Précision du laser SICK : 3cm pour [1-5m], supérieur
ensuite
25
Lumière structurée
I J
[Kinect-SDK.avi]
26
Lumière structurée
Plan projeté ( )
Objet
Laser
(u, v)
(D)
Caméra
28
Lumière structurée – Codage binaire (rayons)
29
Lumière structurée – Codage binaire (rayons)
◼ Capteur RGB-D
◼ Calibrage entre faisceaux projetés et caméra
(préalablement calibrée)
◼ Projection des faisceaux /plan focal → image virtuelle
◼ Rectification des images
◼ Appariements (score de similarité) et calcul
disparité
◼ Résolution : 320x240 pixels
◼ Précision : 1cm à [0.8-3.5m]
◼ Résolution 3D : 3mm à 2m
30
Lumière structurée – Codage binaire (plans)
[Fanuc-Devracage.mp4]
[Minolta.avi]
7 plans binaires
Projection
…
temporelle
Plan 3
Plan 2
Plan 1
Ex. de code pixel 1010010
→ identification du plan
31
Lumière structurée par plans et ombrage - Exercice
Expliciter la démarche
pour reconstruire la scène
32
Caméra active
◼ Concept du télémètre laser – Fonctionnel en extérieur
◼ Exemples :
◼ « Swiss ranger » SR4000 : temps de vol, résolution 176x144
pixels, 20 fps.
◼ Kinect v2 : temps de vol, résolution 512x424 pixels, 30 fps
◼ PMDVision CamCube : modulation de phase, résolution
204x204 pixels, 20 fps
◼ Intel RealSense : stéréovision passive avec éclairage (IR),
640x480 pixels, 30/60 fps
33
Lumière structurée - Exercice
◼ Exercice : reconstruction par triangulation active
basée sur diode laser, grille de diffraction et caméra
CCD
◼ Montrer que les équations des faisceaux sont donnés par l’expression
suivante et proposer une procédure de calibrage
x = ak .z + pk
y = bk . z + q k
34
Télémétrie laser - Exercice
◼ Exercice : un capteur multi-sensoriel pour la navigation d’un robot
mobile en intérieur embarquant un banc stéréo et un laser SICK
◼ On privilégie la stéréo-segment. Comment appliquer la contrainte épipolaire ? Quelles
contraintes autres ?
◼ Caractériser le vecteur directeur de chaque segment 3D reconstruit. On se focalise par
la suite sur les segments verticaux
◼ La segmentation laser consiste à regrouper les points successifs alignés. Proposer une
démarche
◼ Calibrer le système laser/banc stéréo. Les capteurs sont supposés dans un plan.
◼ Comment mettre en correspondance les informations issues des deux capteurs ?
35
Références
◼ Point Cloud Library, url http://pointclouds.org/
◼ OpenCV library, url http://opencv.org/
◼ Perception visuelle par imagerie vidéo. Dhome et al.,
Hermès&Lavoisier, 2003
◼ Vision par Ordinateur. Horaud & Monga, Hermès, 1993
◼ Three Dimensional Computer Vision. A Geometric Viewpoint.
Faugeras, MIT Press, 1993.
36
Sommaire (16h C/TD et 12h TP)
1. Acquisition 3D
2. Modélisation 3D (3h)
1. Généralités
2. Modélisation de formes libres / structurées
3. Segmentation 3D
4. Modélisation incrémentale par perception active
3. Localisation et reconnaissance 3D
4. Applications par des exemples
37
Algorithme générique
Etape k
S2
Etape k+1
S1
◼ Applications à l’ensemble de points S1 et évaluation de la
qualité du recalage :
err = mediane [ min Rk X 1 + Tk − X 2 ]
X 1 S1 X 2 S2
39
[Reconstruction-Kinect.avi]
Recalage automatique
◼ Algorithme générique « Iterative Closest Point » (ICP)
Init the error to ∞
[GO-ICP.avi]
Apparier (S1,S2)
Calculate correspondence
[Noomeo.avi]
Estimer (Rk ,Tk )
Calculate alignment
S’1= R k .S1+Tk
Apply alignment
err k+1= errk
Update error
41
Modélisation de formes libres
◼ Représentation par éléments volumiques
◼ « Voxels » i.e. volume élémentaire – énumération des cellules
occupées
[TableTop.avi]
zi − a .Q(xi , yi ) avec Q( x, y ) = 1 x y x2 xy y 2
t
Re s = t
i =1
Min Re s a = M −1.D
a
m m
avec D = z i .Q( xi , yi ), M = Q( xi , yi ).Q( xi , yi )t
43 i =1 i =1
Modélisation de formes structurées
◼ Primitives géométriques
◼ Sphères, cylindres, cônes, tores, …
◼ Superquadriques
2
2 2 2
1
x 2 y 2 z
+ +
1
=1
a b c
◼ Structuration via des arbres de « Constructive
Solid Geometry » - noeuds = éléments
géométriques – arcs = opérations ensemblistes
44
Segmentation 3D
◼ Taxonomie des approches [Nguyen et al., 2013]
◼ Attribut courbure
◼ Adaptée aux surfaces de degré supérieur
46
Segmentation 3D
◼ Attribut courbure 1
+
1
1 R R2
◼ Courbure de gauss K et moyenne H : K=
R1.R2
,H = 1
2
47
Segmentation 3D
◼ Approche basée régions
◼ But : segmenter en région (dis-similarité des attributs)
◼ Détermination des sauts/marches de profondeur (ordre 0),
discontinuité de normale (ordre 1), discontinuité de courbure
(ordre 2)
◼ Trois démarches : ascendante, descendante ou hybride
Début Début
Init. Sélection de régions élémentaires R (Type, Nb_points)
Faire Estimation des paramètres
Nb_points=Nb_points+1 Tri des régions R
Mise à jour paramètres modèle Construction liste des régions/points connexes L_R
Tant que (discontinuité=FALSE) ou Faire
(résidu<seuil) Examiner résidu pour R fusionnée avec L_R
Fin Tant que fusion=TRUE
Fin
48
Références
◼ Point Cloud Library, url http://pointclouds.org/
◼ OpenCV library, url http://opencv.org/
◼ [Golovinsky et al., 2009] Min-cut based segmentation of
point clouds. Golovinsky & Funkhouser. IEEE Int. Conf. on
Computer Vision, 2009.
◼ [Goulette, 1999] Modélisation 3D automatique, outils de
géométrie différentielle. Goulette. Les Presses de l’Ecole des
Mines, 1999.
◼ [Nguyen et al., 2013] 3D Point Cloud Segmentation: a
Survey. Nguyen, and Le. IEEE Int. Conf. on Robotics,
Automation, and Mechatronics, 2013.
49
Sommaire (16h C/TD et 12h TP)
1. Acquisition 3D
2. Modélisation 3D
3. Localisation et reconnaissance 3D (5h)
1. Localisation
2. Reconnaissance
3. Application à la manipulation
4. Applications par des exemples
50
Localisation 2D/3D
◼ But : détermination des paramètres extrinsèques connaissant
◼ Les paramètres intrinsèques
◼ Un modèle 3D de la scène
R + Tuvw
pi
Tz < 0 recouvrement
solution après
filtrage
53
Localisation 2D/3D : « PnL »
◼ Perspective-n-Lignes : résolution numérique
◼ Critère à minimiser :
◼ Résolution :
◼ Calcul des dérivées
0 0 0 0 0 1 0 −1 0
R R R
= 0 0 −1 , = 0 0 0 , = 1 0 0
0 1 0 −1 0 0 0 0 0
[Diotasoft-PnL] [Diotasoft-PnL+ICP]
54
Localisation 2D/3D : « PnL »
◼ Précision vs. nombre de caméras
Tx Ty Tz
29.9m
1 caméra 0.8° 1.1° 0.1° 4.7mm 3.2mm
m
55
Localisation 2D/3D : « PnL »
◼ Exemples sur objet rigide et articulé
56
Capture optique de mouvement humain
[MoCap-OptiTrack]
57
Localisation 2D/3D : « PnL » - Exercice
58
Localisation 2D/3D : « Pose-IT »
59
Localisation 2D/3D : « Pose-IT »
◼ Algorithme :
f f
t=0 et (t ) = 0 pour i 1, n , en posant I = T ( I , u), J = T ( J , v)
i
*
z
*
z
calcul des vecteurs I* et J* par résolution de syst. linéaire
N I = I12 + I 22 + I 32 , N J = J12 + J 22 + J 32
I = ( I1 I2 I 3 ) / N I , J = ( J1 J2 J3 )/ N J , K = I J, J = K I
f T T
Tz = , Tx = I 4 . z , Tw = J 4 . z
NI f f
K .Pmi
t = t+1; calcul des nouveaux i (t ) =
Tz
( i (t ) − i (t − 1)) / n seuil alors stop, sinon retour en
60 [Pose-IT.avi]
Localisation 3D/3D
◼
[Lourakis et al., 2013] Model-based pose estimation for rigid objects. Lourakis & Zabulis. Int. Conf. on
61 Computer Vision Systems, 2013
Sommaire (16h C/TD et 6h TP)
1. Auto-étalonnage de caméra
2. Modélisation 3D
3. Localisation et reconnaissance 3D
1. Localisation : PnP, PnL, Pose-IT
2. Reconnaissance
4. Applications par des exemples
62
Reconnaissance 3D/3D
◼ But : (1) appariement automatiques de primitives
scène/modèle, (2) localisation
◼ Complexité pour apparier : si O ensemble des
primitives 3D modèle (de taille n) et D ensemble des
primitives 3D scène (de taille m) tel que m n.
Nombre d’appariements possibles : Cmn .n!= m!
( m − n)!
→ Problème combinatoire !!
→ Extraction de primitives clés, calcul de descripteurs
locaux ou globaux associés, appariements, prédiction /
vérification de pose
63
Reconnaissance 3D/3D
◼ Primitives 3D = ici nuages de points
◼ Extraction de points clés i.e. robuste au bruit,
variation de point de vue, occultations, discriminant
◼ Détection : LSP, ISS, KPQ, etc. [Salti et al., 2011]
◼ LSP = « Local Surface Patch »
◼ Extremum local de courbure SI dans un voisinage
◼ ISS = « Intrinsic Shape Signature »
◼ Calcul de matrice de dispersion et comparaison des valeurs propres
64
Reconnaissance 3D/3D
◼ Descripteurs locaux : SHOT [Tomari et al., 2010], spin image,
PFH, 3D shape context [Kortgen et al., 2003]
◼ SHOT = « Signature of Histograms Orientation »
( )
n
h = hc1 , hc2 ,..., hcn , hci = ci (bu ), bu c1 ,..., cn , hci = 1
u R i =1
65
Reconnaissance 3D/3D
◼ Descripteurs globaux : PFH, VPFH, CVFH, ESF
[Alexandre, 2012][Brkié et al., 2014]
◼ ESF = « Ensemble of Shape Function »
◼ Pas de prétraitement (calcul normales)
◼ Voxellisation
66
Reconnaissance 3D/3D
◼ Processus d’appariements de points clés
◼ (1) Détection de points clé robustes et calcul de
descripteurs saillants
→ Définition préalable d’un voisinage
67
Reconnaissance 3D/3D
◼ Prédiction / vérification :
◼ Hypothèse de localisation
◼ Vérification
appariements et localisation résolus simultanément
◼ Étape 1 : prédiction
◼ Établir quelques appariements
◼ Estimer la localisation
◼ Appliquer à l’ensemble des primitives
◼ Etape 2 : vérification
◼ Former de nouveaux appariements
◼ Fusionner nouveaux et précédents appariements
◼ Mise à jour de la localisation
68
Robotique industrielle et dévracage - 1
71
Sommaire (16h C/TD et 12h TP)
1. Acquisition 3D
2. Modélisation 3D
3. Localisation et reconnaissance 3D
4. Applications par des exemples
74
Etalonnage et manipulation d’objet
◼ Calibration « bras / œil »
◼ But : guider le mouvement de la pince grâce à des infos
visuelles ➔ caractériser la position relative du capteur /
organe terminal
◼ Repères et transformations :
R r : repère de référence du bras articulé,
R e : repère lié à l' effecteur,
R c : repère caméra,
R m : repère du modèle de l' objet observé,
[L] : localisation objet dans le repère caméra,
[X] : matrice de passage bras / oeil (à calibrer),
[E] : positionne ment du repère effecteur dans le repère absolu R r ,
[T] : localisation objet dans le repère R r ,
[Tprise ] : position pince / R m pour saisir objet
75
Etalonnage et manipulation d’objet
◼ Saisie de l’objet par une approche « look&move »
[ E ]1 = E 0 .[ X ] .[ L] .[Tprise ]
◼ Stratégie de calibration « bras / œil »
◼ Localiser la pince à l’aide de primitives connues dans le repère pince
(mire en bout de pince)
◼ Effectuer deux localisations sur le même objet depuis deux positions du
bras (18 inconnues) [Tsai87] :
−1
[ L]1−1.[ X ]−1. E 1 .[E ]2 .[ X ].[L]2 = I [ A].[X ] = [ X ].[B]
76
Reconnaissance et manipulation d’objet
◼ Asservissement en position 3D :
◼ se rapprocher le plus possible de la position de prise puis effectuer
le dernier mouvement relatif de l’effecteur en aveugle
◼ une bonne localisation de l’objet
◼ un bon calibrage main/œil
Site et position initiale Dernière position d’approche Position de saisie Saisie de l’objet
◼ Étapes :
acquisition+segmentation image
prédiction de la localisation de l’objet (donnée par le modèle CAO du site)
mises en correspondance segments 2D/ arêtes 3D
déplacement du bras
retour en
77
Reconnaissance et manipulation d’objet
79
Algorithme « TableTop »
◼ « Inputs » : nuages de points 3D, modèle 3D des objets
◼ Hypothèses : objets sur une surface plane, objet symétrique
par rotation, objets séparés
◼ Démarche, 3 étapes :
◼ Random Sample Consensus (RANSAC) pour le plan
◼ « Euclidian Cluster Extraction » (ECE) pour les objets
◼ « Iterative Closest Point » (ICP)
Iterative Closest
Point (ICP)
RANdom SAmple
Euclidian Cluster
Consensus (RANSAC)
Extraction (ECE)
80
Localisation monoculaire – « PnP »
81
Localisation monoculaire – « PnP »
82 [Loca-SURF.avi]
Vision 3D et planification de trajectoire 3D
◼ Planification de trajectoire 3D avec incertitude
◼ Estimée position 3D roue et coffre connue a priori
la localisation estimée
[Fanuc-MotionPlanning.mp4]
83