Académique Documents
Professionnel Documents
Culture Documents
Introduction générale
Le traitement des images constitue actuellement l’une des grandes orientations du traitement de
l’information acquise à partir de capteurs offrent des capacités de plus en plus importantes.
L’essor des potentialités des calculateurs a permis d’envisager des procédures de plus en plus
complexes pour mettre en évidence ce que l’œil peut voir.
Le traitement d’images désigne un ensemble de méthodes dont l’objectif est soit de transformer
des images (par exemple pour améliorer l’apparence, ou pour les coder de manière plus
compacte en vue d’une transmission), soit d’en extraire de l’information (par exemple lorsqu’il
s’agit de reconnaitre automatiquement l’écriture manuscrite). Donc le traitement d’images est
l’ensemble des méthodes et techniques opérant sur celles-ci, dans le but de rendre cette
opération possible, plus simple, plus efficace et plus agréable, d’améliorer l’aspect visuel de
l’image et d’en extraire des informations jugées pertinentes. Il s’agit donc d’un domaine très
vaste, qui trouve de plus en plus d’applications.
Voir, pour tout être, est un moyen de connaître et de reconnaître, donc de mémoriser des
informations sur lui-même et sur son environnement. Les informations sont de nature
descriptive ou de nature statique : l’information est de nature descriptive quand elle sert à
représenter l’univers des objets avec leurs relations (sur / sous / à côté de, …).
Pour être capable d’effectuer une tâche telle que déplacer un objet d’un point à un autre ou
assembler deux pièces, il faut voir la scène où se déroule l’action. La vision directe est
indispensable pour reconnaître des formes, faire du tri, faire du contrôle, décrire des scènes ou
même piloter un robot, un véhicule ou un avion de façon automatique.
Par rapport à la vision naturelle (vision directe de la scène), la vision artificielle présente un
certain nombre de phénomènes indésirables et limitations qui peuvent être résumés par :
✓ L’image à deux dimensions donnée par une caméra est privée de profondeur,
✓ Le système d’éclairage modifie l’univers des objets par : les ombres qui s’ajoutent aux
formes, l’effacement des arêtes entre faces éclairées de façon identique.
✓ Certains objets peuvent en masquer d’autres,
✓ Nous n’avons qu’une vision partielle de la scène (limitée par l’angle de vue de la
caméra) Etc. …
➢ La vision par Ordinateur : Le chercheur en vision par ordinateur conçoit et analyse les aspects
calculatoires et algorithmiques des processus d'acquisition, de traitement et d'interprétation des
images numériques. Son outil est la modélisation mathématique et algorithmique.
➢ Image : représentation d'une personne ou d'une chose par la peinture, la sculpture, le dessin, la
photo, le film (LAROUSSE)
1
Traitement d’image et vision
I.1 Historique :
➢ Dans les années 1920 : transmission d'images par le câble sous-marin allant de New
York à Londres (première numérisation d'image avec compression)
2
Traitement d’image et vision
3
Traitement d’image et vision
Définit une image de L lignes et C colonnes dont l'information portée est définie dans un espace
à p dimensions.
✓ Si I est une image binaire, alors (p,M) = (1,1)
✓ Si I est une image en niveaux de gris, alors p = 1 et le plus souvent M = 255.
✓ Si I est une image couleur, alors p = 3 et le plus souvent M = 255.
I.3.2 Pixel : Un pixel (contraction de "picture element" signifie élément d’image) est le nom
associé à une unité de base de l'image qui correspond à un pas de discrétisation et qui permet
de mesurer la définition d’une image numérique. Un pixel représente ainsi le plus petit élément
constitutif d'une image numérique. Un pixel est caractérisé par sa position et sa valeur (i.e. son
niveau de gris).
I.3.3 La Définition :
On appelle définition le nombre de pixels constituant une image : c'est le nombre de colonnes
de l'image que multiplie son nombre de lignes. Une image possédant 10 colonnes et 11 lignes
aura une définition de 10 x11.
4
Traitement d’image et vision
➢ Les Principaux formats d'affichage : Pour afficher ces images, des formats d'affichages
standards ont été définis en fonction de l'évolution des capacités matérielles des cartes
graphiques et des écrans. Voici les principaux :
CGA (320 x 200) 4 couleurs.
VGA (640 x 480) 16 couleurs
SVGA (800x600) 256 couleurs
XGA (1024 x 768) 256 couleurs
SXGA (1280 x 1024) en 16milions de couleurs.
HD (1280 x 720)
Full HD (1920 x 1080)
4K (4096 x 2160
I.3.4 La résolution :
C'est le nombre de points contenu dans une longueur donnée (en pouce). Elle est exprimée en
points par pouce (PPP, en anglais: DPI pour Dots Per Inch). Un pouce mesure 2.54 cm, c'est
une unité de mesure britannique.
- La résolution permet ainsi d'établir le rapport entre la définition en pixels d'une image et la
dimension réelle de sa représentation sur un support physique (écran, papier...)
Résolution = définition / dimension
Exemple : la résolution d'une image de 300 pixels de large mesurant 2 pouces de côté :
Résolution = 300 / 2 = 150dpi
5
Traitement d’image et vision
6
Traitement d’image et vision
I.3.7 Distance :
Tout pixel d’une image est caractérisé par un couple de coordonnées (x, y) qui représentent la
position de ce pixel dans l’image
I.3.8 Histogramme :
L’histogramme est un graphique qui correspond à l’évolution du nombre des pixels d’une image
possédant un même niveau de gris, il peut être vu comme une densité de probabilité des niveaux
de gris de l’image. En pratique, pour le calcul d’un histogramme, on donne un nombre de niveau
de gris, et pour chaque niveau, on compte le nombre de pixels de l’image correspondant à ce
niveau.
ℎ(𝑟𝑘 ) = 𝑛𝑘 𝑘 = 0, … , 𝐿 − 1
𝑟𝑘 : kième niveau de gis ; 𝑛𝑘 : Nombre de pixels ayant le niveau de gris 𝑟𝑘 ; L : Nombre de
niveaux de gris.
7
Traitement d’image et vision
Exemple 1 : Compter le nombre de pixels pour chaque niveau de gris, à l’aide de la matrice
des valeurs de luminance.
8
Traitement d’image et vision
- Chaque bâton cumule le nombre de pixels du niveaux de gris concerné et des niveaux de gris
inférieurs : les niveaux 0, 1, 2 sont donc représentés respectivement par 24, 36 et 64 pixels.
- Utile pour certains traitements d'image tels que l’égalisation d'histogramme (amélioration de
contraste).
Exemple 2
I.4.2 Image de niveaux de gris : La valeur du pixel est représentée par une valeur scalaire.
Il permet d'obtenir différentes valeurs de gris, afin d'afficher des images nuancées. Il n’utilise
qu'une seule couche.
- Codage en 8 bits par pixel (bpp) => 28= 256 possibilités Chaque pixel peut avoir 256
nuances de gris possibles
- Codage en 16 bits par pixel (bpp) => 216= 65536 possibilités Chaque pixel peut avoir
65536 nuances de gris possibles
9
Traitement d’image et vision
I.4.3- Image couleur : La valeur du pixel est représentée par 3 valeurs scalaires ou plus
(RGB), il permet d'obtenir jusque 256 couleurs fixes, définies à l'avance dans une palette. Il
n’utilise qu'une seule couche.
- Codage en 8 bits par pixel (bpp) => 28= 256 possibilités Chaque pixel peut avoir jusque 256
couleurs fixes possibles.
La figure suivante montre les différents modes de l’image pour la même image
10
Traitement d’image et vision
11
Traitement d’image et vision
I.6.7 TIFF : il permet de stocker des images de haute qualité en noir et blanc, couleurs RVB,
CMJN jusqu'à 32 bits par pixels. Il supporte aussi les images indexées faisant usage d'une
palette de couleurs, les calques et les couches alpha (transparence).
12
Traitement d’image et vision
I.8.2 Caractéristiques d’un capteur image : un capteur d’image est caractérisé par
plusieurs paramètres parmi ces paramètres on peut citer :
➢ Sensibilité
✓ Variation électrique pour un éclairement donné
✓ Intensité lumineuse minimale que le capteur peut détecter
Lorsque la sensibilité est faible, le capteur est limité pour des applications à temps d’intégration
faible et Lorsque la sensibilité est trop forte, il y a risque de saturation du capteur
➢ Sensibilité spectrale : C’est la région du spectre dans laquelle est sensible la caméra.
Les capteurs sont sensibles dans le visible mais également dans le proche infrarouge et
l’ultraviolet.
➢ Fréquence d’acquisition : C’est le nombre d’images par seconde que peut acquérir le
capteur.
➢ Résolution : C’est le nombre de pixels du capteur
➢ Le rapport signal/bruit : C’est le rapport entre la puissance du signal de sortie et le
niveau du bruit présent en absence de signal, Il dépend notamment de l’électronique
associée au capteur
➢ Température de fonctionnement
➢ Temps d’intégration : Temps pendant lequel le capteur doit être exposé à la lumière
➢ Fonction de transfert : C’est lien entre le signal lumineux et le signal électrique Par
exemple, une correction gamma est souvent utilisée pour que la fonction de transfert du
capteur soit proche de celle de l’œil humain
I.8.3 Type des capteurs d’images : Il existe deux types de capteur d’image :
➢ Capteur à tube
➢ Capteur à CCD
A) Capteur à tube :
La zone photosensible voit sa résistance électrique varier en fonction de l'éclairement. La
cathode va émettre un faisceau d'électrons (donc un courant), et donc une tension variable aux
bornes du capteur puisque sa résistance interne est localement variable. Il "suffira" donc de
dévier le faisceau d'électrons de façon adéquate pour obtenir un balayage par lignes. Le
Standard CCIR (Comité Consultatif International de Radiodiffusion) : le balayage s’effectue à
une fréquence image de 1/25 de seconde, chaque image étant constituée de 625 lignes.
13
Traitement d’image et vision
❖ Ses caractéristiques
✓ La surface photosensible peut être constituée de matériaux très divers, et dont dépendront
directement les paramètres suivants :
✓ Sensibilité à la saturation : Elle peut atteindre le 1/100 Lux
✓ Sensibilité spectrale : En général, le visible ou le proche infra-rouge mais certains matériaux
dépassent ces limites.
✓ Rémanence : Toujours présente, elle peut atteindre 400 ms.
❖ Ses avantages
✓ Le prix : A résolution égale, un tube est encore moins cher qu'un CCD, mais cet écart tend à
s'annuler.
✓ Réponse spectrale et sensibilité : Le choix des matériaux permet de trouver des tubes adaptées
à la bande spectrale sur laquelle nous voulons travailler. La sensibilité est encore un élément
qui fait parfois choisir le tube.
✓ Résolution : Certains tubes (coûteux) permettent d'obtenir des résolutions supérieures à 1000
lignes TV.
❖ Ses inconvénients
✓ Fragilité : Leur tenue aux chocs ne dépasse pas 5g.
✓ Volume : Diamètres variant de 1 à 3 cm, longueurs de 10 à 20 cm.
✓ Tensions de commandes élevées : Plusieurs centaines de volts.
✓ Sensibilité aux champs magnétiques.
✓ Distorsion géométrique.
✓ Brûlage et Rémanence.
B) Capteur à CCD
Les caméras C.C.D. sont des réseaux de photo-capteurs d’un type particulier. Les éléments
sensibles sont réalisés en technologie semi-conducteur à haute densité d’intégration. Chaque
détecteur ponctuel constitue également un micro-condensateur (ou micro capacité) électrique.
En fait, les photons au niveau d’un élément sensible s’accumulent sous forme de charges
électriques. A un moment donné, on va lire le contenu de chacun de ces éléments en vidant les
petites micro-capacités
Le capteur à CCD (charge-coupled device), ou capteur à transfert de charge est un composant
basé sur une technologie de composants à semi-conducteurs. Contrairement aux caméras à tube
qui fournissent un signal continu qu’il faut échantillonner spatialement pour isoler chaque pixel,
les caméras CCD fournissent directement l’intensité pour chaque point de l’image. La scène est
projetée au moyen d’un objectif sur une matrice de capteurs
14
Traitement d’image et vision
❖ Ses inconvénients
✓ Moins de choix en gamme spectrale (utilisation de filtres).
✓ Sensibilité inférieure à certains tubes.
✓ Résolution inférieure aux tubes de haut de gamme.
15
Traitement d’image et vision
Inconvénient
▪ Génère des contours, des ombres et des reflets
▪ Ne convient pas pour les pièces transparentes
▪ Effet de perspective,
➢ Diascopie :
Il est parfois possible d’utiliser un arrière-plan lumineux. Les objets sont alors vus en « ombres
chinoises » : le contraste étant maximum, la stabilité de leurs contours est généralement bonne.
Avantages :
▪ Mise en évidence de la silhouette (contraste maximum entre le fond, (blanc) et la forme,
(noire)
▪ Permet le contrôle dimensionnel
Inconvénient
• Les détails de la surface sont perdus
➢ Lumière rasante :
Un éclairage de la scène en lumière rasante peut être utilisé pour traiter le relief des objets à
partir des ombres portées.
Avantage : Permet une très bonne détection de défauts sur surfaces planes
Inconvénient : Nécessite une source lumineuse très puissante
➢ Lumière polarisée :
La lumière est une onde électromagnétique qui se propage le long de différents plans situés
autour de la direction de propagation. Dans une lumière polarisée, les ondes se propagent
selon un seul plan de propagation. Elle est principalement utilisée pour diminuer les reliefs et
l’influence de la lumière ambiante
➢ Lumière structurée :
Elle consiste à projeter sur la scène un motif (ex. : une grille). Cette méthode est utilisée pour
la perception 3D de la scène.
Avantages
• Mesure de distances par rapport à une ligne de référence
• Analyse de forme des objets
• Mesure de hauteur par triangulation
• Différentes formes à projeter
Inconvénient
• N’éclaire pas l’objet
• Nécessite parfois une mécanique de déplacement du faisceau
➢ Lumière monochromatique :
Ce type de lumière est utilisé généralement soit pour éclairer des scènes contenant des objets
colorés, soit pour s’affranchir de l’éclairage ambiant.
16
Traitement d’image et vision
➢ Lumière cohérente :
La perception facile du faisceau laser permet la mise en œuvre de méthodes d’acquisition basées
sur le balayage de la scène par celui-ci. Le balayage peut être dirigé ou aléatoire. Ce procédé
est très utilisé en perception 3D de la scène.
➢ L’éclairage stroboscopique
Lorsqu’un objet est en mouvement très rapide il n’est pas possible de figer l’image de cette
objet car il faut un certain temps pour exposer le capteur d’images.
Pour pallier ce problème, l’éclairage stroboscopique consiste à émettre un flash de lumière de
forte intensité pendant un temps très court afin de geler le mouvement d’une pièce en
déplacement.
17
Traitement d’image et vision
18
Traitement d’image et vision
Introduction
Le filtrage est une opération fondamentale en traitement d’images, Il permet d’améliorer la
perception de certains détails, de réduire le bruit, de compenser certains défauts du capteur, etc.
Il est généralement utile de traiter spécifiquement les différentes parties d’une image. Pour cela,
on utilise le plus souvent des filtres linéaires ou non linéaires.
Le filtrage des images est presque toujours réalisé dans le domaine spatial (après numérisation
de l’image vidéo). Les dimensions des fenêtres de filtrage sont adaptées suivant l’effet
recherché (taille et contenu). On utilise des grandes fenêtres pour diminuer fortement l’effet
d’un bruit large bande et des petites fenêtres préservent le maximum de définition.
19
Traitement d’image et vision
II.3.1 La convolution :
C'est l'opérateur de base du traitement linéaire des images. Apparue très tôt dans les premiers
systèmes d'analyse d'images sous forme empirique et justifiée par des considérations
d'implantation, ce n'est que plus tard qu'on a fourni des justifications physiques et fait le lien
théorique avec les filtres et le traitement du signal.
L ’équation générale de la convolution, notée g(x), de la fonction d’origine f(x) avec une
fonction h(x) est :
Avec f(x) est la fonction d’origine et g(x) la fonction convoluée (résultat de la convolution),
h(x) est appelé masque de convolution, noyau de convolution, filtre, fenêtre.
Soit I une image numérique et soit h une fonction de [x1,x2]×[y1,y2] à valeurs réelles.
La convolution de I par h est définie par :
20
Traitement d’image et vision
21
Traitement d’image et vision
La figure 2.a permet de calculer la nouvelle valeur du pixel I (1,1), ensuite pour calculer le
pixel I(2,1), on fait décaler le masque de convolution vers la droite, On refait cette opération
avec tous les pixels jusqu’à le dernier pixel comme le montre la figure 2.c
Exemple 1 : Soit l’image I avec ses valeurs de pixel et le filtre k.
Les nouvelles valeurs des pixels après la convolution de l'image I par le filtre k sont :
➢ Problème de la convolution :
Il existe un petit problème dans le traitement par convolution, ce problème est comment traiter
les pixels situés aux bords de l’image ?
22
Traitement d’image et vision
10 15 20 25 30
5 35 10 30 15
I= 0 30 25 20 10
20 10 15 35 30
30 35 25 10 5
0 1 0
La nouvelle valeur du pixel I(4,1) en utilisant le masque de convolution h= 1 2 1
0 1 0
est = 100.(pixel rouge )( nous avons mis les valeurs extérieurs égalent à 0 )
Le filtre K2 c’est un filtre séparable parce qu’on peut l’écrire sous forme produit de 2 vecteurs
23
Traitement d’image et vision
➢ De lisser l'image
➢ Réduit le bruit
➢ Réduit les détails non-important
➢ Brouille ou rend floue l'image.
La figure suivante montre l’image résultat a l’issue du filtre moyenneur avec diffèrente taille.
10 15 20 25 30
5 35 10 30 15
I= 0 30 25 20 10
20 10 15 35 30
30 35 25 10 5
La nouvelle valeur du pixel I(2,2) en utilisant un filtre moyenneur de taille (3x3) est = 23.33
24
Traitement d’image et vision
Exemple 1 :
Dans cet exemple, on a remplacé la valeur du pixel du centre (valeur = 0) par la valeur médiane
des pixels voisins, donc la nouvelle valeur du pixel du centre égale à 36
25
Traitement d’image et vision
Exemple 3 : cet exemple montre la différence d’utilisation du filtre médian avec une taille
différente des pixels voisins
Le filtre laplacien est un filtre de convolution particulier utilise pour mettre en valeur les détails
qui ont une variation rapide de luminosité. Il est donc idéal pour rendre visible les contours des
objets. On peut le définir par :
26
Traitement d’image et vision
Le filtre gaussien permet de lisser l'image, il est généralement utilisé pour réduire le bruit dans
les images et effectuer un lissage un petit peu plus respectueux des contours. Il est défini par :
Exemple : cet exemple monte l’effet du filtre gaussien avec un écart type diffèrent
a. Opérateurs de lissage : Ce sont des filtres passe-bas qui ont pour rôle de réduire le bruit dû
- A la quantification du signal vidéo,
- Au capteur optoélectronique,
- Aux surfaces non homogènes des objets.
27
Traitement d’image et vision
c. Opérateurs de dérivation :
C’est la catégorie de filtre la plus utilisée parce qu’elle sert à accentuer les lignes de contraste
ou même à ne garder qu’elles. Souvent c’est l’opération préliminaire à l’extraction des contours.
- les opérateurs de premier ordre (gradient) qui correspondent à une simple dérivation,
- les opérateurs du deuxième ordre (laplacien) qui correspondent à une double dérivation.
Les filtres dérivateurs sont des opérateurs qui mettent en évidences certaines variations spatiales
dans les images. Ils sont utilisés comme traitements de base dans de nombreuses opérations,
comme le rehaussement de contraste ou la détection de contours.
a. Seuil :
L’opérateur « seuillage » est constitué par un comparateur. Le signal d’entrée est comparé à
une référence. La sortie du filtre indique le signe de cette comparaison. On obtient alors une
image binaire. Bien que souvent la référence soit fixe, il est parfois utile de la faire varier en
fonction de l’image. Le choix de cette référence peut être guidé par un histogramme des niveaux
de gris.
b. Table de conversion :
Elle permet de changer la caractéristique de quantification du signal vidéo. La valeur du pixel
est remplacée par une nouvelle valeur résultant soit de mesures sur l’image (modification de
l’histogramme) soit de conversions logarithmiques, exponentielles, …
28
Traitement d’image et vision
Nous intéressons à la recherche des primitives dans une image car elle constitue l’étape
nécessaire pour détecter un objet dans une scène, La détection de primitives peut également
servir à effectuer des mesures :
• Décomposition d’une scène en plusieurs objets (robot footballeur qui cherche le ballon
sur le terrain)
• Mesures de conformité de pièces en usine,
• Mesures de volumes d’organe en imagerie médicale,
La mise en évidence des points représentant les contours d'objets dans une image peut servir à :
• Reconnaitre des objets présents dans une scène,
• Différencier des zones de l'image
• Faire de la segmentation d'images,
• Extraire une information réduite souvent pertinente pour caractériser l'image.
Le contour permet la réduction de l’information de toute image qui se résume dans contours
des diffèrent objets.
Applications : on peut utiliser le contour pour :
• Reconnaissance d’objets, de formes,
• Classifications de scènes,
• Mise en correspondance (Calibration, reconstruction 3D)
• Compression,
29
Traitement d’image et vision
30
Traitement d’image et vision
Le gradient peut être représenté en coordonnées polaires par un module et une direction dans
l’image.
o Le module du gradient permet de quantifier l'importance du contour mis en
évidence, c'est-a-dire l'amplitude du saut d'intensité relevé dans l'image
31
Traitement d’image et vision
32
Traitement d’image et vision
L'origine est le point du haut a droite si bien que la réponse impulsionnelle est telle que :
• h(-1,0) = 1
• h(0,-1) = -1
33
Traitement d’image et vision
Remarque : Le majeur inconvénient de ces masques réside dans leur forte sensibilité au bruit ce qui
impose un filtrage au préalable,
34
Traitement d’image et vision
35
Traitement d’image et vision
Introduction
Pour aborder le traitement d'images, il est important de préciser la ou les grandeurs
caractéristiques qui donnent naissance à la notion d’image. L'image se forme sur un
capteur qui la retranscrit en un signal utilisable par le système de traitement. Ce signal
est donc la traduction de l'énergie physique reçue au travers de son système optique.
Plaçons une ampoule électrique à incandescence à verre clair devant le trou (figure 2).
Mettons-la sous tension.
Lorsque notre tube est dirigé vers la lampe, nous pouvons voir se former une image de
l'ampoule sur le papier calque. Cette silhouette est très pâle et c'est surtout l'image du
filament incandescent que l'on remarque.
36
Traitement d’image et vision
- Si nous faisons varier la longueur du tube, nous remarquons que plus que le tube est
long, plus que l'image est grande et pâle.
Notez que lorsqu'un trou sert d'objectif, comme c'est le cas ici, on l'appelle sténopé.
Considérons le point A de l'objet (l'ampoule). Ce point rayonne dans toutes les directions
mais seul le pinceau lumineux passant par le sténopé ira éclairer l'écran au point A' (lire
"A prime"). Aucun autre pinceau lumineux issu de A n'éclairera ce point puisque la
lumière se propage en ligne droite.
Le point A' est l'image du point A.
Nous pouvons étendre ce raisonnement aux points B et C ainsi qu'à tout autre point de
l'objet.
En se juxtaposant, les différents points images correspondant à chaque point de l'objet
forment l'ensemble de l'image.
Nous pouvons comprendre le renversement de l'image ainsi formée en observant le trajet
des rayons lumineux. En effet, nous constatons que plus un point est situé haut sur l'objet
et plus son image sera basse sur l'écran, car le seul faisceau lumineux issu de ce point
qui atteint l'écran doit passer par le sténopé.
Evidemment, nous pouvons utiliser le même raisonnement pour expliquer l'inversion
droite-gauche.
Avantage :
➢ Le principe est très simple et les constructions géométriques servant à calculer
les images sont élémentaires.
➢
Inconvénient :
37
Traitement d’image et vision
38
Traitement d’image et vision
L’œil ne voit un objet que si l’objet est éclairé ou émet de la lumière et son image se
forme sur la rétine.
La lumière entre par la cornée, traverse l’humeur aqueuse puis la pupille. Le cristallin
la fait converger sur la rétine, qui est constitué d’un ensemble de cellules photosensibles
convertissant le signal lumineux qui contient l’information en signal électrique qui se
propage vers le cerveau via le nerf optique. Son temps de réponse est de 0.25 seconde.
39
Traitement d’image et vision
Pour qu’un objet soit vu nettement, il faut que son image se forme sur la rétine. Deux
conditions doivent être remplies :
• L’objet ne doit pas être trop écarté de l’axe optique de l’œil.
• L’image de l’objet doit se former à une distance constante du centre optique O.
Dans l’œil normal (dit emmétrope) au repos, le plan focal image coïncide avec la rétine.
L’image de l’objet à l’infini (∞) se forme donc exactement sur la rétine et l’objet est vu
nettement
L’œil doit ramener l’image sur la rétine en augmentant sa convergence. Cela peut se
faire grâce à la déformation du cristallin sous l’action des muscles ciliaires. Plus l’objet
observé est proche de l’œil, plus la distance focale est petite et plus le cristallin est
bombé.
40
Traitement d’image et vision
On appelle pouvoir séparateur de l’œil l’angle limite sous lequel l’œil peut distinguer
deux points différents.
Correction de la myopie : On place devant l’œil myope, trop convergent, une lentille
divergente L1, qui diminue la convergence des faisceaux lumineux pénétrants dans
l’œil.
41
Traitement d’image et vision
Correction : On place devant cet œil pas assez convergent une lentille convergente L1
qui augmente la convergence des rayons lumineux pénétrants dans l’œil.
42
Traitement d’image et vision
La rétine est un donc tissu nerveux dont le revêtement est constitué de photorécepteurs reliés à
une chaîne de neurones. Elle est composée de :
A) Les bâtonnets:
➢ Plus présent en périphérie rétinienne.
➢ Au nombre de 100 millions, ils participent au système scotopique (obscurité), ils
fonctionnent à un faible niveau d’intensité lumineuse, on parle de vision nocturne.
➢ Faible intensité et faible précision
➢ 1 photon et vision monochrome
B) Les cônes:
➢ Au nombre de 4 millions,
➢ Ils participent au système photopique (lumière) qui exige beaucoup de lumière, on parle
de vision de jour,
➢ Forte intensité et grande précision
➢ 100 photons et Vision couleur
2.2 l’appareil photographique
• Objectif: Système de lentilles permettant la formation d’image sur le plan du film.
• Diaphragme: Système mécanique qui permet de contrôler la quantité de lumière qui
pénètre dans l’appareil et qui arrive sur la pellicule (film).
• Miroir + Pentaprisme : Système de visée qui permet de voir la même image que celle
enregistrée sur le film.
• Obturateur: Système qui permet de contrôler le temps d’exposition du film.
• Chambre noire: Boîte étanche à la lumière enfermant la pellicule (film).
• Pellicule: film photosensible qui permet d’enregistrer l’image.
43
Traitement d’image et vision
• Bague de mise point: Mouvement de l’objectif par rapport au plan de la pellicule. Elle
permet de réaliser la mise au point (image nette).
• Bague de diaphragme : Variation de l’ouverture du diaphragme. Elle permet de
contrôler de la quantité de lumière qui rentre dans la chambre noire.
• Bague des temps de pose : Modification de la vitesse et du temps d’ouverture de
l’obturateur. Elle permet de contrôler le temps d’exposition du film.
44
Traitement d’image et vision
Le diaphragme est placé juste avant la lentille donc a priori pas de distorsion
2.4 : L’objectif :
C’est ensemble de lentilles permettant de projeter une scène réelle sur un même plan en
faisant converger ou diverger les rayons lumineux
45
Traitement d’image et vision
A) La focale
➢ Elle permet de voir les objets plus ou moins grands.
➢ Elle peut être fixe ou variable.
➢ Les objectifs à focale variable sont très peu utilisés en vision industrielle.
46
Traitement d’image et vision
B) L’ouverture
En jouant sur le diaphragme, la quantité de lumière atteignant le capteur est plus ou
moins grande. Elle peut être réglée manuellement ou automatiquement. Le diaphragme
peut avoir différentes formes (circulaire, triangle, polygone).
➢ Nombre d’ouverture
Le nombre d’ouverture, noté NO correspond à la quantité de lumière pouvant passer
dans l’objectif. Il se calcule en divisant la focale f de l’objectif par le diamètre Φ du
diaphragme NO = f / Φ.
Le nombre d’ouverture étant inversement proportionnel au diamètre du diaphragme,
plus le diaphragme est ouvert (grand diamètre), plus la quantité de lumière est grande
(image lumineuse) et plus le nombre d’ouverture est petit.
Les objectifs possédant des nombres d’ouvertures faibles sont plus volumineux et plus
chers. Les valeurs du nombre d’ouverture les plus utilisées sont : 1, 1.4, 2.8, 4, 5.6, 8,
11, 16, 22,
47
Traitement d’image et vision
C) La mise au point
Elle permet d’obtenir une image nette en déplaçant les lentilles. Son réglage dépend de
la distance de l’objet, de la focale et de l’ouverture. La mise au point peut être effectuée
manuellement ou automatiquement.
2.3 Aberrations géométriques:
48
Traitement d’image et vision
distance d(0), tandis que les rayons marginaux convergent vers un point plus proche à
la distance d(h).
2.3.3 Distorsion
La troisième aberration étudiée ici sera la distorsion. L'image d'une droite ne passant
pas par l'axe du système est courbe.
Pour les points objets non axiaux, une aberration dite "distorsion" subsiste même si les
aberrations de courbure de champ sont compensées. Selon l'emplacement du
diaphragme,
49
Traitement d’image et vision
Maintenant si le diaphragme est placé avant la lentille, on observe une image réduite en
taille et on dit qu'il y a "distorsion en barillet".
➢ La distorsion dépend de :
• La focale de l’objectif : plus la focale est courte (grand angulaire), plus la
distorsion en barillet est importante et plus elle est longue (téléobjectif), plus la
distorsion en coussinet est importante,
• La mise au point,
• L’emplacement du diaphragme.
50
Traitement d’image et vision
En fonction de leur longueur d’onde, les rayons lumineux ne sont pas transmis ou
absorbés de la même façon par les matériaux optiques. L’intensité et la direction de ces
rayons varient avec leur longueur d’onde.
Une réfraction et une intensité différentes des rayons lumineux vers le capteur
engendrent une mauvaise focalisation en fonction de la longueur d’onde et affectent
l’équilibre des couleurs
Lorsqu’ils ne sont pas situés à la même distance de travail, deux objets de taille
différente peuvent apparaître de même taille dans l’image tandis que deux objets de
même taille peuvent apparaître de taille différente.
L’effet de perspective est d’autant plus prononcé que l’angle de champ est grand.
Il apparait notamment lors de l’observation d’objets en 3 dimensions et pose donc des
problèmes dans le contrôle dimensionnel ou d’alignement. Cet effet peut être corrigé
par calcul.
51