Vous êtes sur la page 1sur 51

Traitement d’image et vision

Introduction générale
Le traitement des images constitue actuellement l’une des grandes orientations du traitement de
l’information acquise à partir de capteurs offrent des capacités de plus en plus importantes.
L’essor des potentialités des calculateurs a permis d’envisager des procédures de plus en plus
complexes pour mettre en évidence ce que l’œil peut voir.
Le traitement d’images désigne un ensemble de méthodes dont l’objectif est soit de transformer
des images (par exemple pour améliorer l’apparence, ou pour les coder de manière plus
compacte en vue d’une transmission), soit d’en extraire de l’information (par exemple lorsqu’il
s’agit de reconnaitre automatiquement l’écriture manuscrite). Donc le traitement d’images est
l’ensemble des méthodes et techniques opérant sur celles-ci, dans le but de rendre cette
opération possible, plus simple, plus efficace et plus agréable, d’améliorer l’aspect visuel de
l’image et d’en extraire des informations jugées pertinentes. Il s’agit donc d’un domaine très
vaste, qui trouve de plus en plus d’applications.
Voir, pour tout être, est un moyen de connaître et de reconnaître, donc de mémoriser des
informations sur lui-même et sur son environnement. Les informations sont de nature
descriptive ou de nature statique : l’information est de nature descriptive quand elle sert à
représenter l’univers des objets avec leurs relations (sur / sous / à côté de, …).
Pour être capable d’effectuer une tâche telle que déplacer un objet d’un point à un autre ou
assembler deux pièces, il faut voir la scène où se déroule l’action. La vision directe est
indispensable pour reconnaître des formes, faire du tri, faire du contrôle, décrire des scènes ou
même piloter un robot, un véhicule ou un avion de façon automatique.
Par rapport à la vision naturelle (vision directe de la scène), la vision artificielle présente un
certain nombre de phénomènes indésirables et limitations qui peuvent être résumés par :
✓ L’image à deux dimensions donnée par une caméra est privée de profondeur,
✓ Le système d’éclairage modifie l’univers des objets par : les ombres qui s’ajoutent aux
formes, l’effacement des arêtes entre faces éclairées de façon identique.
✓ Certains objets peuvent en masquer d’autres,
✓ Nous n’avons qu’une vision partielle de la scène (limitée par l’angle de vue de la
caméra) Etc. …
➢ La vision par Ordinateur : Le chercheur en vision par ordinateur conçoit et analyse les aspects
calculatoires et algorithmiques des processus d'acquisition, de traitement et d'interprétation des
images numériques. Son outil est la modélisation mathématique et algorithmique.

➢ La vision Industrielle : Le concepteur d'applications de vision industrielle construit des


machines aptes à traiter un ensemble connu de tâches visuelles. Son outil est la méthodologie
de conception de systèmes industriels et l'intégration.

➢ Image : représentation d'une personne ou d'une chose par la peinture, la sculpture, le dessin, la
photo, le film (LAROUSSE)

➢ Vision : perception du monde extérieur par les organes de la vue.

1
Traitement d’image et vision

I.1 Historique :

➢ Dans les années 1920 : transmission d'images par le câble sous-marin allant de New
York à Londres (première numérisation d'image avec compression)

➢ 1935 : Télévision analogique

➢ 1960 : Imagerie médicale : premier échographe,

➢ Milieu des années 90 : écho numérique

➢ 1976 : Imagerie satellitaire : pellicules puis premiers satellites numériques (espions)

➢ 1858 : Photos : photo argentique,

➢ 1972 : appareil numérique, premiers modèles 91

➢ 1950 : images de chambre à bulles (analyse de trajectoires)

➢ 1960 : reconnaissance de caractères dactylographiés

➢ 1970 : imagerie médicale, imagerie satellitaire, télévision

➢ 1980 : formalisation de la détection de contours de manière précise

➢ À l’heure actuelle : des images numériques partout…

2
Traitement d’image et vision

I.2 Domaines d’utilisation de l’image et la vision


I.2.1 Robotique – Industrie :
✓ Assemblage
✓ Reconnaissance de pièces
✓ Contrôle de qualité
✓ Véhicule autonome
✓ Reconnaissance automatique de caractères (OCR)
I.2.2 Télédétection :
✓ Météorologie
✓ Cartographie
✓ Analyse des ressources terrestres
✓ Astronomie
✓ Restauration
I.2.3 Applications militaires :
✓ Guidage de missile
✓ Reconnaissance (air / mer / terre)
I.2.4 Imagerie médicale :
✓ Tomographie (scanner / doppler / IRM / Echographie / …)
✓ Aide au diagnostic
✓ Comptage (nombre de cellules, de globules blancs, …)
✓ Suivi de formes anatomiques
✓ Restauration (chirurgie réparatrice)
I.2.5 Sécurité :
✓ Reconnaissance (visages, empruntes, signatures, …)
✓ Détection de mouvements
I.2.6 Autres :
✓ Archivage numérique des images
✓ Restauration d’anciennes photos et films
✓ Compression des images en vue de leur transmission
✓ Transformation des films N/B en films Couleur

I.3 Quelques définitions concernant l’image :


I.3.1 Image : Une image est une forme discrète d'un phénomène continu obtenue après
discrétisation. Le plus souvent, cette forme est bidimensionnelle. L'information dont elle est le
support est caractéristique de l'intensité lumineuse (couleur ou niveaux de gris).
I : [0,L-1] x [0,C-1] -> [0,M]p

3
Traitement d’image et vision

Définit une image de L lignes et C colonnes dont l'information portée est définie dans un espace
à p dimensions.
✓ Si I est une image binaire, alors (p,M) = (1,1)
✓ Si I est une image en niveaux de gris, alors p = 1 et le plus souvent M = 255.
✓ Si I est une image couleur, alors p = 3 et le plus souvent M = 255.

I.3.2 Pixel : Un pixel (contraction de "picture element" signifie élément d’image) est le nom
associé à une unité de base de l'image qui correspond à un pas de discrétisation et qui permet
de mesurer la définition d’une image numérique. Un pixel représente ainsi le plus petit élément
constitutif d'une image numérique. Un pixel est caractérisé par sa position et sa valeur (i.e. son
niveau de gris).

I.3.3 La Définition :
On appelle définition le nombre de pixels constituant une image : c'est le nombre de colonnes
de l'image que multiplie son nombre de lignes. Une image possédant 10 colonnes et 11 lignes
aura une définition de 10 x11.

4
Traitement d’image et vision

➢ Les Principaux formats d'affichage : Pour afficher ces images, des formats d'affichages
standards ont été définis en fonction de l'évolution des capacités matérielles des cartes
graphiques et des écrans. Voici les principaux :
CGA (320 x 200) 4 couleurs.
VGA (640 x 480) 16 couleurs
SVGA (800x600) 256 couleurs
XGA (1024 x 768) 256 couleurs
SXGA (1280 x 1024) en 16milions de couleurs.
HD (1280 x 720)
Full HD (1920 x 1080)
4K (4096 x 2160

I.3.4 La résolution :
C'est le nombre de points contenu dans une longueur donnée (en pouce). Elle est exprimée en
points par pouce (PPP, en anglais: DPI pour Dots Per Inch). Un pouce mesure 2.54 cm, c'est
une unité de mesure britannique.
- La résolution permet ainsi d'établir le rapport entre la définition en pixels d'une image et la
dimension réelle de sa représentation sur un support physique (écran, papier...)
Résolution = définition / dimension
Exemple : la résolution d'une image de 300 pixels de large mesurant 2 pouces de côté :
Résolution = 300 / 2 = 150dpi

La taille d'une image numérique peut se définir par :


✓ Sa définition en pixels (ex : 640x480 pixels)
✓ Ses dimensions en pouces (ex : 12'')
✓ Sa résolution en dpi ou ppp. (ex: 300dpi)
Exercice
Quelle serait la définition en pixel d'une feuille de 8,5 pouces de largeur et 11 pouces en
hauteurscannée à 300dpi?
Réponse :
300 X 8,5 = 2550 pixels
300 X 11 = 3300 pixels
Donc la définition de l'image serait donc de 2550 X 3300 pixels

5
Traitement d’image et vision

1.3.5 Taille du fichier image


C’est le nombre de pixels multiplié par le nombre d’octets nécessaires au codage d’un seul
pixel. Les images brutes codent en général chaque pixel sur un octet, Par contre les images de
très haute qualité sont codées sur 3, 4, voire 6 octets par pixel. Ces fichiers sont donc très
volumineux et subissent une compression pour le stockage et la transmission.
Pour une image de taille m*n où chaque pixel est codé sur k bits, l’espace mémoire nécessaire
pour le stockage de cette image est donné par : b = m*n*k
Pour les images carrées (n=m) b = n2 *k
Le nombre de niveaux de gris est un entier puissance de 2 : L= 2k
Si k=8 ceci donne un niveau de gris qui s'étend entre 0 et 255 dont les valeurs limites
représentent le noir et le blanc respectivement, et les valeurs intermédiaires représentent les
nuances de gris.
Exemple : Pour une image de taille 512 x 512 avec 256 niveaux gris (k = 8) nous avons besoin
de 2097152 bits ou 262144 octets..
I.3.6 Maillage :
Le maillage est l'arrangement géométrique des pixels dans l'image. On utilise généralement un
des trois types qui résultent de différentes formes du plan par des figures géométriques.
✓ Le maillage carré qui correspond à la réalité physique du capteur CCD.
✓ Un maillage hexagonal (maillage de référence pour le domaine de la morphologie
mathématique).
✓ Le maillage triangulaire est plus confidentiel.

Maillage carré/rectagulaire Maillage Héxagonal Maillage triangulaire


Figure : type de maillage
I.3.7 Voisinage :
On appelle voisinage d’ordre k du pixel P et l’on note Vk (P) l’ensemble des pixels Q définit
par : Vk(Q) = { pixels Q tels que 0< d(P,Q) k }

6
Traitement d’image et vision

I.3.7 Distance :
Tout pixel d’une image est caractérisé par un couple de coordonnées (x, y) qui représentent la
position de ce pixel dans l’image

Les distances les plus courantes entre 2 pixels P et Q sont :

I.3.8 Histogramme :
L’histogramme est un graphique qui correspond à l’évolution du nombre des pixels d’une image
possédant un même niveau de gris, il peut être vu comme une densité de probabilité des niveaux
de gris de l’image. En pratique, pour le calcul d’un histogramme, on donne un nombre de niveau
de gris, et pour chaque niveau, on compte le nombre de pixels de l’image correspondant à ce
niveau.
ℎ(𝑟𝑘 ) = 𝑛𝑘 𝑘 = 0, … , 𝐿 − 1
𝑟𝑘 : kième niveau de gis ; 𝑛𝑘 : Nombre de pixels ayant le niveau de gris 𝑟𝑘 ; L : Nombre de
niveaux de gris.

7
Traitement d’image et vision

Exemple 1 : Compter le nombre de pixels pour chaque niveau de gris, à l’aide de la matrice
des valeurs de luminance.

L’image comporte 3 niveaux de gris différents : 0, 1 et 2. Les niveaux 0, 1 et 2 sont


respectivement représentés par 24, 12 et 28 pixels
Exemple 2 :

I.3.9 Histogramme cumulé


Il représente la distribution cumulée des intensités des pixels d’une image, il correspond à
l’évolution du nombre de pixels ayant un niveau de gris inférieur ou égal à une valeur seuil
donnée.
Exemple 1

8
Traitement d’image et vision

- Chaque bâton cumule le nombre de pixels du niveaux de gris concerné et des niveaux de gris
inférieurs : les niveaux 0, 1, 2 sont donc représentés respectivement par 24, 36 et 64 pixels.
- Utile pour certains traitements d'image tels que l’égalisation d'histogramme (amélioration de
contraste).

Exemple 2

I.4 LES DIFFERENTS MODES DE COULEUR


I.4.1 Image blanc et noire : Une valeur de pixel est soit blanc ou noire (binaire) c’est-à-
dire qu’un Codage en 1 bit par pixel (bpp) on aura deux possibilités : [0,1]

I.4.2 Image de niveaux de gris : La valeur du pixel est représentée par une valeur scalaire.
Il permet d'obtenir différentes valeurs de gris, afin d'afficher des images nuancées. Il n’utilise
qu'une seule couche.
- Codage en 8 bits par pixel (bpp) => 28= 256 possibilités Chaque pixel peut avoir 256
nuances de gris possibles
- Codage en 16 bits par pixel (bpp) => 216= 65536 possibilités Chaque pixel peut avoir
65536 nuances de gris possibles

9
Traitement d’image et vision

I.4.3- Image couleur : La valeur du pixel est représentée par 3 valeurs scalaires ou plus
(RGB), il permet d'obtenir jusque 256 couleurs fixes, définies à l'avance dans une palette. Il
n’utilise qu'une seule couche.
- Codage en 8 bits par pixel (bpp) => 28= 256 possibilités Chaque pixel peut avoir jusque 256
couleurs fixes possibles.

La figure suivante montre les différents modes de l’image pour la même image

I.5 Les types d’images


I.5.1 Les images Matricielles : Les images matricielles (ou image en mode point, en anglais «
bitmap » sont celles que nous utilisons généralement pour restituer des photos numériques.Elles
reposent sur une grille de plusieurs pixels formant une image avec une définition bien précise.
Lorsqu'on les agrandis trop, on perd de la qualité (« pixelisation »).
I.5.2 Les images Vectorielles : Ce sont des images dont la particularité est que chaque forme
qui la compose est décrite mathématiquement à partir de points et de tangentes. Elles ne peuvent
pas décrire une image trop complexe comme une photographie, mais sont tout à fait adaptées
au rendu typographique, aux logos et autres formes composées de tracés simples.

Figure : Types d’images

10
Traitement d’image et vision

I. 6 Format de l’image : Plusieurs formats de sauvegarde de l’image peuvent être utilisés :


I.6.1 Le BMP :
Une image bitmap (ou image en mode point) est une représentation sous forme d'une matrice
de bits. A chaque pixel de l'image correspond un groupe de bits des bitmaps. Il supporte un
code de couleurs jusqu'à 24 bits par pixel (16.7 M). Malgré qu'il soit volumineux, il ne permet
de gérer ni la transparence, ni le CMJN, et le format BMP ne peut être exploité que par un
logiciel fonctionnant sous Windows.
I.6.2 Le GIF : ( Graphical Interchange Format )
C’est un format à l’origine adapté au transfert d’images sous réseaux. Il est très répandu pour
sa facilité et sa rapidité de lecture. Son faible volume est dû d’une part à la compression
systématique, et d’autre part au codage de la couleur sur 8 bits / pixel. Il ne gère cependant, que
256 couleur ou niveaux de gris. Il possède la caractéristique de pouvoir définir la couleur
transparente. Le format GIF est assez bien adapté aux images graphiques de petites tailles et de
faible palette de couleur (exemple : logos).
I.6.3 Le JPEG :
Le format JPEG a été mis au point par le Joint Photographic Expert Groupe pour répondre au
besoin de trouver un moyen de compression pour les images photographiques de haute qualité.
C’est une méthode de compression dite avec perte : elle assure un stockage plus économique
des données, mais identifie et supprime aussi les données récurrentes dans un fichier image. La
compression des images au format JPEG supprime certaines informations qui ne peuvent être
récupérées au moment de la décompression. La qualité de l’image peut donc être altérée.
I.6.4 Le PNG :
Le format PNG (Portable Network Graphics) a été défini pour succéder au GIF. Elle présente
quelques extensions par rapport au GIF.
* Possibilité de codage en vraies couleurs. Un pixel peut être codé sur 48 bits. Intégration
de la correction gamma.
* Contrôle de qualité de la transmission
I.6.5 L'EPS : ( Encapsulated PostScript ) :
Ce format utilise le langage postscript qui est un langage de description de page; il donne une
description géométrique d'une image. Une image bitmap est "encapsulée" dans du postscript. Il
peut coder la couleur sur 8, 16, 24 ou 32 bits. Ce format est capable de gérer le noir et blanc, le
RVB, et le CMJN.
I.6.6 Le PSD :
C'est un format natif au logiciel Adobe Photoshop, mais, vu la grande diffusion des produits
Adobe dans le domaine de l'image, le PSD est reconnu par plusieurs logiciels de traitement
d'image.
C'est surtout un format de travail, car il permet de conserver les calques, les masques et les
couches de transparence. Il peut coder la couleur sur 8, 16, 24 ou 32 bits. Ce format est capable
de gérer le noir et blanc, le RVB, et le CMJN.

11
Traitement d’image et vision

I.6.7 TIFF : il permet de stocker des images de haute qualité en noir et blanc, couleurs RVB,
CMJN jusqu'à 32 bits par pixels. Il supporte aussi les images indexées faisant usage d'une
palette de couleurs, les calques et les couches alpha (transparence).

I.7 Les différents types de traitements : Il existe plusieurs méthodes de traiteme,t


d’images, on peut citer

➢ Synthèse d’images (infographie) :Modélisation mathématique du contenu des images.


➢ Amélioration : Modification de l'image dans le but de la rendre plus agréable à l'oeil.
➢ Restauration : Correction des défauts dus à une source de dégradation.
➢ Compression : Réduction du volume de l'image.
➢ Quantification Codage de l’image.
➢ Segmentation : Partition de l’image.
➢ Classification : Affectation des données de l’image à une classe définie.
➢ Reconnaissances des formes : Identification du contenu de l’image.
➢ Analyse du mouvement : Estimation du mouvement dans les séquences d’images.
➢ Vision 3D : Localisation en 3 dimensions des objets dans l’image (triangulation,
stéréoscopie ou stéréovision, granulométrie, …)

I.8 L’acquisition des images :


Le fait qu’une image peut être définie mathématiquement comme une fonction analogique
d’intensité lumineuse Ia exprimée par rapport à deux variables orthogonales X et Y, nous
conduit à traiter dans ce paragraphe : Les capteurs d’images optoélectroniques, les problèmes
d’éclairage et les problèmes dus à la numérisation des images.

I.8.1 Capteur d’image :


Un capteur d'image permet de transformer l'énergie lumineuse de chaque point de l'original en
un signal électrique. Il est composé :
✓ Un système photosensible (linéaire, matricielle)
✓ Un dispositif électronique et/ou mécanique permettant de balayer toute l'image pixel par
pixel.
✓ Un système de conversion analogique/numérique
✓ Un système de transport de l'image numérique vers le calculateur

12
Traitement d’image et vision

I.8.2 Caractéristiques d’un capteur image : un capteur d’image est caractérisé par
plusieurs paramètres parmi ces paramètres on peut citer :
➢ Sensibilité
✓ Variation électrique pour un éclairement donné
✓ Intensité lumineuse minimale que le capteur peut détecter
Lorsque la sensibilité est faible, le capteur est limité pour des applications à temps d’intégration
faible et Lorsque la sensibilité est trop forte, il y a risque de saturation du capteur
➢ Sensibilité spectrale : C’est la région du spectre dans laquelle est sensible la caméra.
Les capteurs sont sensibles dans le visible mais également dans le proche infrarouge et
l’ultraviolet.
➢ Fréquence d’acquisition : C’est le nombre d’images par seconde que peut acquérir le
capteur.
➢ Résolution : C’est le nombre de pixels du capteur
➢ Le rapport signal/bruit : C’est le rapport entre la puissance du signal de sortie et le
niveau du bruit présent en absence de signal, Il dépend notamment de l’électronique
associée au capteur
➢ Température de fonctionnement
➢ Temps d’intégration : Temps pendant lequel le capteur doit être exposé à la lumière
➢ Fonction de transfert : C’est lien entre le signal lumineux et le signal électrique Par
exemple, une correction gamma est souvent utilisée pour que la fonction de transfert du
capteur soit proche de celle de l’œil humain

I.8.3 Type des capteurs d’images : Il existe deux types de capteur d’image :
➢ Capteur à tube
➢ Capteur à CCD
A) Capteur à tube :
La zone photosensible voit sa résistance électrique varier en fonction de l'éclairement. La
cathode va émettre un faisceau d'électrons (donc un courant), et donc une tension variable aux
bornes du capteur puisque sa résistance interne est localement variable. Il "suffira" donc de
dévier le faisceau d'électrons de façon adéquate pour obtenir un balayage par lignes. Le
Standard CCIR (Comité Consultatif International de Radiodiffusion) : le balayage s’effectue à
une fréquence image de 1/25 de seconde, chaque image étant constituée de 625 lignes.

Figure : capteur d’image à tube

13
Traitement d’image et vision

❖ Ses caractéristiques
✓ La surface photosensible peut être constituée de matériaux très divers, et dont dépendront
directement les paramètres suivants :
✓ Sensibilité à la saturation : Elle peut atteindre le 1/100 Lux
✓ Sensibilité spectrale : En général, le visible ou le proche infra-rouge mais certains matériaux
dépassent ces limites.
✓ Rémanence : Toujours présente, elle peut atteindre 400 ms.

❖ Ses avantages
✓ Le prix : A résolution égale, un tube est encore moins cher qu'un CCD, mais cet écart tend à
s'annuler.
✓ Réponse spectrale et sensibilité : Le choix des matériaux permet de trouver des tubes adaptées
à la bande spectrale sur laquelle nous voulons travailler. La sensibilité est encore un élément
qui fait parfois choisir le tube.
✓ Résolution : Certains tubes (coûteux) permettent d'obtenir des résolutions supérieures à 1000
lignes TV.

❖ Ses inconvénients
✓ Fragilité : Leur tenue aux chocs ne dépasse pas 5g.
✓ Volume : Diamètres variant de 1 à 3 cm, longueurs de 10 à 20 cm.
✓ Tensions de commandes élevées : Plusieurs centaines de volts.
✓ Sensibilité aux champs magnétiques.
✓ Distorsion géométrique.
✓ Brûlage et Rémanence.

B) Capteur à CCD
Les caméras C.C.D. sont des réseaux de photo-capteurs d’un type particulier. Les éléments
sensibles sont réalisés en technologie semi-conducteur à haute densité d’intégration. Chaque
détecteur ponctuel constitue également un micro-condensateur (ou micro capacité) électrique.
En fait, les photons au niveau d’un élément sensible s’accumulent sous forme de charges
électriques. A un moment donné, on va lire le contenu de chacun de ces éléments en vidant les
petites micro-capacités
Le capteur à CCD (charge-coupled device), ou capteur à transfert de charge est un composant
basé sur une technologie de composants à semi-conducteurs. Contrairement aux caméras à tube
qui fournissent un signal continu qu’il faut échantillonner spatialement pour isoler chaque pixel,
les caméras CCD fournissent directement l’intensité pour chaque point de l’image. La scène est
projetée au moyen d’un objectif sur une matrice de capteurs

Figure : capteur d’image CCD

14
Traitement d’image et vision

Trois étapes se succèdent


✓ L’intégration : exposition du capteur à la lumière
✓ Le transfert des charges
✓ L’amplification
A) L’intégration
L’arrivée des photons crée des charges qui s’accumulent durant le temps d’intégration dans des
zones appelées puits, plus le temps d’intégration est grand, plus il y a de photon, le nombre de
charge augmente
B) Le transfert
En modifiant les tensions aux bornes de chaque photosite, la position des puits est modifiée et
les charges se déplacent.
C) L’amplification
Dans la zone tampon, les charges sont transférées dans un registre à décalage vers l’extérieur
du capteur pour être convertis en tension puis amplifiées en donner le signal analogique
❖ Ses avantages
✓ Solide, léger et compact
✓ Aucune dérive géométrique de l'image
✓ Aucun brûlage
✓ Durée de vie et fidélité très fortement accrues
✓ Correction numérique des défauts éventuels envisageable

❖ Ses inconvénients
✓ Moins de choix en gamme spectrale (utilisation de filtres).
✓ Sensibilité inférieure à certains tubes.
✓ Résolution inférieure aux tubes de haut de gamme.

I.9 L’éclairage de la scène


Dans le domaine de la vidéo ou de la photographie, le problème de l’éclairage de la scène doit
être traité avec rigueur. Plusieurs cas peuvent être envisagés :
➢ Episcopie :
Lorsque les objets présentant un net contraste par rapport à l’arrière-plan, un simple éclairage
direct de la scène peut être suffisant. Pour éviter les phénomènes d’ombres et d’éblouissements,
nous pouvons utiliser des diffuseurs de lumières (Ex : parapluies inversés utilisés chez les
photographes). De plus, il faut prendre des précautions pour rendre le système de vision
insensible aux lumières ambiantes (fermer les rideaux par exemple).
Avantages d’episcopie
▪ Avec un bon contraste et une image nette, il permet de réaliser du contrôle de présence
et de la mesure
▪ il permet de détecter des défauts de surface
▪ il permet de contrôler les surfaces brillantes de métaux en plastique

15
Traitement d’image et vision

Inconvénient
▪ Génère des contours, des ombres et des reflets
▪ Ne convient pas pour les pièces transparentes
▪ Effet de perspective,

➢ Diascopie :
Il est parfois possible d’utiliser un arrière-plan lumineux. Les objets sont alors vus en « ombres
chinoises » : le contraste étant maximum, la stabilité de leurs contours est généralement bonne.
Avantages :
▪ Mise en évidence de la silhouette (contraste maximum entre le fond, (blanc) et la forme,
(noire)
▪ Permet le contrôle dimensionnel
Inconvénient
• Les détails de la surface sont perdus

➢ Lumière rasante :
Un éclairage de la scène en lumière rasante peut être utilisé pour traiter le relief des objets à
partir des ombres portées.
Avantage : Permet une très bonne détection de défauts sur surfaces planes
Inconvénient : Nécessite une source lumineuse très puissante

➢ Lumière polarisée :
La lumière est une onde électromagnétique qui se propage le long de différents plans situés
autour de la direction de propagation. Dans une lumière polarisée, les ondes se propagent
selon un seul plan de propagation. Elle est principalement utilisée pour diminuer les reliefs et
l’influence de la lumière ambiante

➢ Lumière structurée :
Elle consiste à projeter sur la scène un motif (ex. : une grille). Cette méthode est utilisée pour
la perception 3D de la scène.
Avantages
• Mesure de distances par rapport à une ligne de référence
• Analyse de forme des objets
• Mesure de hauteur par triangulation
• Différentes formes à projeter
Inconvénient
• N’éclaire pas l’objet
• Nécessite parfois une mécanique de déplacement du faisceau

➢ Lumière monochromatique :
Ce type de lumière est utilisé généralement soit pour éclairer des scènes contenant des objets
colorés, soit pour s’affranchir de l’éclairage ambiant.

16
Traitement d’image et vision

➢ Lumière cohérente :
La perception facile du faisceau laser permet la mise en œuvre de méthodes d’acquisition basées
sur le balayage de la scène par celui-ci. Le balayage peut être dirigé ou aléatoire. Ce procédé
est très utilisé en perception 3D de la scène.
➢ L’éclairage stroboscopique
Lorsqu’un objet est en mouvement très rapide il n’est pas possible de figer l’image de cette
objet car il faut un certain temps pour exposer le capteur d’images.
Pour pallier ce problème, l’éclairage stroboscopique consiste à émettre un flash de lumière de
forte intensité pendant un temps très court afin de geler le mouvement d’une pièce en
déplacement.

I.10 La position de la caméra


La position d’une (monovision) ou de plusieurs caméras (stéréovision) par rapport à la scène
dépend de plusieurs facteurs. En particulier :
✓ Du problème à résoudre (reconnaissance, localisation, …)
✓ De l’univers de travail (manipulation, assemblage, robot mobile navigant, …)
✓ Des informations recherchées sur les objets (silhouette, couleur, texture, dimensions,
En général, il y a une grande interdépendance entre l’éclairage et la position de ou des caméras.
Le tableau ci-après récapitule les principaux cas de figure que l’on peut rencontrer dans le cas
des robots manipulateurs.
Plan de travail Caméra Source lumineuse

Perpendiculaire à la scène Face à la scène


Fixe Parallèle à la scène Perpendiculaire à la scène

Inclinée par rapport à la scène Inclinée par rapport à la scène


Fixée sur le manipulateur Fixée sur le manipulateur

Mobile Fixée sur un support mobile Fixée sur un support auxiliaire


auxiliaire
liée ou non avec la caméra

I.11 La numérisation des images :


Cette opération consiste à convertir l’image vidéo issue de la caméra en une image numérique
sur laquelle un traitement par calculateur est possible. Cette numérisation comprend deux
phases :
✓ L’échantillonnage spatial.
✓ La quantification du signal vidéo.

17
Traitement d’image et vision

I.11.1 Echantillonnage spatial :


Est un échantillonnage bidimensionnel a pour but de transformer les images en cellules
élémentaires (pixels) organisées suivant un maillage particulier : rectangulaire, carré,
octogonal, hexagonale, …
En robotique, on utilise principalement une maille rectangulaire (non isotrope) ou carrée
(isotrope) pour des raisons de simplicité.
Il faut remarquer qu’une simplification des calculs lors de la détermination de certains
paramètres (par exemple : les moments) peut être obtenue par l’utilisation d’un échantillonnage
carré. Par contre, un maillage rectangulaire nécessite l’utilisation d’un facteur correctif sur l’une
des deux coordonnées.
En général, la surface photosensible des caméras CCD est déjà organisée en matrice à mailles
carrés.

I.11.2 Quantification du signal vidéo :


Cette opération a pour but de coder en binaire l’intensité lumineuse associée à chaque pixel
défini par le maillage de l’image.
Si k est le nombre de bits retenu pour la quantification des niveaux de gris, on aura 2k valeurs
différentes.
Cette quantification qui peut être linéaire, ou non linéaire (Ex. pour la correction du contraste)
est réalisée par un convertisseur A/N rapide.
Après la phase de quantification, vient la phase d’archivage de l’image.

18
Traitement d’image et vision

Introduction
Le filtrage est une opération fondamentale en traitement d’images, Il permet d’améliorer la
perception de certains détails, de réduire le bruit, de compenser certains défauts du capteur, etc.
Il est généralement utile de traiter spécifiquement les différentes parties d’une image. Pour cela,
on utilise le plus souvent des filtres linéaires ou non linéaires.
Le filtrage des images est presque toujours réalisé dans le domaine spatial (après numérisation
de l’image vidéo). Les dimensions des fenêtres de filtrage sont adaptées suivant l’effet
recherché (taille et contenu). On utilise des grandes fenêtres pour diminuer fortement l’effet
d’un bruit large bande et des petites fenêtres préservent le maximum de définition.

II.1 Définition du filtrage


Le filtrage est une opération qui a pour but d'extraire une information ou d'améliorer l'aspect de
l'image, par exemple en éliminant un bruit ou en améliorant les contours d'une image floue. Les
dimensions des fenêtres de filtrage sont adaptées suivant l’effet recherché.

II.2 Principe général des filtres


Pour chaque pixel, le filtre utilise les valeurs des pixels voisins pour calculer la valeur finale du
pixel.

Figure 1 : principe des filtres.


D’après la figure 1, le pixel noir va changer sa valeur par le résultat de calcul des valeurs des
pixels voisins(rouge), la valeur finale du pixel se calcule selon le type de filtrage utilisé. Donc
Un filtre est caractérisé par :
➢ La forme du voisinage (généralement un carré centré sur le pixel)
➢ La taille (ou rayon) du voisinage,
➢ L’algorithme de calcul de la valeur finale.

19
Traitement d’image et vision

II.3 méthodes de filtrage :


Il existe plusieurs méthodes et techniques de filtrage, parmi ces dernières :

II.3.1 La convolution :

C'est l'opérateur de base du traitement linéaire des images. Apparue très tôt dans les premiers
systèmes d'analyse d'images sous forme empirique et justifiée par des considérations
d'implantation, ce n'est que plus tard qu'on a fourni des justifications physiques et fait le lien
théorique avec les filtres et le traitement du signal.
L ’équation générale de la convolution, notée g(x), de la fonction d’origine f(x) avec une
fonction h(x) est :

Avec f(x) est la fonction d’origine et g(x) la fonction convoluée (résultat de la convolution),
h(x) est appelé masque de convolution, noyau de convolution, filtre, fenêtre.
Soit I une image numérique et soit h une fonction de [x1,x2]×[y1,y2] à valeurs réelles.
La convolution de I par h est définie par :

On appelle la fonction h noyau de convolution.


Donc on peut définir la convolution d'une image par la sommation de multiplications.
Les nouvelles valeurs du pixel sont calculées par produit scalaire entre le noyau de convolution
et le voisinage correspondant du pixel.

II.3.2 Principe de la convolution :


L’image I est une fonction de 2 variables discrètes (x et y) et le filtre de convolution K appliqué
sur I est lui aussi à 2D (matrice), K est appelé filtre, masque, noyau ou fenêtre de convolution
L’application du filtre à l’image initiale I consiste à déplacer le masque sur un chacun des pixels,
et à remplacer la valeur de ce pixel d’analyse par une combinaison des valeurs de ses voisins.La
figure suivante montre le principe de la convolution.

20
Traitement d’image et vision

Figure 2.a calcul du premier pixel.

Figure 2.b calcul du deuxième pixel

Figure 2.c calcul du nième pixel.

21
Traitement d’image et vision

La figure 2.a permet de calculer la nouvelle valeur du pixel I (1,1), ensuite pour calculer le
pixel I(2,1), on fait décaler le masque de convolution vers la droite, On refait cette opération
avec tous les pixels jusqu’à le dernier pixel comme le montre la figure 2.c
Exemple 1 : Soit l’image I avec ses valeurs de pixel et le filtre k.

Les nouvelles valeurs des pixels après la convolution de l'image I par le filtre k sont :

➢ Problème de la convolution :
Il existe un petit problème dans le traitement par convolution, ce problème est comment traiter
les pixels situés aux bords de l’image ?

Figure 4 : problème de convolution


Il existe plusieurs techniques pour remédier ce problème, parmi eux on peut citer
➢ Laisser inchangés les valeurs de pixels
➢ Convolution partielle sur la partie du masque superposée à l’image
➢ Rendre les pixels extérieurs égalent à 0.
➢ Effet miroir ou symétrie : mettre la valeur du pixel extérieur égale à la valeur du pixel
du bord, voir l’exemple 1 de la convolution

22
Traitement d’image et vision

Exemple : Soit l’image I représentée par la matrice suivante

10 15 20 25 30
5 35 10 30 15
I= 0 30 25 20 10
20 10 15 35 30
30 35 25 10 5
0 1 0
La nouvelle valeur du pixel I(4,1) en utilisant le masque de convolution h= 1 2 1
0 1 0
est = 100.(pixel rouge )( nous avons mis les valeurs extérieurs égalent à 0 )

La nouvelle valeur du pixel I(2,2) = 125 ( pixel vert )

II.4 Filtres séparable 2D :


Un filtre 2D est dit séparable s'il est possible de décomposer le noyau de convolution en deux
filtres 1D appliqués successivement en horizontal puis en vertical (ou inversement) :

Exemple : Lequel de ces filtres suivants est séparable ?

Le filtre K2 c’est un filtre séparable parce qu’on peut l’écrire sous forme produit de 2 vecteurs

23
Traitement d’image et vision

II.5 Filtres moyenneur :


Le filtre moyeneur permet d'effectuer la moyenne du voisinage V du pixel (x; y). C’est-à-dire
remplacer chaque pixel par la valeur moyenne de ses voisins, ce filtre permet :

➢ De lisser l'image
➢ Réduit le bruit
➢ Réduit les détails non-important
➢ Brouille ou rend floue l'image.

La taille et le paramètre du filtre moyenneur dépend de l’information a tiré de l’image,

La figure suivante montre l’image résultat a l’issue du filtre moyenneur avec diffèrente taille.

Figure 5 : filtre moyenneur

Exemple : Soit l’image I représentée par la matrice suivante

10 15 20 25 30
5 35 10 30 15
I= 0 30 25 20 10
20 10 15 35 30
30 35 25 10 5

La nouvelle valeur du pixel I(2,2) en utilisant un filtre moyenneur de taille (3x3) est = 23.33

24
Traitement d’image et vision

II.6 Filtre médian :


C'est un filtre non-linéaire, qui ne peut pas s'implémenter comme un produit de convolution.
On remplace la valeur d'un pixel par la valeur médiane dans son voisinage NxN. Il est défini
par :

Avec V(x,y) est le voisinage au point (x,y)

Exemple 1 :

Dans cet exemple :


- Si on utilise le filtre médian, on remplace la valeur du pixel du centre (valeur 250) par la valeur
médiane de ses voisins qui est égale 20.
- Si on utilise le filtre moyenneur on remplace la valeur du pixel du centre (valeur 250) par la
valeur moyenne de ses voisins qui est égale 45.
Exemple 2 :

Dans cet exemple, on a remplacé la valeur du pixel du centre (valeur = 0) par la valeur médiane
des pixels voisins, donc la nouvelle valeur du pixel du centre égale à 36

25
Traitement d’image et vision

Exemple 3 : cet exemple montre la différence d’utilisation du filtre médian avec une taille
différente des pixels voisins

II.7 Filtre Laplacien

Le filtre laplacien est un filtre de convolution particulier utilise pour mettre en valeur les détails
qui ont une variation rapide de luminosité. Il est donc idéal pour rendre visible les contours des
objets. On peut le définir par :

Ce qui nous donne le filtre suivant :

26
Traitement d’image et vision

II.8 Filtre gaussien :

Le filtre gaussien permet de lisser l'image, il est généralement utilisé pour réduire le bruit dans
les images et effectuer un lissage un petit peu plus respectueux des contours. Il est défini par :

Paramètres du filtre sont :


• taille du voisinage V
• écart-type de la gaussienne σ

Exemple : cet exemple monte l’effet du filtre gaussien avec un écart type diffèrent

Figure : exemple d’utilisation du filtre gaussien

II.9 autres types des filtres : il existe d’autre filtres

II.9.1 Les filtres linéaires :

a. Opérateurs de lissage : Ce sont des filtres passe-bas qui ont pour rôle de réduire le bruit dû
- A la quantification du signal vidéo,
- Au capteur optoélectronique,
- Aux surfaces non homogènes des objets.

Avantage : atténuation du bruit


Inconvénient : atténuation des détails, flou

27
Traitement d’image et vision

b. Opérateurs de correction des variations d’éclairage de la scène :


Ce sont des filtres passe-haut. Ils peuvent être obtenus en soustrayant l’image traitée par un
filtre passe-bas de l’image originale.
Avantage : mise en évidence des contours/détails
Inconvénient : accentuation du bruit

c. Opérateurs de dérivation :
C’est la catégorie de filtre la plus utilisée parce qu’elle sert à accentuer les lignes de contraste
ou même à ne garder qu’elles. Souvent c’est l’opération préliminaire à l’extraction des contours.
- les opérateurs de premier ordre (gradient) qui correspondent à une simple dérivation,
- les opérateurs du deuxième ordre (laplacien) qui correspondent à une double dérivation.

Les filtres dérivateurs sont des opérateurs qui mettent en évidences certaines variations spatiales
dans les images. Ils sont utilisés comme traitements de base dans de nombreuses opérations,
comme le rehaussement de contraste ou la détection de contours.

II.9.2 Les filtres non-linéaires


Parmi la grande variété de filtres non-linéaires qui existe, on peut citer :

a. Seuil :
L’opérateur « seuillage » est constitué par un comparateur. Le signal d’entrée est comparé à
une référence. La sortie du filtre indique le signe de cette comparaison. On obtient alors une
image binaire. Bien que souvent la référence soit fixe, il est parfois utile de la faire varier en
fonction de l’image. Le choix de cette référence peut être guidé par un histogramme des niveaux
de gris.

b. Table de conversion :
Elle permet de changer la caractéristique de quantification du signal vidéo. La valeur du pixel
est remplacée par une nouvelle valeur résultant soit de mesures sur l’image (modification de
l’histogramme) soit de conversions logarithmiques, exponentielles, …

c. Opérateurs d’expansion et d’érosion :


Ce type d’opérateurs concerne les variations de taille des objets.
Les opérateurs d’expansion permettent d’éliminer les petits « trous » pour obtenir des surfaces
uniformes.
Les opérateurs d’érosion permettent d’éliminer les petits « objets » isolés (parasites) et
éventuellement de séparer des objets qui sont en contact. De plus, l’adjonction d’un test de
connexité permet d’extraire le squelette des lignes de contraste ou des objets.

II.7 Détection de contours :


Le but majeur de l’analyse d’image est d’obtenir une description synthétique des divers
éléments qui constituent l’image à partir de la masse énorme d’information qu’elle contient à
l’état brut. L’un des processus fondamentaux dans la chaine de reconnaissance de forme
consiste à déminuer cette quantité d’information en ne gardant que les points essentiels de
l’image d’information,
Les points de contour constituent en ce lieu une approche rationnelle, et permet à l’homme de
reconnaitre un objet par simple observation de ses contours.

28
Traitement d’image et vision

Nous intéressons à la recherche des primitives dans une image car elle constitue l’étape
nécessaire pour détecter un objet dans une scène, La détection de primitives peut également
servir à effectuer des mesures :
• Décomposition d’une scène en plusieurs objets (robot footballeur qui cherche le ballon
sur le terrain)
• Mesures de conformité de pièces en usine,
• Mesures de volumes d’organe en imagerie médicale,

Il existe plusieurs types de primitives, on peut citer :


o Contours,
o Régions,
o Squelette
o Points d’intèret (coins),
o Lignes
o Courbes.

La mise en évidence des points représentant les contours d'objets dans une image peut servir à :
• Reconnaitre des objets présents dans une scène,
• Différencier des zones de l'image
• Faire de la segmentation d'images,
• Extraire une information réduite souvent pertinente pour caractériser l'image.
Le contour permet la réduction de l’information de toute image qui se résume dans contours
des diffèrent objets.
Applications : on peut utiliser le contour pour :
• Reconnaissance d’objets, de formes,
• Classifications de scènes,
• Mise en correspondance (Calibration, reconstruction 3D)
• Compression,

II.7.1 Définition du contour :


* Le contour c’est les variations d'intensité de lumière et de couleur qui sont très bien aperçues
par le système visuel humain.
* Un contour est une rupture d'intensité dans l'image suivant une direction donnée.
* Une frontière est définie comme un endroit de l'image ou la transition en niveaux de gris est
la plus importante entre 2 régions.

Figure : séparation de 2 régions

29
Traitement d’image et vision

II.7.2 Modèle de contour :


Il existe plusieurs modelés étudier le contour :
o Modèle marche d’escalier,
o Modèle rampe
o Modèle toit
Le modèle le plus courant c’est marche d’escalier,

Figure : modèle de contour


La détection de contours est une technique de réduction d’information dans les images qui
consiste à transformer l’image en un ensemble de courbes, pas forcément fermées, formant les
frontières significatives de l’image.
II.7.3 Méthodes de détection de contour
Il existe plusieurs méthodes de détection de contour, parmi ces méthodes
• Approches du 1er ordre approximations du Gradient
• Approches du 2eme ordre approximations du Laplacien

II.7.3.1 Approches du 1er ordre ou le Gradient


En considérant l'image dans un repère orthogonal (Oxy) tel que (Ox) désigne l'axe horizontal
et (Oy) l'axe vertical, Le Gradient de l'image (ou plutôt de la luminance f ) en tout point ou pixel
de coordonnées (x,y) est désigné par :

30
Traitement d’image et vision

Le gradient peut être représenté en coordonnées polaires par un module et une direction dans
l’image.
o Le module du gradient permet de quantifier l'importance du contour mis en
évidence, c'est-a-dire l'amplitude du saut d'intensité relevé dans l'image

o La direction du gradient permet de déterminer l'arête présenté dans l'image. En effet,


la direction du gradient est orthogonale à celle du contour.

Le principe de la détection de contours par l'utilisation du gradient consiste à :

◊ Calculer d'abord le gradient de l'image dans les deux directions orthogonales,


◊ Calculer le module du gradient,
◊ Il s'agira ensuite d'effectuer une sélection des contours les plus marqués ( les points de
plus fort contraste par un seuillage).
◊ les directions des contours étant orthogonales à la direction α0 déterminée en tout pixel
de l'image

II. 7.4. Opérateurs gradient


Ces opérateurs sont à considérer comme des filtres qui vont être corrélés à l'image,
◊ Les réponses impulsionnelles de ces filtres peuvent se présenter sous la forme de fonctions
analytiques souvent d'une seule variable ou bien sous la forme de masques bidimensionnels,
Dans les deux cas le filtrage a lieu en deux étapes :
◊ Filtrage suivant les lignes de l'image,

31
Traitement d’image et vision

◊ Filtrage suivant les colonnes de l’images.


II.7.4.1 Operateurs de gradient par masques
Pour chaque opérateur, deux masques sont utilisés de façon à déterminer le gradient de l'image
dans deux directions orthogonales, On utilise la première dérivée de l’image pour les contours.
Le masque le plus intuitif à mettre en œuvre pour une approximation de la dérivée discrète est
un masque a deux éléments :

La réponse impulsionnelle h(m,n) du masque est définie par :


◊ h(0,0) = -1
◊ h(1,0) = 1
La corrélation de ce masque avec une image de luminance f(i,j) s‘écrit :

Il s'agit bien d'un calcul de gradient suivant l'axe horizontal


En faisant subir une rotation de pi/2 au premier masque, il apparait le masque suivant (l'origine
est le point 1) :

La réponse impulsionnelle est telle que :


• h(0,0) = 1
• h(0,-1) = -1
La corrélation de ce masque avec l'image f(i,j) permet bien d'implanter un gradient dans la
direction verticale :

32
Traitement d’image et vision

Exemple d’illustration de l'application des masques gradient :

Figure : masques de gradient


II.7.4.2 Operateur de Roberts
L’opérateur de Roberts fournit une première approximation de la première dérivée d'une image
discrète :

L'origine est le point 1 tandis que la réponse impulsionnelle s‘écrit :


• h(0,0) = 1 et h(-1,-1) = -1
La sortie obtenue après filtrage est :

Le deuxième masque se déduit du premier par rotation de pi/2

L'origine est le point du haut a droite si bien que la réponse impulsionnelle est telle que :
• h(-1,0) = 1
• h(0,-1) = -1

33
Traitement d’image et vision

Exemple d’utilisation d’opérateur de roberts

Figure : détection de contour par opérateur de roberts

Remarque : Le majeur inconvénient de ces masques réside dans leur forte sensibilité au bruit ce qui
impose un filtrage au préalable,

II.7.4.3 Opérateurs de Prewitt et Sobel :


◊ On combine à la fois un filtrage et une dérivée,
◊ Moins sensible au bruit que le calcul direct de la dérivée,
◊ Le calcul de gradient est toujours obtenu par l'intermédiaire de deux masques,
• Le premier effectuant un gradient horizontal,
• Le second un gradient vertical.

Les masques dérivateur sont maintenant :

34
Traitement d’image et vision

Pour c=1 : il s'agit des opérateurs de Prewitt,


Pour c=2 : il s'agit des opérateurs de Sobel,
Chaque pixel des masques est normalise par : 1/c+2,
◊ L'origine de ces masques est toujours le pixel central.
Ces masques ont l'avantage de produire deux effets.
• Effectuent le calcul du gradient dans une direction,
• Effectuent un lissage dans la direction orthogonale.
Ce lissage rend ces masques un peu moins sensibles au bruit que les précédents.

35
Traitement d’image et vision

Introduction
Pour aborder le traitement d'images, il est important de préciser la ou les grandeurs
caractéristiques qui donnent naissance à la notion d’image. L'image se forme sur un
capteur qui la retranscrit en un signal utilisable par le système de traitement. Ce signal
est donc la traduction de l'énergie physique reçue au travers de son système optique.

1. Le sténopé (Le trou d'épingle) :


Considérons le montage de la figure 1. Il s'agit d'un tube en carton d'environ 20cm de
long Une extrémité est obturée (fermée) par un bout de papier calque (papier
transparent) et l'autre par un carton percé d'un trou d'aiguille de 1mm de diamètre
environ.

Figure 1 : Montage simple pour étudier la formation des images.

Plaçons une ampoule électrique à incandescence à verre clair devant le trou (figure 2).
Mettons-la sous tension.

Figure 2 : Vue en coupe du montage avec illustration de quelques rayons lumineux.

Lorsque notre tube est dirigé vers la lampe, nous pouvons voir se former une image de
l'ampoule sur le papier calque. Cette silhouette est très pâle et c'est surtout l'image du
filament incandescent que l'on remarque.

Faisons les constatations qui s'imposent.


- L'image est renversée de bas en haut et de droite à gauche.
- Elle est floue et peu lumineuse.
- Si nous agrandissons le trou, l'image devient plus lumineuse et plus floue.
- Plus l'ampoule est éloignée du trou, plus son image est petite.

36
Traitement d’image et vision

- Si nous faisons varier la longueur du tube, nous remarquons que plus que le tube est
long, plus que l'image est grande et pâle.
Notez que lorsqu'un trou sert d'objectif, comme c'est le cas ici, on l'appelle sténopé.

2- Fonctionnement du sténopé : Observons le sténopé de la figure 3.

Figure 3 : Fonctionnement du sténopé.

Considérons le point A de l'objet (l'ampoule). Ce point rayonne dans toutes les directions
mais seul le pinceau lumineux passant par le sténopé ira éclairer l'écran au point A' (lire
"A prime"). Aucun autre pinceau lumineux issu de A n'éclairera ce point puisque la
lumière se propage en ligne droite.
Le point A' est l'image du point A.
Nous pouvons étendre ce raisonnement aux points B et C ainsi qu'à tout autre point de
l'objet.
En se juxtaposant, les différents points images correspondant à chaque point de l'objet
forment l'ensemble de l'image.
Nous pouvons comprendre le renversement de l'image ainsi formée en observant le trajet
des rayons lumineux. En effet, nous constatons que plus un point est situé haut sur l'objet
et plus son image sera basse sur l'écran, car le seul faisceau lumineux issu de ce point
qui atteint l'écran doit passer par le sténopé.
Evidemment, nous pouvons utiliser le même raisonnement pour expliquer l'inversion
droite-gauche.

Avantage :
➢ Le principe est très simple et les constructions géométriques servant à calculer
les images sont élémentaires.

Inconvénient :

➢ Taille du trou fixe : impossible de percer un trou de diamètre infiniment petit.


La projection d'une source ponctuelle sur le plan focal ne se fait pas suivant un rayon,
mais suivant un cône. Donc, l'image d'un point n'est pas un point, mais une tâche.

37
Traitement d’image et vision

Figure 4 : largeur de trou


➢ Diffraction
Supposons maintenant que nous cherchions à résoudre le problème précédent en
diminuant la taille du trou. Nous n'obtiendrions pas alors un système idéal, car un second
type d'imperfection apparaît. Si le trou du point focal est trop petit, nous constatons en
effet un effet de diffraction de la lumière. C'est à dire que le trou se comporte alors, à
son tour, comme une source lumineuse secondaire. De ce fait, soit on manque de
luminosité (peu de lumière passe) soit l'image est floue (plusieurs rayons passent par le
trou).

Figure 5 : problème de diffraction

2. Système d’acquisition d’image :

2.1 La vision humaine (œil) :

De forme approximativement sphérique, l'œil est l'organe de base de la vision. Il


comporte un ensemble d'éléments destinés à recevoir le rayonnement incident, former
l'image des objets perçus et traiter les informations recueillies. L’œil est un récepteur de
lumière sensible aux radiations lumineuses dont la longueur d’onde est comprise entre
380 nm et 780 nm (Domaine visible : Violet au rouge).

38
Traitement d’image et vision

2.1.1 Composition de l’œil : l’œil est composé de :

- Cornée: Membrane transparente directement en contact avec l’extérieur (r ≈ 8mm).


- Humeur aqueuse: Liquide transparent, il maintient la pression et la forme du globe
oculaire. Son indice de réfraction est de 1.33.
- Iris: membrane colorée Diaphragme qui permet de contrôler la quantité de lumière qui
pénètre dans l’œil. Son pigment détermine la couleur de l’œil (r ≈ 2 à 8mm).
- Pupille: Orifice central de l’iris se comportant comme un diaphragme. Son diamètre
varie en fonction de la luminosité.
- Humeur vitrée: Liquide gélatineux qui donne à l’œil sa forme et sa consistance, Son
indice de réfraction est de 1.33.
- Cristallin: joue le rôle d’une lentille convergente que des muscles ciliaires peuvent
rendre plus ou moins bombée (déformable) point pour obtenir la netteté à toute distance.
Son indice de réfraction est de 1.42 (4mm d’épais.).
- Rétine: Partie sensible de l’œil, C’est un ensemble de cellules photosensibles
convertissant le signal lumineux en signal électrique qui se propage vers le cerveau via
le nerf optique.
- Nerf optique: Il est constitué d’environ un million de fibres et a pour rôle de
transmettre l’image rétinienne (l’information) au cerveau.

L’œil ne voit un objet que si l’objet est éclairé ou émet de la lumière et son image se
forme sur la rétine.
La lumière entre par la cornée, traverse l’humeur aqueuse puis la pupille. Le cristallin
la fait converger sur la rétine, qui est constitué d’un ensemble de cellules photosensibles
convertissant le signal lumineux qui contient l’information en signal électrique qui se
propage vers le cerveau via le nerf optique. Son temps de réponse est de 0.25 seconde.

2.1.2 Schéma optique de l’œil :


Pour étudier la vision d’un œil normal, on le modélise par un montage optique
convergent. L'œil peut être assimilé à un système optique constitué d’un dioptre
sphérique (la cornée) et d’une lentille mince (le cristallin). Il est alors constitué de 3
dioptres. Le schéma optique équivalent est le suivant:

39
Traitement d’image et vision

2.1.3 Fonctionnement de l’œil

Pour qu’un objet soit vu nettement, il faut que son image se forme sur la rétine. Deux
conditions doivent être remplies :
• L’objet ne doit pas être trop écarté de l’axe optique de l’œil.
• L’image de l’objet doit se former à une distance constante du centre optique O.

A) Vision à l’infini : l’œil au repos.

Dans l’œil normal (dit emmétrope) au repos, le plan focal image coïncide avec la rétine.
L’image de l’objet à l’infini (∞) se forme donc exactement sur la rétine et l’objet est vu
nettement

B) Vision rapprochée : l’accommodation.

L’observation d’un objet rapproché exige un délai et un effort d’adaptation de la vision


On dit que l’œil accommode. Lorsque l’objet se rapproche de l’œil, en l’absence
d’accommodation, son image se déplace dans le même sens. Elle se forme donc derrière
la rétine et la vision est floue.

L’œil doit ramener l’image sur la rétine en augmentant sa convergence. Cela peut se
faire grâce à la déformation du cristallin sous l’action des muscles ciliaires. Plus l’objet
observé est proche de l’œil, plus la distance focale est petite et plus le cristallin est
bombé.

40
Traitement d’image et vision

➢ Domaine de vision nette


a) Le punctum proximum (PP) est le point le plus proche de l’œil que celui voit net.
Il accommode alors au maximum. Pour un œil normal (œil emmétrope), le PP se trouve
environ à 20 et 25 cm de l’œil.
b) Le punctum remotum (PR) est le point que l’œil voit nettement sans accommoder.
Il est au repos. Pour un œil normal (œil emmétrope), le PR se trouve à l’infini.

➢ Le pouvoir séparateur de l’œil

On appelle pouvoir séparateur de l’œil l’angle limite sous lequel l’œil peut distinguer
deux points différents.

2.1.4 défauts de l’œil


Les défauts les plus fréquents sont les défauts de géométrie.
❑ L’œil myope : la myopie :
Au repos l’œil myope est trop convergent pour sa profondeur son foyer principal image
F’ est situé devant la rétine.

Correction de la myopie : On place devant l’œil myope, trop convergent, une lentille
divergente L1, qui diminue la convergence des faisceaux lumineux pénétrants dans
l’œil.

41
Traitement d’image et vision

❑ L’œil hypermétrope : l’hypermétropie


Au repos, l’œil hypermétrope n’est pas assez convergent pour sa profondeur : son
foyer principal image est situé donc en arrière de la rétine. Pour amener l’image sur
la rétine, l’œil hypermétrope doit augmenter sa vergence,

Correction : On place devant cet œil pas assez convergent une lentille convergente L1
qui augmente la convergence des rayons lumineux pénétrants dans l’œil.

❑ La presbytie : un effet de vieillissement


La presbytie est une diminution du pouvoir d’accommodation de l’œil, elle est due à la
perte de souplesse du cristallin
Correction : La vision de l’œil presbyte est corrigée à l’aide de verres convergents qui
compensent le défaut de vergence de l’œil dans la vision rapprochée.
❑ Astigmates
Il s’agit d’un défaut de sphéricité du cristallin. Elle est corrigée par le port de lentilles
cylindriques
2.1.5 La rétine :
La rétine est un tissu nerveux composé de différentes couches cellulaires :
• Une couche de cellules ganglionnaires qui se prolonge pour former le nerf optique.
• Une couche de cellules bipolaires ;
• Une couche de photorécepteurs (les cônes et les bâtonnets) ;
• L’épithélium pigmentaire, de couleur noire (mélanine), la couche la plus externe de la
rétine.

42
Traitement d’image et vision

La rétine est un donc tissu nerveux dont le revêtement est constitué de photorécepteurs reliés à
une chaîne de neurones. Elle est composée de :

A) Les bâtonnets:
➢ Plus présent en périphérie rétinienne.
➢ Au nombre de 100 millions, ils participent au système scotopique (obscurité), ils
fonctionnent à un faible niveau d’intensité lumineuse, on parle de vision nocturne.
➢ Faible intensité et faible précision
➢ 1 photon et vision monochrome

B) Les cônes:
➢ Au nombre de 4 millions,
➢ Ils participent au système photopique (lumière) qui exige beaucoup de lumière, on parle
de vision de jour,
➢ Forte intensité et grande précision
➢ 100 photons et Vision couleur
2.2 l’appareil photographique
• Objectif: Système de lentilles permettant la formation d’image sur le plan du film.
• Diaphragme: Système mécanique qui permet de contrôler la quantité de lumière qui
pénètre dans l’appareil et qui arrive sur la pellicule (film).
• Miroir + Pentaprisme : Système de visée qui permet de voir la même image que celle
enregistrée sur le film.
• Obturateur: Système qui permet de contrôler le temps d’exposition du film.
• Chambre noire: Boîte étanche à la lumière enfermant la pellicule (film).
• Pellicule: film photosensible qui permet d’enregistrer l’image.

43
Traitement d’image et vision

• Bague de mise point: Mouvement de l’objectif par rapport au plan de la pellicule. Elle
permet de réaliser la mise au point (image nette).
• Bague de diaphragme : Variation de l’ouverture du diaphragme. Elle permet de
contrôler de la quantité de lumière qui rentre dans la chambre noire.
• Bague des temps de pose : Modification de la vitesse et du temps d’ouverture de
l’obturateur. Elle permet de contrôler le temps d’exposition du film.

➢ Schéma optique équivalent : on peut assimiler l’objectif à une lentille mince de


focale f . On a donc:

On ajuste L afin de satisfaire la relation de conjugaison, c’est la lentille (objectif) que


l’on déplace pour avoir une image nette de l’objet visualisé (mise au point).

44
Traitement d’image et vision

Le diaphragme est placé juste avant la lentille donc a priori pas de distorsion

2.3 Comparaison entre l’œil et appareil photo

2.4 : L’objectif :
C’est ensemble de lentilles permettant de projeter une scène réelle sur un même plan en
faisant converger ou diverger les rayons lumineux

45
Traitement d’image et vision

2.4.1 Eléments de réglage :


La figure suivante montre les éléments de réglage d’un objectif :

A) La focale
➢ Elle permet de voir les objets plus ou moins grands.
➢ Elle peut être fixe ou variable.
➢ Les objectifs à focale variable sont très peu utilisés en vision industrielle.

La focale dépend essentiellement de la taille de l’objet, de la distance de travail et de


la taille du capteur. La focale étant proportionnelle à la distance de travail, plus on
approche (ou on éloigne) l’objet, plus il faut diminuer (ou augmenter) la focale.
La focale étant inversement proportionnelle à la taille de l’objet, plus la taille
augmente (ou diminue), plus il faut diminuer (ou augmenter) la focale. Les focales
les plus courantes sont, en mm : 4, 6, 8, 9, 12, 16, 25, 35, 50 et 75.
Selon sa qualité et sa focale, un objectif déforme plus ou moins les images de la
scène. Plus la focale est importante, plus l’angle de champ est faible

46
Traitement d’image et vision

2.4.2 Type d’objectif


a) Les objectifs grand angle ou grand angulaire
✓ Ils possèdent une faible focale (inférieure à 12 mm).
✓ Ils sont utilisés pour des objets de grandes tailles ou pour des objets situés proches
de la caméra.
b) Les téléobjectifs ou les longues focales
✓ Ils possèdent une grande focale (supérieure à 75 mm).
✓ Ils sont utilisés pour des objets éloignés ou de petites tailles.
➢ Définition Monture : C’est une partie de l’objectif permettant sa fixation sur une
caméra. Elle peut être à visser ou à baïonnette, Son diamètre est variable et dépend des
dimensions du capteur.

B) L’ouverture
En jouant sur le diaphragme, la quantité de lumière atteignant le capteur est plus ou
moins grande. Elle peut être réglée manuellement ou automatiquement. Le diaphragme
peut avoir différentes formes (circulaire, triangle, polygone).
➢ Nombre d’ouverture
Le nombre d’ouverture, noté NO correspond à la quantité de lumière pouvant passer
dans l’objectif. Il se calcule en divisant la focale f de l’objectif par le diamètre Φ du
diaphragme NO = f / Φ.
Le nombre d’ouverture étant inversement proportionnel au diamètre du diaphragme,
plus le diaphragme est ouvert (grand diamètre), plus la quantité de lumière est grande
(image lumineuse) et plus le nombre d’ouverture est petit.
Les objectifs possédant des nombres d’ouvertures faibles sont plus volumineux et plus
chers. Les valeurs du nombre d’ouverture les plus utilisées sont : 1, 1.4, 2.8, 4, 5.6, 8,
11, 16, 22,

47
Traitement d’image et vision

Chaque incrément de NO correspond à une réduction de la moitié de la lumière passant


dans l’objectif. La surface S de l’ouverture étant proportionnelle au diamètre Φ du
diaphragme : S = (π Φ 2) / 4, si on multiplie NO par √2 (on divise le diamètre par √2),
alors on réduit la surface s de 2.

C) La mise au point
Elle permet d’obtenir une image nette en déplaçant les lentilles. Son réglage dépend de
la distance de l’objet, de la focale et de l’ouverture. La mise au point peut être effectuée
manuellement ou automatiquement.
2.3 Aberrations géométriques:

C’est la déformation géométrique de la représentation d’un objet dans le plan image. En


général, l’image se dégrade au fur et à mesure que l’on s’éloigne de son centre car les
phénomènes de perspective et de diffraction sont accentués avec l’angle d’incidence sur
les bords des lentilles qui ne possèdent pas les mêmes caractéristiques qu’en leur centre
(épaisseur, courbure, …). Elles sont de trois types :

2.5.1 Aberration sphérique


Pour un point objet situé sur l'axe du système centré et envoyant dans ce dernier un
faisceau de large ouverture, on dit qu'il y a aberration sphérique. Le faisceau
émergeant enveloppe dans ce cas une surface caustique de révolution autour de l'axe.
Considérons un système convergent centré de forte ouverture donnant, d'un point objet
situé sur l'axe, une image réelle. Les rayons centraux convergent vers le point à la

48
Traitement d’image et vision

distance d(0), tandis que les rayons marginaux convergent vers un point plus proche à
la distance d(h).

2.3.2 Aberration de coma


Pour un point objet infiniment voisin de l'axe du système et envoyant dans ce dernier
un faisceau de large ouverture, à l'aberration sphérique s'ajoute généralement
l'aberration dite "de coma". Le faisceau émergeant du système enveloppe dans ce cas
une surface caustique admettant pour plan de symétrie le plan défini par l'axe et le point
objet.
Considérons un point objet légèrement décalé de l’axe. L’image du point axial A est une
image réelle axiale A’. Par contre l’image du point quasi axial B est une tâche
d’aberration sous forme d’un cône dont le sommet est l’image géométrique B’o. Elle a
l’allure d’une comète très éclairée à sa pointe B’o . De ce fait, l’aberration est dite « de
coma ».

2.3.3 Distorsion
La troisième aberration étudiée ici sera la distorsion. L'image d'une droite ne passant
pas par l'axe du système est courbe.

Pour les points objets non axiaux, une aberration dite "distorsion" subsiste même si les
aberrations de courbure de champ sont compensées. Selon l'emplacement du
diaphragme,

49
Traitement d’image et vision

on observe une aberration différente de l'image. Si le diaphragme est accolé à la lentille


alors, aucune aberration de distorsion ne se manifeste.

Maintenant si le diaphragme est placé avant la lentille, on observe une image réduite en
taille et on dit qu'il y a "distorsion en barillet".

Dans le cas, où l'on place le diaphragme derrière la lentille, on observe un


agrandissement non uniforme de l'image et on dit qu'il y a "distorsion en coussinet"

➢ La distorsion dépend de :
• La focale de l’objectif : plus la focale est courte (grand angulaire), plus la
distorsion en barillet est importante et plus elle est longue (téléobjectif), plus la
distorsion en coussinet est importante,
• La mise au point,
• L’emplacement du diaphragme.

50
Traitement d’image et vision

2.3.4 Aberration chromatique

En fonction de leur longueur d’onde, les rayons lumineux ne sont pas transmis ou
absorbés de la même façon par les matériaux optiques. L’intensité et la direction de ces
rayons varient avec leur longueur d’onde.
Une réfraction et une intensité différentes des rayons lumineux vers le capteur
engendrent une mauvaise focalisation en fonction de la longueur d’onde et affectent
l’équilibre des couleurs

2.3.5. Effet de perspective

Lorsqu’ils ne sont pas situés à la même distance de travail, deux objets de taille
différente peuvent apparaître de même taille dans l’image tandis que deux objets de
même taille peuvent apparaître de taille différente.
L’effet de perspective est d’autant plus prononcé que l’angle de champ est grand.
Il apparait notamment lors de l’observation d’objets en 3 dimensions et pose donc des
problèmes dans le contrôle dimensionnel ou d’alignement. Cet effet peut être corrigé
par calcul.

51

Vous aimerez peut-être aussi