Vous êtes sur la page 1sur 81

Traitement d’images numériques

H. BELKEBIR1
1 Département Génie Électrique et Informatique
Ecole Nationale des Sciences Appliquées
Université Sidi Mohamed Ben Abdellah

Support de Cours de la Filière GTR, 2017-2018

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 1 / 164


Introduction
Introduction

Introduction
Définition :
Une image est une représentation
2D du monde réel.
� Elle est formée par un capteur
spécifique qui collecte l’intensité
lumineuse émise ou réfléchie par
la scène. � Il existe plusieurs types de cap-
� Les éléments optiques et élec- teurs qui différent entre eux par
le processus physique utilisé pour
troniques du capteur transforme
capter l’information (exemples: bi-
cette intensité en distribution ologiques, chimiques, thermiques
spatiale discrète de valeurs quan- et électroniques) et aussi par la di-
tifiées et spectralement dépen- mension du capteur(1D, 2D, 3D et
dantes. 4D).

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 4 / 164


Introduction

Capteurs numériques
Capteurs CCD

� Les capteurs à transfert de charges ou CCD font référence à une


architecture à base de semi-conducteurs dans laquelle la charge est
captée et transférée via une aire de stockage.
� Principe du fonctionnement du CCD:

� Collection des charges;


� Transfert de la charge;
� Conversion de la charge en une
tension mesurable.

� La matrice CCD est une série de registres disposés en colonnes. Le transfert de


charges s’effectue d’abord de ligne en ligne. Le registre principal transporte en
mode série les charges accumulées de chaque ligne vers l’amplificateur de sortie.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 5 / 164


Introduction

Capteurs numériques
Capteurs CMOS

� Les capteurs CMOS fonctionnent différemment, même si le principe


de base reste le même. Les photo-sites, comme sur un CCD, sont
sensibles à la lumière et acquièrent une certaine quantité de charges
électriques proportionnelle à la quantité de lumière reçue. À l’intérieur
de chaque photo-site, la charge générée est convertie directement en
tension utile.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 6 / 164


Introduction

Représentation des donnée des images


Du continu vers le discret

� Le monde réel est macroscopiquement continu. Les capteur d’images


sont constitués d’une matrice de cellules photosensibles disjointes et
de nombre fini. Ceci implique une collecte discrète de l’information
spatiale contenue dans la scène. L’image est ainsi spatialement
discrétisé en entités élémentaires qu’on dénomment pixels (picture
element);
� En général, les pixels d’une image sont arrangés selon une grille
rectangulaire. Cependant il existe d’autres types de pavage qui sont
plus adéquats aux contraintes de l’application visée.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 7 / 164


Introduction

Représentation des donnée des images


Échantillonnage

� L’échantillonnage est l’opération qui consiste à numériser le


continuum spatial de la scène à photographier de telle façon à
n’enregistrer l’information qu’au niveau d’un nombre fini et discret de
sites photo-sensibles.
� D’une manière général, on cherche toujours à prendre un pas
d’échantillonnage qui permet de conserver tout les détails de la scène.
En contre partie l’espace de stockage et les contraintes des systèmes
d’échanges d’informations visuelles imposent des limites sur le choix
du pas d’échantillonnage.
� L’échantillonnage ne concerne pas seulement les images qu’on veut
prendre mais aussi les images déjà échantillonnées dans un but de
revoir leur résolution en hausse ou en baisse selon les besoins. On
parle alors de ré-échantillonnage.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 8 / 164
Introduction

Représentation des donnée des images


Échantillonnage

Grille d’échantillonnage 32 × 32 Image échantillonnée

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 9 / 164


Introduction

Représentation des donnée des images


Échantillonnage (1)

� Distribution de Dirac 2D δ(x , y ) :


La distribution spatiale de Dirac en 2D se définit à partir de sa version
1D comme suit:
δ(x , y ) = δ(x ) × δ(y )
� On définit l’opérateur d’échantillonnage spatiale idéal comme suit :

b(x , y ) = δ(x − mpx , y − npy )
m,n
� �
= δ(x − mpx ) × δ(y − npy )
m n
= δ px × δ py

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 10 / 164


Introduction

Représentation des donnée des images


Échantillonnage (2)

� Considérons la fonction d’intensité lumineuse I(x , y ) qui irradie la


surface du capteur d’image. Elle sera échantillonnée par la brosse de
Dirac b(x , y ) selon l’expression :

I[m, n] = I(x , y ) × b(x , y )



= I(mpx , npy )δ(x − mpx ) × δ(y − npy )
m,n

La question qui se pose est comment choisir les pas d’échantillonnage spatial p x
et py ?

� En général, le pas d’échantillonnage se détermine à partir du spectre


des fréquences spatiales de la fonction à discrétiser.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 11 / 164
Introduction

Représentation des donnée des images


Échantillonnage (3)

� Il faut remarquer aussi que le système optique du dispositif


responsable de la prise d’image joue le rôle d’un filtre spatial
passe-bas et limite par conséquent le spectre de l’intensité lumineuse
focalisée sur le capteur.
� En pratique le pas d’échantillonnage dépend principalement du
nombre de sites photo-sensibles dont dispose le capteur d’image :

px = Lx /Ncellules,x py = Ly /Ncellules,y

Exemple Le Canon EOS-1D possède un capteur CCD ayant 2464 × 1648 de sites
photo-sensibles disposés sur une surface de 28.7 × 19.1mm 2 ce qui implique des
pas d’échantillonnages :
px = 0.000011647727272727 py = 0.000011589805825242
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 12 / 164
Introduction

Représentation des donnée des images


Quantification

� Quelque soit le type du capteur utilisé, la sortie du/des bloc(s)


amplificateur(s) est toujours analogique d’où l’utilisation du
convertisseur analogique numérique.
� En général, on utilise des CANs réalisant la quantification linéaire du
signal généré par l’amplificateur intégré au capteur d’image avec une
résolution qui varie de 8 bits à 16 bits par canal.
Exemple Un CAN de résolution de 8 bits/canal produira un tableau 2D de
valeurs comprises entre 0 et 255 pour chaque canal.
N.B L’information qu’on garde après la quantification est le nombre de
niveaux dont dispose chaque canal indépendamment des valeurs réel
des amplitudes de la tension généré par l’amplificateur du capteur.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 13 / 164


Représentation des images
Image multicanal : image couleur RVB

Canal rouge

Canal bleu

Ca
na
lv
ert
Représentation des images
Exemple: canal rouge de l’image baboon.pdf

247 129 20 152 98 153

227 173 51 97 62 188

52 231 105 141 108 27

188 110 135 113 221 245

53 41 204 55 148 146

15 111 65 37 156 179


Introduction

Stockage des Images


� Une image est entièrement définie si on connaît sa taille (nombre de
pixels/ligne et /colonne) ainsi que les valeurs de chacun de ses pixels.
� De nos jours, les images sont stockées dans un format numérique sous
forme de fichier qui sont structurés en deux parties :
� L’entête codé au format texte, il contient tous les informations
permettant de lire correctement la partie donnée.
� Les données au format texte ou binaire représentant les valeurs
des pixels de l’image.
� Il existe plusieurs formats numériques pour stocker les images,
toutefois on va s’intéresser particulièrement au format NetPBM qui
est simple d’emploi et sous licence libre.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 16 / 164


Introduction

Stockage des Images


Format Portable PixMap PPM : Images couleurs

� Structure de l’entête :
Il est formé de quatre lignes:
1. Type de l’image (texte ou binaire)⇒ P3 ou P6;
2. Ligne de commentaire;
3. Taille de l’image ⇒ nl × nc;
4. Taille de la dynamique de chaque canal.
� Structure des données:
Selon la valeur de la première ligne de l’entête, les données seront soit
au format texte soit au format binaire.
� Pour le format binaire, les données des trois canaux RVB sont codés
en hexadécimal dans un ordre consécutif. Par contre lorsqu’ils sont
codés au format texte, ils ont besoin de plus d’espace de stockage
qu’en mode binaire.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 17 / 164
Introduction

Stockage des Images


Format Portable GrayMap PGM : Image en niveau de gris

� Structure de l’entête :
Il est formé de quatre lignes:
1. Type de l’image (texte ou binaire)⇒ P2 ou P5;
2. Ligne de commentaire;
3. Taille de l’image ⇒ nl × nc;
4. Taille de la dynamique des valeurs des pixels.
� Structure des données:
Selon la valeur de la première ligne de l’entête, les données seront soit
au format texte soit au format binaire.
� Pour le format binaire ou texte, les données représentant le niveau de
gris de l’image sont codés en hexadécimal et disposées en série dans
le fichier avec une occupation en mémoire plus grande pour le codage
texte.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 18 / 164
Introduction

Stockage des Images


Format Portable BitMap PBM : Image binaire

Ce sont des images qu’on obtient par seuillage, elles sont très utilisées
dans la définition des masques.
� Structure de l’entête :
Il est formé de trois lignes:
1. Type de l’image (texte ou binaire)⇒ P1 ou P4;
2. Ligne de commentaire;
3. Taille de l’image ⇒ nl × nc;
� Structure des données:
Selon la valeur de la première ligne de l’entête, les données seront soit
au format texte soit au format binaire.
� Pour le format binaire ou texte, les données représentant la valeur du
digit sont codés en hexadécimal et disposées en série dans le fichier
avec une occupation en mémoire plus grande pour le codage texte.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 19 / 164
Exemples du format NetBPM
Image niveau de
gris au format PGM

Image couleur RVB


au format PPM

Image binaire
au format PBM
Introduction

Représentation informatique des images


� Le traitement numérique des images nécessite la lecture
(respectivement l’enregistrement) des données de l’image pour leur
appliquer les traitements adéquats.
� Pour mener à bien ces différentes opérations on doit opter pour une
représentation informatique de l’image qui associe simplicité et
efficacité.
� Vue le pavage rectangulaire des cellules photosensibles de la plupart
des capteurs d’image, la représentation sous forme de tableau est la
plus appropriée.
for i=1→ M × N
faire I[i] = . . .

1 2 ... i-1 i i+2 ... M ×N

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 21 / 164


Espace des couleurs
et
Perception visuelle
Espace des couleurs et Perception visuelle

Perception visuelle
Motivations (1)

L’étude de la perception visuelle est intéressante pour le traitement


d’images pour deux raisons principales :
� Elle peut nous mettre sur la voie de nouveaux algorithmes inspirés par
les mécanismes naturels.
� Elle nous permet aussi de connaître les limites de notre perception.
Ainsi, il est inutile de représenter plus de couleurs que nous puissions
percevoir lors d’une application de visualisation.
Dans un système d’analyse d’image, on distingue trois blocs fonctionnels :

Capteur Voie de Système


d’image transmission d’analyse

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 24 / 164


Perception visuelle
Motivations (2)
� L’analyse du système de perception visuelle humain nous informe de
l’existence de trois blocs équivalents à ceux d’un système artificiel :
L’œil Nerf optique Cortex visuelle
Le cristallin: est une structure transparente située
derrière l’iris. Sa fonction est de réfracter la lu-
mière entrante et de la concentrer sur la rétine.

L’iris, est un mince diaphragme situé entre la cornée et


le cristallin. La couleur, la texture et le motif de l’iris de
chaque individu est aussi unique qu’une empreinte digitale.

La cornée est la fenêtre extérieur de l’œil. C’est la pre-


mière structure qui concentre la lumière entrant dans l’œil.

La rétine est la couche la plus interne de l’œil ;


elle est comparable à la pellicule d’un appareil pho-
tographique. Elle se compose de tissus nerveux
qui perçoivent la lumière pénétrant dans l’œil.
Espace des couleurs et Perception visuelle

Perception visuelle
Motivations (3)

On s’intéressera particulièrement au capteur biologique humain (l’œil) et


plus concrètement à la région de la rétine qui est l’équivalent de la matrice
CCD ou CMOS du capteur électronique :

� Composition de la rétine :
1. La couche qui contient les
photorécepteurs rétiniens :
bâtonnets et cônes.
2. La couche qui contient les cel-
lules bipolaires.
3. La couche qui contient les cel-
lules ganglionnaires dont les
prolongements forment les ax-
ones du nerf optique.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 26 / 164


Espace des couleurs et Perception visuelle

Perception visuelle
Sensibilité spectrale des photorécepteurs rétiniens
Il existe quatre types de photorécepteurs dans la rétine, les bâtonnets respon-
sable de la vision scotopique et les cônes responsable de la vision photopique
:
1. Les bâtonnets avec un maxima
à 498nm;
2. Les cônes de type S (Bleu)
avec une sensibilité maximal à
420nm;
3. Les cônes de type M (Vert) avec
un maximum de sensibilité à
534nm;
4. Les cônes de type L (Rouge)
ayant leur maxima à 564nm.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 27 / 164


Espace des couleurs et Perception visuelle

Perception visuelle
Qu’est-ce que la couleur ?

� La couleur est une notion complexe qui fait intervenir à la fois des
facteurs psychophysiques et psychophysiologiques;
� Physiquement, la couleur n’est autre que l’énergie rayonnée par une
source lumineuse à une longueur d’onde du visible;
� Physiologiquement c’est une réponse du cortex visuel à l’influx
nerveux qui lui parvient des photorécepteurs rétiniens suite à la
conversion du flux d’énergie lumineuse qui irradie la rétine;
� Psychiquement, c’est une interprétation et une sensation plus qu’une
mesure produite par le cerveau humain;

Comment reproduire cette sensation colorée en utilisant des capteurs


artificielles ?

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 28 / 164


Espace des couleurs et Perception visuelle

Perception visuelle
La couleur vue comme une synthèse :

Photorécepteurs

cône L

stimulus cône M couleur

cône S

Toute couleur peut être produite en opérant de deux manières entièrement


opposées :
� En effectuant une synthèse additive de la lumière;
� En réalisant une synthèse soustractive par élimination d’une partie de la
lumière colorée.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 29 / 164
Espace des couleurs et Perception visuelle

Perception visuelle
Synthèse additive

Ce type de mélange s’obtient de trois façons différentes :


� La superposition : Plusieurs rayons colorés sont projeté sur la même
zone d’un écran diffusant que l’observateur regarde (exemple éclairage
scénique);
� La juxtaposition : Ce type de synthèse additive exploite la limite de
résolution spatial de l’œil humain. Il utilise des objets, de dimension
en dessous de la limite de résolution, qui diffusent les trois couleurs
primaires vers les photorécepteurs rétiniens qui les intègrent pour
former la couleur finale (exemple les pixel des TV LCD et LED);
� L’alternation temporelle : Dans ce type de synthèse on exploite le
phénomène de la persistance rétinienne pour synthétiser la couleur
voulue.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 30 / 164


Espace des couleurs
Synthèse additive RVB

La synthèse additive RVB est une


Couleurs RVB représentation calée sur la percep-
tion visuelle humaine qui utilise les
couleurs rouge, vert et bleu comme
Synthèse couleurs primaires pour générer
l’espace des couleurs tout entier
additive comme l’a prédit la loi de Grass-
mann.

Rouge Vert Jaune=Rouge+Vert


Cyan=Bleu+Vert
pourpre=Rouge+Blue
Bleu
Espace des couleurs
Espace CIE RBV

� Soit un rayonnement de couleur


quelconque {C } et de luminosité L.
La couleur C de ce rayonnement est
donnée par l’équation :

{C } = rc {R} + gc {G} + bc {B}


� ∞
xc = x (λ)Lc (λ)dλ
0
Diagramme de chromaticité rg
� La chromaticité de la lumière ne
dépend que des valeurs relatives de
ces composantes, on définit alors
les coordonnées trichromatiques r,
g et b par :
x
x=
rc + gc + b c
Espace des couleurs
Espace CIE xyY (1)
� Dans l’espace CIE RGB, certaines couleurs ont des coordonnées
trichromatiques négatives. Pour s’affranchir de ce problème, il a été choisi
d’opérer une transformation linéaire de l’espace RGB qui conduit à des
fonctions colorimétriques positives.
� Les primaires X, Y et Z ont été choisies afin que le plan (Oxy) soit le plan de
chromaticité perçu indépendamment de la luminance Y . L’axe (OY ) est
celui de la luminance :
� ∞
Y (λ) = K ȳ (λ)Le (λ)dλ
0

� les fonctions colorimétriques de l’espace CIE xyY sont obtenus à partir des
fonctions de l’espace CIE RGB par transformation linéaire :

x̄ (λ) = 2.7688r̄ (λ) + 1.7517ḡ(λ) + 1.1301b̄(λ)


ȳ (λ) = r̄ (λ) + 4.5907ḡ(λ) + 0.0601b̄(λ)
z̄(λ) = 10−5 r̄ (λ) + 0.0565ḡ(λ) + 5.5942b̄(λ)
Espace des couleurs
Espace CIE xyY (2)
Diagramme de chromaticité (x,y)

{C } = x {X } + y {Y } + z{Z }
x +y +z = 1
Espace des couleurs
Espace sRGB
sRGB, ou standard RGB, est un espace de couleur informatique proposé par
Hewlett-Packard et Microsoft en 1996, utilisé dans les dispositifs numériques, no-
tamment les écrans d’ordinateurs.
Diagramme de chromaticité (x,y)
� Une couleur primaire s’affiche à l’écran
lorsque son canal est à 100 % et que
les deux autres sont à 0 %. Les
couleurs réelles sont définies par leurs
coordonnées x et y sur une échelle de
référence appelée diagramme de chro-
maticité CIE.
� Dans le sRGB, le rouge est positionné
à [0.64, 0.33], le vert à [0.30, 0.60] et le
bleu à [0.15, 0.06]. Ces trois positions
forment le triangle des couleurs chro-
matiques sRGB. Seules les couleurs à
l’intérieur du triangle sont visibles sur
un écran sRGB.
Ylin = 0.21Rlin + 0.72Vlin + 0.07Blin
Espace des couleurs et Perception visuelle

Espace des couleurs


sRGB: correction γ

� Le gamma est une caractéristique des moniteurs vidéo à reproduire les


images plus contrastés et plus sombres que celles qu’on leur soumet en
entrée.
� Cette reproduction tonale particulière provient du fait que la luminosité
émise par les luminophores d’un tube cathodique n’est pas proportionnelle à
la tension électrique appliquée dans le tube. Et cet écart s’amplifie de plus
en plus en s’approchant des valeurs faibles de la luminosité.
� La correction γ : C’est l’amplification non linéaire que l’on applique au
signal électrique avant la transmission pour obtenir un rendu satisfaisant.
Son expression pour les systèmes sRGB (γ = 2.2 ∼ 2.4) est :
CsRGB = 12.92Clin ∀Clin <= 0.0031308
1
CsRGB = 1.055Clin γ
∀Clin > 0.0031308

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 36 / 164


Espace des couleurs et Perception visuelle

Espace des couleurs


Transformation xyY vers sRGB
� Cette transformation s’opère en deux temps. D’abord, on passe de
l’espace xyY à l’espace XYZ en opérant les transformations suivantes :
x 1−x −y
X= Y, Z =Y
y y

� Après on applique une transformation linéaire aux composantes


trichromatiques X,Y et Z pour retrouver les composantes linéaires R,
G et B du système sRGB selon le système d’équations ci-dessous :
    
Rlin 3.2406 −1.5372 −0.4986 X
 Glin  =  −0.9689 1.8758 0.0415   Y 
Blin 0.0557 −0.2040 1.0570 Z

� Enfin, on applique la correction γ pour retrouver les valeurs de R, G


et B dans l’espace de couleurs sRGB.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 37 / 164
Espace des couleurs et Perception visuelle

Espace des couleurs


Systèmes de couleurs utilisé en transmission vidéo

� Système de couleurs pour la tv analogique:


1. Le système de diffusion PAL (Phase Alternating Lines) utilisait le système de
couleur Y’UV dans lequel Y’ représente le luma (luminance avec correction γ
et (U,V) deux composantes qui représentent la chrominance.
2. Le système SECAM (Sequential Color with Memory) utilise une dérivé du
système Y’UV en remplaçant les composantes U et V par Dr et Db .
3. Le système NTSC (National Television System Committee) utilise le système
de couleur YIQ.
� Exemple de Transformation :sRGB → Y � UV
 �    
Y 0.299 0.587 0.114 R
 U  =  −0.14713 −0.28886 0.436   G 
V 0.615 −0.51498 −0.10001 B

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 38 / 164


Espace des couleurs
Exemples (1): Espace sRGB
Canal rouge

Canal vert

Canal bleu
Espace des couleurs
Exemples (2): Espace LAB
Canal Luminance

Canal a

Canal b
Espace des couleurs
Exemples (3): Espace YCbCr
Canal Luminance

Canal dominance bleu

Canal dominance rouge


Échantillonnage
&
Quantification
Échantillonnage et quantification

Ré-échantillonnage
On déjà évoqué le concept d’échantillonnage dans l’introduction et on le
reprend ici pour parler de ses implications spectrales en plus du concept de
la reconstruction et le ré-échantillonnage.
� Espace des fréquences spatiales :
À l’instar des signaux temporels, on définit la transformée de Fourier spatiale
d’une image 2D par :
M �
� N
F{I}[u, v ] = I [i, j] exp (−ı2π(iu + jv ))
i=0 j=0

Spectre spatial de I
FFT2
Image I

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 44 / 164


Échantillonnage et quantification

Ré-échantillonnage
Filtre de reconstruction idéal
Pour ré-échantillonner une image numérique, il faut construire la version
analogique du signal qui a produit cette image :
� �
Ie (x , y ) = I(x , y ) × δ(x − ipx ) × δ(y − jpy )
i j

Passons dans l’espace des fréquences spatiales :


1 � i � j
Ie (u, v ) = I(u, v ) ∗ δ(u − ) ∗ δ(v − )
px py px py
i j
1 � i j
= I(u − , v − )
px py px py
i,j

Le spectre du signal échantillonné est une répétition infinie du spectre de


I(x , y ). Pour reconstruire ce dernier, il suffit d’appliquer à I e (x , y ) un filtre
spatial passe-bas et appliquer ensuite la transformé de Fourier inverse pour
récupérer I(x , y ).
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 45 / 164
Échantillonnage et quantification

Ré-échantillonnage
Filtre de reconstruction idéal (1)

� 1 � i j �
Ie (u, v ) × (px u, py v ) = I(u − , v − ) × (px u, py v )
px py px py
i,j

IFFT
=⇒
Ir (x , y ) = px py F −1 {Ie (u, v )} ∗ sinc(x /px ) × sinc(y /py )

= p x py I [ipx , jpy ] δ(x − ipx , y − jpy ) ∗ sinc(x /px ) × sinc(y /py )
i,j

= p x py I [ipx , jpy ] sinc(x /px − i) × sinc(y /py − j)
i,j

Pour reconstruire le signal analogique Ir (x , y ) on a besoin d’une infinité


d’échantillons. Essayer de tronquer cette sommation introduira des distorsions
dans le signal reconstruit.
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 46 / 164
Ré-échantillonnage
Approximation du filtre de reconstruction idéal
� Approximation d’ordre 0 :
Elle consiste à remplacer le sinus cardinal par une fonction créneau :
Π(x ) sinc(u)

x u

Ir (x , y ) = I [i, j] Π(x − i, y − j)
i,j

� Approximation d’ordre 1 :
Λ(x ) sinc2 (u)

x u

Ir (x , y ) = I [i, j] Λ(x − i, y − j)
i,j
Ré-échantillonnage
Approximation du filtre de reconstruction idéal(1)
� Approximation d’ordre supérieur (splines) :
Il s’agit de l’interpolation par des splines, selon la famille
des polynômes de Mitchell. Ces polynômes sont définis par morceaux tels que :

� Cette approximation donne de meilleure résultat qu’une troncature d’un


sinus cardinal grâce à la continuité C 1 de ces polynômes (les discontinuités
faisant apparaître des détails erronés, souvent appelés ripples).
� Une fois le signal continu qui a donné naissance à l’image est déterminé, on
pourra alors procéder au ré-échantillonnage de notre image soit en ajoutant
ou en retranchant des pixels.
Ré-échantillonnage
Exemples d’interpolation

Ordre 0

Ordre 1
Ré-échantillonnage
Exemples d’interpolation

Lanczos sinc

Mitchell spline
Échantillonnage et quantification

Quantification
� La quantification est l’opération réalisé par le convertisseur analogique
numérique installé comme étage de sortie dans chaque capteur
d’image.
� Elle consiste à représenter le niveau de tension produit par chaque site
photosensible par une séquence binaire dont la longueur dépend de la
résolution du CAN.
� Comment le CAN exécute cette tâche essentielle à la formation de
l’image numérique ?
� Pour répondre à cette question, considérons la tension généré par
l’amplificateur du capteur d’image comme un signal Ia dont les
valeurs sont comprises entre deux extremums m = Ia,min et
M = Ia,max . Considérons que notre CAN dispose d’une résolution de n
bits ce qui permet d’obtenir 2n séquences binaires.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 51 / 164


Échantillonnage et quantification

Quantification (1)
d0 d1 d2 ... di−1 di di+1 ... dL−1 dL
m M

... ...
I0 I1 I2 Ii−1 Ii Ii+1 IL−1

� Les valeurs analogiques des pixels sont aléatoirement distribués dans


[di , di+1 ] avec la probabilité p(Ia ).
� L’erreur comise sur le niveau Ii est donnée par la relation ci-après :
� = E {(Ia − Ii )2 }
� M
= p(Ia )(Ia − Ii )2 dIa
m
L−1
� � di+1
�= p(Ia )(Ia − Ii )2 dIa
i=0 di

� est l’erreur totale.


Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 52 / 164
Échantillonnage et quantification

Quantification (2)
� Si L � 1 on peut supposer que p(Ia ) ≈ p(Ii ) ce qui permet d’avoir:
L−1
� � di+1
�= p(Ii ) (Ia − Ii )2 dIa
i=0 di
L−1
� 1 � �
= p(Ii ) (di+1 − Ii )3 − (di − Ii )3
i=0
3
� La quantification sera optimale si l’erreur total � est minimale ce qui
revient à considérer :
d� di+1 + di
= 0 =⇒ Ii,opt =
dIi 2
L−1
� (di+1 − di )3
�= p(Ii,opt )
i=0
12

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 53 / 164


Échantillonnage et quantification

Quantification (3)

� La dernière étape consiste à choisir la disposition des niveaux de


décisions di ;
� Si on adopte l’hypothèse que tous les tons de l’image sont
équiprobables et uniformément distribués entre m et M. Il en résulte
alors des niveaux de décisions équirépartis dans l’intervalle [m, M] :

Δ2 (M − m)2 M −m
�= = avec Δ = di+1 − di =
12 12 × 22n L
� C’est la quantification uniforme.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 54 / 164


Quantification (4)
Effet de la résolution du CAN sur la quantification uniforme :

� L’intensité lumineuse de l’image en niveau de gris ne peut prendre que


des valeurs à l’intérieur de l’intervalle [0, 255].
Résolution 2 bits Résolution 4 bits Résolution 6 bits Résolution 8 bits

Résolution tonale
Transformation géométrique
des images
Transformation géométrique des images

Notion de Voisinage
� Considérons le pixel p situé à la position (i, j) dans le tableau 2D
(matrice) représentant l’image I. On peut définir plusieurs types de
voisinages pour p :
� Voisinages V4 , VD et V8 = V4 ∪VD :
p(i, j)

(i, j + 1)
(i − 1, j + 1) (i + 1, j + 1)

(i + 1, j)

(i − 1, j)

(i − 1, j − 1) (i, j − 1)
(i + 1, j − 1)
Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 58 / 164
Transformation géométrique des images

Notion de distance
� Distance entre pixels:
Dans un espace discret, on peut définir plusieurs types de distances :
1. Distance euclidienne:

d(p, q) = (iq − ip )2 + (jq − jp )2

2. Distance Manhattan ou D4 :

d(p, q) = |iq − ip | + |jq − jp |

3. Distance tour d’échiquier ou D8 :

d(p, q) = max (|iq − ip |, |jq − jp |

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 59 / 164


Transformation géométrique des images

Opérations arithmétiques et logiques


� Opération arithmétiques:
� Les opérations arithmétiques +,−,× et ÷ sur les images s’appliquent
pixel par pixel pour des fins de traitement (lissage, détection de
changement entre deux images, correction de niveau de gris etc.)
� Il faut faire attention aux valeurs générées par les opération
arithmétiques sur les pixels de l’image surtout lorsqu’elles présentent
des débordements de part et d’autre des bords de la dynamique de
représentation.
� Opérations logiques:
Les opérations logiques ou, et et non s’appliquent principalement sur
les images binaires dans le but de réaliser des opérations de
traitement d’images binaires telles que la réalisation des masques, la
détection des caractéristiques, l’analyse des formes etc.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 60 / 164


Transformation géométrique des images

Transformations géométriques
Transformation euclidienne

Définition : On entend par transformation géométrique toute modification


de la position spatiale des pixels de l’image sans altérer leur valeur.
Exemple :
� Changement d’échelle de l’image.
� Décalage à droite ou à gauche d’une région de l’image.
� Rotation de l’image . . .
Transformation euclidienne : Ce sont des transformations géométriques qui
préservent les distances et les angles, on les appelle aussi des
transformation rigides. Ils sont réalisées en utilisant des compositions de
translations et de rotations.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 61 / 164


Transformation géométrique des images

Transformations géométriques
Rotation et translation

Définition : Une rotation est définie par un centre (x0 , y0 ) et un angle θ.


Les coordonnés (x , y ) des pixels de l’image après rotation deviennent :

xR = x0 + (x − x0 ) cos(θ) + (y − y0 ) sin(θ)
yR = y0 − (x − x0 ) sin(θ) + (y − y0 ) cos(θ)
Définition : Une translation est définie par un vecteur (tx , ty ). Après
translation d’un pixel, ses coordonnées deviennent :

xt = x + t x
yt = y + t y
Exemple : rotation de θ autour du centre c

xR = Ro,θ + tx0 − Rc,θ
yR = Ro,θ + tx0 − Rc,θ

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 62 / 164


Transformation euclidienne
Exemple de rotation de 45◦
Transformation par homothétie
� Les homothéties sont des changements d’échelle selon l’axe des x et
l’axe des y , à partir d’une origine donnée. Une homothétie de rapport
λx et λy s’exprime par :

xs = λ x x
ys = λ y y

� Pour réaliser une homothétie de centre c, on procède comme suit :


x xmin
0

u
ymin c


xs = xmin + λx (x − xmin )
ys = ymin + λy (y − ymin )
Transformation euclidienne
Exemple de changement d’échelle λx = λy = 2.75
Transformation géométrique des images

Transformations géométriques
Similitude, Cisaillement

� Les similitudes sont une compositions entre les translations, les


rotations et le changement d’échelle. Ils sont régis par les équations
ci-après : �
x = tx + λ(x cos(θ) + y sin(θ))

y = ty − λ(x sin(θ) − y cos(θ))


� Le cisaillement est une transformation par étirement selon un seul axe


: � �
x = x + αcis,x y
y = αcis,y x + y

� La transformation affine est une composition entre la translation, la


rotation, le changement d’échelle et le cisaillement.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 66 / 164


Coefficients de la transformation affine
Il y a deux façon pour déterminer ces coefficients.
� L’une consiste à identifier les paramètres de chaque transformation
élémentaires (translation, rotation, changement d’échelle et
cisaillement) et de les appliquer l’une à la suite de l’autre.
� L’autre méthode consiste à résoudre un système de 6 équations pour
déterminer les six paramètres de la transformation affine (ai )i=1:6 .
Une application de la transformation
    
X1 x1 y1 1 0 0 0 a1 affine est le morphing. Il consiste
Y 1   0 0 0 x1 y1 1  a 2  à superposer à l’image de départ un
    
X2  x2 y2 1 0 0 0  a 3 
maillage triangulaire régulier. Puis on
Y  =  0 0 0 x2 y2
 
1  a 4 
 2 
X3  x3 y3 1 0 0 0  a 5  modifie les positions des sommets des
Y3 0 0 0 x3 y3 1 a6 triangles pour les adapter à l’image
cible En déterminant les coefficients
⇒ X = A−1 Y
de la transformation affine à appli-
quer.
Transformation affine
Transformation géométrique des images

Transformation Projective
Les transformations projectives mettent en jeu 8 paramètres indépendants
au lieu de 6 selon les équation ci-dessous :
� p11 x +p12 y +p13
x =

p31 x +p32 y +p33
p21 x +p22 y +p23
y =

p31 x +p32 y +p33

Puisque les transformations projectives ont 8 degrés de liberté, il suffit de


4 points pour déterminer une telle application. Imaginons que nous
superposions une grille sur un portait. Si nous voulons effectuer un
morphing vers un autre portrait il suffit de déterminer le déplacement des
sommets de cette grille pour être capable, pour chaque élément de notre
quadrillage, de déterminer la déformation à lui appliquer.

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 69 / 164


Transformation Projective
Transformation géométrique des images

Interpolation
Pourquoi interpoler ?

I15 (2, 3)

I(2, 3)

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 71 / 164


Transformation géométrique des images

Interpolation
Interpolation ID
Ordre Forme Expression
0 Π R0 (x ) = 12 ∀|x | ≤ 12
1 Λ = Π∗Π R1 (x ) = 1 − |x | ∀|x | ≤ 1
 12 (x + 32 )2 ∀ − 32 ≤ x ≤ − 12
3
2 Λ∗Π R2 (x ) = − x 2 ∀|x | ≤ 12
 41 3 2 1 3
� 22 (x 1− 2 3) ∀ 22≤ x ≤ 2
3 Λ∗Λ R3 (x ) = 3 + 2 |x | − x ∀0 ≤ |x | ≤ 1
1 3
6 (2 − |x | ) ∀1 ≤ |x | ≤ 2

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 72 / 164


Transformation géométrique des images

Interpolation
Interpolation 2D
Le filtre de reconstruction 2D est séparable en produit de deux filtres de
reconstruction 1D :
R(x , y ) = R(x ) × R(y )
L’expression du signal analogique ayant produit l’image discrète est donnée
par:
M �
� N
I(x , y ) = I[i, j]R(x − i, y − j)
i=0 j=0

Interpolant cubique B-spline:



 3|x |3 − 6x 2 + 4 ∀ |x | ≤ 1
1
R(x ) = −|x |3 + 6x 2 − 12|x | + 8 ∀ 1 ≤ |x | ≤ 2
6
 0 ailleur

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 73 / 164


Interpolation
Exemples d’application
� Interpolation d’ordre 0:
Elle consiste à attribuer au pixel de coordonnées (i � , j � ) les tons de
couleur ou le niveau de gris du pixel le plus proche.
� Interpolation bilinéaire ou d’ordre 1:
P01 P11
I(p) = (1 − εx )(1 − εy )I(P00 ) εy
+(1 − εx )εy I(P10 ) + (1 − εy )εx I(P01 ) + εx εy I(P11 ) P
P00 εx P10

� Interpolation cubique B-spline (interpolant de Mitchell) :


P00 P10 P20 P30

P01 εx
3 �
� 3
I(x , y ) = I[i, j]R(x − i, y − j) P02 εy
i=0j=0 P
P03
Analyse radiométrique et
filtrage spatiale
Analyse radiométrique et filtrage spatiale
Outils d’analyse radiométrique
� Histogramme:
L’histogramme représente la fréquence d’occurrence des tons des
couleurs principales dans une image en couleur ou des niveaux de
luminance dans une image en niveau de gris.
Analyse radiométrique et filtrage spatiale
Outils d’analyse radiométrique (1)
� Histogramme normalisé :
Supposons que notre image est formée de M × N pixels,
l’histogramme normalisé se calcule en utilisant la formule ci-après :
H
Hnorm =
M ×N
Lorsque le nombre de pixels de l’image devient très grand,
l’histogramme normalisé peut être vu comme une estimation de la
probabilité que le pixel [i, j] aie la valeur I [i, j]
����������������������������������
������
������
���������������������

������
������
������
������
������
������
������
� �� ��� ��� ��� ���
��������������
;
Analyse radiométrique et filtrage spatiale
Outils d’analyse radiométrique (2)
� Histogramme Cumulé :
L’histogramme cumulé d’une image en niveau de gris se calcule en
utilisant la formule suivante :
k

Hcum [k] = Hnorm [i]
i=0
L’histogramme cumulé peut être vu comme une version discrète de la
fonction de partition associé à la loi de probabilité discrète H norm .

;
Analyse radiométrique et filtrage spatiale
Outils d’analyse radiométrique (3)
� Entropie de l’image :
Outre les capacités du capteur, le nombre de bits réellement
nécessaire pour coder les tons d’une image varie d’une image à
l’autre, en fonction de leur contenu informationnel. Ce nombre
dépend de l’entropie, définie à partir de la distribution des niveaux de
gris de l’image :
256

S =− Hnorm [i] log2 (Hnorm [i])
i=1

�����������������������������������
����������������������
������
������
���������������������

������
������
������
������
������
������
������
� �� ��� ��� ��� ���
��������������
;
Analyse radiométrique et filtrage spatiale

Analyse radiométrique et filtrage spatiale


Outils d’analyse radiométrique (4)

� Brillance moyenne d’une image :


La brillance moyenne d’une image est la valeur moyenne de la
composante luminance de cette image :
M,N
1 �
Ī = I [i, j]
M ×N
i,j

� Contraste d’une image :


Il existe plusieurs définition pour le contraste. Dans ce cours, nous
allons retenir deux :
1. Variance des niveaux de gris :
M,N
1 �� �2
σI2 = I [i, j] − Ī
M ×N
i,j

2. Écart séparant les extremums d’intensité des pixels de l’image :


Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 81 / 164
I I
Analyse radiométrique et filtrage spatiale

Analyse radiométrique et filtrage spatiale


Transformation radiométrique des images
Les transformations radiométriques sont des transformations de la
luminance d’une image indépendamment de la localisation spatiale des
pixels. Elles sont réalisées en se basant sur des considérations purement
statistiques.
� Il existe différents types de transformation qu’on peut appliquer à une
image. Dans ce cours, on s’intéresse principalement à deux parmi eux:
1. Les transformations radiométriques globales.
2. Les transformations radiométriques locales.
� On réalise les transformations radiométriques globales en utilisant des
LUT qui établissent la correspondance entre les valeurs de luminance
de l’image d’origine et celles de l’image après transformation:

s = T (r )

Hicham BELKEBIR (ENSAF) Traitement d’Images Numériques M25 2018 82 / 164


Analyse radiométrique et filtrage spatiale
Transformation radiométrique linéaire
� Correction de la brillance par transposition de l’histogramme :
�����������������������������������
����

����

���������������������
����

����

����

����

���� +50
����

����
� �� ��� ��� ��� ���
��������������

���������������������������
�����

����

���������������������
����

����

����


� �� ��� ��� ��� ���
��������������
Analyse radiométrique et filtrage spatiale
Transformation radiométrique linéaire
� Correction de la dynamique par étirement de l’histogramme :
�����������������������������������

σI2 = 5.93 × 10−3


����

����

���������������������
����

����

����

����

����

����

����
� �� ��� ��� ��� ���
��������������
I−Imin
Im = Imax −Imin (MAX − MIN)
�����������������������
�����

���� σI2m = 7.39 × 10−3

���������������������
����

����

����


� �� ��� ��� ��� ���
��������������
Analyse radiométrique et filtrage spatiale
Transformation radiométrique linéaire

� Négatif d’une image :


Im = 255 − I

(a) (b)
Analyse radiométrique et filtrage spatiale
Transformation radiométrique linéaire

� Égalisation d’histogramme : s = Hc (r )
������������������
���

���

���������������������
���

���

���

���
� �� ��� ��� ��� ���
��������������

�������������������
�����

σI2m = 6.88 × 10−2


����

���������������������
����

����

����


� �� ��� ��� ��� ���
��������������

Vous aimerez peut-être aussi