Vous êtes sur la page 1sur 34

IMAGE

NUMERIQU
E ET
NOTION
D'ANALYSE

p 1
IMAGE NUMERIQUE ET NOTION D'ANALYSE

I.1 Généralités
La représentation de l’image a probablement précédé l’écrit, leur naissance est
inséparable. A l’origine de l’écrit il y a une pictographie. Que ce soit en Egypte, à Sumer ou
en Chine, l’écriture débute par des représentations figurées. Cependant le fond primitif de
l’écriture a rapidement disparu et ne forme guère qu’une infime partie de la graphie
moderne. L’image ne fonctionne jamais comme pur signe et actualise toujours une certaine
relation entre ce qu’elle est (objet signifiant) et ce quoi elle renvoi (concept signifié) . On
peut trouver de nombreuses définitions du mot “IMAGE”. En consultant par exemple le
dictionnaire nous trouvons la définition suivante : “Reproduction exacte ou représentation
d’un être ou d’une chose”.
-Le monde des objets et le monde des images, lui même subdivisible en trois
groupes:
*les images physiques visible qui sont parfaitement matérielles et de nature soit
permanente (clichés photographiques, document imprimés, gravures, etc.......) ou volatiles
(images optiques, constituées de photons dans les domaines visible, ou les images électro-
optiques comme l’écran d’un tube cathodique).
*Les images physiques non visibles qui sont des images optiques hors du domaine
visible ou images de natures “immatérielle” : spectre physique, carte de populations, de
températures, de pressions, en générale représentations de tous paramètres physiques non
visibles directement.
C'est ainsi qu'une vue infra-rouge non visible mais, après impression d'une pellicule
sensible à ce rayonnement, elle devient une image visible (par exemple les images de la
tomographie).
*les images mathématiques qui sont des concepts et sont donc invisibles par nature.
Elles peuvent être continues (f(x,y)) ou discrètes, ce sont alors des tableaux ou des matrices.
Tout traitement qui transforme une image continue (image entrée) en une autre
image continue (image sortie) est un traitement analogique et de la même manière qu'un
traitement numérique, effectué généralement par un ordinateur, transforme une image
discrète d’entrée en une image discrète de sortie, en plus le traitement numérique, il est
nécessaire de récupérer une image visible: C’est le rôle des systèmes de visualisations.
Un exemple de processus classique de traitement, partant de l’objet que l’on étudie
jusqu’à l’extraction de l’information dans une image, est donné ci-après.

p 2
Les différentes étapes d’analyse d’une image sont schématisées par le synoptique ci-
dessus.
L'analyse d’images se décompose en trois parties :
-l'acquisition de l'information,
- le traitement : qui permet l’extraction de l’information d’une prise de vue et
comprend trois phases dont l’importance est fonction de la complexité de l’image, de la
taille et de la puissance des algorithmes utilisés pour le traitement.
* Prétraitement et segmentation.
* Extraction de l’information.
- l’exploitation des résultats du traitement de l’image , dont le but est la
détermination d’un ordre de classement à partir des caractéristiques de
l’information.

I.2 Notion d'image


I.2.1 Représentation mathématique
La modélisation d'une image consiste à la transformer en une fonction f(x,y) dont
l’amplitude représente l’intensité lumineuse, ou brillance, de tout point M(x,y) du plan.

y I

M(x,y) x

MI = f(x,y) représente l’intensité au point M

L’intensité en chaque point est appelé niveau de gris. et on distingue dans les images
de qualité jusqu’à 256 niveau de gris dans le cas d’une image monochrome.

I.2.2 Numérisation d'une image


La numérisation d'une image comprend deux étapes:
-l'échantillonnage de l'image continue,
-la quantification des échantillons obtenus.
Ces deux opérations sont effectuées lors de la lecture ligne par ligne de l’image
originale.

-Echantillonnage d’une image


Soit une image idéale f(x,y) non bornée. L’échantillonnage de cette fonction est
obtenu en la multipliant par une fonction d'échantillonnage spatial :
+ +
S(x,y) =   (x - ix, y - jy)
i=- j=-
Composée d’un treillis infini d’impulsions de DIRAC , arrangées en une grille de pas
d'échantillonnage x et y comme l’illustre la figure ci-après:

p 3
y

x
L’image échantillonnée Fp (x,y) est donc représentée ainsi :
+ +
FP(x,y) =F(x,y)*S(x,y) =   F (ix,jy) * (x - ix, y - jy)
i=- j=-
Cette représentation mathématique présente un grand intérêt dans l’étude théorique
des déformations produites par l’échantillonnage d’une image et des moyens de
reconstitution possible de cette image.
Une image discrète sera couramment représentée par une matrice bidimensionnelle
F(M,N). Un point élémentaire F(i,j) de cette image est appelé "pixel" néologisme anglais qui
vient de la contraction de l'expression"Picture Element".

Quantification des échantillons


L’opération consiste à attribuer à chaque valeur continue f(x,y) une valeur numérique
fq(x,y) choisie parmi un ensemble fini de valeur discrètes.
Cette attribution est faite conformément à une règle qui consiste à diviser la
dynamique du signal d’entrée en n niveau de quantification également répartis et à définir
les deux niveaux consécutifs fi et fi+1 qui bornent la valeur continue f(x,y). On affecte à
chaque valeur f(x,y) la valeur quantifiée inférieure fi , comme le montre la figure suivante :

f(x,y0 ) fq (x,y0 )
avec y 0 avec y 0
constant constant
8 niveaux de
quantification
également répartis

image échantillonnée x x

Les niveaux de quantifications peuvent ne pas être également répartis dans le but
d’améliorer l’image ou de la corriger (prise en compte de la loi de sensibilité logarithmique
de l’œil).
Le choix du nombre de niveaux de quantification est très important. Si celui-ci est
trop faible on obtient des faux contours, comme le montre l’exemple suivant où on utilise
que trois niveaux de quantification :

p 4
f(x,y0)
avec 0 f(x,y0
constan avec
)
0
y constan
t y
3 niveaux t
quantificatio 3 niveaux
de Faux quantificatio
de
également
n Contou également
n
répartis r répartis

image x image x
échantillonnée quantifiée

Pour éviter les faux contours il faut utiliser un grand nombre de niveaux de
quantification mais cette précision limite la rapidité de la numérisation et augmente
l’encombrement mémoire des systèmes informatiques. Il faut donc réaliser le meilleur
compromis possible .

I.3 Structure d'une image:


L'image peut être configurée selon deux types de structures:

I.3.1 Structure à maille carrée


Soit M la matrice des points-images du tableau rectangulaire. Dans cette structure les
points-images sont disposés suivant les lignes et les colonnes de la matrice. Elle présente
l'avantage de refléter l'échantillonnage du signal vidéo et de permettre une manipulation
mathématique simple de la matrice M. Par contre, elle a l'inconvénient d'être variante en
rotation (/4) et entraîne une distorsion de l'image de départ comme le montre la figure I.1.
X X

rotation
Y
Y

cellule A cellule B
Figure I.1 : Rotation de /4 dans une structure à maille carrée

I.3.2 Structure à maille hexagonale


Cette structure présente l'avantage d'être invariante en rotation. Cette propriété est liée aux
caractéristiques de cette forme géométrique qui permet une rotation sans distorsion (figure
I.2).
X

Figure I.2 : Rotation de /4 dans une structure à maille hexagonale


Remarque
Le modèle d’image numérisée, introduit au début de ce chapitre, nous a appris que
l’image originale est réduite à un tableau de N2 pixels codés sur m bits représentant 2m
niveaux de gris f. Chaque point d’une image numérique A(x,y) a quatre voisins horizontaux
et verticaux et quatre voisins diagonaux.
-Voisin d’un pixel

p 5
Un pixel, représenté par son intensité ou niveau de gris f(x,y), “attribut du point
(x,y)”, a quatre voisins aux points :
(x+1,y) (x-1,y) (x,y+1) (x,y-1)
Cet ensemble de pixels appelé 4-voisins de f est noté N4(f) et représente les pixels aux
points cardinaux de f.
Les voisins diagonaux de f se trouvent aux points
(x+1,y+1) (x+1,y-1)(x-1,y+1)(x-1,y-1)
Ce nouvel ensemble est noté ND(f). Les ensembles N4 et ND réunis constituent
l’ensemble N8(f), appelé 8-voisins de f.

(x-1, y) (x-1, y-1) (x-1, y +1)

(x , y-1) (x , y) (x , y +1) (x , y)

(x+1, y) (x+1, y-1) (x+1, y+1)

4-Connexités 8-Connexités
- Connectivité
Dans un ensemble E de pixels ayant des niveaux de gris f appartenant à l’intervalle
[a,b], on considère trois types de connectivité :
*4-connectivité: celle de deux pixels f1 et f2 appartenant à E, si f1 est dans l’ensemble N4(f2)
*8-connectivité: celle de deux pixels f1 et f2 appartenant à E, si f1 est dans l’ensemble N8(f2)
*connectivité mixte : c’est une modification de la 8-connectivité; elle permet d’éliminer des
connections multiples, source d’erreurs, et se définit comme la connectivité de deux pixels f1
et f2 appartenant à E: si f2 est dans N4(f1) ou si f2 est dans ND(f1) et l’ensemble N4(f1) 
N4(f2) est vide.
par exemple :
a=20 b=24

p 6
LE TRAITEMENT D'IMAGES

II. 1 Généralités
On peut dire que l’on traite une image dès lors que l’on extrait une information de
cette image.
Il s’agit donc des techniques d’amélioration qui font appel à des procédures variés
(modification d’histogramme, convolution ou filtrage linéaires, filtrage non linéaires et
filtrage morphologique ) créant des lissages, accentuation des contours, rehaussement, etc...)
Le traitement concerne aussi l’analyse et la compréhension de l’image: dont un des
buts est de doter les machines de capacités visuelles, c’est la vision par ordinateur. L’analyse
de l’image cherche à extraire les informations contenus dans les divers objets de la scène,
sans toutefois fournir d'interprétation; les techniques de bases sont essentiellement
l’extractions d’attributs, c’est à dire de <<forme>> (contours, textures) et la segmentation
de l’image en zones présentant des caractéristiques spécifiques, grâces à l’utilisation de
seuillages, extraction et poursuites de contours, érosion-dilatation, etc..

II.2 Suppression du bruit


II.2.1 Le bruit
Les images sont sujettes à un grand nombre de bruits. Certains sont dû en particulier
aux impérfectionnements de la source (photons ou électrons) qui active l’image, au capteur
(caméra, détecteur électronique) et enfin de toute l’électronique de transfert. On peut donc
exprimer l’image S après transfert comme M = S + B où B représente le bruit additif.
Dans d’autres cas le niveau de bruit est proportionnel au signal vidéo. On peut écrire
M = S + BS
C’est le cas du bruit engendré par le “spot” d’un balayage télévision.
Un des bruits très souvent présent dans les images numériques est le bruit de
quantification qui se manifeste à l’intérieur d’une zone de niveau de gris homogène par des
points isolés d’intensités différentes (souvent plus ou moins un niveau de gris). Ce bruit, est
couramment appelé “bruit poivre et sel”.

II.2.2 Amélioration par filtrage


L’amélioration du rapport signal sur bruit, bien qu’étant une méthode intéressante,
ne suffit pas. Pour obtenir de bonnes images, il faut améliorer leur qualité par ce que l’on
appelle le filtrage.
Il existe un grand nombre de filtre possible, mais à quelques exceptions près, on
peut les classer en trois catégories:
-filtres linéaires,
-filtres adaptatifs ou non- linéaires,
-filtres morphologiques.

- Filtres linéaires
Il y a deux manières d’approcher les techniques de filtrage; la première est d’opérer
dans le domaine des fréquences ; le moyen d’accès est la transformée de Fourier (TF) qui fait
passer des variables x,y du plan réel de l’image aux variables dites de fréquences u et v du
domaine complexe de l’image.
La deuxième façon de filtrer l’image est de s’attacher aux agrégats de pixels qui
composent l’image. On considère d’abord leurs attributs et parmi ceux-ci l’intensité
lumineuse au point (x,y) où ils se trouvent; les techniques qui traitent le niveau de gris
seront donc procédés du domaine spatial, c’est à dire du plan (x,y) de l’image.

p 7
-Le filtrage spatial
Ce type de filtre envisage toutes les opérations directes sur les agrégats et leur
attribut principal. Le niveau de gris; le but rechercher est d’atténuer le bruit et faire
disparaître les défauts et perturbation dans l’image initiale; on arrive ainsi aux opérations
d’adoucissement analogue au filtre passe-bas ou au rehaussement qui est l’accentuation des
bords et s’apparent au filtrage passe-haut.
Ce type de filtre fait appel au principe de la convolution de l'image avec un masque
de convolution. La définition de ce masque permet de caractériser le type de filtrage mis en
oeuvre.
Dans la pratique, les masques de convolution sont des matrices carrées de dimension
impaire. On centre ce masque sur chaque point de l'image I, puis on effectue le produit des
points de recouvrement entre I et le masque.
Le résultat (somme moyennée des produits) est affecté au point central de la fenêtre
considérée sur l’image.

a- Filtre linéaire passe bas


Le filtre le plus souvent cité et le plus étudié est le filtre passe bas communément
appelé filtre moyenneur spatial [52qui consiste à remplacer chaque point de l'image par la
moyenne de ses plus proches voisins.

n
g(x,y) = ------  fi (x,y)
1
n i=1
Un point de l’image origine f(x,y) de coordonnées i et j est donc remplacé par la
moyenne de ses voisins pour conduire au point g(i,j) de l’image moyennée.
Cette opération est réalisée par la convolution de l’image avec un noyau de
convolution du type H1 ou H2 décrits ci-dessous
1 1 1

1 1 1

1 1 1
Dans le noyau H1 on limite les voisins du point de coordonnées i,j à 4 (4-connectivité)
alors que pour le noyau H2 la connectivité est étendue à 8 .
Cette technique de moyennage réduit notablement le bruit, mais présente un
inconvénient important. L’amélioration par moyennage d’une image revient à filtrer les
hautes fréquences spatiales de cette image qu’on rencontre dans les régions bruitées.
Malheureusement, les hautes fréquences spatiales ne définissent pas que le bruit,. Elles
traduisent aussi les brusques transitions de niveaux que l’on trouve aux bords des contours
et auxquelles on doit la qualité de définition d’un objet par rapport à son arrière-plan. La
suppression de ces hautes fréquences introduit un flou aux limites de l’objet.

b-Filtre linéaire passe haut


Les filtres passe-haut[52]permettent de mettre en évidence les contours entre les
zones de niveaux de gris différents, mais n'éliminent pas le bruit de fond.
Les masques ci-dessous mettent en évidence les gradients positifs suivant l'axe des y
et l'axe des x.

p 8
-1 -1 -1 1 0 -1
PX= 0 0 0 PY = 1 0 -1
1 1 1
1 0 -1

II .2.3.2 Filtre adaptatif ou non linéaire "filtre médian"


Le principe de ce filtre consiste à centrer sur chaque point de la matrice une fenêtre
dont le nombre de points est impair.
La valeur du point central de cette fenêtre est alors remplacée par la valeur médiane
des points de la fenêtre.
La valeur médiane um d’une variable aléatoire un prise dans un ensemble de n
valeurs, satisfait les deux conditions suivantes :
p ( un  um ) ≥ 1/2 et p ( un  um) ≥ 1/2
En pratique on choisi une fenêtre 3x3 ou 5x5 pixels, centrée sur le point à filtrer et par
une méthode de tri sur 8 nombres, on attribue la valeur médiane des gris environnants au
pixel central.
Le filtre médian, à l'inverse du filtre moyenneur, a l'avantage de préserver les
contours qui compare le traitement de différentes transitions mono-dimensionnelles de
niveau de gris par chacun des deux filtres. La taille est fixée à 5 pixels.

Cette figure montre que dans tous les cas où la transition du niveau de gris est
discontinue (escalier, impulsion), le moyenneur est moins efficace que le filtre médian. Le
bruit au lieu d'être éliminé, est intégré dans la moyenne.

II.2.3.3 Filtres morphologiques


L'utilisation de ces filtres est défini sur des images binaires, et est généralisable sur
des images en niveaux de gris car ils utilisent les propriétés de la morphologie
mathématique, Ces transformations peuvent s'effectuer en tout ou rien, on obtient alors des
filtres non linéaires.

II.2.3.3.1 Morphologies Mathématiques


L'ensemble des transformations morphologiques repose sur la théorie des
ensembles. L'idée principale de la morphologie mathématique est de comparer l'objet que
l'en veut analyser à un autre de forme connue appelé élément structurant. Cet élément est un
masque de forme quelconque dont les éléments forment un motif.

II.2.3.3.2 transformation en "tout ou rien"


Si on considère une image comme étant un ensemble de points. Sa structure est
donnée par l'ensemble des relations que l'on peut établir entre tous les points de l'image.
La transformation en tout ou rien donne un nouvel ensemble sur lequel on peut
effectuer des mesures pour quantifier l'information.
Pour ce faire, le choix d'un élément structurant est nécessaire. il peut être un
ensemble S de géométrie bien déterminée ( Ex: cercle).
Cet ensemble S est translaté de manière à ce que son point origine décrive toutes les
positions de l'ensemble des points de l'image.
Selon sa position un test est réalisé au moyen d'une combinaison de transformations
[union,intersection complémentation ...].
Le nouvel ensemble est appelé image transformée. La figure II.12 donne un exemple

p 9
courant d'opérateur morphologique imaginaire.
En (a) se trouve le masque, en (b) une portion de l'image initiale, (c) et (d)
représentent respectivement le résultat obtenu par union et intersection de l'image originale
avec le masque. Pour des raisons pratiques les éléments structurants doivent être simples.

0 1 0 0 1

0 0 b
a 0 0 0 0
0 1 0 0 1

0 1 0 1
0 1 1 0 1 1 d
c
0 1 0 1

Figure II.12 : Exemple d'élément structurant a: élément structurant


b: image originale, c: union , d: intersection

a-Erosion
La transformation par érosion a été définie par HADWIGER en 1957 de la manière
suivante:
Soit - un ensemble A avec : A R2
 - un ensemble F avec : F R2 et A F
- St est un élément structurant où t représente les coordonnées du point de référence
St .
L'érosion consiste à déplacer St de façon à ce que la référence t occupe
successivement l'emplacement de tous les points de F .Donc pour chaque position de St
dans F il faut faire le test suivant :
St  A ? (1)
Soit Y l'ensemble des points Pt respectant le test (1), Y est appelé l'ensemble érodé de
A par St. On note :
Y = { Pt : St 
Y = Es (A)
La transformation érosion est définie sur des images à niveaux de gris multiples, on
peut considérer qu'une érosion sur une image binaire n'est qu'un cas particulier , où il
n'existe que deux nivaux de gris.
Nous avons défini précédemment les ensembles A et F sur N2, on peut considérer
que pour les images numériques la définition de l'érosion reste valable sur N2.
Soit - Ib une image binaire.
- Ibe une image érodée
- E {St} l'ensemble des points constituant l'élément structurant St
yn-1 xn-1
Ibe (x,y) = ∑ ∑ ( Ib (x,y) * E {St})
y=0 x=0
(l’opérateur * représente un ET logique)

b- Dilatation
La dilatation produit un effet symétrique à celui de l'érosion et a pour conséquence

p 10
d'augmenter la taille des particules sur laquelle cette transformation est appliquée.
La dilatation consiste à déplacer St de façon à ce que la référence t occupe
successivement l'emplacement de tous les points de F .Donc pour chaque position de St
dans F il faut faire le test suivant :
St  A  0 ? (2)
Soit Y l'ensemble des points Pt respectant le test (2), Y est appelé l'ensemble dilaté de
A par St. On note :
Y = { Pt : St 
Y = Ds (A)
Nous reprenons les mêmes hypothèses que celles retenues pour l'érosion.

Soit - Ib une image binaire.


- Ibd une image dilatée
- E {St} l'ensemble des points constituant l'élément structurant St
yn-1 xn-1 _______
Ibd (x,y) = ∑ ∑ ( Ib (x,y) * E {St})
y=0 x=0
_____
( l'opérateur * représente un ET logique et Ib (x,y) désigne le complémentaire de l'image Ib
(x,y))

Remarque:
Ces deux transformations (érosion/dilatation) peuvent être combinées pour jouer un
rôle de filtrage (ouverture) ou éliminer les défauts (fermeture).

II 3. Les outils pratiques en traitement d’image


Il est souvent utile de représenter l’image sous d’autres formes que son simple
affichage afin de mettre en évidence certaines de ses propriétés. Nous entendons donc par
outil non pas des procédures de traitements mais des aides à l’analyse du contenu de
l’image. Ces techniques modifient la répartition des niveaux de gris d’une image tout en
préservant les contours des formes. Ce sont des transformations ponctuelles sur chaque
pixels et par conséquent elles relèvent du filtrage spatial.
Ce paragraphe pourrait s’étendre à l’infini, chaque type d’application pouvant
nécessiter un outil adapté. C’est pourquoi nous détaillerons ici seulement deux aides à
l’analyse dont l’usage est très général.
-Transformation de la dynamique des niveaux de gris: essentiel dans tous les
domaines, il est à la base de nombreux traitement, comme nous le verrons.
-Le profil d’une image, qui permet de pallier certaines carences des méthodes
d’affichage.

II.3.1 Transformation de la dynamique des niveaux de gris


Cette transformation augmente le contraste de l'image et permet, donc, de mieux
repérer les contours.
On peut classer les transformations en deux catégories:
-fonction de transfert linéaire, ou non linéaire, des échelles de niveaux de gris,
-fonction de transformation de l'histogramme de niveaux de gris.

p 11
II.3.1.1 Transformation de l'échelle des niveaux de gris
Dans cette transformation, les N niveaux de gris de l'image d'entrée E sont
transformés d'après une loi mathématique plus ou moins complexe, pour donner les N
niveaux de gris de l'image résultat S; par exemple une courbe polynomiale peut augmenter
les contrastes de faibles niveaux de gris.
S S S
n n n

0 n E 0 n E 0 n E
a) b) c)
figure II-14: Courbes de changement d'échelle

Dans la figure II.14 nous avons


a) courbe permettant d'augmenter le contraste des faibles niveaux de gris,
a) courbe permettant d'augmenter le contraste des forts niveaux de gris,
a) courbe permettant d'augmenter les niveaux de gris moyens.

II.3.1.2 Histogramme d'images et ses traitements


L’histogramme de niveaux des gris d’une image est une fonction qui donne la
fréquence d’apparition de chaque niveau de gris dans l’image.
On considère une image digitalisée sur 2m niveau de gris, qui comporte n pixels (n =
N2); chacun d’eux peut prendre une variable aléatoire continue x dans l’ensemble 2m .
Prenons par exemple une image idéale continue où l’intensité x prend toutes les
valeurs d’un intervalle (a,b) et introduisons quelques définitions :
La fonction de répartition de x, soit F(x), est la probabilité pour que x prenne une
valeur inférieur à a
P[x<a] = F(a)
La probabilité de l’intervalle (a,b) est la différence des valeurs prises par la fonction
de répartition, à savoir :
P(a,b) = P[ x  (a,b) ]
= F(b) - F(a)
dans l’intervalle x = (a,b) la probabilité P(x) peut s'écrire :
P(x) = F(x + x) - F(x)

Divisant l’expression précédente par x et passant à la limite, on trouve :


F( x + x) - F(x)
lim ----------------------------------------- = F'(x)
x 0
x
F’(x) est la fonction de densité de probabilité de x. Ces notions de probabilité
permettent de définir l’histogramme d’une image continue en faisant les analogies suivantes:
La fonction de répartition F(x) est assimilée à la somme S des aires, dont les valeurs
locales de gris peuvent être plus petites ou égales à x. La dérivée F’ est celle de la somme des
aires considérées plus haut.
L’histogramme au premier ordre d’une image continue, est la fonction densité de
probabilité F’ = dS/dx. L’histogramme cumulé de la même image est l’intégrale:

p 12
x max


 F'(x) dx (1)

0
xmax représente la borne supérieure des valeurs de gris permises.
L’intégrale
x max


 F'(x) dx = F(xmax )

0
est la somme S de toutes les aires partielles; c’est la surface S de l’image complète.

La manipulation d'histogramme
La manipulation d'histogramme consiste à définir une loi de correction de la valeur
de niveaux de gris de chaque point de l'image en fonction de la dynamique de l'échelle des
niveaux de gris de l'image. La modification de l'histogramme modifie le contraste en
diminuant ou en augmentant la valeur des transitions en niveaux de gris entre les points
image.
La manipulation d'histogramme revient à définir une fonction FNC; qui va faire
correspondre à chaque niveau de gris initial (NG) une valeur (NG'). Souvent on désigne par
FN(; une table de correspondance appelé "Look Up Table" et appelée par ses initiales : LUT.
Dans les systèmes de traitements, on prédéfinit un ensemble de LUT standard.- binaire, en
escalier, exponentielle, linéaire ....

la normalisation
La manipulation la plus employée est la normalisation. Elle consiste à multiplier
chaque point de l'image par une quantité Q de façon à ce que la dynamique des niveaux de
gris occupe toute l'échelle.
Soit :
f(x,y) le signal de l'image non normalisée.
f0(x,y) le signal de l'image normalisés.
PE . pleine échelle en niveaux de gris (PE = 255 pour nos images),
Eo : Dynamique des niveaux de gris dans l'image origine.

f0(x,y) = [f(x,y) . PE]/E0


Recadrage de dynamique:
Le recadrage de la dynamique est l'une des applications les plus courantes de la LUT.
Certaines images sont initialement trop claires, trop foncées, ou bien trop contrastées. Cela
est dû respectivement au fait que les niveaux de gris de l'image sont tassés vers le haut de
l'échelle, vers le bas, ou bien sont regroupés dans un intervalle étroit. Ce défaut est très

p 13
visible sur l'histogramme comme le montre le figure II.15. Le but de la LUT est alors de
redistribuer les niveaux de gris de l'image afin de leur faire occuper la bande de nuances
possibles. C'est ce que réalise le recadrage de dynamique dont le principe est donnée figure
II.16.

Le choix des valeurs Min et Max de recadrage peut être effectué soit manuellement ou
automatiquement en décidant d'un certain pourcentage de pixel recadré. Par exemple, 5%
des pixels entre 0 et Min, 5% entre Max et 255. On recadre ainsi 90% de l'histogramme, les
10% restant étant forcés pour moitié à 0 et pour moitié à 255. Il est à noter que ces plages de
valeurs extrêmes seront perdues après recadrage.

Mise en évidence de zones de l'histogramme:


Une autre application consiste en la mise en évidence d'une certaine bande de
niveaux de gris de l'image. Ceci peut être fait de deux manières, comme le montre la figure
II.19 : en a, les nuances comprises dans la bande [Min, Max] sont recadrées sur toutes la
plage d'intensités, tous les autres points de l'image dont la valeur est extérieure à cet
intervalle étant forcés à 0. Cette méthode est très pratique pour examiner certaines faibles
variations lorsque les possibilités d'affichage sont limitées. En b, on effectue une binarisation
de l'image: dans l'intervalle [Min, Max] les pixels sont forcés à 255, et à 0 à l'extérieur de
l'intervalle.

Figure II.15: Principe du recadrage de la dynamique

Figure II.16: Mise en évidence d'une zone d'intérêt de l'histogramme

Les modifications d’histogramme


Il existe des transformations qui rehaussent l’image en donnant l’histogramme p2

p 14
des variations exponentielles ou hyperboliques; la transformation s’opère sur l’équation de
conservation des probabilités sous la forme:


 P dx g
 2

En fixant à p2(x) une loi de variation choisie, l’équation intégrale permet de calculer
la transformée T(xf) = xg; nous donnons quelques résultats:

Modèles de p2 Fonction de transfert

1
Cons tant : p2 (x) = ----------- T(xf) = xmax F 1 (xf)
xmax
-2 / 3
1 xg
Hyperbolique :p2 (xg ) = -----
- ----------- T(xf) = xmax F31 (xf)
3 x1/3
max
1
Exponentiel : p2 (x) =  exp (- xg ) T(xf) = - ------ Ln [1 - F1 (xf) ]

L’histogramme permet de donner un grand nombre d’informations sur la


distribution des niveaux de gris de l’image, ce qui est appelé la dynamique de l’image. Il
permet notamment d’analyser entre quelles bornes est répartie la majorité des niveaux de
gris dans le cas d’une image trop clair ou trop foncée, comme le montre la figure II.20: en a
l’image trop claire est concentrée entre 0 et Sa (image trop foncée), en b elle l’est entre les
valeurs Sb et Nmax (image trop clair).

Nombre Nombre
de pixels de pixels

Niv eau Niv eau


Sa de gris de gris
0 0 Sb Nmax
Figure II.20 : Histogramme d’images a: trop foncée, b: trop claire

II.3.3 Profil d’une image


Une image est une entité a trois dimensions : x,y de niveaux de gris. Il est possible de
la représenter en perspective comme l’exemple de la figure II.23 b. Il est aussi possible d’en
faire une coupe comme le montre la figure II.23 c. L’intérêt de la coupe est de faire une
analyse fine des variations d’intensité de l’image, en particulier lorsque celles-ci sont faible.

p 15
Y Nivea
0 Ym de
u
gris
b)
X a) Ym
Xl 0
Y

Xm
Nivea Xm
X
de
u
gris

c)

0 Ym

Figure II.23 : Représentation tridimensionnelle d’une image. a: image originale, b:


représentation en perspective, c: coupe suivant l’axe x

II.4 Segmentation
La première étape de l’analyse d’une image est la séparation des divers éléments de
celle-ci en région connexe ayant même propriété. C’est ce que l’on appelle la segmentation.
Ces régions peuvent être caractérisées par leur frontière, c'est dans ce cas la segmentation
par extraction de contours, ou bien être directement caractérisées par les pixels qui les
composent. Les propriétés constituants le critère de segmentation peuvent être choisies de
manière à effectuer une segmentation en région ayant même niveaux de gris, même texture,
même couleurs, etc[42/36].

Il est évident que ces deux approches de la segmentation sont duales dans le sens
qu'une région définit un contour par ses bords, et qu'un contour fermé définit une région.

II.4.1 Seuillage de l’image


II.4.1.1 Seuillage global
Cette méthode est assez simple à mettre en oeuvre et donne des résultats satisfaisant
si l’image est à la fois simple est de bonne qualité.

L’image seuillée est une image binaire obtenue par l’application de la règle suivante.
Si I(x,y) ≥ Salors S (x,y) = 1
sinon S (x,y) = 0

où I(x,y) représente l’intensité du point (x,y) de l’image d’entrée et S(x,y) représente


l’intensité du point (x,y) de l’image de sortie.
On peut appliquer un demi-seuillage qui revient à mettre à zéro les niveaux de gris
inférieur au seuil et à conserver le niveau de gris supérieur.
Si I(x,y) ≥ Salors S (x,y) = I(i,j)
sinon S (x,y) = 0
Le choix d’un seuil S permet d’avoir la meilleure segmentation au sens d’un critère.

p 16
II.4.1.2 Seuillage adaptatif
Dans un grand nombre de cas, le seuillage global est inefficace (par exemple lorsque
l'éclairage d'une scène n'est pas homogène).
On peut envisager d'effectuer un seuillage adaptatif par des méthodes non
paramétriques[47/52] qui consiste à effectuer un moyennage des niveaux de gris. Ceci est
possible en prenant une fenêtre de grande taille ou en itérant la convolution à l'aide d'un
filtre moyenneur 3x3. On obtient alors une image moyenne m(i,j) et l'image seuillée sera
obtenue par application de la règle suivante:
I ( i , j ) < m ( i , j ) ==> S ( i , j ) = 0

I ( i , j ) >= m ( i , j ) ==> S ( i , j ) = 1

II.4.1.3 Choix du seuil


l’une des méthode de choix [5] repose sur l’histogramme r =I(x,y) de niveau de gris.
Supposons que l’image est composée d’objets gris-clairs sur fond sombre, ait un
histogramme p = p(r) formé de 2 groupes de niveaux de gris dominants; pour extraire les
contours d’objet, il faut sélectionner une valeur-seuil S qui sépare les deux parties
dominantes en 2 zones Z1 et Z2.

P(r)
N-1 Histogramme
Y
IMAGE niveau de
f(x,y) gris
N-1 r
0 Z1 Z2 25 5
X

Ainsi tout point de l’objet où la condition I(x,y) ≥ S est remplie, est appelé point de
l’objet; ailleurs le point fait partie du fond gris-noir.
Le cas le plus général est celui où l’histogramme est caractérisé par trois groupes de
gris dominants qui introduisent deux seuil S1 et S2; ce serait le cas de deux classes d’objets
gris-clair sur fond sombre. Le seuillage est à plusieurs niveaux et un point de l’image
appartient à l’une des classes d’objets si:
S1 < I(x,y)  S2 et à l’autre si I(x,y) > S2. Ce mode de seuillage est difficile à cause du choix
de S1 et S2 pour séparer les primitives de surface sans ambiguïté.

Remarque
Dans certains cas, ces techniques simples de détermination du “bon seuil” peuvent
s’avérer efficaces. Pour cela il faut avoir des images de bonne qualité. Souvent, avant de
seuiller l’image, il est nécessaire de procéder à une amélioration de celle-ci, afin de diminuer
le bruit et d’augmenter le contraste [11].
Pour des images fortement bruitées et ayant un faible contraste l’utilisation de ces
techniques donne des résultats très médiocres. Il est alors nécessaire d'utiliser des
procédures complexes pour déterminer le “bon seuil”.

II.4.1.4 Recherche d’un seuil T optimise


Si on considère un histogramme p(s) à deux groupes de niveaux de gris ; la fonction

p 17
p(r) peut être considérée comme la somme de 2 densités de probabilité selon l’expression :

P(r) = P1 p1 (r) + P2 p2 (r)

p1(r) et p2(r) sont les densités de probabilités courantes ; P1 et P2 sont les probabilités à
priori ; c’est-à-dire les probabilités d’existence de deux types de niveaux de gris dans
l’image.
P(r) P(r)

P1 (r)
P2 (r)

r r
Les probabilités P1 et P2 ont une somme qui vaut 1 si les pixels sombres sont en
dessous d’un seuil S et les pixels clairs ailleurs ; la probabilité de classement par erreur d’un
point dans la zone sombre s’exprime par :
S


E1 (T) =  p2 (r) dr

-
et dans la zone claire on trouve:



E2 (T) =  p1 (r) dr

s
La probabilité totale d’erreur s’exprime ainsi
E(S) = P1 E2(S) + P2 E1 (S)
La valeur seuil S cherchée correspond à l’erreur minimale, en annulant la dérivée de
E par rapport à S, on trouve :
P1 E2(S) = P2 E1 (S)
La solution générale montre que S est à l’abscisse du minimum de l’histogramme à
deux groupes dominants ; en effet en ce point, les fonctions de répartition F (r) des niveaux
de gris présente une variation lente et reste peu sensible au choix de r. Si le probabilité p1(r)
et p2 (r) sont caractérisées chacune par des valeurs de luminance moyenne 1et 2 et des
écart- type 1 et 2, on montre dans le cas où 1 = 2 =  que S est unique et prend la
valeur :
2
1  P1
T = ------(1 + 2) + -------------- Ln (------)
2  - P2
1 2

II.4.1.5 Seuillage par la variation du gradient directionnel


Cette technique de segmentation est basée sur la variation de la direction du gradient
dans une image. L'idée principale est que la variation très faible de la direction du gradient
du luminance dans les zones homogènes. Mais cela entraîne une variation importante dans
les zones hétérogènes.
Cette méthode de segmentation est relativement bien adaptée sur des images

p 18
échocardiographiques (mode B) [1] où l'on distingue une première région homogène
correspondant à la cavité cardiaque et une deuxième région hétérogène représentant le
myocarde.

II.4.2 Détection des contours


Les variations d'intensité de la lumière et de la couleur sont très bien perçues par le
système visuel humain. Les régions plus ou moins homogènes sont séparées par des
frontières, ce qui nous permet d'interpréter les images que nous percevons. On peut donc
définir un contour comme étant une frontière entre 2 régions différentes de niveaux de gris
relativement homogènes.
Si une section de la fonction image au niveau d'un contour idéal, peut être
représentée par un échelon (figure II.27.a), un contour réel présente généralement une
transition de niveaux de gris moins abrupte et souvent entachée de bruit (figure II.27.b).
NG
NG

X X

Figure II.27.a : Section d'un contour idéal Figure II.27.b : Section d'un contour réel non
bruité
Les contours peuvent être détectés par un examen systématique des variations de
niveaux de gris au voisinage de chaque point image. Il existe en effet de nombreux
opérateurs locaux capables de calculer les points de transitions entre zones.

II.4.2.1 Opérateurs différentiels


La détermination d'attributs locaux permet de définir les points susceptibles
d'appartenir à des contours de l'image analysée.
Elle repose sur la possibilité d'estimer la direction dans laquelle intervient la plus
forte variation V(x,y) de f(x,y) autour de A(x,y) ainsi que l'amplitude de cette variation.
Dans le cas d'une fonction image numérique; les dérivées directionnelles peuvent être
approchées par les différences suivantes :
 x [ f(x,y) ] = f(x,y) - f(x-1, y)
y [ f(x,y) ] = f(x, y) - f(x,y-1)
L'amplitude et la direction du gradient en A(x , y) prennent la forme suivante.
* Direction du gradient en A(x , y)
 y[f(x, y )]
 x, y) = arc tg-------------------
 x[f(x, y )]
*Amplitude du gradient en A(x , y)
x,y) = {x[f(x,y)]} 2+{ y[f(x, y)} 2

On définit les opérations à partir des variations pour calculer les dérivées
directionnelles :

p 19
 f(x ,y) ] = f(x, y+1) - f(x+1,y)

  f(x,y) ] = f(x+1,y+1)- f(x ,y)




ou les opérateurs de Roberts .
 f(x,y)= f ( x+1, y ) - f ( x -1 , y )
0

  f(xy) ]= f(x, y+1) - f(x,y-1)



Les opérateurs ∆0(f) et ∆π/2(f) indiquent la variation de f de part et d'autre du point


A(x,y) dans les directions horizontales et verticales , alors que les opérateurs de Roberts
/4(f) et ∆π/4(f) indiquent la variation de f de part et d'autre du point A(x+1/2,y+1/2) dans
les directions diagonales.

L'utilisation de ces opérateurs différentiels nécessite un lissage car ils sont sensibles
aux bruits.
Ces techniques de prétraitement atténuent les petites variations locales de niveau de
gris dues aux bruits tout en conservant les variations significatives.
Il existe une technique rapide et efficace qui combine des opérateurs de lissage et
celles des opérateurs différentiels [49].
Les opérateurs différentiels ∆0f(x,y) et ∆π/2f(x,y) sont sous la forme :
 0 f(x,y)= F(x,y, 1) w0 

  f(x,y)= F(x,y, 1) w 


2 2

W(i) représentant une matrice de pondération avec:


0 0 0 0 -1 0

0 1 W (1) = 0 0 0
W (1) = -1
0 2
0 0 0 0 1 0

Il existe de nombreuses solutions qui permettent de combiner des opérations de


lissage avec des opérateurs différentiels.
a) Le gradient lissé, pour lequel les matrices de pondération sont de la forme :

-1 0 1 -1 -1 -1

' W' = 0 0 0
W = -1 0 1
0
2
1 1 1
-1 0 1

Il consiste à calculer les différences entre les valeurs moyennes du niveau de gris
déterminées sur des segments de lignes et de colonnes encadrant le point A(x , y).

b) Pour le gradient isotropique, les coefficients de pondération sont inversement


proportionnels aux distances séparant les voisins pris en compte du point A(x , y) où le

p 20
gradient est estimé. On obtient ainsi
-1 0 1 -1 - 2 -1

W "' = 2 W
"' = 0 0 0
0 - 2 0
-1 0 1 1 2 1
2

c) L'opérateur Laplacien réalise une dérivée seconde de l'image


Dans le cas continue le Laplacien (figure III.28). est défini comme étant la dérivée
second de la fonction I(x,y) et s'écrit alors de la manière suivante.

2 I(x,y) 2 I(x,y)
L(x,y) = --------- + -----------
2 x 2 x
Dans le cas discret et dans un voisinage 4-connexités par exemple , nous pouvons
approximer l'opérateur Laplacien par:

L(i,j) = I(i+1,j) + I(i-1,j) + I(i,j+1) + I(i,j-1) - 4*I(i,j).

Les masques de convolution du Laplacien sont ainsi défini suivant le voisinage


considéré.

-1 -1 -1 0 -1 0

-1 8 -1 -1 4 -1

-1 -1 -1 0 -1 0

8- Connexités 4- Connexités
les dérivées première et seconde sont nulles en dehors de la même zone de contour.
En se déplaçant dans le sens des valeurs croissantes de X,
8 - connexites
on constate que le Laplacien de ce
4-connexites

contour idéal est constitué d'un pic positif puis d'un autre négatif. Ces pics se présenteraient
dans un ordre inverse si la transition se faisait d'un niveau de gris haut vers un niveau de
gris faible.
On utilise souvent la valeur absolue du Laplacien, ce qui permet de dédoubler les
contours. L'idéal est en fait de détecter le passage par zéro du Laplacien, qui correspond au
maximum du gradient, donc à la zone de transition la plus importante.
On peut aussi se servir sélectivement d'un des pics, en sachant que le pic
positif définit un contour extérieur à l'objet, alors que le pic négatif représente le bord
intérieur de cet objet.
La méthode de Marr-Hildreth permet de limiter l'influence de bruit et de positionner
de façon plus précise le contour. Un opérateur Laplacien est déplacé sur l'image dans une
direction horizontale, puis verticale. Un point de contour est défini par le passage par zéro
du Laplacien.

p 21
Figure II.28 : Dérivation en présence d'un contour, a: contour, b: gradient, c: Laplacien

II.4.2.2 Opérateurs dérivées filtrées


a-Filtre Séparable
Soient I(x,y) la répartition de luminance dans l'image et h(x,y) un filtre
bidimensionnel, h(x,y) est un filtre séparable s'il existe deux filtres monodimensionnels h1(x)
et h2(y) tel que :
h(x,y) = h1(x) * h2(y)
Il est aisé de montrer [1] que la convolution de l'image I(x,y) par le filtre h1(x) * h2(y)
revient à faire une double convolution. Autrement dit on pourra écrire :
h(x,y) I(x,y)(h1(x) * h2(y))I(x,y) = h1(x)(h2(y)I(x,y) )
D'une manière informelle, on dira en traitement d'images qu'un filtre est séparable si
le produit de convolution de celui-ci avec l'image est équivalent à un traitement par lignes
suivi d'un traitement par colonnes.
- Gradient de l'image filtrée
En tenant compte des formules précédentes le gradient de l'image filtrée s'écrira:
 
Gx(x,y) = __ ( h(y,x)  I(x,y) ) = __ [ ( h1 (x) * h2(y)) I(x,y)]
x    x

Gx(x,y) = [ __ h1 (x) * h2(y)] I(x,y)]  
   x
 
__
Gy(x,y) = ( h(y,x)  I(x,y) ) = __ [ ( h1 (x) * h2(y)) I(x,y)]
y    y


Gy(x,y) = [ h1 (x) * __ h2(y)] I(x,y)  
     x
Gx(x,y) et Gy(x,y) sont les gradients en x et y de l'image filtrée.

p 22
- Opérateurs classiques.
* Opérateur de Prewitt
Prewitt [30] a choisi le filtre passe-bas moyenneur de taille 3x3 suivant :

1 1 1
1 1 1
1 1 1
Ce filtre peut être séparé en deux filtres monodimensionnels.

- Le premier ( 1 1 1) est un moyenneur suivant l'axe des X


dont la dérivée est (1 0 -1).

1
- Le sencond 1 est un moyenneur suivant l'axe des Y
1
1
dont la dér ivée est 0
-1
A partir des définitions de filtre séparable, nous pouvons déterminer les masques de
convolution du filtre de prewitt Px et Py pour chacune de directions
-1 -1 -1
1
P= 0 0 0
X
1 * (1 0 -1) =
1 1 1
1

1 0 -1
1
P = 1 0 -1
0 * (1 1 1) =
Y
-1 1 0 -1

La détection de contour par ce filtre revient à effectuer les opérations suivantes:


- Convoluer l'image originale à l'aide de Px. Le résultat est noté Gx et représente un
gradient filtré suivant l'axe des X.
- Convoluer l'image originale à l'aide de Py. Le résultat est noté Gy et représente un
gradient filtré suivant l'axe des y.
- A partir de ces deux résultats, il faut calculer alors la norme du gradient filtré.
- Déterminer l'image de crête à partir de la direction du gradient filtré

* Opérateur de Sobel
Sobel [30] a choisi un filtre de type
1 2 1
2 1 2

1 2 1

Ce filtre peut être séparé en deux filtres monodimensionnels.

p 23
- Le premier ( 1 2 1) est un moyenneur suivant l'axe des X
dont la dérivée est (1 0 -1).

1
- Le sencond 2 est un moyenneur suivant l'axe des Y
1
1
dont la dér ivée est 0
-1
A partir des définitions de filtre séparable, nous pouvons déterminer les masques de
convolution du filtre de Sobel Sx et Sy pour chacune de directions
1 1 0 -1
s = 2 * (1 0 -1) = 2 0 -2
X
1 1 0 -1

1 1 2 1
s = 0 * (1 2 1) = 0 0 0
Y -1 -2 -1
-1

Pour faire une détection de contour à l'aide du filtre Sobel, nous utiliserons les
mêmes procédées que ceux décrits dans le cas du filtre de Prewitt.

II.4.2.3 Opérateurs Optimaux


Les huit masques du gradients circulaires présentées ci-après, sont des opérateurs
optimaux Ils permettent le codage direct des contours, selon la méthode de FREEMAN.
1 1 1 1 1 1 -1 1 1 -1 -1 1
H1 1 -2 1 H2 -1 -2 1 H3 -1 -2 1 H4 -1 -2 1
-1 -1 -1 -1 -1 1 -1 1 1 1 1 1

-1 -1 -1 1 -1 -1 1 1 -1 1 1 1
H4 1 -2 1 H6 1 -2 -1 1 -2 -1 H8
H7 1 -2 -1
1 1 1 1 1 1 1 1 -1 1 -1 -1

H1
H2
H8

H7 H3

H4
H6

H5

Image binaire : Contour, squelette


La binarisation d'une image présente plusieurs avantages dont l'un des plus
importants est certainement le faible espace mémoire nécessité pour une image binaire et la
simplicité des opérateurs qui lui sont associés. En effet, l'image ne possédant que deux
niveaux, noir ou blanc, il suffit d'un bit pour coder un pixel, d'où une taille mémoire huit
fois moins élevée qu'une image codée sur 256 niveaux.

Comme l'image binaire est constituée uniquement de pixel noir et blanc; les
silhouettes ou formes d'objet apparaissent comme des amas de points noirs sur blanc. La
détection des contours d'amas peut être obtenue par la méthode du gradient, mais c'est une

p 24
technique trop compliquée pour une image binaire;
Une fois que les points de contours sont détectés, Ils sont regroupés dans les régions
connexes appelées région de contours. La segmentation n'est pas pour autant terminée et
elle est suivie d'opérations d'ouverture et de fermeture d'image binaire ( cf.
érosion/dilatation). L'ouverture a pour résultat de lisser les contours et de supprimer les
petites irrégularités comme les points noirs isolés dans les continuums blancs, les petits pics
et petits ponts. Ouverture et fermeture sont elles-mêmes des opérations duales par
complémentarité. La squelettisation est l'ultime opération exécutée pour affiner les régions
de contours; en première approximation, elle peut être considérée comme une érosion des
contours, jusqu'à ce que les fronts d'érosion se rejoignent en une ligne appelée squelette.
L’érosion, la dilatation
L’érosion est un cas particulier de la transformation en tout ou rien. Elle s’exprime par la
relation :

X Θ B = { x : Bx X} [IV.10]

où B désigne le transposé de B c’est à dire son symétrique par rapport à l’origine .
L’érodée de X contient les points xi de X pour lesquels cet élément, après translation, est
entièrement inclus dans l’ensemble X.

: Erosion d’un ensemble d’objets X par un élément structurant circulaire

La dilatation d’un ensemble X revient à éroder l’ensemble Xc. Cette transformation, qui
est donc le dual de l’érosion, s’écrit :

X  B = { x : Bx X   } [IV.11]
Nous remarquons que l'érosion et la dilatation sont des opérations duales par rapport à la
complémentation D B ( X ) = ( E B ( X c )) c .
1 - Propriétés algébriques de l'érosion et de la dilatation
 L'érosion et la dilatation sont des transformations croissantes ;
 L'érosion est anti-extensive ;
 La dilatation est extensive ;
 si B  B' alors E B' (x)  E B (x) et D B (x)  D B' (x)
 L'érosion et la dilatation ne sont pas des transformations idempotentes ceci est dû au
fait que l'érosion et la dilatation sont des transformations itératives.
D B ' ( B ))
E B' ( E B ( X ))  E (X)
On a : B'
D B' ( D B ( X ))  D ( D ( B ))
(X)
En supposant B = B', on aura B  D ( B ) et E B (E B (X))  E B (X) , ce qui est contraire à la
B

propriété d'idempotence .

p 25
Les propriétés d'itérativité de l'érosion et de la dilatation sont extrêmement importantes .
En effet , si l'on suppose que l'on a un élément structurant circulaire de taille 1(1B) et un
élément circulaire de taille 4 (4B) , il est possible d'obtenir 4B à partir de 1B en utilisant la
relation : 4 B  D1B ( D1B ( D1B (1B )))
On aura par exemple : D 4 B ( X )  D B ( D B ( D B ( D B ( x ))))
Ainsi pour réaliser des transformations en tout ou rien , on n'aura donc besoin que
d'éléments structurants de taille unitaire puisqu'en répétant la transformation par érosion ou
par dilatation le nombre de fois nécessaire, on obtient le même résultat qu'en utilisant un
élément structurant de taille supérieure.
Et on a toujours E B (x)  D B' (x) et D B' ( E B (x)  E B ( D B' (X)) il est plus sévère
d'éroder avant de dilater que de faire le processus inverse .Cette propriété sera mise à profit
lorsque l'on cherchera à "nettoyer " des images .
 Distributivité de l'érosion et de la dilatation
On a : D B B' (X)  D B (X)  D B' (X) et E B B' (X)  E B (X)  E B' (X) cette propriété a une grande
importance pratique puisque cela permet de décomposer un élément structurant en
éléments plus simples dont l'union redonne cet élément.

2- connexité et convexité
La dilatation et l'érosion ne sont pas des transformations homotopiques dans le cas
général. On remarque que lorsque l'ensemble (X) est connexe de même que l'élément
structurant B, la dilatation préserve la connexité. Enfin si l'ensemble X est convexe, l'érosion
préservera sûrement la connexité et même la convexité puisque l'érosion ne conduira dans
ce cas qu'à une intersection de convexes.

III. 2 . Ouverture et fermeture morphologiques


III.2.1 Notion d'ouverture :
La transformation par ouverture est la composée d'une érosion suivie d'une dilatation elle
v

se note O B ( x ) . Et on a : O B ( X )  D B ( E B ( X )) .
L'ouverture morphologique satisfait bien ces trois propriétés suivantes :
 Anti-extensivité : O B ( X )  X ;
 Croissance : X1  X 2  O B ( X1 )  O B ( X 2 ) ;

 Idempotence : O B ( O B ( X ))  O B ( X ) .
L'ensemble O B ( x ) est plus régulier et moins riche en détails que l'ensemble X initial. La
transformation par ouverture adoucit donc les contours , coupe les isthmes étroits, supprime
les îles et les caps étroits , elle joue le rôle d'un filtrage 2D.

III.2.2.Notion de fermeture :
La transformation par fermeture est la composée d'une dilatation suivie d'une érosion ,
v

elle se note F B ( x ) . Et on a : F B ( X )  E B ( D B ( X )) .
Par dualité par rapport à la complémentation , la fermeture morphologique possédera
les propriétés suivantes :

p 26
 Extensivité : X  F B ( X ) ;
 Croissance : X 1  X 2  F B ( X 1 )  F B ( X 2 ) ;
 Idempotence : F B ( F B ( X ))  F B ( X )
L'ensemble F B ( X ) est moins riche que l'ensemble X initial. La transformation par
fermeture bouche les canaux étroits, supprime les petits lacs et les golfes étroits relie les
particules qui se rapprochent .

Remarque
 Comme l'érosion et la dilatation , l'ouverture est la fermeture ne possédant pas de
propriétés topologiques intéressantes . En effet, ces transformations sont toujours des
transformations non homotopiques puisque, comme nous l'avons vu , par ouverture on
peut couper des isthmes et supprimer des îles .
 L'érosion ou la dilatation correspondent à une transformation d'images suivie
éventuellement d'une mesure.
A l'ouverture ou la fermeture correspondent deux transformations élémentaires
suivies éventuellement d'une mesure. L'érosion et la dilatation sont des
transformations itératives, cette succession de transformations d'images s'appelle, en
morphologie mathématique, algorithme itératif .

II.4.5 Squelettisation
La squelettisation d'une image binaire est une technique qui extrait le squelette
d'image. Le squelette représente en fait la quantité d'information minimale qui décrit
complètement l'image [39]. Ce qui veut dire qu'il est théoriquement possible de restituer une
image originale à partir de son squelette.

- Le Squelette
Différentes méthodes ont été utilisée pour calculer le squelette dans une image digitale.
Elles sont souvent équivalentes. L’une d’elles fait intervenir la notion de boule maximale
d’un ensemble X.
Une boule B incluse dans X est dite maximale si et seulement si il n’existe aucune autre
boule de X la contenant.
 B’ boule, B’X, BB’  B’=B [IV.17]
L’ensemble X ouvert (resp. fermé) s’exprime comme la réunion de ses boules maximales

ouvertes (resp. fermées ) [8]:

X=
 B [IV.18]
B , boule max deX

p 27
: Quelques exemples de squelettes et de boules

Calabi & Hartnett [9] ont simplifié la formule précédente : seuls suffisent les
centres des boules maximales et les rayons associés. Ils appellent squelette de X le
lieu des centres des boules maximales.
S(X) = {x  X,  r  0 tel que B(x,r) maximale dans X ] [IV.19]
A tout point du squelette S(X), on peut associer le rayon de la boule maximale
correspondante
Beucher [8] ont montré que le squelette de X peut s’écrire comme l ‘union des résidus des
ouverts successifs de X. Le résidu d’un ouvert (X)B de X est l’ensemble X/(X)B. Dans le cas
digital, la formule est la suivante :


S( X )   [(X  nB)/(X  nB)B] [IV.20]


n 0

En effet, pour n 0 donné, X  nB est le lieu des centres des boules de tailles n incluses
dans X ; (X  nB)B est lui le lieu des centres des boules de taille n qui sont incluses dans une
boule de taille n+1 . Ces boules ne sont pas maximales. (X  nB)/ (X  nB)B est donc le lieu
des centres des boules maximales de tailles n, et en faisant l’union pour tous les n 0, on
obtient X
La formule précédente fournit une définition du squelette à l’aide de transformations
simples (érosions et ouvertures par des boules). Cependant, le squelette ainsi obtenu n’est pas
connexe (figure IV.5). C’est pour cette raison qu’on préfère le construire à l’aide
d’amincissements homotopiques.
Les éléments structurants utilisés peuvent être regroupés en trois catégories, aux six
rotations près. Ces trois éléments structurants sont dénommés L, M et D (figure IV.6) :

Exemple de squelette par ouvertures


1 1 1 1 1 .
. . . . . 1 . . 0

p 28
0 0 0 . 0 0
L M D
Eléments structurants utilisés pour construire des squelettes connexes
Le squelette d’un ensemble X est réalisé ordinairement à l’aide d’itérations,
direction par direction, d’amincissements par l’un de ces trois éléments structurants .
Le résultat présente quelque analogie avec la définition formelle du squelette (figure
IV.8).

Amincissements homotopiques réalisés avec les éléments structurants L, M et D :


utilisé en séquence
a) image originale, b) squelette L, c) squelette M, d) squelette D.

.La Ligne de partage des eaux (Watershed)


La Ligne de partage des eaux est sûrement l’outil de segmentation le plus puissant en
morphologie mathématique. Son principe repose sur la notion du bassin versant (fig IV.13 ).
Une image étant alors décrite suivant des structures topographiques caractéristiques :
Dômes, vallées, lignes de crêtes ..( un niveau qui correspond à une altitude). La méthode
classique veut qu’une pluie incessante, remplisse progressivement chaque bassin et que la
ligne de partage des eaux soit établie à partir des débordements de chacun d’entre eux.

Minima, bassin versant et ligne de partage des eaux.

p 29
Les minima régionaux représentent les composantes connexes de la surface topographique
formant des creux ou cuvettes. Imaginons que cette surface topographique soit trouée aux
emplacements des minima. En plongeant lentement cette surface dans un lac (étendue d’eau
infinie), l’eau va alors passer par les trous en commençant par ceux qui percent les minima les
plus profonds et va progressivement inonder le relief. Maintenant, construisons un barrage
toutes les fois que les eaux provenant de différents lacs (donc de minima régionaux
différents) peuvent se mélanger. Quand la totalité de la surface topographique aura été
engloutie, seuls les barrages correspondant aux différents minima subsisteront. Ces barrages
constituent ce que l’on appelle la ligne de partage des eaux et les lacs sont les bassins versant
associés. L’algorithme correspondant est implémenté de la manière suivante.

Le seuillage
Le seuillage a pour objectif de segmenter l'image en deux (ou plusieurs) classes. Cette
opération consiste à effectuer une partition de l'histogramme en niveaux de gris en utilisant
un (ou plusieurs) seuil, et à assigner à chaque pixel la classe la plus proche (au sens
métrique) auquel il appartient et sur l'utilisation du contraste des différents contours
détectés.
Il existe de très nombreuses méthodes de seuillage d’un histogramme. La plupart de ces
méthodes s’appliquent correctement si l’histogramme contient des pics séparés. De plus, ces
méthodes ont très souvent été développées pour traiter le cas particulier de la segmentation
en deux classes (image binaire) et leur généralité face aux cas multi-classes n’est que très
rarement garantie.

I - Rappels et Notations
Soit une image composée de N pixels de niveaux de gris i compris entre 0 et ng.
Considérons l'histogramme h des niveaux de gris et h(i) est le nombre de pixels ayant le
niveaux de gris i.
Pour un pixel x, la probabilité d'avoir le niveaux de gris i est donc :
pi = h(i)/N [II.1]
La fonction de distribution s'écrit :
s
H(i)   h(i)di [II.2]
0
Si une image est divisée en deux classes C1 et C2 séparées par un seuils s ; C1 (resp. C2)
correspond aux pixels de niveaux de gris compris entre 0 et s (resp. Entre s+1 et ng)
Nous pouvons définir :
 la probabilité pour un pixel x d'appartenir à C1 ou C2 :
s ng
P (C 1 )  p
i0
i P ( C2 )   pi [II.3]
i  s 1
 les niveaux de gris moyens de C1 et C2 :
s ng
 ipi  ipi
M1  i  0 M 2  i  s 1 [II.4]
P ( C1 ) P ( C2 )

p 30
ng
et le niveaux de gris moyen de l'image : M   ipi [II.5]
i 0
Ces notations peuvent être généralisées à une image à p classes notées :
C1.......Cp (p  2) séparées par les seuils s1...........sp-1.
Par la suite Ni désignera le nombre de pixels de la classe Ci ;
p
ainsi :  Ni  N [II.6]
i 1

II. Méthodes basées sur l’histogramme des niveaux de gris


Le seuillage par histogramme consiste à chercher les points séparant au mieux - au sens
d’un critère déterminé - les modes de cet histogramme.

II.1- Le seuillage par maximisation de la variance interclasse


L'analyse factorielle discriminante est une méthode statistique très utilisée en
classification. N. Otsu [5] a pensé à l'utiliser pour seuiller les images en maximisant la
variance interclasse.

Principe de la méthode :
Pour obtenir la meilleure séparation entre les classes C1.......Cp au sens de l'analyse
factorielle discriminante, on cherche d'une part à éloigner le plus possible les classes les unes
des autres, c'est à dire à maximiser la variation interclasse V(k1......kp-1) ; d'autre part à
regrouper au mieux chaque classe autour du centre ; c'est à dire à minimiser la variation
interclasse V1(k1......kp-1) .

II.2 - Le seuillage par maximisation d’entropie


Cette technique est basée sur l'utilisation de la théorie de l'information. L'entropie mesure
l'information moyenne donnée par la segmentation.
L'information d'un événement peut être définie comme le logarithme de l'inverse de sa
probabilité d'apparition, soit log (1/pi). Pour avoir l'information moyenne donnée par un
ensemble d'événements, on pondère l'information apportée par chaque fréquence pi.
Historiquement, Pun semble être le premier à avoir utilisé l’entropie dans les algorithmes
de seuillage d'une image, mais il semble commit quelques erreurs qui lui amenèrent par la
suite des critiques et corrections de Sahoo, Kapur et Wong [9]. Ceux ci proposent alors une
autre méthode plus rigoureuse, basée sur les idées de Pun, les résultats sont plus réguliers et
plus satisfaisants. La méthode consiste à maximiser l'entropie de l'image seuillée afin de
rendre maxima les contrastes entre les classes.
Rappelons que l'entropie de l'image seuillée aux seuils k1......kp-1 est la somme des
entropies H(Cj) des classes Cj , où H(Cj) s'exprime par :
kj
H (cj )    P(i / cj ) ln p(i / cj ) avec k0 = -1 et kp = ng
i  kj  1  1
Ici les P(i/Cj) désignent la probabilité pour un pixel de la classes Cj d'avoir le niveau de

p 31
P h (i )
P (i / c )  
i

gris i : j

P(c ) N j j

Considérons que tous les niveaux de gris entre 0 à ng sont représentés afin que tous les
logarithmes des probabilités P(i/Cj) existent. Pour éviter les inconvénients, on pourra par
exemple rajouter une unité à tous les comptes. Ainsi nous obtenons l'entropie de l'image
seuillée.

II.3- Segmentation par conservation de moments


Le principe de cette méthode consiste à affecter un niveau de gris bien déterminé à
chaque classe de telle sorte que les premiers moments statistiques soient identiques à ceux
de l'image initiale. Ainsi l'image seuillée serait la forme "idéale sur p niveaux de gris de
l'image "floue" initiale.
Le moment d'ordre m (m entier positif) de l'image est définie par :
ng
Mm   pi i m [II.12]
i 0
Les trois premiers moments s'interprètent facilement :
ng
M 0   Pi  1 [II.13]
i 0
M1 est la moyenne des niveaux de gris. M2 est la somme de la variance et
du carré de la moyenne des niveaux de gris.
Il faut donc déterminer les seuils s1,......,sp-1 et les valeurs zj dans les intervalles [0,s], [s+1,
moments restent constants après affectation du niveau zj à la classe Cj. Ceci peut s'écrire :
ng p

Mm   p i i m   p( c j ) z mj [II.14]
i0 j 1

Ce système admet des solutions P(Cj) et zj pour m=2p-1. Il faut donc résoudre :

II.4- Le seuillage par erreur minimale : Lois de BAYES


On considère que l’histogramme présente un mélange de deux populations (soumises à la
loi de Gauss) notées C1 et C2 de densité de probabilité P(iC1) et P(iC2)
On rappelle que notée P(iCq) où q=1,2 permet de calculer la probabilité pour que
l’attribut i associé à un point tiré au hasard de la classe Cq appartient à l’intervalle [x1,x2] ;
en effet :
x2

P(i  x1, x 2 Cq   P(i Cq )dx [II.17]


x1


d’autre part on a par définition :  P(i Cq). dx  1




les fonctions de densité de probabilité[6] de la figure 1 mettent en évidence les différences


prises par un attribut i selon que les pixels proviennent de la classe C1 ou de la classe C2 :

p 32
Fonctions de densité de probabilité conditionnelles d’un attribut i pour des points
images de deux classe C1 et C2

Supposons maintenant que l’on connaisse les probabilités à priori P(C1)et P (C2) ainsi que
les fonctions de densité de probabilité P(iC1) et P(iC2) .
La connaissance de la valeur de l’attribut i en un point de l’image permet de calculer la
probabilité d’être en présence d’un point de la classe C1 ou d’un point de la classe C2 .
En effet , d’après la règle de Bayes [6], cette probabilité s’exprime sous la forme
P(C i ).P(i C1 )  P(C 2 ).P(i C 2 ) 
P(i  C1 )  P(i  C2 )  [II.18]
Pi Pi
La règle de Bayes montre comment l’observation de la valeur de l’attribut i permet de
passer de la probabilité a priori P(Cq) d’avoir un point de la classe Cq à la probabilité a priori
P(Cq  i) , c’est à dire la probabilité d’être en présence d’un point de la classe Cq, connaissant
la valeur de l’attribut i.
On peut calculer quelle est la probabilité pour qu’un point caractérisé par la valeur i
appartienne à chacune des classes en présence et propose la règle de décision suivante :
décider C1 si P(C1i) >P(C2  i) [II.19]
décider C2 si P(C2i) >P(C1  i) [II.20]
La probabilité d’erreur associée à cette règle de décision est :
P
II.5- Approximation de la fonction de gris par une fonction en escalier
Pour une image donnée un seuil arbitraire génère une image dont les classes peuvent être
représentées par les moyennes des niveaux de gris M1 et M2.
Ainsi, on obtient une fonction en escalier prenant la valeur Mi sur les classes Ci. Ainsi le
meilleur seuil correspondra à la distance minimale entre l’image initiale et l’image binaire,
c’est à dire entre la fonction de gris initiale et cette fonction en escalier.
1- Cas d’un seuil unique
f (f(x)

Représentation de la fonction de gris f sur un segment de l’image

p 33
Soit Ek la fonction en escalier définie et tout pixel x de niveau de gris i par :
Ek(x) = M1 si 0  i  k h(i)
Ek(x) = M2 si k < i  ng
La distance L1 entre la fonction de gris f et Ek est représentée par le volume qui s’exprime
par :
k ng
d ( f , E k )   h(i ) i  M1  h(i) i  M 2 [II.30]
i 0 i  k 1

Cette formulation est plus rapidement utilisable quand nous la mettons sous la forme :

d ( f , Ek )   h(i)( M
0i  Mi
1  i)   h(i)(i  M )   h(i)( M
M 1i  k
1
k 1i  M 2
2  i)   h(i)(i  M
M 2 i  ng
2 ) [II.31]

que nous minimisons pour obtenir s.


2- Cas d’un multiseuillage à p classes
Dans ce cas la fonction de gris f sera approchée par une fonction en escalier à p niveaux
qui est définie pour tout x par :
E k 1 ,....., k p 1 ( x )  M j si x Cj
la distance L1 à minimiser s'exprime par :
p kj
d1 ( f , E k 1 ,....., k p 1 )    h (i ) i  M j [II.32]
j  1i  k j 1
avec k0=-1 et kp=ng
 p 
ou encore d1 ( f , E k1 ,....., k p1 )   h(i )( M j  i )  h(i )(i  M j )  [II.33]
j 1  k j 1 i  Mj M j i  kj 
Conclusion :
Dans ce chapitre nous avons présenté des méthodes très diverses de seuillage
automatique qui ne donnent pas les mêmes résultats et certaines sont plus adaptées à tel
type d’image plutôt qu’à tel autre. D’où la nécessité d’en disposer de plusieurs afin d’en
extraire celle qui est la plus adaptée à l’image considérée.
Il est difficile de tirer des règles , outre que les remarques déjà faites dans les paragraphes
précédents.
L’adéquation d’une méthode à un type d’image reste un problème largement ouvert mais
néanmoins quelques éléments de réponse ont été donné dans ce chapitre.
Ces méthodes présentent l’avantage de ne nécessiter ni lissage de l’histogramme ni
filtrage de l’image. En plus, ils présentent les avantages suivants :

p 34

Vous aimerez peut-être aussi