Vous êtes sur la page 1sur 61

Université Mohammed Premier - Oujda

Faculté des sciences


Département de Mathématiques

Mémoire
Master Analyse Numérique et Optimisation
Laboratoire : Analyse Numérique et Optimisation «LANO»

Formation : Mathématiques

Segmentation d’Images : Concepts


et
Applications Au Diagnostic Médical

Réalisé et soutenu par : Sous la direction des Professeurs :


Oussama DEKHISSI Mr M.NASRI
Mr M. LAMNII

Soutenu le 11 Octobre 2019, Devant les jurys :

Mr M.NASRI : EST Oujda - Encadrant


Mr M.LAMNII : FSO-UMP - Encadrant
Mr. Driss SBIBIH : FSO-UMP - Examinateur

Année universitaire
2018/2019
Remerciements

J’adresse en premier lieu notre reconnaissance à notre DIEU tout puissant,


de m’avoir permis d’arriver là, car sans lui rien n’est possible.

Je tiens tout d’abord à remercier Mr MBAREK NASRI mon encadrant de


mémoire, pour son encadrement, son suivi et ses conseils lors de la réalisation
de ce mémoire.

Je tiens ensuite à remercier tous nos professeurs et enseignants de dépar-


tement de mathématique qui ont contribué à notre formation.

Je souhaite aussi remercier messieurs les membres du jury pour leur pré-
cieux temps accordé à l’étude de mon mémoire.

Je tiens aussi à remercier tous ceux qui ont, de près ou de loin, aidé à rendre
ce travail possible, que ce soit par des idées ou par des encouragements.

1
Dédicaces

Je dédie ce mémoire :

A mes très chers parents pour leur soutien et

encouragement durant toutes mes années d’études et sans

lesquels je n’aurais jamais réussi et à ma famille.

A tous mes professeurs et enseignants que j’ai eu durant tout

mon cursus scolaire et qui m’ont permis de réussir dans mes

études.

A tous mes amis de l’Université et d’ailleurs

A toute personne ayant contribué à ce travail de près ou de

loin.

2
Table des matières

Remerciements 1

Dédicaces 2

Table des matières 3

Table des figures 5

Résumé 7

Introduction générale 8

1 Traitement d’images 10
1.1 Historique sur le traitement d’image . . . . . . . . . . . . . . . . . . . . . 10
1.2 Entrées-Sorties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 Domaines d’applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Imagerie médicale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.1 Les intérêts de l’imagerie médicale . . . . . . . . . . . . . . . . . . 11
1.4.2 Les grands types d’imagerie . . . . . . . . . . . . . . . . . . . . . . 11
1.5 La chaîne de traitement des images . . . . . . . . . . . . . . . . . . . . . 11
1.6 Quelques méthodes de traitement d’image . . . . . . . . . . . . . . . . . . 12

2 Image numérique 13
2.1 Définition d’image numérique : . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Caractéristiques d’une image numérique . . . . . . . . . . . . . . . . . . . 14
2.2.1 Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.2 La résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.4 Contours et texture . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.5 Bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.6 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Types d’images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Images binaires (noir ou blanc) . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Images en niveaux de gris . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.3 Images en couleurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Images bitmap et images vectorielles . . . . . . . . . . . . . . . . . . . . . 18

3
3 Segmentation d’images 19
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Définition de la segmentation . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Définition formelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4 Le choix d’une technique de segmentation : . . . . . . . . . . . . . . . . . . 21
3.5 Objectifs de la segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.6 Approches de segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.6.1 Segmentation basée sur l’approche pixel . . . . . . . . . . . . . . . 22
3.6.1.1 Segmentation par seuillage . . . . . . . . . . . . . . . . . . 22
3.6.1.2 Segmentation par classification . . . . . . . . . . . . . . . 24
3.6.2 Segmentation basée sur l’approche région . . . . . . . . . . . . . . . 25
3.6.2.1 Segmentation par fusion de régions (Merge) . . . . . . . . 26
3.6.2.2 Segmentation par division de régions (Split) . . . . . . . . 26
3.6.2.3 Segmentation par division-fusion (Split and Merge) . . . . 27
3.6.2.4 Croissance de région(region growing) . . . . . . . . . . . . 27
3.6.3 Segmentation basée sur l’approche contour . . . . . . . . . . . . . . 28
3.6.3.1 Méthodes dérivatives : . . . . . . . . . . . . . . . . . . . . 28
3.6.3.2 Méthodes analytiques . . . . . . . . . . . . . . . . . . . . 32
3.6.3.3 Méthodes déformables . . . . . . . . . . . . . . . . . . . . 32
3.6.4 Les limites de segmentation par contour . . . . . . . . . . . . . . . 33

4 Les méthodes de segmentation implémentées 34


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Méthodes de segmentation basée sur l’approche pixel . . . . . . . . . . . . 34
4.2.1 Méthode d’OTSU . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2.2 Méthode K-means : . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.2.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.2.2 L’algorithme des k-means . . . . . . . . . . . . . . . . . . 37
4.2.2.3 Résultats et discussion : . . . . . . . . . . . . . . . . . . . 39
4.3 Méthodes de segmentation basée sur l’approche région . . . . . . . . . . . 42
4.3.1 Segmentation par croissance de régions . . . . . . . . . . . . . . . . 42
4.4 Méthodes de segmentation basée sur l’approche contour . . . . . . . . . . . 46
4.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.2 Utilisation de l’opérateur Gradient . . . . . . . . . . . . . . . . . . 46
4.4.2.1 Principes . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.2.2 Quelques opérateurs gradient . . . . . . . . . . . . . . . . 47
4.4.3 Méthodes de seuillage . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.3.2 Seuillage globale . . . . . . . . . . . . . . . . . . . . . . . 52
4.4.3.3 Seuillage local par hystérésis . . . . . . . . . . . . . . . . . 53
4.4.4 Utilisation du calcul du Laplacien . . . . . . . . . . . . . . . . . . . 54
4.4.4.1 L’opérateur Laplacien . . . . . . . . . . . . . . . . . . . . 54
4.4.4.2 Le filtre de Marr ou Laplacien de Gaussienne ou chapeau
mexicain . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

Conclusion et perspectives 57

Bibliographie 59

4
Table des figures

1.1 Chaîne descriptive de traitement d’images. . . . . . . . . . . . . . . . . . . 12

2.1 Chaîne d’acquisition d’image numérique. . . . . . . . . . . . . . . . . . . . 13


2.2 Représentation d’image numérique. . . . . . . . . . . . . . . . . . . . . . . 14
2.3 groupe de pixel formant la lettre A. . . . . . . . . . . . . . . . . . . . . . . 14
2.4 Image sans bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5 Image avec bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.6 Image avec histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.7 Image binaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.8 Image en niveaux de gris (256 couleurs). . . . . . . . . . . . . . . . . . . . 17
2.9 Exemple d’image en couleur. . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.1 Exemple de segmentation d’image . . . . . . . . . . . . . . . . . . . . . . . 20


3.2 Différents méthodes de segmentation.. . . . . . . . . . . . . . . . . . . . . . 22
3.3 Seuillage simple d’un histogramme . . . . . . . . . . . . . . . . . . . . . . 23
3.4 Seuillage multiple d’un histogramme . . . . . . . . . . . . . . . . . . . . . 23
3.5 Allures idéales d’un histogramme. (a) : unimodal, (b) : bimodal et (c) mul-
timodal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.6 Les méthodes de segmentation par classification. . . . . . . . . . . . . . . . 25
3.7 Décompositions successives des blocs. . . . . . . . . . . . . . . . . . . . . . 26
3.8 La segmentation par division-Fusion. . . . . . . . . . . . . . . . . . . . . . 27
3.9 Contour et ses dérivées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.10 Détection de contour par les différents filtres. . . . . . . . . . . . . . . . . . 31
3.11 Image originale (à gauche), contour détecté par le Laplacien. . . . . . . . . 32

4.1 Image segmentée avec méthode d’otsu . . . . . . . . . . . . . . . . . . . . . 36


4.2 Exemple illustratif du déroulement de l’algorithme des K-Means. . . . . . . 38
4.3 Influence de l’initialisation des centres des classes . . . . . . . . . . . . . . 39
4.4 Nombre optimal de K par la méthode d’Elbow . . . . . . . . . . . . . . . . 41
4.5 Résultats par croissance de région . . . . . . . . . . . . . . . . . . . . . . 43
4.6 Images représentant l’influence du seuil sur le résultat de la CR. . . . . . . 44
4.7 Influence de l’ordre du traitement des pixels sur le résultat de la segmen-
tation CR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.8 Synoptique d’une détection de contours par gradient . . . . . . . . . . . . . 47
4.9 Exemple d’application de l’approximation de base . . . . . . . . . . . . . . 49
4.10 Exemple d’application de l’opérateur de Roberts . . . . . . . . . . . . . . 50
4.11 Exemple d’application de l’opérateur de Sobel . . . . . . . . . . . . . . . . 52
4.12 Exemple d’application de l’opérateur de Sobel . . . . . . . . . . . . . . . . 53
4.13 Exemple de résultat d’un seuillage par hystérésis . . . . . . . . . . . . . . 54
4.14 Exemple d’obtention des contours par utilisation du Laplacien . . . . . . . 55

5
4.15 Application du filtre Laplacien de Gaussienne . . . . . . . . . . . . . . . . 56

6
Résumé

Le traitement d’images joue aujourd’hui un rôle important dans de nombreux do-


maines. L’imagerie médicale est l’un des domaines qui exploite les techniques de traite-
ment et d’analyse d’image.

Dans un système de traitement d’images, l’opération la plus importante est la segmenta-


tion d’image. Jusqu’à ce jour, il n’existe pas de méthode universelle (absolue) de segmen-
tation d’image. Toute technique n’est efficace que pour un type d’image donné, pour un
type d’application donné, et dans un contexte informatique donné.

Dans ce mémoire, nous présentons dans un première temps les différents méthodes de
segmentation. Dans un deuxième temps, nous proposons une étude comparative de ces
différentes approches, les résultats obtenus montrent les avantages et les limites de chaque
méthode étudié.

7
Introduction générale

Dans le domaine du traitement d’images, la segmentation continue encore de susci-


ter un grand engouement chez les chercheurs dans le domaine de la vision artificielle.
L’objectif de la segmentation consiste à partitionner l’image en sous-ensembles ou régions
homogènes de sorte que l’intersection entre ses sous-ensembles soit vide et leur union
constitue l’image initiale. Pour ce faire, diverses méthodes ont été proposées dans la lit-
térature. Cette diversité est en rapport avec le type d’image à traiter, sa complexité en
termes de forme, de texture et de l’espace de représentation ainsi que la nature de bruit
qu’elle renferme.

Il existe de nombreuses méthodes de segmentation, que l’on peut regrouper en trois prin-
cipales classes :

• Approche par classification : Les méthodes de classification fournissent une parti-


tion de l’image en regroupant des pixels ayant des niveaux de gris similaires dans
une même classe de pixels. Les régions sont définies par les ensembles maximaux de
pixels connexes appartenant à la même classe. En général, on peut les répartir en :
méthodes supervisées qui se basent sur un modèle exacte, fourni par un expert, des
classes à obtenir et les méthodes non supervisées où aucune connaissance à priori
n’est disponible.

• Approche région : la segmentation d’image par l’approche région consiste à décou-


per l’image en régions. Plusieurs techniques de cette approche sont à distinguées,
croissance de région , segmentation par division-fusion.

• Approche contour : on considère que les primitives à extraire sont les lignes de
contrastes séparant des régions de niveaux de gris différents et relativement ho-
mogènes, ou bien des régions de texture différentes qu’on peut regrouper en trois
catégories : les méthodes dérivatives, les méthodes analytiques et les méthodes
déformables.

Nous allons choisir certain méthodes de segmentation pour étude en détails . Sont : Otsu,
K-means, Croissance de région, le gradient, le laplacien.

Ce mémoire est organisé en quatre chapitres :

• Le premier chapitre présente des généralités sur le traitement d’image.


• Le deuxième chapitre est introductif et présente les notions de base du traitement
d’images. Il s’agit de l’image numérique, ses types et ses caractéristiques.

8
• Le troisième chapitre est consacré à la description des méthodes de segmentation
d’images, où nous avons décrit un certain nombre de méthodes classiques de seg-
mentation des différentes approches.
• Le quatrième chapitre contient le fruit de notre travail, nous exposons une étude
des différentes méthodes de segmentation, a savoir l’algorithme d’otsu, K-means,
croissance de régions, et celle de détection de contour(le gradient/ le laplacien).
Nous terminons ce travail par une conclusion générale.

9
Chapitre 1

Traitement d’images

1.1 Historique sur le traitement d’image


Le traitement d’image commence à être étudié dans les années 1920 pour la transmis-
sion d’images par le câble sous-marin allant de New York à Londres. Harry G.Bartholomew
et Maynard D. McFarlane effectuent la première numérisation d’image avec compression
de données pour envoyer des fax de Londres à New York. Le temps de transfert passe
ainsi de plus d’une semaine à moins de trois heures. Il n’y a pas vraiment d’évolution par
la suite jusqu’à la période d’après-guerre.

Le véritable essor du traitement d’images n’a lieu que dans les années 1960 quand les
ordinateurs commencent à être suffisamment puissants pour travailler sur des images. Peu
après, la redécouverte de la transformée de Fourier rapide (FFT) révolutionne le domaine,
en rendant possible les manipulations du contenu fréquentiel des signaux sur ordinateur.
Cependant, l’essentiel des recherches porte encore, à cette époque, sur l’amélioration des
images et leur compression.

Les années 1990 sont témoin de l’amélioration constante des opérateurs. La recherche
médicale devient un très gros demandeur en traitement d’images pour améliorer les diag-
nostics faits à partir des nombreuses techniques d’imagerie médicale, la technique reine
étant l’IRM. Les publicitaires, puis le grand public se familiarisent avec la retouche d’image
grâce au logiciel Photoshop, et le traitement d’images dans un objectif esthétique se ré-
pand avec l’apparition d’autres logiciels dédiés (The Gimp, Paint Shop Pro). Enfin, la
décennie s’achève sur l’engouement pour les ondelettes et les images multimodales [1].

1.2 Entrées-Sorties
Dans le domaine des images, on fait habituellement la distinction entre trois catégories :

• Le traitement des images, qui opère une transformation image → image (en anglais
on parle d’«image processing»).
• L’analyse d’images, qui opère une transformation image → mesures (en anglais on parle
d’«image analysis»).
• L’analyse sémantique, qui crée une description de haut niveau à partir d’images (en
anglais «image understanding») [2].

10
1.3 Domaines d’applications
L’image est impliquée dans de nombreux domaines. Concernant les grandes applica-
tions actuelles, on peut en citer :

•Télédétection : météo, cartographie, astronomie.


•Imagerie médicale : aide au diagnostic, tomographie, reconstruction 3D.
•Robotique : reconnaissance/assemblage de pièces, contrôle de qualité.
•Sécurité : identification de visages, tatouage d’images(watermarking).
•Divertissement : HDTV, images hautes qualité(DVD), compression(normes JPEG et
MPEG) [3].

1.4 Imagerie médicale


L’imagerie médicale est assurément une discipline qui s’est copieusement améliorée ces
dernières années. La première image médicale est une image radio-graphique qui date de
1895 en utilisant des rayons X, elle été rejointe par d’autres technologies tout au long du
XXe siècle, telles l’échographie,le scanner...

L’objectif est de créer une représentation visuelle intelligible des os, des tissus et des
organes de façon toujours plus précise et moins invasive, elle offre aujourd’hui une vue
imprenable sur ces mêmes organes en pleine action et permet de visualiser jusqu’au mé-
tabolisme cellulaire [4].

1.4.1 Les intérêts de l’imagerie médicale


L’imagerie médicale a révolutionné la médecine, et devient incontournable dans de
nombreuses situations : non seulement établir un meilleur diagnostic, mais aussi évaluer
la sévérité d’une pathologie et tester l’efficacité d’un traitement [4].

1.4.2 Les grands types d’imagerie


Il existe quatre types d’imagerie médicale qui reposent sur l’utilisation des rayons X,
des ultrasons, du champ magnétique ou de la radioactivité naturelle ou artificielle [4].

1.5 La chaîne de traitement des images


La chaîne de traitement est composée de trois étapes essentielles :

1. L’étape de pré-traitement qui consiste à améliorer la qualité de l’image acquise. Il


peut s’agir d’éliminer le bruit ou de rehausser le contraste.
2. L’étape de segmentation qui sera détaillée dans la suite de ce travail. Cette étape
peut être suivie par une étape de post-traitement (étape facultative) qui consiste
à raffiner la segmentation afin d’améliorer les résultats obtenus.
3. L’étape d’interprétation qui consiste à extraire l’information sémantique de l’image
en identifiant les différents objets qui la constituent. Il faut noter que les résultats
de la deuxième étape (la segmentation) conditionnent très fortement le résultat

11
de la troisième étape (l’interprétation). Ceci peut engendrer parfois des erreurs.
Par conséquent, des méthodes d’évaluation de la segmentation sont généralement
utilisées afin de quantifier les résultats obtenus pour une meilleure interprétation
de l’image [5].

Figure 1.1 – Chaîne descriptive de traitement d’images.

1.6 Quelques méthodes de traitement d’image


- Filtrage / Deconvolution (ou Filtrage inverse). ´
- Compression.
- Segmentation.
- Restauration / reconnaissance.
- Reconstruction tomographique [6].

12
Chapitre 2

Image numérique

2.1 Définition d’image numérique :


L’image numérique est l’image dont la surface est divisée en éléments de tailles fixes
appelés cellules ou pixels, ayant chacun comme caractéristique un niveau de gris ou de
couleurs prélevé à l’emplacement correspondant dans l’image réelle, ou calculé à partir
d’une description interne de la scène à représenter [7].

La numérisation d’une image est la conversion de celle-ci de son état analogique en une
image numérique représentée par une matrice bidimensionnelle de valeurs numériques
f(x,y), comme la montre la figure où :

x,y : coordonnées cartésiennes d’un point de l’image.

f(x, y) : niveau d’intensité.

La valeur en chaque point exprime la mesure d’intensité lumineuse perçue par le capteur.

Figure 2.1 – Chaîne d’acquisition d’image numérique.

13
Figure 2.2 – Représentation d’image numérique.

2.2 Caractéristiques d’une image numérique


Comme nous l’avons vu, l’image est un ensemble structuré d’informations parmi ses
caractéristiques nous pouvons citer les paramètres suivants :

2.2.1 Pixel
Contraction de l’expression anglaise " Picture Elements " : éléments d’image, le pixel
est le plus petit point de l’image, c’est une valeur numérique représentative des intensités
lumineuses. Le pixel est le plus petit élément que peuvent manipuler les matériels et
logiciels sur l’image. La lettre A, par exemple, peut être affichée comme un groupe de
pixels dans la figure ci-dessous [8].

Figure 2.3 – groupe de pixel formant la lettre A.

14
2.2.2 La résolution
La résolution d’une image correspond au niveau de détail qui va être représenté sur
cette image. C’est le nombre de pixels par unité de longueur dans l’image à numériser,
elle est en dpi (dots per inch) ou en ppp (points par pouce).

Plus le nombre de pixels est élevé par unité de longueur de l’image à numériser, plus
la quantité d’inflation qui décrit l’image est importante et plus la résolution est élevée [9].

2.2.3 Dimension
C’est la taille de l’image. Cette dernière se présente sous forme de matrice dont les
éléments sont des valeurs numériques représentatives des intensités lumineuses (pixels).
Le nombre de lignes de cette matrice multiplié par le nombre de colonnes nous donne le
nombre total de pixels dans une image [9].

2.2.4 Contours et texture


Les contours représentent la frontière entre les objets de l’image, ou la limite entre
deux pixels dont les niveaux de gris représentent une différence significative.

Les textures décrivent la structure de ceux-ci. L’extraction de contour consiste à iden-


tifier dans l’image les points qui séparent deux textures différentes [9].

2.2.5 Bruit
Un bruit dans une image est considéré comme un phénomène de brusque variation
de l’intensité d’un pixel par rapport à ses voisins, il provient de l’éclairage des dispositifs
optiques et électroniques du capteur [11].

Figure 2.4 – Image sans bruit Figure 2.5 – Image avec bruit

2.2.6 Histogramme
L’histogramme des niveaux de gris ou des couleurs d’une image est une fonction qui
donne la fréquence d’apparition de chaque niveau de gris (couleur) dans l’image. Pour di-
minuer l’erreur de quantification, pour comparer deux images obtenues sous des éclairages
différents, ou encore pour mesurer certaines propriétés sur une image.

Il permet de donner un grand nombre d’information sur la distribution des niveaux de

15
gris (couleur) et de voir entre quelles bornes est repartie la majorité des niveaux de gris
(couleur) dans les cas d’une image trop claire ou d’une image trop foncée [10].

Figure 2.6 – Image avec histogramme

2.3 Types d’images


Il existe trois types d’images numériques qui sont :

- Les images binaires.

- Les images en niveaux de gris.

- Les images en couleur ou RGB.

2.3.1 Images binaires (noir ou blanc)


Une image binaire est une image pour laquelle chaque pixel ne peut avoir pour valeur
que 0 pour le noir ou 1 pour le blanc. C’est typiquement le type d’image que l’on utilise
pour scanner un texte lorsque celui ci est composé d’une seule couleur [10].

16
Figure 2.7 – Image binaire.

2.3.2 Images en niveaux de gris


Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur du
pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre fini
de niveaux intermédiaires. Donc pour représenter les images à niveaux de gris, on peut
attribuer à chaque pixel de l’image une valeur correspondant à la quantité de lumière
renvoyée. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est
donc plus représenté par 1 bit, mais par 1 octet. Pour cela, il faut que le matériel utilisé
pour afficher l’image, soit capable de produire les différents niveaux de gris correspondant.

Le nombre de niveaux de gris dépend du nombre de bits utilisés pour décrire la " couleur "
de chaque pixel de l’image. Plus ce nombre est important, plus les niveaux possibles sont
nombreux [9].

Figure 2.8 – Image en niveaux de gris (256 couleurs).

17
2.3.3 Images en couleurs
L’image couleur est la superposition de trois couleurs de base. Il existe plusieurs modes
de représentation de la couleur. Le plus utilisé pour le traitement des images numériques
est l’espace couleur Rouge, Vert, Bleu (RVB). On définit, alors un plan de niveau de gris
pour chacune des trois couleurs.

Cet espace couleur est basé sur la synthèse additive des couleurs. Chaque pixel est définit
par une couleur. Cette dernière est le résultat d’un mélange de trois valeurs en niveau de
gris des composantes (RVB), figure 2.5 [10].

Figure 2.9 – Exemple d’image en couleur.

2.4 Images bitmap et images vectorielles


Les images appartiennent à deux grandes familles :

• Les images bitmap (appelées aussi images matricielle) : il s’agit d’images pixel-
lisées, c’est-à-dire un ensemble de points (pixels) contenus dans un tableau, chacun
de ces points possédant une ou plusieurs valeurs décrivant sa couleur.

• Les images vectorielles : Les images vectorielles sont des représentations d’en-
tités géométriques telles qu’un cercle, un rectangle ou un segment. Ceux-ci sont re-
présentés par des formules mathématiques (un rectangle est défini par deux points,
un cercle par un centre et un rayon, une courbe par plusieurs points et une équa-
tion).

Le principal inconvénient des images matricielles est qu’elles ne peuvent être redimen-
sionnées sans perte de qualité. En revanche, les images vectorielles peuvent facilement
s’afficher sous différentes échelles et s’adaptent à la qualité du dispositif d’affichage [11].

18
Chapitre 3

Segmentation d’images

3.1 Introduction
L’homme sait naturellement séparer des objets dans une image. Pour séparer un objet
d’un fond, l’humain se base sur des connaissances de haut niveau qui lui permettent de
détecter dans l’image ce qui l’intéresse.

Fondamentalement, la segmentation est un processus qui consiste à découper une image en


régions connexes présentant une homogénéité selon un certain critère, comme par exemple
la couleur. L’union de ces régions doit redonner l’image initiale. La segmentation est une
étape importante pour l’extraction des informations qualitatives de l’image. Elle fournit
une description de haut niveau [9].

3.2 Définition de la segmentation


La segmentation est une des étapes critiques de l’analyse d’images qui conditionne la
qualité des mesures effectuées ultérieurement.
C’est généralement une première étape d’un traitement plus complexe comme la recon-
naissance de formes. Elle permet de cerner les formes des objets sur lesquels doit porter
l’analyse, de délimiter des régions (l’intérêt de les extraire du fond).
Une bonne méthode de segmentation sera celle qui permettra d’arriver à une bonne in-
terprétation. Elle devra donc avoir simplifié l’image sans pour autant en avoir trop réduit
le contenu.

19
Figure 3.1 – Exemple de segmentation d’image

À ce jour, il existe des nombreuses méthodes de segmentation qui sont pratiquement


toutes sensibles au bruit. Il est donc nécessaire de commencer par nettoyer l’image en
appliquant les filtres usuels d’atténuation le bruit. Parmi les approches (la segmentation
les plus connues), on peut citer : la segmentation basée sur le seuillage, la segmentation
basée sur les régions et la segmentation basée sur les contours [9].

3.3 Définition formelle


Formellement, la segmentation d’une image A en régions Ri 1 ≤ i ≤ n, est définie
par les propriétés suivantes [10] :
S
1. i Ri = I

2. Ri ∩ Rj = ∅ ;∀i, j telle que i 6= j

3. P (Ri )=vrai ; ∀i ∈ {1, 2, ..., n}

4. P (Ri ∩ Rj )=faux ; ∀i, j telle que i 6= j

5. Ri est un composant connexe ; ∀i ∈ {1, 2, ..., n}

I P est un prédicat d’homogénéité.


I La première condition indique que l’union des régions nous ramène à l’image de
départ.
I La deuxième indique que deux régions différentes sont disjointes.
I La troisième exprime que les pixels appartenant à une région doivent satisfaire le
critère d’homogénéité.

20
I La quatrième exprime le critère d’homogénéité pour la segmentation en régions
disjointes.
.

Une région est un ensemble connexe de points image pixels ayant des propriétés com-
munes (niveau de gris, couleur, texture...) qui les différencient des pixels régions voisins.

Reamrque : Pas de méthode universelle (absolue).

3.4 Le choix d’une technique de segmentation :


Le choix est liée à [13] :

- Nature de l’image ( éclairage,contours,texture,...).

- Traitements à effectuer en aval de la segmentation (compression,reconnaissance de


formes,...).

- Aux primitives à extraire (droites, régions, textures, etc).

- Aux contraintes d’exploitation (temps réel, espace mémoire,...).

3.5 Objectifs de la segmentation


- Fournir des régions homogènes (selon un critère donné).

- Localiser de manière précise les contours des régions.

- Réduction de bruit [13].

3.6 Approches de segmentation


La segmentation est un domaine vaste où l’on trouve de très nombreuses approches
qui ont été développées et utilisées dans divers applications : la reconnaissance des motifs,
la détection des objets, l’analyse des images satellitaires, la robotique et dans le domaine
d’analyse des images médicales.
Les méthodes proposées sont fondées sur les propriétés des pixels en relation avec leurs
voisins (la discontinuité et la similarité). Les méthodes de segmentation fondées sur la
discontinuité font appel à la notion de frontière alors que celles fondées sur la similarité font
appel à la notion de région. La figure 3.2 présente les approches principales de segmentation
[10].

21
Figure 3.2 – Différents méthodes de segmentation..

3.6.1 Segmentation basée sur l’approche pixel


On part ici d’un rapport qu’entretient chaque pixel individuellement avec des informa-
tions calculées sur toute l’image, comme la moyenne des niveaux de gris de l’ensemble des
pixels, ou la médiane, permettant de construire n classes d’intensité. Lorsque les classes
sont déterminées par le choix d’un seuil, on parle de seuillage. Les pixels appartenant à
une même classe et étant connexes forment des régions de l’image [1].

3.6.1.1 Segmentation par seuillage


3.6.1.1.1 Définition du seuillage
Le seuillage représente un outil largement utilisé dans la segmentation d’image pour ex-
traire des objets de leurs fonds en fonction d’un seuil.
Tout problème de seuillage consiste alors à rechercher la valeur du seuil. La plupart des
méthodes de seuillage déterminent le seuil en optimisant une fonction objective. On dis-
tingue le seuillage de base (simple) (2 classes) où le résultat du seuillage est une image
binaire (0 : 1, parfois en 0 : 255 pour l’affichage), et le multi-seuillage qui est utile quand
on a affaire à des images qui contiennent plusieurs objets ayant des luminances différentes.
Pour extraire ces objets, plusieurs seuils sont nécessaires. Le résultat du seuillage est une
image avec n + 1 classes pour n seuils.

(
1 si f (x, y) ≥ T
G(x, y) = (3.1)
0 si f (x, y) < T

22
Figure 3.3 – Seuillage simple d’un histogramme



 2 si f (x, y) ≥ T2
G(x, y) =  1 si T1 ≤ f (x, y) < T2 (3.2)

0 si f (x, y) < T1

Figure 3.4 – Seuillage multiple d’un histogramme

La segmentation par seuillage d’histogramme constitue un cas particulier de la seg-


mentation par classification. Elle permet de répartir les pixels en classes en fonction de
leurs niveaux de gris. Les classes sont alors délimitées par des seuils colorred[14].

3.6.1.1.2 Les Méthodes de seuillage


Les méthodes de seuillage peuvent être réparties en deux catégories : seuillage globale et
seuillage local ou adaptatif.

23
a) Méthodes de seuillage globale :

Les méthodes de seuillage globale reposent sur l’exploitation de l’histogramme de


toute l’image.

A partir de l’allure de l’histogramme, on peut déduire le nombre de classes ainsi


que la position relative des seuils (Figure 3.5). L’histogramme est unimodal, s’il est
formé d’un seul pic représentant les pixels de l’objet ou ceux du fond. Il est bimodal
s’il est caractérisé par deux modes séparés par une vallée, il indique l’existence d’un
objet sur un fond. L’histogramme multimodal comporte plus de deux modes sépa-
rés par des vallées, il indique la présence de plusieurs classes dans image (chaque
mode correspond à une classe). Les seuils doivent être localisés dans les vallées [15].

Figure 3.5 – Allures idéales d’un histogramme. (a) : unimodal, (b) : bimodal et (c)
multimodal.

Il existe plusieurs méthodes globales automatiques qui permettent de trouver un


seuil à partir d’un histogramme :
Otsu, Kittler,...

b) Méthodes de seuillage locale ou adaptatif :

A l’inverse des méthodes globales qui ne considèrent que la valeur du pixel, les
méthodes locales prennent en considération la valeur des pixels voisins pour le
calcul des seuils. Les méthodes de seuillage locale sont confrontées au choix de la
taille de la fenêtre de voisinage. Celle-ci doit être suffisamment petite pour préserver
les détails locaux et suffisamment larges pour supprimer le bruit [15].

3.6.1.2 Segmentation par classification


Les méthodes de classification sont issues des méthodes statistiques multidimension-
nelles. Il n’existe pas une méthode de classification qui peut s’appliquer à tout type d’image
et qui peut fournir un partitionnement optimal. Ce qui explique la grande diversité de
méthodes de classification qui existe dans la littérature.Le choix d’une méthode est déter-
miné par différents facteurs tels que le nombre de classes attendues, la forme des classes
extraites ou encore le chevauchement ou non des classes [16].

En général, on peut les répartir en : méthodes supervisées qui se basent sur un mo-
dèle exacte, fourni par un expert, des classes à obtenir et les méthodes non supervisées

24
ou aucune connaissance à priori n’est disponible.

Figure 3.6 – Les méthodes de segmentation par classification.

a) Méthodes supervisées :

Les méthodes de classification supervisée nécessitent une base d’images déjà seg-
mentées manuellement. Cette base permet de faire un apprentissage du classifieur.
Une fois les paramètres du classifieur déterminés, de nouvelles images peuvent être
segmentées.
L’exemple le plus simple de ces méthodes est le classifieur du plus proche voisin
où chaque pixel est affecté à la même classe que celle du pixel présent dans la base
d’apprentissage ayant le plus proche niveau de gris [16].

a) Méthodes non supervisées :

Dans la classification non supervisée, aucune information sur le nombre et le


contenu des classes possible n’est fourni. L’objectif est alors de pouvoir regrou-
per automatiquement des pixels considérés similaires dans une même classe. Dans
ce cas il s’agira de définir une fonction de similarité entre pixels qui sera maximum
entre les pixels d’une même classe et minimum avec ceux des autres classes [16].

Parmi les méthodes de classification :

I La méthode k-moyennes(K-means) : L’algorithme des K-moyennes est une


méthode de classification automatique, qui a pour objectif le partitionnement des
données d’une image (pixels) en K classes (ou clusters). Chaque pixel étant carac-
térisé par un vecteur de I attributs. À partir d’une partition initiale on améliore
itérativement la partition de l’espace en minimisant la variance intra-classe et en
maximisant l’écartement entre les classes [15].

3.6.2 Segmentation basée sur l’approche région


Les méthodes de l’approche région cherchent à différencier les régions en utilisant les
propriétés de l’image telles que la couleur, texture, forme...etc.

25
Ces méthodes utilisent principalement les critères de décision pour segmenter l’image en
différentes régions selon la similarité des pixels. Nous proposons dans la suite les diffé-
rentes méthodes de segmentation de type région [17].

3.6.2.1 Segmentation par fusion de régions (Merge)


Les techniques de réunion sont des méthodes ascendantes où tous les pixels sont vi-
sités. Pour chaque voisinage de pixel, un prédicat P est testé. S’il est vérifié, les pixels
correspondants sont regroupés dans une région. Après le parcours de toute l’image, les
groupes de voisinages se voient appliquer le même test, et sont réunis si P est vérifié. Le
processus est itéré jusqu’à satisfaction d’un critère d’arrêt [17].

Les inconvénients de cette méthode se situent à deux niveaux :

• Cette méthode dépend du critère de fusion qui peut influer sur le résultat final de
la segmentation.

• Elle peut introduire l’effet de sous-segmentation [9].

3.6.2.2 Segmentation par division de régions (Split)


La division consiste à partitionner l’image en régions homogènes selon un critère donné.
Le principe de cette technique est de considérer l’image elle-même comme région initiale,
qui par la suite est divisée en régions.
Le processus de division est réitéré sur chaque nouvelle région jusqu’à l’obtention de classes
homogènes.

Figure 3.7 – Décompositions successives des blocs.

Cette méthode présente un inconvénient majeur qui est la sur-segmentation. Toutefois,


ce problème peut être résolu en utilisant la méthode de division-fusion que nous présentons
dans ce qui suit [9].

26
3.6.2.3 Segmentation par division-fusion (Split and Merge)
Son principe est de combiner les deux dernières méthodes présentées afin de pallier à
leurs inconvénients de la manière suivante : une première étape de division donne comme
résultat, une image divisée en plusieurs régions. Par la suite, une étape de fusion inter-
vient afin de corriger le résultat obtenu par la première étape, en regroupant les régions
similaires. Ce procédé est répété jusqu’à l’obtention d’une segmentation [14].

Figure 3.8 – La segmentation par division-Fusion.

Les inconvénients de cette méthode se situent à trois niveaux :

• Les régions obtenues ne correspondent pas, dans tous les cas, aux objets représentés
dans l’image.

• Les limites des régions obtenues sont habituellement imprécises et ne coïncident


pas exactement aux limites des objets de l’image.

• La difficulté d’identifier les critères pour agréger les pixels ou pour fusionner et
diviser les régions [18].

3.6.2.4 Croissance de région(region growing)


La segmentation par croissance de régions noté CR consiste à sélectionner en premier
lieu les points de départ de l’image appelés germes des régions qui correspondent géné-
ralement à des pixels. Ensuite, des régions sont construites en ajoutant successivement à
chaque germe les pixels voisins qui lui sont connexes et qui vérifient un critère de simila-
rité ou d’homogénéité. La région finale représentant un objet ou une partie d’un objet de
l’image [10].

Le principe de l’agrégation de pixel est le suivant : on choisit un germe (Le point de


départ est le choix d’un ensemble de pixels appelés « germes ») et on fait croitre ce germe
tant que des pixels de son voisinage vérifient le test d’homogénéité. Lorsqu’il n’y a plus de
pixels candidats dans le voisinage, on choisit un nouveau germe et on itère le processus [9].

Parmi les avantages de cette technique, nous pouvons citer [10] :

27
• La simplicité et la rapidité de la méthode.

• La segmentation d’objet à topologie complexe.

• La préservation de la forme de chaque région de l’image.

Cependant, il existe plusieurs inconvénients comme [10] :

• L’influence du choix des germes initiaux et du critère d’homogénéité sur le résultat


de la segmentation.

• Le résultat est très sensible à la valeur du seuil.

• Une mauvaise sélection des germes ou un choix du critère de similarité mal adapté
peuvent entraîner des phénomènes de sous-segmentation ou de sur-segmentation.

3.6.3 Segmentation basée sur l’approche contour


Un contour est un ensemble des points d’une image numérique qui correspond à un
changement brutal de l’intensité lumineuse. La détermination des limites des objets dans
une scène présente un intérêt primordial pour le traitement de l’image. La détection de
contours est ainsi un sujet de recherche très important. Les contours sont largement uti-
lisés comme primitives en analyse d’images et en vision par ordinateur. Tout d’abord, le
contour peut être apprécie comme le bord ou la frontière de deux régions (objets). La
détection des contours est équivalente à détecter les discontinuités à la frontière de deux
régions.

Les méthodes de segmentation basées sur l’approche contour ont donc pour objectif de
trouver les lieux de fortes variations du niveau de gris [10].
Nous présentons dans ce qui suit les différentes méthodes adaptées pour la détection des
contours dans des images en niveaux de gris. Pour ces dernières, deux familles de méthodes
sont distinguées :

3.6.3.1 Méthodes dérivatives :


Les méthodes dérivatives sont les plus utilisées pour détecter des transitions d’inten-
sité par différenciation numérique (première et deuxième dérivée). A chaque position, un
opérateur est appliqué afin de détecter les transitions significatives au niveau de l’attribut
de discontinuité choisi. Le résultat est une image binaire constituée de points de contours
et de points non-contours [9].

28
Figure 3.9 – Contour et ses dérivées.

De nombreuses techniques d’extraction de contours existent dans la littérature. Elles


peuvent être classées comme suit :

• Les algorithmes basés sur le gradient (ou opérateurs du premier ordre).

• Les algorithmes basés sur le Laplacien (ou opérateurs du second ordre) [9].

3.6.3.1.1 L’approche Gradient

Les contours dans une image étant caractérisés par une forte variation de contraste. Il
est évident de chercher un opérateur permettant de caractériser les zones ou les niveaux
de gris augmentent ou diminuent très vite. La dérivée (le gradient) répond tout à fait à
ce problème.

Le gradient, en un pixel, est un vecteur caractérisé par une amplitude et une direction.
L’approximation des deux dérivées est donnée par la relation suivante :

∂I(x, y) ∂I(x, y)
= I(x + 1, y) − I(x, y), = I(x, y + 1) − I(x, y) (3.3)
∂x ∂y
Le module :
q
G(x, y) = k∇I(x, y)k = Gx (x, y)2 + Gy (x, y)2 (3.4)
La direction (argument) :
!
Gx (x, y)
arg G(x, y) = arct (3.5)
Gy (x, y)

Il existe plusieurs opérateurs de gradient. Parmi ses opérateurs, il y a les masques de


Roberts, de Prewitt et de Sobel, etc [19].

29
a) Opérateurs de Sobel et Prewitt :

Les opérateurs de "Sobel" et de "Prewitt" permettent d’estimer la norme du gra-


dient bidimensionnel d’une image en niveau de gris. Ces opérateurs consistent en
une paire de masques de convolution 3 × 3.
Pour ces opérateurs, les dérivées directionnelles horizontale et verticale s’expriment
sous la forme :

∆I ∆I
= hj ∗ I(i, j) et = hi ∗ I(i, j) (3.6)
∆j ∆i
Avec
   
1 0 −1 1 c 1
hj =  c 0 −c  et hi =  0 0 0  (3.7)
  

1 0 −1 −1 −c −c

Les matrices hi et hj sont appelées masques, Les masques de Prewitt sont définis
par c = 1 et les masques de Sobel par c = 2 [9].

b) Opérateur de Roberts(1965)

Le détecteur de Roberts permet de calculer le gradient bidimensionnel d’une image


de manière simple et rapide. Ce principe ne diffère pas beaucoup de celui des opé-
rateurs de "Prewitt"et "Sobel" [18].

Les masques de convolution de Roberts sont :


" # " #
1 0 0 1
et (3.8)
0 −1 −1 0

La figure suivante nous montre les contours détectés par ces filtres :

30
Figure 3.10 – Détection de contour par les différents filtres.

3.6.3.1.2 L’approche Laplacien

Dans cette approche, l’extraction des contours est basée sur le calcul des dérivées se-
condes (le Laplacien) [18].

∂ 2f ∂ 2f
∇f (i, j) = (i, j) + (i, j) (3.9)
∂x2 ∂y 2
L’approximation des deux dérivées est donnée par la relation suivante :

∇2 f = f (x + 1, y) + f (x − 1, y) + f (x, y − 1) + f (x, y + 1) − 4f (x, y) (3.10)


Les plus simples opérateurs du Laplacien est donnée par l’application des masques sui-
vants :

• Laplacien en connexité 4 :  
0 1 0
 1 −4 1  (3.11)
 

0 1 0
• Laplacien en connexité 8 :  
1 1 1
 1 −8 1  (3.12)
 

1 1 1

31
La figure suivante représente la détection de contour en utilisant le Laplacien :

Figure 3.11 – Image originale (à gauche), contour détecté par le Laplacien.

3.6.3.2 Méthodes analytiques


3.6.3.2.1 Approche de Canny et Deriche

Elle consiste à trouver un filtre optimal satisfaisant les 3 contraintes suivantes :

• Une bonne détection : faible probabilité d’oublier un vrai point de contour et


une faible probabilité de marquer un point image comme contour alors qu’il ne l’est
pas.

• Une bonne localisation : les points contours doivent être le plus près possible
de leur position réelle dans l’image.

• Une réponse unique : à un contour unique : un point de contour ne doit être


détecté qu’une seule fois par le filtre mis en oeuvre.

Le détecteur de contour de Canny est le plus utilisé. Il est basé sur trois critères : la détec-
tion (robustesse au bruit), la localisation (précision de la localisation du point contour),
l’unicité (une seule réponse par contour).

Au filtre de Canny, Deriche a proposé un autre filtre (condition initiale différente) qui
permet une simplification de son implémentation nous préférons souvent le détecteur de
Deriche, qui répond exactement aux mêmes critères de qualité que celui de Canny [20].

3.6.3.3 Méthodes déformables


Les modèles déformables,introduits par Kass sont aussi connus sous les noms de
<< snakes >> ou << contours actif s >>.

32
L’intérêt principal des contours actifs est de détecter des objets dans une image en uti-
lisant les techniques d’évolution de courbes. L’idée est de partir d’une courbe initiale,
généralement un carré ou un cercle, et de la déformer jusqu’à obtenir le contour de l’ob-
jet.
En effet,celui-ci présente quelques inconvénients tels que la sensibilité à l’initialisation, au
bruit, et le réglage difficile de ses différents paramètres [21].

3.6.3.3.1 Contours actifs

Les contours actifs tirent leur origine des modèles élastiques, mais la communauté s’ac-
corde à les attribuer à l’équipe Kass, Witkin et Terzopoulos, qui introduisirent les Snakes
ou courbes minimisantes. Les snakes tiennent leur nom de leur aptitude à se déformer
comme des serpents.
L’approche est variationnelle, c’est à dire que l’équation d’évolution du contour actif se
déduit de la minimisation d’une énergie modélisant l’objet d’intérêt. Depuis la publica-
tion de cette équipe, les modèles déformables sont devenus un sujet très important pour
la communauté du traitement d’images [22].

Principe de fonctionnement des contours actifs :

Un contour actif est une courbe définie dans l’image et qui est capable de se mouvoir
sous l’influence de plusieurs forces qui vont la tirer ou la pousser vers la forme. Un snake
consiste à placer aux alentours de l’objet à détecter une ligne initiale de contour, l’évolu-
tion se fait à travers un processus itératif qui déforme la courbe à chaque itération jusqu’à
sa position finale [22].

3.6.4 Les limites de segmentation par contour


Les principales limites des méthodes de détection de contour sont les suivantes [23] :

• Les contours extraits selon les méthodes classiques souvent ne correspondent pas
nécessairement à la limite des objets. Dans de nombreuses images de basse qualité,
quelques-unes des méthodes produisent des faux contours.

• Les techniques de détection de contour dépendent de l’information contenue dans


le voisinage local de l’image. Il n’y a pas d’information globale.

• Il est souvent difficile d’identifier et de classer les contours parasites.

33
Chapitre 4

Les méthodes de segmentation


implémentées

4.1 Introduction
La segmentation prend un rôle prépondérant dans le traitement d’image, elle est faite
avant les étapes d’analyse et de prise de décision dans plusieurs processus d’analyse
d’image, telle que la détection des objets. Elle facilite la localisation et la délimitation
des entités présentes dans l’image. Nous avons discuté les différents méthodes de segmen-
tation dans le chapitre précédent.

Dans ce chapitre, nous allons mettre l’accent sur des méthodes des 3 approches de la
segmentation en détails.

4.2 Méthodes de segmentation basée sur l’approche


pixel
4.2.1 Méthode d’OTSU
La méthode d’OTSU est utilisée pour effectuer un seuillage automatique à partir de
la forme de l’histogramme de l’image. Cette méthode nécessite donc le calcul préalable de
l’histogramme de l’image. L’algorithme suppose alors que l’image à binariser ne contient
que deux classes (les objets et l’arrière-plan).

L’algorithme itératif calcule alors le seuil optimal T qui sépare ces deux classes afin que
la variance intra-classe σw2 (T ) (moyenne pondérée des variances de chaque classe) soit
minimale .

T = arg min σw2 (T )


T
(4.1)
= arg min q1 (T )σ12 (T ) + q2 (T )σ22 (T )
T

• Pour la classe 1 :

34
Proportion :
T
X
q1 (T ) = p(i) (4.2)
i=0

Moyenne :
T
1 X
m1 (T ) = ip(i) (4.3)
q1 (T ) i=0

Variance :
T
1 X
σ12 (T ) = (i − m1 (T ))2 p(i) (4.4)
q1 (T ) i=0

Les intensités i sont à valeurs dans 0, ...l − 1, p(i) = h(i)/(M × N ) est l’histo-
gramme normalisé et h l’histogramme.

• Pour la classe 2 :

Proportion :
L−1
X
q2 (T ) = p(i) (4.5)
i=T +1

Moyenne :
L−1
1 X
m2 (T ) = ip(i) (4.6)
q2 (T ) i=T +1

Variance :
L−1
1
σ22 (T ) (i − m2 (T ))2 p(i)
X
= (4.7)
q2 (T ) i=T +1

Implémentation :

Calculer pour tous les seuils T = 0, ...L − 1, la variance intra-classe σw2 (T ), et retenir
le seuil T qui minimise σw2 (T ).

Pour T = 0 → L − 1 :

| Calculer σw2 (T )

Choisir T̂ = arg minT σw2 (T )


Résultats :(voir programme 1)

35
Figure 4.1 – Image segmentée avec méthode d’otsu

Le seuil calculée par la méthode d’otsu : T=0.3373.

Le temps d’exécution : 0.385416 secondes.

Limitations :

• Problèmes pour les images mal éclairés.

• très sensible au bruit.

4.2.2 Méthode K-means :


4.2.2.1 Présentation
La méthode des k-means a été introduite par J. McQueen en 1971 et mise en oeuvre
sous sa forme actuelle par E.Forgy. De nombreuses variantes se sont succédées depuis
afin d’étendre ses capacités de classification (séparations non linéaires) : kernel k-means
(k-means basée sur des méthodes à noyaux), améliorer ses performances : global-k-means,
Harmonicmeans, automatiser le choix du nombre de clusters : Gaussian-means,X-means.
Dans le cadre de la classification non supervisée, on cherche généralement à partitionner
l’espace en classes concentrées et isolées les unes des autres. Dans cette optique, l’algo-
rithme des k-means vise à minimiser la variance intra-classe, qui se traduit par la mini-
misation de l’énergie suivante :
1 XX
E= kx − mc k2 (4.8)
2 c∈C x∈c
1X
E= #c × V(c) (4.9)
2 c∈C
1X
E= min kx − mc k2 (4.10)
2 x∈C

avec C l’ensemble des clusters et pour chaque cluster c, mc son centre (appelé noyau),
V (c) sa variance et D = Uc∈C l’ensemble des données que l’on cherche à classer.

36
4.2.2.2 L’algorithme des k-means
Dans cette section, nous présentons l’algorithme K-means pour la classification de
pixels. Le but principal de cet algorithme est de servir de méthode de segmentation
d’images en séparant ses différentes régions ou classes de pixels. En appliquant les règles
de base de cet algorithme, l’algorithme décèle les centroids des classes dont le nombre est
prédéfini par l’utilisateur.

Pour ce type d’algorithme, il faut toujours définir le nombre de classes avant le début
du traitement. En premier lieu, un nombre de pixels équivalent au nombre de classes
est déterminé, ces pixels seront considérés comme étant les centres des classes initiales.
Ensuite chaque pixel est mis dans la classe ayant le centre le plus proche. On calcule les
centres de gravité de ces nouveaux ensembles qui sont considérés à leur tour comme étant
les nouveaux centres des classes et on réitère l’opération. On répète ce processus jusqu’à ce
qu’il y ait stabilité des classes et de leur centre. Ainsi l’algorithme des k-moyennes classe
les objets selon leurs attributs en k parties (ou clusters) en supposant que les attributs
des objets forment un espace vectoriel. L’objectif est de minimiser la variance intra-cluster.

Dans notre cas, les centroids sont présentés par des niveaux de gris particuliers auxquels
seront affectés les pixels en fonction de la distance de similarité entre le niveau de gris de
ces derniers et ceux des centroides. Les étapes de l’algorithme k-means sont détaillées par
le pseudo Algorithme :

La figure 4.2 illustre le processus de cet algorithme

37
Figure 4.2 – Exemple illustratif du déroulement de l’algorithme des K-Means.

 
a) Initialisation : L’initialisation des K centroides Si(i=1..k) peut se faire de deux
manières différentes :

Manuellement : l’utilisateur a la liberté de choisir manuellement les k centroides


initiaux dans l’image, et selon le nombre et les valeurs des centroides choisis,
la segmentation est faite. Le but de cette option est d’offrir à l’utilisateur la
possibilité de choisir les classes selon son expertise et sa vision personnelle.

Aléatoirement : un nombre de classes k est donné en entrée puis les k-centroides


sont choisis aléatoirement par rapport à leur valeur de niveau de gris qui doivent
être suffisamment dissimilaires.

 
b) (Re-) Affectation : Ayant défini les centroides Si(i=1..k) , l’affectation ou la ré-
affectation des pixels s’effectue selon la distance euclidienne entre le pixel et le
centroide. Le pixel est donc affecté à la classe dont la distance est minimale.

c) Calcul des nouveaux centroides : Dans notre cas la valeur du nouveau cen-
troide se calcule selon la formule ci-dessous. Il représente la valeur moyenne des
pixels appartenant à la classe i.
n
1X
Si0 = Pk (4.11)
n k=1
d) Critère d’arrêt : Le critère d’arrêt peut être le nombre d’itération ou bien une
fonction de performance F à minimiser (distance intra régions) qui peut s’exprimer
de la façon suivante :
k nb− pixel
kPj − Si k2
X X
F= (4.12)
i=1 j=1

Avec :

Pj : est la valeur du pixel j ;


Si : La valeur du centroide i

38
4.2.2.3 Résultats et discussion :
Dans cette partie on va discuter des deux grandes inconvénients majeurs de l’algo-
rithme k-means :

a) Initialisation des centres de classes :

En analysant la façon de procéder de l’algorithme de K-means, on remarque que


pour un même image, on peut avoir des résultats différents. Ceci montre que le
résultat de la classification des pixels dépend très fortement de l’initialisation des
centres. En effet, L’initialisation des tous premiers K centroids est complètement
aléatoire. Par conséquent l’algorithme trouvera des clusters différents en fonction
de cette première initialisation aléatoire (voir programme 2).

Figure 4.3 – Influence de l’initialisation des centres des classes

Il suffit de lancer K-means plusieurs fois (avec le même nombre K de clusters et des
initialisations initiales des centroids différentes) et voir la composition des clusters
qui se forment. Par la suite garder celui qui convient à votre besoin.

b) Choix du nombre K de classes :

Choisir un nombre de cluster K n’est pas forcément intuitif. Spécialement quand

39
le jeu de données est grand et qu’on n’ait pas un a priori ou des hypothèses sur
les données. Un nombre K grand peut conduire à un partitionnement trop frag-
menté des données. Ce qui empêchera de découvrir des patterns intéressants dans
les données. Par contre, un nombre de clusters trop petit, conduira à avoir, poten-
tiellement, des clusters trop généralistes contenant beaucoup de données.
Malheureusement, il n’existe pas de procédé automatisé pour trouver le bon nombre
de clusters.

La méthode la plus usuelle pour choisir le nombre de clusters est de lancer K-Means
avec différentes valeurs de K et de calculer la variance des différents clusters. La
variance est la somme des distances entre chaque centroid d’un cluster et les dif-
férentes observations inclues dans le même cluster. Ainsi, on cherche à trouver un
nombre de clusters K de telle sorte que les clusters retenus minimisent la distance
entre leurs centres (centroids) et les observations dans le même cluster. On parle
de minimisation de la distance intra-classe.

La variance des clusters se calcule comme suit :

D (cj , xi )2
X X
V = (4.13)
j xi →cj

Avec :
• cj : le centre de cluster ( le centroid).
• xi : la i ème observation dans le cluster ayant pour centroïd cj .
• D (cj , xi ) : La distance (euclidienne ou autre) entre le centre du cluster et le
point xi .

Généralement, en mettant dans un graphique les différents nombres de clusters K


en fonction de la variance, on retrouve un graphique similaire à celui-ci (voir pro-
gramme 2).

40
Figure 4.4 – Nombre optimal de K par la méthode d’Elbow

On remarque sur ce graphique, la forme d’un bras où le point le plus haut repré-
sente l’épaule et le point où K vaut 7 représente l’autre extrémité : la main.
Le nombre optimal de clusters est le point représentant le coude. Ici le coude peut
être représenté par K valant 2 ou 3. C’est le nombre optimal de clusters. Générale-
ment, le point du coude est celui du nombre de clusters à partir duquel la variance
ne se réduit plus significativement. En effet, la chute de la courbe de variance entre
1 et 3 clusters est significativement plus grande que celle entre 5 clusters et 7 clus-
ters.
Le fait de chercher le point représentant le coude, a donné nom à cette méthode :
La méthode Elbow (coude en anglais).

Finalement, le choix (au vu de ce graphique), entre 2 ou 3 clusters, reste un peu


flou et à votre discrétion. Le choix se fera en fonction de votre jeu de données et
ce que vous cherchez à accomplir. Finalement, Il n’y a pas de solution unique à un
problème de clustering.

41
4.3 Méthodes de segmentation basée sur l’approche
région
4.3.1 Segmentation par croissance de régions

Le principe d’un algorithme de type croissance de région est le suivant :

• On se fixe un point de départ dans l’image. Ce point est appelé germe de la région
cherchée.

• On se fixe un critère d’homogénéité de la région cherchée (par exemple une inten-


sité comprise entre deux valeurs ou des critères de texture).

• Par une procédure récursive (i.e de proche en proche), on inclus dans la région tous
les points connexes qui vérifient le critère.

- On fait ainsi croître la région tant que le critère est respecté.

- On obtient une région connexe.

Maintenant, nous donnons un exemple de croissance de la région. Étant donné une ma-
trice connue A :

 
1 0 4 7 5
1 0 4 7 7
 
 
 

 0 1 5 5 5 
 (4.14)

 2 0 5 6 5 

2 2 5 6 4

Nous choisissons "5" au milieu de la matrice comme un germe. On calcule la différence


absolue entre la valeur d’image en niveaux de gris et la valeur du germe. Lorsque la valeur
absolue est inférieure à un certain seuil T. Le pixel grandira dans une nouvelle germe et
à l’entourage de chaque croissance de pixel : Si le seuil T = 1, le résultat de la croissance
de région est :

 
1 0 5 7 5
1 0 5 7 7
 
 
 

 0 1 5 5 5 
 (4.15)

 2 0 5 5 5 

2 2 5 5 5

Les pixels visibles autour de la valeur de niveaux de gris de 4, 5, 6 pixels sont bien
intégrés dans la région de croissance, et les pixels de bordure ayant des valeurs de niveaux
de gris 0, 1, 2, 7 sont devenues des frontières.

42
Maintenant prenons un seuil T = 3, le résultat de la croissance de la nouvelle région
est :
 
5 5 5 5 5
5 5 5 5 5
 
 
 

 5 5 5 5 5 
 (4.16)

 5 5 5 5 5 

5 5 5 5 5
La matrice entière est divisée en une seule région.La valeur du seuil est donc très impor-
tante.

Résultats et discussion (voir programme 3) :

L’avantage de la méthode de croissance de régions est de préserver la forme de chaque


région de l’image, ainsi qu’elle est rapide, simple, et facile à implémenter. Cependant elle
présente des limitations :

• Les régions obtenues dépendent fortement des pixels d’amorçage choi-


sis(germes)

(b) Image après sélectionner (c) image après la croissance


(a) Image originale le germe de région

(e) Image après sélectionner (f) image après la croissance


(d) Image originale le germe de région

Figure 4.5 – Résultats par croissance de région

43
• Le résultat est très sensible à la valeur du seuil :

La figure 4.6 montre nettement que le résultat final dépend très sensiblement du
seuil. Une variation minime du seuil peut conduire à des modifications importantes.

(a) Image originale (b) seuil=0.05 (c) seuil=0.1

(d) seuil=0.2 (e) seuil=0.4 (f) seuil=0.5

Figure 4.6 – Images représentant l’influence du seuil sur le résultat de la CR.

• Les régions obtenues dépendent fortement de l’ordre dans lequel les


pixels de la frontières sont examinés :

La figure 4.7 illustre le problème de l’ordre du parcours des pixels voisins. En


effet considérons trois pixels adjacents a,b et c dont les intensités respectives sont
8,10 et 11 (par exemple, l’intensité en niveaux de gris). Le seuil est 2 et la région
initiale est constituée du pixel b. Deux schémas de regroupement pour les points
frontière a et c sont possibles. Le pixel central b est le germe.

44
Figure 4.7 – Influence de l’ordre du traitement des pixels sur le résultat de la segmenta-
tion CR.

Compte tenu du seuil S = 2, a et c sur la frontière devraient être ajoutés à le germe


b.Si l’on commence par tenter d’agréger a, le résultat du regroupement, noté [ab],
a pour intensité moyenne 9 et c s’y ajoute ensuite puisque |11 − 9| ≤ s . On a
donc regroupé a,b et c.Si maintenant l’algorithme commence par examiner le point
frontière c, le groupement de b et c donne [bc] dont l’intensité est 10,5. Le point
frontière a d’intensité 8 est trop éloigné par rapport à [bc] et il est considéré comme
appartenant à une autre région. On obtient donc deux groupements au lieu de un.

Cet exemple illustre comment l’ordre d’examen des points sur la frontière peut
influencer sur le résultat de l’algorithme. Ainsi, cet algorithme est également très
sensible au choix des amorces.

45
4.4 Méthodes de segmentation basée sur l’approche
contour
4.4.1 Introduction
La mise en évidence des points représentant les contours d’objets dans une image peut
servir à reconnaître des objets présents dans une scène,à différencier des zones de l’image,
à faire de la segmentation d’images, à extraire une information réduite souvent pertinente
pour caractériser l’image.

Un contour se matérialise par une rupture d’intensité dans l’image suivant une direc-
tion donnée. Plusieurs méthodes existent pour détecter cette rupture, les unes plus ou
moins complexes,les autres plus ou moins gourmandes en calculs. Dans la plupart des
cas et en particulier pour ceux présentées ici, la même méthodologie est employée. Elle
s’applique en deux étapes : la première permet de localiser les contours à partir d’un
calcul de Gradient ou de Laplacien dans des directions privilégiées tout en quantifiant
l’importance du contour.La seconde étape va permettre d’isoler les contours du reste de
l’image à partir d’un seuillage judicieux. Plusieurs méthodes permettent de déterminer le
Gradient ou le Laplacien d’une image. Il en est de même des techniques de seuillage. Ces
deux étapes sont indépendantes, il existe donc un grand nombre de combinaisons calcul
de Gradient-opération de seuillage conduisant à la mise en évidence des contours.

Dans cette section, on va décrire dans la première partie les techniques de calcul du Gra-
dient (détecteurs par masques de Roberts, Prewitt, Sobel). La seconde partie focalise sur
les types de seuillage pouvant être appliqués sur le module du gradient de l’image. La troi-
sième partie aborde les calculs de Laplacien (filtre laplacien, filtre « chapeau mexicain »).

4.4.2 Utilisation de l’opérateur Gradient


4.4.2.1 Principes
En considérant l’image dans un repère orthogonal(Oxy) tel que (Ox) désigne l’axe
horizontal et (Oy) l’axe vertical, le Gradient de l’image(ou plutôt de la luminance f ) en
tout point ou pixel de coordonnées (x, y) est désigné par :
∂f
!
~ =
Grad f = ∇f ∂x
∂f (4.17)
∂y

Le module du gradient permet de quantifier l’importance du contour mis en évidence,


c’est-à-dire l’amplitude du saut d’intensité relevé dans l’image :
v
u !2 !2
~ k=
u ∂f ∂f
k∇f t
+ (4.18)
∂x ∂y
La direction du gradient permet de déterminer l’arête présente dans l’image. En effet, la
direction du gradient est orthogonale à celle du contour :
!
∂f /∂y
α0 = arctan (4.19)
∂f /∂x

46
Le principe de la détection de contours par l’utilisation du gradient consiste à calcu-
ler d’abord le gradient de l’image dans deux directions orthogonales puis le module du
gradient. Il s’agira ensuite d’effectuer une sélection des contours les plus marqués, c’est-à-
dire les points de plus fort contraste par un seuillage adéquat, les directions des contours
étant orthogonales à la direction α0 déterminée en tout pixel de l’image (voir ci-dessous).

Figure 4.8 – Synoptique d’une détection de contours par gradient

4.4.2.2 Quelques opérateurs gradient


Ces opérateurs sont à considérer comme des filtres qui vont être corrélés à l’image. Les
réponses impulsionnelles de ces filtres peuvent se présenter sous la forme de fonctions ana-
lytiques souvent d’une seule variable ou bien sous la forme de masques bi-dimensionnels.
Dans les deux cas le filtrage a lieu en deux étapes : un filtrage suivant les lignes de l’image
puis suivant les colonnes dans le cas d’une expression monodimensionnelle de la réponse
impulsionnelle du filtre, une corrélation bi-dimensionnelle de l’image avec deux masques
modélisant deux contours dans des directions orthogonales dans l’autre cas.

Pour chaque opérateur, deux masques sont utilisés de façon à déterminer le gradient
de l’image dans deux directions orthogonales.

4.4.2.2.1 Approximation de base

Le masque le plus intuitif à mettre en oeuvre est un masque à deux éléments :

47
L’origine du masque est le point -1.

Dans le repère ci-dessus, la réponse impulsionnelle h(m, n) du masque est définie par :

h(0, 0) = −1
h(1, 0) = 1

La corrélation de ce masque avec une image de luminance f (i, j) s’écrit :


1 X
X
h(m, n)f (m+i, n+j) = h(0, 0)f (i, j)+h(1, 0)f (i+1, j) = f (i+1, j)−f (i, j) (4.20)
m=0 n=0

Il s’agit bien d’un calcul de gradient suivant l’axe horizontal. En faisant subir une rotation
de π/2 au premier masque,il apparaît le filtre suivant dont l’origine est le point 1 :

La réponse impulsionnelle est telle que :

h(0, 0) = 1
h(0, −1) = −1

La corrélation de ce masque avec l’image f (i, j) permet bien d’implanter un gradient dans
la direction verticale :
0
X X
h(m, n)f (m + i, n + j) = h(0, 0)f (i, j) + h(0, −1)f (i, j − 1) = f (i, j) − f (i, j − 1)
m=0 n=−1
(4.21)
La figure 4.9 illustre un exemple de gradient en utilisant l’opérateur de Roberts (voir
programme 4).

48
(a) Image originale (b) Contours horizontaux (c) Contours verticaux

(d) Module

Figure 4.9 – Exemple d’application de l’approximation de base

4.4.2.2.2 Opérateur de Roberts

Ce masque proposé en 1965 permet de calculer un gradient le long des diagonales de


l’image :
0 1
−1 0

L’origine est le point 1 tandis que la réponse impulsionnelle s’écrit :


h(0, 0) = 1
h(−1, −1) = −1

La sortie obtenue après filtrage est :


0 X
X 0
h{m, n}f (m+i, n+j) = h(0, 0)f (i, j)+h(−1, −1)f (i−1, j−1) = f (i, j)−f (i−1, j−1)
n=1 n=1
(4.22)
Le deuxième masque se déduit du premier par rotation de π/2 :

1 0
0 −1

L’origine est le point du haut à droite si bien que la réponse impulsionnelle est telle que :
h(−1, 0) = 1
h(0, −1) = −1

49
La sortie obtenue après filtrage est :
0 X
X 0
h{m, n}f (m+i, n+j) = h(−1, 0)f (i−1, j)+h(0, −1)f (i, j−1) = f (i−1, j)−f (i, j−1)
n=1 n=1
(4.23)

(a) Image originale (b) Contours horizontaux (c) Contours verticaux

(d) Module

Figure 4.10 – Exemple d’application de l’opérateur de Roberts

Le majeur inconvénient de ces masques réside dans leur forte sensibilité au bruit du fait de
l’implantation de la dérivation qui se traduit par un filtrage passe-haut. D’autres masques
ont ainsi été proposés afin de rendre le filtrage moins sensible au bruit.

4.4.2.2.3 Opérateurs de Prewitt et Sobel

Le calcul de gradient est mené par l’intermédiaire de deux masques, le premier effectuant
un gradient horizontal, le second un gradient vertical.Là encore, le deuxième masque se
déduit du premier par une rotation de π/2 . Les masques sont donnés ci-dessous pour les
contours horizontaux puis verticaux.

50
Lorsque c=1, il s’agit des opérateurs de Prewitt, lorsque c=2, de ceux de Sobel. Par
rapport aux précédents, ces masques ont l’avantage de produire deux effets. Outre le calcul
du gradient dans une direction, ces masques effectuent un lissage dans la direction ortho-
gonale. Ce lissage rend ces masques un peu moins sensibles au bruit que les précédents.
L’origine de ces masques est toujours le pixel central. La réponse impulsionnelle h(m,n)
des filtres de Prewitt et Sobel pour la mise en évidence des contours horizontaux est telle
que :
h(1, −1) = h(1, 1) = 1
h(−1, 1) = h(−1, −1) = −1
h(1, 0) = c
h(−1, 0) = −c
La sortie obtenue après filtrage est :
P1 P1
m=−1 n=−1 h(m, n)f (m + i, n + j) = −f (i − 1, j − 1) − cf (i − 1, j) − f (i − 1, j + 1)
+f (i + 1, j − 1) + cf (i + 1, j) + f (i + 1, j + 1)
(4.24)

L’équation laisse apparaître la double action avec un moyennage horizontal sur trois pixels
sur les lignes au dessus et au dessous du pixel central et un calcul de gradient vertical
entre les deux lignes.
Pour la mise en évidence des contours verticaux, c’est l’autre masque qui est utilisé.La
sortie obtenue après filtrage peut se mettre sous la forme :
P1 P1
m=−1 n=−1 h(m, n)f (m + i, n + j) = (f (i + 1, j + 1) + f (i − 1, j + 1) + cf (i, j + 1))
−cf (i, j − 1) − f (i − 1, j − 1) − f (i + 1, j − 1)
(4.25)
Cette écriture permet elle aussi de mettre en évidence la double action : un gradient
horizontal est en effet calculé sur trois lignes puis un lissage vertical est opéré.
Les deux écritures employées montrent bien que les deux actions, lissage et dérivation, du
filtrage de Prewitt ou de Sobel sont séparables.
La figure suivante propose une illustration de l’application des masques de Sobel (voir
programme 4).

51
(a) Image originale (b) Contours horizontaux (c) Contours verticaux

(d) Module

Figure 4.11 – Exemple d’application de l’opérateur de Sobel

4.4.3 Méthodes de seuillage


4.4.3.1 Introduction
Les méthodes précédentes ont permis de déterminer le module du gradient d’une image
qui permet effectivement de mettre en évidence les contours présents. A ce niveau, l’image
obtenue s’exprime en niveaux de gris indiquant ici l’importance de chaque rupture d’in-
tensité. Une nouvelle étape est alors nécessaire de façon à aboutir à une information plus
tranchée : y-a-t-il présence de contours ou non ? L’image Ib (i, j) résultant de ce traite-
ment est en noir et blanc.Les pixels blancs(de valeur 1) attestent de la présence d’un
contour,les pixels noirs (de valeur 0) de l’absence.Le traitement permettant de sélection-
ner les contours les plus significatifs dans l’image représentant le module du gradient est
le seuillage. Il s’agit de binariser l’image IM (i, j) du module du gradient. Cette opération
nécessite le réglage d’un paramètre :le seuil S. Si la valeur du module du gradient en
un pixel de l’image dépasse le seuil fixé, la valeur résultante du pixel est 1. Dans le cas
contraire, la valeur du pixel est fixée à 0 :

1 si IM (i, j) > S
Ib (i, j) = (4.26)
0 sinon

4.4.3.2 Seuillage globale


La première solution pour fixer le seuil est de procéder par tâtonnement à partir de
l’image en noir et blanc résultante censée mettre en évidence les contours. Le seuil corres-
pond à une valeur réelle dans l’intervalle [0,1]. Au préalable, il est nécessaire de normaliser

52
l’image du module du gradient afin que tous les pixels se trouvent également dans l’inter-
valle [0, 1]. Cette méthode est très simple mais peu efficace.
La figure ci-dessous illustre un exemple de seuillage globale (S=60,120) en utilisant l’opé-
rateur de Sobel (voir programme 5).

(a) Image originale (b) gradient du sobel

(c) Seuillage avec seuil S=60 (d) Seuillage avec S=120

Figure 4.12 – Exemple d’application de l’opérateur de Sobel

4.4.3.3 Seuillage local par hystérésis


Dans cette technique de seuillage contrairement aux précédentes, le traitement n’est
pas identique en tout point de l’image. On s’intéresse ici aux pixels avoisinant les contours
les plus significatifs de l’image. L’idée est de garder les contours les plus forts de l’image
mais en essayant d’assurer leur continuité. Deux seuils sont nécessaires pour implanter
la technique : un seuil haut Sh et un seuil bas Sb . Le seuil haut va servir à sélection-
ner les contours les plus significatifs dans l’image du module du gradient. Ces contours
sont contenus dans l’image résultante en noir et blanc. Le seuil bas permet de mettre en
évidence des contours moins forts de l’image. Ces contours sont conservés dans l’image
résultante seulement s’ils sont situés dans le voisinage des contours les plus significatifs
mis en évidence par le seuillage avec Sh . Généralement le voisinage est défini par les huit
voisins.

Algorithme

53
• Extraction des pixels de niveau supérieur à Sh . Ce sont les pixels P 1 .
• Extraction des pixels de niveau compris entre Sb et Sh . Ce sont les pixels P 2.
• Sélection pour représenter les contours des pixels P 1 et des pixels P2, connexes
aux pixels P 1.
La figure 4.13 illustre un exemple de seuillage par hystérésis avec un seuil haut
= 80 et seuil bas = 60 (voir programme 5)

(a) Image originale (b) Hystérésis avec Sh = 80 et Sb = 60

Figure 4.13 – Exemple de résultat d’un seuillage par hystérésis


La difficulté de cette technique réside dans le choix des seuils Sb et Sh .

4.4.4 Utilisation du calcul du Laplacien


4.4.4.1 L’opérateur Laplacien
Les opérateurs de gradient vus précédemment exploitent le fait qu’un contour dans une
image correspond au maximum du gradient dans la direction orthogonale au contour.Or
le passage par zéro de la dérivée seconde d’une rupture d’intensité permet également de
mettre en évidence le contour.La dérivée seconde est donc déterminée par le calcul du
Laplacien : ! !
2 ∂ 2f ∂ 2f ∂ ∂f ∂ ∂f
∇f= + 2 = + (4.27)
∂x2 ∂y ∂x ∂x ∂y ∂y
qui peut s’écrire :

∇2 f = ∇x (f (x + 1, y) − f (x, y)) + ∇y (f (x, y + 1) − f (x, y)) (4.28)

or on peut définir :

∇x (f (x + 1, y) − f (x, y)) = f (x + 1, y) − f (x, y) − (f (x, y) − f (x − 1, y))


(4.29)
∇x (f (x + 1, y) − f (x, y)) = f (x + 1, y) + f (x − 1, y) − 2f (x, y)

et
∇y (f (x, y + 1) − f (x, y)) = f (x, y + 1) − f (x, y) − (f (x, y) − f (x, y − 1))
(4.30)
∇y (f (x, y + 1) − f (x, y)) = f (x, y + 1) + f (x, y − 1) − 2f (x, y)

54
Ainsi le laplacien peut s’écrire :
∇2 f = f (x + 1, y) + f (x − 1, y) + f (x, y + 1) + f (x, y − 1) − 4f (x, y) (4.31)
Cette opération de calcul de Laplacien peut alors être appliquée à une image par l’inter-
médiaire d’un filtrage avec le masque 3 ∗ 3 suivant :

0 1 0
1 −4 1
0 1 0
D’autres masques peuvent être utilisés :
0 1 0 −1 −1 −1 1 −2 1
1 −4 1 −1 −8 −1 −2 4 −2
0 1 0 −1 −1 −1 1 −2 1

la figure 4.14 illustre une application du laplacien en utilisant les masques ci dessous (voir
programme 6)
0 1 0
1 −4 1
0 1 0
et
−1 −1 −1
−1 −8 −1
−1 −1 −1

(b) laplacien en utilisant le 1 (c) laplacien en utilisant le 2


(a) Image originale er masque éme masque

Figure 4.14 – Exemple d’obtention des contours par utilisation du Laplacien

4.4.4.2 Le filtre de Marr ou Laplacien de Gaussienne ou chapeau mexicain


Le remède contre la sensibilité au bruit de la double dérivation est à la base des travaux
de Marr qui ont débouché sur l’utilisation d’un filtre gaussien en guise de filtre passe-bas
pour h(x, y). Filtrer l’image a pour conséquence de réduire les variations d’intensité,ce qui
doit être raisonnable. Le filtre doit en effet avoir une largeur spectrale limitée. Or c’est la
fonction gaussienne qui permet d’obtenir l’égalité dans le principe d’Heisenberg, d’où ce
choix qui se traduit par :
1 −(x2 +y2 )/2σ2
h(x, y) = e (4.32)
2πσ 2
55
La dérivée de la fonction gaussienne bi-dimensionnelle s’écrit alors :

(x + y) −(x2 +y2 /2σ2


h0 (x, y) = − e (4.33)
2πσ 4
Et la dérivée seconde s’exprime :
!
00 1 x2 + y 2 − x2 +y2 2
h (x, y) = − 4 1 − e 2σ (4.34)
πσ 2σ 2

La figure ci-dessous illustre un exemple d’application du laplacien gaussienne (voir pro-


gramme 7).

(a) Image originale bruitée (b) Allure (c) Après filtrage

Figure 4.15 – Application du filtre Laplacien de Gaussienne

56
Conclusion et perspectives

La segmentation d’image est une étape cruciale dans tout processus d’analyse et de
traitement d’image. Elle consiste à préparer l’image afin de la rendre plus exploitable
par un processus automatique telle que l’interprétation. On regroupe généralement les
algorithmes de segmentation en trois grandes classes : segmentation basée sur les pixels,
segmentation basée sur les régions et segmentation basée sur les contours.
Dans ce mémoire,nous nous sommes intéressés aux différents méthodes de segmentation
des trois approches :

La première est la méthode d’otsu : qui est utilisée pour effectuer un seuillage auto-
matique à partir de la forme de l’histogramme de l’image.

La deuxième est la méthode de K-means : elle est basé sur la classification non supervisée,
cet méthode permet d’organiser les pixels de l’image sous forme de classes.

La troisième est la méthode par croissance de régions consiste à faire croitre chaque région
autour d’un pixel de départ.

La quatrième est les méthodes dérivatives (le gradient, laplacien) qui permet de détecter
les variations locales d’intensité.

Nous envisageons un certain nombre de perspectives aux travaux présentés dans cette
thèse.
Nous donnons quelques axes possibles en vue d’améliorer et d’orienter les futures re-
cherches à la fois sur les problèmes généraux de la segmentation d’images et sur les appli-
cations particulières de la segmentation d’images en imagerie médicales.

- Nous avons testé sur des images médicales en niveaux de gris , il est intéressant
d’appliquer ces approches dans le cas des images couleurs.
- Nous avons vu dans le chapitre 4 des limitations et problèmes des différents ap-
proches :
• L’algorithme K-means souffre des problèmes d’initialisation, il serait intéressant
de surmonter cette difficulté.
• L’algorithme de segmentation par croissance de régions souffre de l’initialisation
des germes, de l’ordre de parcours des pixels voisins et du problème du seuil.Il
serait intéressant de concevoir un seul algorithme complet qui détermine à la
fois les germes, l’ordre et le seuil optimaux.
• Nous avons présenté quelques approches permettant d’ extraire les contours
d’une image. Nous avons également détaillé les différents types de seuillage
pouvant être utilisés notamment pour sélectionner les contours de plus forte

57
(a) Image originale (b) gradient du sobel

(c) Seuillage avec seuil S=60 (d) Seuillage avec S=120

importance. Certaines méthodes sont simples à mettre en oeuvre et donnent des


résultats assez corrects ( filtrage de Sobel ) . D’autres méthodes comme le Lal-
pacien de Gaussienne plus complexes, permettent généralement une meilleure
approche des contours. Il existe néanmoins plusieurs autres méthodes non abor-
dées ici qui offrent des perspectives très intéressantes.

58
Bibliographie

[1] Wikipedia.org.
[2] J. Vézien. Traitement des images et vision par machine.
[3] S. Dubuisson. Fondements du Traitement d’images. Novembre 2006.
[4] M. BENAZZOUZ. Analyse intelligente des images médicales : application
aux images microscopiques de cytologie. Thèse de doctorat. Université Abou
Bekr Belkaid( Tlemcen).
[5] S. GHANDOUR. Segmentation d’images couleurs par morphologie mathé-
matique : application aux images microscopiques. Thèse de doctorat, 2010.
[6] M.Bergounioux. Quelques méthodes mathématiques pour le traitement
d’image.
[7] http ://www.map.toulouse.archi.fr/works/panoformation/imagenum/imagenum.html
[8] A.Medjaoui , F.Fares. Segmentation des images par contours actifs : applica-
tion sur les Images Satellitaires à Haute Résolutions. Université Abou Bakr
Belkaid ( Tlemcen), 2012.
[9] S.Benfriha, A.Hamel. Segmentation d’image par Coopération région-contours.
Université KasdiMerbah-Ouargla, 2016.
[10] A.El Allaoui. Contributions à la Segmentation d’Images par Approches Évo-
lutionnistes : Applications aux Images Médicales. Thése de doctorat, 2013.
[11] H.Meriém, R.Mamcha Imén. Segmentation d’images médicales par morpolo-
gie mathématiques. Master en génie biomédical. Université Abou Bakr Belkaïd de
Tlemcen, 2016.
[12] http ://www.tsi.enst.fr/pages/enseignement/ressources/beti/hyste-dyn/node2.html
[13] L.Lechlek, M.Ghougal. La segmentation d’image médicale par la méthode
d’ensemble de niveaux (level sets). Thèse de Master. Université Larbi Ben M’hidi
Oum El Bouaghi.
[14] M.Sandeli. Traitement d’images par des approches bio-inspirées. Thèse de
Master. Université Constantine 2.
[15] S.Belmerabet, N.Bardjak. Segmentation d’image. Thèse de Master. Université
Larbi Ben M’hidi Oum El Bouaghi.
[16] N.Aissou, A.Benkaci. Méthode coopérative pour la segmentation d’image :
Application a l’imagerie médicale . Thèse de Master. Université Abderrahmane
Mira-Bejaia.
[17] A.Bitam. Analyse et Segmentation d’image multispectrales, application aux
images MSG . Thèse de doctorat. Université Tizi-ouzo.

59
[18] C.Houassine. Segmentation d’images par une approche biomimétique hy-
bride. Université universite mohamed bougara-boumerdes.
[19] Y. Gousseau, H.Maitre, D. Matignon, B. Pesquet-Popescu, F. Schmitt. Le traite-
ment des images. Polycopie du cours ANIM. Département TSI -Télécom-Paris.
[20] J.Canny. A computational approach to edge detection, IEEE Trans.On Pat-
tern Analysis and Machine Intelligence.
[21] M.Kass, A.Witkin, D.Terzopoulos Snakes :active contour models . International
journal of computer vision,1987.
[22] M.Sandeli. Traitement d’images par des approches bio-inspirées application
à la segmentation d’images. Université constantine.
[23] M.Melliani. Segmentation d’image par cooperation regions-contours. Thèse
de Master, Ecole national supérieur d’informatique.

60