Vous êtes sur la page 1sur 56

Université Sidi Mohammed Ben Abdellah

Ecole Nationale des Sciences Appliquées de Fès

Cours Traitement d’image

Troisième année GMSA & GIND

Réalisé par : Pr Ghizlane KHAISSIDI

Cours TI G.KHAISSIDI 1
Sommaire

I. Introduction au traitement d’image


1. Introduction & applications
2. Acquisition & Numérisation d’image
3. Définitions et caractéristiques d’image numérique
II. Restauration et rehaussement
1. Opérations ponctuelles
2. Histogramme
3. Étirement d’histogramme
4. Egalisation
5. Transformations linéaires des niveaux de gris
III. Filtrage
1. Définition du bruit
2. Filtrage fréquentiel
3. Filtrage spatial par convolution
4. Filtrage non linéaire
IV. Segmentation
1. Seuillage
2. Extraction de contour
3. Extraction des régions d’intérêt
V. Morphologie mathématiques
1. Erosion
2. Dilatation
3. Ouverture et fermeture

Cours TI G.KHAISSIDI 2
Chapitre I : Introduction au traitement d’image

1. Introduction & applications

Le traitement d'images est une branche du traitement de signal dédiée aux images et vidéo.

Le traitement d'images est l'ensemble des opérations effectuées sur l’image, afin d’en
améliorer la lisibilité et d’en faciliter l’interprétation. C'est, par exemple, le cas des
opérations de rehaussement de contraste, élimination du bruit et correction d’un flou. C'est
aussi l'ensemble d’opérations effectuées pour extraire des "informations" de l’image comme
la segmentation et l'extraction de contours.

Avant le traitement d'images, on peut aussi effectuer des opérations de prétraitement qui
sont toutes les techniques visant à améliorer la qualité d'une image. De ce fait, la donnée de
départ est l'image initiale et le résultat est également une image.

Les opérations de traitement peuvent être divisées en deux niveaux :

 Le traitement bas-niveau qui se construit autour des méthodes d’analyses d’image


ayant pour but d'extraire des caractéristiques des images et d'analyser sans les
interpréter (contours, texture, par exemple). C’est des données de nature numérique
 Le traitement haut-niveau intègre l’ensemble des méthodes permettant d’interpréter
les caractéristiques issues du bas-niveau (prise de décision, classification, IA) C’est
des entités de nature symbolique associées à une représentation de la réalité extraite
de l’image.

Historique

 1950-1970 : Images Rayons X

Amélioration de la qualité des images pour l’affichage

 1970-1980 : Extraction automatique d’informations

seuillage, segmentation, extraction de contours

Cours TI G.KHAISSIDI 3
morphologie mathématique

MAIS Problèmes de modélisation ! Puissance de calcul insuffisante

 1980 : Image 2D  modèle 3D

Analyse du mouvement

Application : Robotique et guidage de véhicule

Vision active

Domaines d’applications  :

Le traitement d’image est un champ multidisciplinaire. Il trouve ses applications dans


plusieurs domaines tel que :

 Compression d’images

 Amélioration d’images en vue d’un meilleur rendu visuel (télévision)

 Imagerie biomédicale : compter des cellules dans des images microscopiques

 Identification de personnes : reconnaître des empreintes digitales, des visages

 Authentification (de billets de banque par exemple…)

 Aide à la conduite : guidage latéral de véhicule

 Surveillance de la qualité d’une chaîne de production,

 Reconnaissance de l’écriture,

 Imagerie satellitaire

 Indexation d’images : organiser automatiquement des grandes bases d’images en


fonction de leur contenu

2. Acquisition & Numérisation d’image

Le domaine de la vision par ordinateur est à la croisée de plusieurs disciplines. Il constitue un


pôle de recherche à part entière mais rassemble des mathématiciens, informaticiens,
physiciens, biologistes dans les équipes de recherche. Que ce soit pour définir de nouveaux
modèles numériques de traitement ou de nouvelles applications. Partant de là, les

Cours TI G.KHAISSIDI 4
techniques et les cadres théoriques utilisés pour faire parler une image sont de natures très
diverses. On pourra voir l'image ou un élément d'image comme :

- une fonction continue de deux variables


- une matrice discrète
- la réalisation d'une variable aléatoire
- une plaque-mince déformable
- etc...

Un système de vision est constitué principalement de trois étapes :

 Acquisition : scène physique  représentation numérique.


 Traitement : Extraction de l’information pertinente par segmentation  description
structurelle de l’image.
 Interprétation : description structurelle  description sémantique.

L’acquisition d’une scène réelle consiste en un dispositif optique qui forme une image à
partir de cette scène. Le numériseur forme une image numérique (échantillonnage et
quantification).
 Distance focale : distance entre la lentille et le point focal
 Point focal : point à proximité du capteur CCD où les rayons lumineux convergent
 Capteur tri-CCD : ensemble de trois capteurs CCD transformant les intensités
lumineuses en chaque pixel en signal électrique
Capteur : Principe général (ex. Photodiode)
- L’énergie incidente est transformée en énergie électrique.
- La sortie est proportionnelle à la lumière.
- Ajout de filtre pour augmenter la sélectivité
- Pour la couleur, on utilise trois capteurs par pixel réagissant à des longueurs d’ondes
différentes (rouge, vert et bleu).
Une image est une représentation planaire d’un objet quelconque. Mathématiquement,
c'est une fonction bidimensionnelle de la forme f(x, y), où f(x0, y0) est la valeur de f aux
coordonnées (x0, y0). Donc, c'est un processus continu 2D résultant d’une mesure physique.
L’amplitude de f est appelée intensité (ou niveau de gris) de l’image au point de
coordonnées (x, y).

Cours TI G.KHAISSIDI 5
Si une image est générée par un processus physique, f(x, y) correspond à l’énergie irradiée
par ce processus. Exemples de processus physiques : Emission et réflexion d’ondes
lumineuses, Rayonnement infrarouge, rayons X, Echo ultrason, etc…
Quand les valeurs de l’amplitude de f et des coordonnées (x,y) sont des quantités discrètes,
l’image est appelée image numérique. Une image numérique est donc composée d’un
nombre fini d’éléments, ayant chacun un emplacement et une valeur donnés. Ces éléments
sont appelés pixels (PICture Element).
Pour numériser une image, on passe par de procédés : échantillonnage et quantification.
- Echantillonnage spatial : discrétisation des coordonnées de l’image réelle.
- Quantification des luminances : discrétisation des intensités de l’image réelle.
L’échantillonnage spatial définit la taille du plus petit élément de l’image (pixel).
La quantification des luminances définit plus le petit changement d’intensité dans l’image
Cela définit la taille (en bits) de l’image .

Effet de l’échantillonnage et la quantification

Représentations d’une image numérique  :

Soit I une image de L lignes et C colonnes

 Si I est une image binaire, (p,M) = (1,1).


 Si I est une image en niveau de gris, (p,M) = (1,255).
 Si I est une image couleur, (p,M) = (3,255).

Cours TI G.KHAISSIDI 6
Définition d’une image numérique

Caractéristiques d’une image numérique  :


 Largeur
 Hauteur
 Nombre de Bits
 Couleur
 Compression
 Interprétation photométrique (noir = 0 ou blanc = 0)
 Résolution en X (ex: dpi)
 Résolution en Y
 Unité de résolution: pouce, cm, etc.
 Valeur maximale (ex: 255)
 Valeur minimale (ex: 0)

Formats d’image en mémoire


 Images binaires

Cours TI G.KHAISSIDI 7
 Images d’intensités

 Images couleur RGB

 Images couleur indexée

Formats d’image numérique


 BMP : bitmap : une matrice de bits,
 codé en couleur jusqu’à 24 bits par pixel
 lu uniquement sur des logiciel Windows
 GIF : adapté au transfert par le réseau Compuserve (premier service en ligne principal
aux États-Unis)

Cours TI G.KHAISSIDI 8
 format compressé avec codage couleur sur 8 bits/pixel
 bien adapté aux images graphiques (les logos)
 JPG ( jpeg): compression d’images photographiques
 compression DCT
 TIFF (compressé ou non)
 PNG (portable network graphic)
 DICOM : Imagerie médicale
 EPS : format postscript avec codage couleur sur 8, 16, 24 ou 32 bits.
 PSD : format correspondant au logiciel Adobe Photoshop
 format très répandu, peut coder la couleur sur 8, 16, 24 ou 32 bits.
 Etc……
Relation entre pixels  : Voisinage
Connexité : Notion fondamentale en traitement d’images
- Topologie
- Algorithmes de suivi de contours, croissance de région, ...
- Deux pixels voisins peuvent être agrégés
On trouve généralement deux types de connectivité ou connexité :
- Voisinage 4 connexité : on considère les 4 voisins directs horizontaux ou verticaux du
pixel.
- Voisinage 8 connexité : on considère les 8 voisins directs horizontaux, verticaux et
diagonaux du pixel
Dans certaines applications, La connexité peut s’étendre aux voisins indirects (i.e. pas de la
première couronne)

Illustration du voisinage

Cours TI G.KHAISSIDI 9
Chapitre II : Restauration et rehaussement

1. Opérations ponctuelles

La restauration d’image a pour objet la réduction, voire l’élimination des distorsions


introduites par le système ayant servi à acquérir l’image.

Son but est d’obtenir une image qui soit la plus proche possible de l’image idéale qui aurait
été obtenue si le système d’acquisition était parfait.

Il existe trois grandes catégories d’opérations appliquées à une image. La figure suivante
illustre les trois grandes transformations

Principales types de transformations

Propriétés de l’image
Une image peut être définit par sa luminance et son contraste.

Luminance ou brillance : Moyenne des niveaux de gris de l’image, ou intensité moyenne

Pour une image couleur, la moyenne est calculée pour chaque canal.

Cours TI G.KHAISSIDI 10
Changements de luminance uniquement

Contraste : il peut être calculé de deux manières différentes

Définition 1 : variation maximale entre valeurs de niveaux de gris min et max dans l’image :

Définition 2 : écart-type des variations de niveaux de gris dans l’image :

Exemples de calcul de contraste

Cours TI G.KHAISSIDI 11
2. Histogramme

Un histogramme des niveaux de gris est formé d’intervalles adjacents représentant un


découpage de la plage des valeurs de niveaux de gris. Le nombre de pixel tombant dans
chaque intervalle est ensuite affiché en fonction de valeurs de niveaux de gri.
Un histogramme représente la distribution des valeurs de niveaux de gris dans une image.
C’est une fonction décrivant la répartition des niveaux de gris de l’image, il fournit des
informations propres à l’image, telles que :
- La distribution statistique des niveaux de gris
- Les bornes de répartition des niveaux de gris
- Mais aucune information spatiale !
À chaque image f de taille N * M, on peut associer une distribution H des valeurs contenues
dans cette image par :

Définition d’histogramme et histogramme cumulé

Cours TI G.KHAISSIDI 12
Exemples

Deux images différentes (en termes de contenu sémantique) peuvent aussi avoir le même
histogramme. Il ne code pas d’information spatiale.

Histogramme normalisé
Fonction Hn donnant la probabilité (en termes de fréquence d’occurrence) qu’un pixel ait
pour niveau de gris k :

Avec N et M sont respectivement le nombre de colonnes et de lignes de l’image.


- Les valeurs de H sont normalisées
- Approximation discrète de la densité de probabilité de la variable aléatoire "niveau
de gris d’un pixel".

Cours TI G.KHAISSIDI 13
3. Étirement d’histogramme

Cette phase a lieu juste après l’acquisition des images et a pour objectif d’améliorer la
qualité de l’image en vue de sa segmentation ou d’un traitement postérieur.
Plusieurs problèmes visuels peuvent affectés une image et détériorent sa qualité. Afin
d’améliorer la qualité visuelle de l’image, différentes méthodes existent :
 Transformation linéaire
 Transformation linéaire avec saturation
 Transformation linéaire par morceau
 Transformation non-linéaire
 Egalisation de l’histogramme

Transformations Ponctuelles
Principe
Une transformation ponctuelle t change un niveau de gris i dans l'image initiale I en un
niveau de gris i' pour obtenir l'image résultat I'. Elle est donc définie par une table de
correspondance ou LUT (Look-Up Table) qui définit, pour chaque niveau de gris i, le nouveau
niveau i'=t(i).
Représentations de la LUT se fait soit à travers un tableau soit un graphe

Cours TI G.KHAISSIDI 14
Etirement d’histogramme
L’étirement ou l’étalement d’histogramme est une transformation linéaire qui permet
d’améliorer le contraste et consiste à utiliser toute la dynamique [0 255].
On cherche une transformation linéaire gl’ dans l’intervalle [0 255] en fonction de gl initiale
appartenant à l’intervalle [min max]. le min et le max représente respectivement la valeur
minimale et maximale des niveaux de gris de l’image initiale. PIXMAX est généralement 255
si l’image est en niveaux de gris et codée sur 8bits.

Cours TI G.KHAISSIDI 15
Transformation linéaire

Transformation linéaire

Transformation linéaire avec saturation


Afin de rendre la qualité visuelle de l’image meilleur et d’éviter le choix des valeurs
minimales et maximales de l’image qui peuvent être des valeurs bruitées, on choisit des
seuils de saturation qui sont légèrement incluses dans l’intervalle [min max]. Le choix du S min
et Smax est fait par des valeurs de test et dépend de chaque image.

Cours TI G.KHAISSIDI 16
Égalisation de l’histogramme
L’égalisation d’histogramme a pour but de rendre l’histogramme le plus plat possible. Elle
permet :
 Une distribution uniforme des niveaux de gris
 Une maximisation de l’entropie de l’image
 Une image donnant une information maximale

Egalisation d’histogramme

Plusieurs méthodes existent pour l’égalisation d’histogramme.

On cherche une fonction de transformation t : i i’ croissante (i.e. préservant l'ordre des


niveaux de gris) qui génère un histogramme h(i') plat (autant que possible).

Cours TI G.KHAISSIDI 17
Résumé de la méthode et remarques :
- L'égalisation de l'histogramme : Consiste à regrouper des ensembles de niveaux de
gris de valeurs voisines, pour obtenir un nouveau niveau de gris en quantité
approchant Nx*Ny / 256; fournit de nouveaux niveaux uniformément répartis sur [0,
255].
- Remarques sur l'amélioration par égalisation d'histogramme : On obtient une image
améliorée pour la visualisation (amélioration subjective). Il est impossible d'obtenir
une égalisation parfaite. Cette méthode peut améliorer une image quand la
correction de dynamique est inefficace.

Autres opérations ponctuelles

Cours TI G.KHAISSIDI 18
Plusieurs autres opérations possibles basées sur la forme générale de la transformation
g(x,y)= P*f(x,y) + L
Avec g est l’image résultante et f est l’image initiale. Il faut éviter g(x,y)<0 & g(x,y)>K-1
(K-1 intensité maximale est généralement 255).
 Décalage additif : P=1 et –(K-1)< L<(K-1)
 Mise à l’échelle multiplicative : L=0 et P>0
 Inversion : P=-1 et L= 255

Cours TI G.KHAISSIDI 19
Chapitre III : Filtrage

1. Définition du bruit

Différents types de bruit peuvent affecter une image et introduire des distorsions
importantes. Par conséquent, plusieurs phases de traitement et d’analyse seront
pratiquement impossibles à réaliser.
Parmi les types de bruit on trouve :
- Bruit lié au contexte de l’acquisition : bougé, dérive lumineuse, flou, poussière,….
- Bruit lié au capteur : distorsion de la plage des niveaux de gris, distorsion
géométrique, mauvaise mise au point,….
- Bruit lié à la numérisation : codage, quantification, échantillonnage (moiré, effet
poivre et sel),….
- Bruit de transmission : les erreurs de transmission font apparaître des valeurs
aberrantes.
- Bruit de compression : les techniques de compression d’image avec perte produisent
une distorsion dans l’image (effet de bloc).

Cours TI G.KHAISSIDI 20
Afin d’éliminer ces différents types de bruit et rendre l’image résultante la plus proche
possible de la scène réelle, plusieurs techniques de filtrage existent tel que :
- Le filtrage fréquentiel.
- Le filtrage temporel ou spatial.
- Le filtrage non linéaire.

2. Filtrage fréquentiel

Avant d’appliquer le filtrage fréquentiel, il faut d’abord comprendre la notion de fréquence


dans une image.
La fréquence dans une image représente le changement d’intensité.

Cours TI G.KHAISSIDI 21
Les basses fréquences sont les changements lents d’intensité qui reflètent les régions
homogènes ainsi que le flou.
Les hautes fréquences représentent les changements rapides d’intensité, les textures, les
arrêtes, les coins, les contours et aussi le bruit.
La plus grande partie d’énergie d’une image se situe dans les basses fréquences.
Un filtre passe-bas fait passer les basses fréquences
- Elimine les hautes fréquences, diminue le bruit.
- Permet de lisser, d’adoucir les arêtes.
Un filtre passe-haut fait passer les hautes fréquences
- Met en évidence les arêtes, les contours, les ombres.
- Augmente le bruit dans l’image.
Une image peut être représentée par un signal 2D. Sa transformée de fourier donne
l’intensité en fonction de la fréquence. On peut appliquer des filtres passe-bas et passe-haut
sur l’image pour faire ressortir certaines gammes de fréquences.
Voilà un exemple qui illustre le spectre de fourier et le spectre rehaussé d’une image
donnée.

Dans le spectre de fourier à 2D les hautes fréquences se situe loin du centre de la TF, les
basses fréquences quant à eux, ils sont proche du centre de la TF.
La composante continue est située au centre de l’image.

Cours TI G.KHAISSIDI 22
Transformée de Fourier

Cours TI G.KHAISSIDI 23
3. Filtrage spatial par convolution

Dans ce chapitre de prétraitement, on s’intéresse au filtre passe-bas. Il est utilisé pour


atténuer les valeurs de pixels aberrantes. Il filtre les hautes fréquences spatiales (variations
brusques des niveaux de gris) comme les contours et le bruit.
Il correspond à l’estimation d’une moyenne (pondérée ou non) dans le voisinage de chaque
pixel. On parle alors de lissage.
Le filtrage d’une image est réalisé soit dans le domaine fréquentiel par multiplication, soit
dans le domaine spatial, par convolution de la matrice image et le masque (le noyau) de
convolution. Plusieurs filtres linéaires existent dans la littérature. Les filtres les plus
populaires sont :
- Le filtre moyenneur.
- Le filtre gaussien.
- Le filtre exponentiel.
Concernant le filtrage passe-haut, il est utilisé pour mettre en évidence les variations dans
l’image. Les filtres passe-haut filtrent les basses fréquences spatiales (variations lentes des
niveaux de gris) comme les régions homogènes. Ils correspondent à l’approximation de
dérivées premières ou secondes. Cette partie sera traitée dans le chapitre de segmentation
et détection de contours.
Convolution numérique

Cours TI G.KHAISSIDI 24
Cours TI G.KHAISSIDI 25
Le masque de convolution représente un filtre linéaire permettant de modifier l'image.
On divisera le résultat de la convolution par la somme des coefficients du masque. Pour
éviter de modifier la luminance globale de l'image, la somme des coefficients doit être égale
à 1.

Cours TI G.KHAISSIDI 26
Les filtres passe-bas linéaire éliminent le bruit dans l’image, adoucit les contours mais
rend l’image flou. Plus le filtre grossit, plus le lissage devient important et plus le flou
s’accentue. Afin de remédier à ce problème, certaines méthodes proposent d’utiliser le
filtrage passe-bas non linéaire.
4. Filtrage non linéaire

Deux aspects du lissage sont concernés par le filtrage non linéaire :


Le bruit impulsionnel : les filtres linéaires éliminent mal les valeurs aberrantes.
L'intégrité des frontières : on souhaiterait éliminer le bruit sans rendre flous les frontières
des objets.
Les Filtres passe-bas (filtre linéaire) permettent de réduire un bruit haute fréquence. Ce filtre
introduit un flou sur l’image débruitée.
Le Filtre médian est un filtre passe-bas non linéaire capable de réduire certains types de
bruits en dégradant très peu les contours
- Il élimine les bruits impulsionnels (poivre et sel) qui affectent seulement un petit
nombre de pixels, mais en modifiant très fortement l’intensité des pixels touchés.
- Le filtre médian affecte à un pixel la valeur médiane des intensités dans un voisinage.

Cours TI G.KHAISSIDI 27
Le filtre médian retient une valeur d’intensité telle que dans le voisinage, il y ait autant
d’intensités supérieures que d’intensités inférieures à cette valeur. Ce filtre permet de
préserver les contours dans une image et donc il n’introduit pas de flou.
D’autres filtres passe-bas non linéaires existent. Ci-dessous quelques exemples de filtres.

Cours TI G.KHAISSIDI 28
Cours TI G.KHAISSIDI 29
Cours TI G.KHAISSIDI 30
Cours TI G.KHAISSIDI 31
Autres filtres
- Autres filtres d’ordre
- Filtres homomorphiques
- Filtres morphologiques
- Autres filtres adaptatifs
- Etc……

Cours TI G.KHAISSIDI 32
Chapitre IV : Segmentation

Les traitements « bas niveau » ont pour but d’extraire l’information utile et
pertinente contenue dans l’image en regard de l’application considérée. Ces
traitements opèrent sur des données de nature numérique et doivent donc simplifier
l’image sans trop la dégrader. Le résultat d’un tel traitement donne une description
structurelle de l’image sans qu’il y ait de lien avec le contexte de la scène réelle.

Le principal outil utilisé est la segmentation d’image.

La segmentation d’images est constituée de différentes techniques servant à trouver


les limites de structures d’intérêt dans une image. Elle est considérée comme une
première étape de l’analyse d’une image. Elle consiste en la séparation des divers
éléments de l’image en régions connexes ayant même propriétés.

Ces régions peuvent être caractérisées soit par leurs frontières (Extraction de
contours) soit par les pixels qui les composent (segmentation en régions
homogènes).

Plusieurs méthodes de segmentation existent. Dans ce chapitre, je vous présente les


techniques de base à savoir :

- Le seuillage
- La segmentation en régions
- L’extraction de contours
- Les contours actifs
- Etc……

Cours TI G.KHAISSIDI 33
1. Seuillage

Le seuillage est une méthode simple et très populaire pour le traitement des images
numériques. Ce n’est pas une méthode de segmentation en régions. Le seuillage est une
technique basée sur l’approche pixel (pas région ni contour). Mais on l’utilise souvent en
segmentation (avec post-traitements).
Le seuillage peut être :
- Global : un seuil pour toute l'image
- Local : un seuil pour une portion de l'image
- Adaptatif : un seuil s'ajustant selon les parties de l'image

Exemple de seuillage simple

Cours TI G.KHAISSIDI 34
Seuiller implique généralement l'analyse de l'histogramme :
• Différentes caractéristiques image donne naissance à des modes dans un
histogramme (bimodale)
• EN général les pics (modes) de l'histogramme correspondant à des primitives image
différentes vont se chevaucher
Le choix du seuil se fait soit manuellement en se basant sur l’histogramme de l’image à
traiter, soit en utilisant des algorithmes automatique de calcul du seuil.

Cours TI G.KHAISSIDI 35
Une fois le seuillage globale n’est plus efficace. On peut utiliser le seuillage local adaptatif

Pour ce faire, on divise l’image en sous images et on traite chacune d’elles avec son propre
seuil. Le choix de la dimension de sous images est important et dépend de la nature du
problème et de l’image initiale.
Avant de traiter chaque sous image, nous devons d’abord vérifier la variance de tons de gris
pour décider s’il existe un besoin de segmentation. Le critère d’homogénéité est défini de
différentes manières (variance, écart type, max-min,….).

Cours TI G.KHAISSIDI 36
Exemple de seuillage adaptatif :

2. Extraction de contours

Un contour correspond à une variation d’intensité ou à une discontinuité entre les


propriétés de deux ensembles de points.
Les méthodes de détection de contours ne conduisent pas directement à une segmentation
de l’image car les contours sont rarement connexes. Il faut souvent procéder à une étape de
chaînage. Généralement il existe deux approches pour l’extraction de contours en se basant
soit sur le calcul de la dérivée première de l’image (calcul du gradient) soit sur le calcul de la
dérivée seconde (calcul du laplacien).
Les différentes étapes de la détection de contours sont :
- Filtrage.
- Calcul du module et de direction du gradient.
- Extraction des maximums locaux ou des passages par zéro.
- Seuillage.
- Fermeture de contours et élimination du bruit.
- Suivi et localisation des contours.
Les contours représentent des hautes fréquences de l’image. Un filtrage passe-haut est donc
utilisé. L’opérateur de dérivation permet ce filtrage.
Deux approches existent/
- Estimation de la dérivée première.
- Estimation de la dérivée seconde.

Cours TI G.KHAISSIDI 37
Cours TI G.KHAISSIDI 38
Cours TI G.KHAISSIDI 39
Cours TI G.KHAISSIDI 40
Cours TI G.KHAISSIDI 41
3. Extraction des régions d’intérêt

La segmentation en région consiste à découper l’image en régions ayant des propriétés


communes. Plusieurs méthodes existent dans la littérature, dans cette partie, je vous
présente l’extraction de régions d’intérêt par la méthode de division fusion et par la
méthode de croissance de régions.
- Croissance de régions (du pixel vers l’image entière). Agglomération de pixels voisins
à une région selon un critère d’homogénéité donné.
- Division, partage de régions (de l’image entière vers le pixel).

Méthode de division fusion  :


Le but de cette méthode est de diviser, partager de façon automatique une image en un
ensemble de régions homogènes selon un critère d’homogénéité choisi.

Cours TI G.KHAISSIDI 42
Cours TI G.KHAISSIDI 43
La géométrie du découpage a une influence directe sur le résultat de la segmentation. La
méthode Quad-Tree fait apparaître des régions carrées. Il existe d’autres types de
division (triangle, pyramide), le choix du type de division se fait en fonction des formes
que l’on souhaite segmenter et dépend de chaque application.
Après la phase de division, on procède à la fusion des régions homogènes détectées par
l’algorithme de division. L’algorithme le plus connu est SPLIT and MERGE.

Cours TI G.KHAISSIDI 44
Cours TI G.KHAISSIDI 45
En général, il est préférable de regrouper les petites régions en premier. L’ordre dans
lequel s’effectue le regroupement des régions a une influence sur le résultat.

Méthode de croissance de régions  :


L'algorithme débute avec un pixel, et "collectionne" les pixels voisins qui répondent à un
critère d'appartenance (Variance faible, Niveau de gris répondant un seuil, …).
Le(s) pixel(s) initial (ou initiaux) sont appelés "germes" ou "semences". La région
"grandit" à partir de son germe.
Une connaissance a priori est utile pour sélectionner les germes.

Cours TI G.KHAISSIDI 46
La performance de cette méthode est très dépendante de l’initialisation (germes). Elle
dépend aussi de l’ordre de traitement dans lequel sont ajoutés les pixels dans une
région. L’implémentation de cet algorithme est relativement simple et rapide.

Cours TI G.KHAISSIDI 47
Chapitre V : morphologie mathématiques

La morphologie mathématique est un traitement d’image basé sur la théorie des


ensembles.

Différentes opérations booléennes peuvent être appliquées sur les images.

Cours TI G.KHAISSIDI 48
Les opérateurs morphologiques sont très utilisés sur les images binaires mais
peuvent aussi être appliqués sur des images en niveaux de gris. Ils permettent de
modifier la morphologie des objets afin de corriger le résultat de la segmentation.

La morphologie mathématique est souvent utilisée en post segmentation.

Elle est caractérisée par un élément structurant et des transformations (Erosion,


Dilatation, Ouverture et Fermeture).

Cours TI G.KHAISSIDI 49
Le principe de la morphologie est binaire est :

1. Erosion

Cette opération correspond à l’opérateur d’inclusion ou l’opérateur mathématique min.

Elle permet d’éroder les formes, diminuer leur taille. Les éléments de petites tailles
disparaissent.

Cours TI G.KHAISSIDI 50
2. Dilatation

La dilatation correspond à l’opérateur d’intersection ou l’opérateur mathématique max.

Elle permet de dilater les formes, augmenter leur taille. Elle remplie les trous de petites
tailles.

Cours TI G.KHAISSIDI 51
3. Ouverture et fermeture

L’ouverture est une érosion suivie d’une dilatation.

Cette opération permet de supprimer les éléments de petites tailles comme le bruit tout en
conservant la taille des formes.

Cours TI G.KHAISSIDI 52
La fermeture est une dilatation suivie d’une érosion.
Cette opération permet de remplir les trous de petites tailles tout en conservant la taille
des formes.

Cours TI G.KHAISSIDI 53
Exemples d’application des différentes opérations de la morphologie mathématique sur
une image.

Cours TI G.KHAISSIDI 54
Cours TI G.KHAISSIDI 55
L’érosion et la dilatation sont deux opérations opposées de la morphologie mathématique. Alors
que les filtres vus dans ce cours se concentrent sur la modification de niveaux de gris des pixels,
la morphologie mathématique cherche à modifier la forme des objets. Ainsi, le rôle d’une érosion
est de réduire la taille des objets dans une image alors que la dilatation va chercher à les
agrandir.
Elle est utilisée pour un post traitement afin de corriger les déformations dû à la phase de
segmentation et aussi pour éliminer le bruit, remplir les trous.
Dans certaines applications, on a besoin d’imbriquer plusieurs fois les différentes opérations
morphologiques pour obtenir des résultats satisfaisants.

Cours TI G.KHAISSIDI 56

Vous aimerez peut-être aussi