Vous êtes sur la page 1sur 133

République Algérienne Démocratique Et Populaire

Ministère De L'Enseignement Supérieur Et De La Recherche


Scientifique
Université Es-Sénia Oran - Faculté des Sciences
Département Informatique

MÉMOIRE
Présenté pour l'obtention du diplôme de Magister
Spécialité : Informatique
Option : Ingénierie des Données et des Connaissances

Titre :

Segmentation d’images tomographiques


par émission de positons

Présenté par : Réda BENTATA


Encadreur : Rachid NOURINE

Soutenu le ......../....../2011 devant la commission de jury :


Résumé

En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil
majeur en oncologie pour le diagnostic, le suivi et l’évaluation thérapeutique. Contrairement aux
modalités habituelles (IRM ou Scanner), la TEP fournit des informations sur la fonction cellulaire du
corps plutôt que sur son anatomie ; ce qui permet ainsi de diagnostiquer des lésions à un stade très
avancé, voire avant même qu’elles n’aient de manifestation morphologique.
Cependant, du fait de la nature fonctionnelle des images TEP, la localisation des structures
anatomiques dans une telle image reste une tâche très difficile ; en effet, les images TEP ne
fournissent qu’une très faible information anatomique. La segmentation d’images TEP requiert donc
l’intervention d’un expert médical qui pourra s’affranchir de ces artefacts grâce à ses connaissances
à priori du corps à étudier ; dans ce cas l’expert procède à une segmentation manuelle d’un volume
coupe par coupe ce qui s’avère être très fastidieux et couteux en matière de temps.
Nous présentons dans ce mémoire, une approche de segmentation d’image TEP cérébrales combinant
à la fois, l’information fournie par le volume TEP à segmenter et des connaissances apriori sur le
volume fournis sous forme d’Atlas Anatomique. Le principe de notre approche consiste à appliquer
un recalage entre le volume TEP en entrée et l’atlas anatomique, déterminant ainsi, la transformation
géométrique conduisant au meilleur alignement TEP/Atlas.

Mots clés : Segmentation, Recalage d’images, Atlas, Optimisation, Information Mutuelle,


TEP.
LISTE DES FIGURES

Figure I.1 : Evolution de la pratique médicale……………………………………………………………………


14

Figure I.2 : Illustration de la multimodalité pour la comprehension du cerveau ……………………………………


15

Figure I.3 : Une des premières radiographies……………………………………………………………………


17

Figure I.4 : Radiographie du Cavum et des Sinus Frontaux………………………………………………………


18

Figure I.5 : Angiographie des mains……………………………………………………………………………


20

Figure I.6 : Scintigraphie thyroïdienne…………………………………………………………………………


24

Figure I.7 : Scintigraphie osseuse………………………………………………………………………………


25

Figure I.8 : Scintigraphie cardiaque……………………………………………………………………………


25

Figure I.9 : Scan-TEP lors d'une écoute subjective et analytique d'une

même pièce de musique par le même sujet……………………………………………………………


26

Figure II.1 : Représentation d'une image en niveaux de gris ………………………………………………………


30

Figure II.2 : Représentation d'un volume en niveaux de gris ………………………………………………………


31

Figure II.3 : Représentation volumique d'une IRM cérébrale………………………………………………………


32

Figure II.4 : Différents types de pavage …………………………………………………………………………


32

Figure II.5 : Différents types de maillage …………………………………………………………………………


33

Figure II.6 : Voisinage d'un pixel selon la relation 8-adjacents et 4 adjacent………………………………………


34

Figure II.7 : Voisins Axiaux, diagonaux et diametraux d'un voxel…………………………………………………


34

Figure II.8 : Transformation d'une image TEP niveaux de gris en couleur ………………………………………
37

Figure II.9 : Fonction de Correspondance Niveaux de gris - Couleurs……………………………………………


38

Figure II.10 : TEP : Originale 128 X 128, 64 X 64 et 32 X 32 …………………………………………………


39

Figure II.11 : Phénomène d'Aliasing sur un signal 1D……………………………………………………………


40

Figure II.12 : Phénomène d'Aliasing sur une image…………………………………………………………………


40

Figure II.13 : Image TEP 8bits, 4 bits et 1 bit ……………………………………………………………………


41

Figure II.14 : Courbe tonale de l'opération d'eclaircissement et d'assombrissement …………………………………


43
Figure II.15 : Courbe tonale de l'opération d'inversion ……………………………………………………………
43

Figure II.16 : Courbe tonale de l'opération de seuillage ……………………………………………………………


44

Figure II.17 : Courbe tonale de normalisation d'histogramme ………………………………………………………


45

Figure II.18 : Application du filtre Gaussien sur une image bruitée …………………………………………………
47

Figure II.19 : Application du filtre Median sur une image bruitée …………………………………………………
50

Figure III.1 : Coupe IRM mettant en évidence les différents tissus du cerveau ………………………………………
55

Figure III.2 : IRM cérébrale - Segmentation de l'IRM en tissus……………………………………………………


56

Figure III.3 : Segmentation d'une image synthétique par seuillage …………………………………………………


60

Figure III.4 : Décomposition d'une image binaire …………………………………………………………………


63

Figure III.5 : Arbre quaternaire issu d'une décomposition …………………………………………………………


64

Figure III.6 : Ligne de partage des eaux entre deux bassins ………………………………………………………
66

Figure III.7 : Modèles de contours …………………………………………………………………………………


67

Figure III.8 : Détection de contours monodimensionnel ……………………………………………………………


68

Figure III.9 : Détection de contours sur une image radiographique…………………………………………………


70

Figure III.10 : Seuillage par hysteresis sur une image synthétique ……………………………………………………
71

Figure III.11 : Exemple d'élément structurant ………………………………………………………………………


73

Figure III.12 : Erosion d'une image binaire par un élément structure de type croix …………………………………
74

Figure III.13 : Dilatation d'une image binaire par un élément structure de type croix ………………………………
74

Figure III.14 : Détection de contour par gradient morphologique ……………………………………………………


75

Figure III.15 : Evolution d'un contour actif sur une IRM …………………………………………………………
76

Figure IV.1 : Schéma général d'un algorithme de recalage …………………………………………………………


82

Figure IV.2 : Recalage d'image multimodale IRM / TEP ………………………………………………………


85

Figure IV.3 : Acquisition IRM et TEP du cerveau d'un même sujet………………………………………………


89

Figure IV.4 : Calcul des distances de Chamfrein par propagation …………………………………………………


92

Figure IV.5 : Carte de Distance de Chamfrein ……………………………………………………………………


92

Figure IV.6 : Distance entre deux contours ………………………………………………………………………


93

Figure IV.7 : Projection du point s dans l'image à recaler selon une transformation h ………………………………
97
Figure IV.8 : Interpolation d'ordre 0 et d'ordre 1 …………………………………………………………………
97

Figure IV.9 : Fonction B-Spline d'ordre 0,1,2 et 3 ………………………………………………………………


98

Figure IV.10 : Différents modèles de déformation …………………………………………………………………


99

Figure IV.11 : Déformation B-Spline d'ordre 3 d'une grille regulière ………………………………………………


102

Figure V.1 : Etapes 1 et 2 de notre procédé.………………………………………………………………………


110
Figure V.2 : Atlas Segmenté en Tissus……………………………………………………………………………
111
Figure V.3 : Atlas Segmenté en Lobes……………………………………………………………………………
111
Figure V.4 : Coupes 1,10,20,30,40,50 et 60 d’un volume TEP……………………………………………………
112
Figure V.5 : Représentation d’un volume…………………………………………………………………………
120
Figure V.6 : Première et dernière coupe de chaque vue dans le volume.……………………………………………
120
Figure V.7 : Chargement d’un fichier IMG………………………………………………………………………
121
Figure V.8 : Fonction de correspondance entre intensité et pseudocouleurs…………………………………………
123
Figure V.9 : Coupe axiale d’IRM niveau de gris (a) et pseudocouleurs (b)…………………………………………
124
Figure V.10 : Résultat de la segmentation en tissus (a) et en lobes (b)………………………………………………
125
Figure V.11 : Quantification des tissus cérébraux…………………………………………………………………
126
Figure V.12 : TEP / Atlas Avant et Après Recalage………………………………………………………………
127
Figure V.14 : Localisation de l’hippocampe par triangulation.………………………………………………………
127
Figure V.15 : Extraction du cerveau………………………………………………………………………………
128
Figure V.16 : Extraction d’une RdI et superposition sur l’atlas recalé………………………………………………
130
Figure V.17 : Localisation d’une RdI………………………………………………………………………………
130
Figure V.18 : Résultats de la segmentation selon les trois métrique L2, CC et l’IM…………………………………
131
Figure V.19 : Evaluation de l’indice Tc selon les trois métriques……………………………………………………
132
SOMMAIRE

Introduction

CHAPITRE I L'imagerie Médicale

I. Introduction…………………………………………………………………………………………………………
14

II. Modalités d'acquisition d'images Médicales……………………………………………………………………… 16


II.1. Les Rayon X……………………………………………………………………………………………… 16
II.1.1. La Radiographie Conventionnelle……………………………………………………………… 17
II.1.2. La Tomodensitométrie…………………………………………………………………………… 19
II.1.3. L'Angiographie…………………………………………………………………………………… 19
II.2. Les Images Ultrasonores : L'Echographie………………………………………………………………… 20
II.3. Les Image par Résonance Magnétique…………………………………………………………………… 21
II.4. L'Imagerie Nucléaire……………………………………………………………………………………… 23
II.4.1. La Scintigraphie………………………………………………………………………………… 23
II.4.1.1. La Scintigraphie Thiyroïdienne………………………………………………………
24
II.4.1.2. La Scintigraphie Osseuse……………………………………………………………
24
II.4.1.3. La Scintigraphie Cardiaque……………………………………………………………
25
II.4.2. La Tomographie par Emission de Positons………………………………………………………
25

III. Conclusion…………………………………………………………………………………………………………
27

CHAPITRE II L'image Numérique

I. Introduction…………………………………………………………………………………………………………
29

II. L'image Numérique………………………………………………………………………………………………… 29


II.1. Définition………………………………………………………………………………………………… 29
II.2. Représentation d'une image numérique……………………………………………………………………
30
II.3. Notion d'adjacence………………………………………………………………………………………… 31

III. L'espace de couleur……………………………………………………………………………………………… 35


II.1. Le système RGB…………………………………………………………………………………………35
II.2. Le modèle CMJN…………………………………………………………………………………………36
II.3. Le modèle Niveaux de gris………………………………………………………………………………
36
II.4. Les pseudocouleurs………………………………………………………………………………………
37

IV. La résolution d'une image…………………………………………………………………………………………


38
IV.1. Résolution Spatiale………………………………………………………………………………………
39
IV.2. Résolution Tonale………………………………………………………………………………………
41
V. Prétraitement d'image……………………………………………………………………………………………… 41
V.1. Les opérations ponctuelles……………………………………………………………………………… 42
V.1.1. Changement d'eclairage…………………………………………………………………………42
V.1.2. Inversion………………………………………………………………………………………… 43
V.1.3. Seuillage………………………………………………………………………………………… 44
V.2. Les opérations Globales………………………………………………………………………………… 44
V.2.1. Normalisation d'histogramme……………………………………………………………………
45
V.2.2. Egalisation d'histogramme………………………………………………………………………
45
V.3. Les opérations locales…………………………………………………………………………………… 46
V.3.1. Filtrage Linéaire………………………………………………………………………………… 46
V.3.1.1. Filtre de Gauss………………………………………………………………………
47
V.3.1.2. Filtre de Sobel…………………………………………………………………………
48
V.3.2. Filtrage Non-Linéaire……………………………………………………………………………49
V.3.2.1. Le Filtre Median………………………………………………………………………
49
V.3.2.2. Le Filtre de Diffusion…………………………………………………………………
50

VI. Conclusion…………………………………………………………………………………………………………
51

CHAPITRE III La Segmentation d'images Médicales

I. Introduction…………………………………………………………………………………………………………
54

II. La segmentation d'images………………………………………………………………………………………… 55


II.1. Définition………………………………………………………………………………………………… 56
II.2 Objectifs de la segmentation………………………………………………………………………………
57
II.3. La dimensionnalité…………………………………………………………………………………………
58
II.4. Interaction et Validation…………………………………………………………………………………
58

III. Approches de Segmentation……………………………………………………………………………………… 59


III.1. Pixel……………………………………………………………………………………………………… 60
III.2. Région…………………………………………………………………………………………………… 61
III.2.1. Décomposition / Fusion (Split and Merge)……………………………………………………
62
III.2.2. Croissance de Région (Region Growing)………………………………………………………
65
III.2.3. Ligne de partage des Eaux……………………………………………………………………… 65
III.3. Contour………………………………………………………………………………………………… 66
III.3.1 Modèles Dérivatifs……………………………………………………………………………… 67
III.3.1.1. Le Gradient………………………………………………………………………… 68
III.3.1.2. Le Laplacien………………………………………………………………………… 71
III.3.2. Le Gradient Morphologique…………………………………………………………………… 72
III.3.3. Les Contours Actifs…………………………………………………………………………… 75
III.3.3.1. Energie Interne………………………………………………………………………
77
III.3.3.2. Energie Externe………………………………………………………………………
78
III.3.3.3. Energie de Contexte…………………………………………………………………
78

IV. Conclusion…………………………………………………………………………………………………………
79
CHAPITRE IV Le recalage d'images

I. Introduction…………………………………………………………………………………………………………
81

II. Problématique……………………………………………………………………………………………………… 82
II.1. Formalisation du Problème……………………………………………………………………………… 82
II.2. Application……………………………………………………………………………………………… 84
II.2.1. Un seul sujet, Une seule modalité………………………………………………………………84
II.2.2. Un seul sujet , Plusieurs modalités………………………………………………………………
84
II.2.3. Plusieurs sujets, Une ou plusieurs Modalités……………………………………………………
86

III. Approche de recalage…………………………………………………………………………………………… 87


III.1. Les méthodes géométriques………………………………………………………………………………
87
III.1.1. Point……………………………………………………………………………………………
87
III.1.2. Courbe…………………………………………………………………………………………
88
III.1.3. Surface…………………………………………………………………………………………
88
III.2. Les méthodes Denses……………………………………………………………………………………
89

IV. Critère de Similarité……………………………………………………………………………………………… 90


IV.1. Critères de Similarité géométriques………………………………………………………………………
90
IV.2. Critère de Similarité denses………………………………………………………………………………
93
IV.2.1. Relation Identité…………………………………………………………………………………
94
IV.2.2. Relation Affine…………………………………………………………………………………
94
IV.2.3. Relation Fonctionnelle…………………………………………………………………………
95
IV.2.4. Relation de Dépendance…………………………………………………………………………
96

V. Interpolation………………………………………………………………………………………………………
96

VI. Les modèles de transformation…………………………………………………………………………………… 98


VI.1. Le recalage rigide (linéaire)………………………………………………………………………………
99
VI.1.1. La transformation rigide…………………………………………………………………………
99
VI.1.2. La transformation affine…………………………………………………………………………
100
VI.2. Le recalage non-rigide (non-linéaire)……………………………………………………………………
101

VII. Optimisation……………………………………………………………………………………………………… 103


VII.1. La descente de gradient…………………………………………………………………………………
104
VII.2. Quasi-Newton…………………………………………………………………………………………… 104
VII.3. Gradient Conjugué non-linéaire…………………………………………………………………………
105

VIII. Conclusion………………………………………………………………………………………………………
107

CHAPITRE VI Méthodologie et Conception

Introduction……………………………………………………………………………………………………………
109

I. Présentation de notre approche……………………………………………………………………………………


109

II. Les données…………………………………………………………………………………………………………


111
II.1. L'Atlas……………………………………………………………………………………………………
111
II.2. Volumes TEP……………………………………………………………………………………………
112

III. Le format Analyze………………………………………………………………………………………………… 112


III.1. Le fichier d'entête HDR…………………………………………………………………………………
112
III.1.1. Structure…………………………………………………………………………………………
112
III.1.2. Représentation…………………………………………………………………………………
114
III.1.3. Exemple…………………………………………………………………………………………
115

III.2. Le fichier IMG……………………………………………………………………………………………


119
III.2.1. Description………………………………………………………………………………………
119
III.2.2. Lecture…………………………………………………………………………………………
120
III.2.3. Visualisation……………………………………………………………………………………
123

IV. Test et Validation………………………………………………………………………………………………… 124


IV.1. Validation Visuelle……………………………………………………………………………………… 124
IV.1.1. Fusion…………………………………………………………………………………………… 125
IV.1.2. Triangulation …………………………………………………………………………………… 127
IV.1.3. Extraction du cerveau……………………………………………………………………………
128
IV.1.4. Extraction de région d’intérêt …………………………………………………………………
129
IV.2. Validation Quantitative………………………………………………………………………………… 131

V. Discussion …………………………………………………………………………………………………………
132

Conclusion Générale…………………………………………………………………………………………………
133
Bibliographie…………………………………………………………………………………………………………
134
Introduction :
En imagerie médicale, chaque modalité présente un aspect différent de l’anatomie étudié : En
radiologie par exemple, les rayons X mettent en évidence les matières les plus denses telles
que les os. L’imagerie par résonance magnétique permet la visualisation des différents tissus
anatomique, en IRM cérébrale il s’agit alors de la matière blanche (mb), matière grise (mg) et
le liquide céphalorachidien (lcr). En médecine nucléaire, la tomographie par émission de
positons1 (TEP) est une méthode qui permet de mesurer l'activité métabolique d'un organe
grâce aux émissions produites par les positons issus de la désintégration d'un produit
radioactif injecté au préalable. La TEP repose sur le principe général de la scintigraphie qui
consiste à injecter un traceur qui est généralement sous forme de glucose. Ce traceur est
marqué par un atome radioactif qui émet des positons dont l'annihilation produit elle-même
des photons . La détection de la trajectoire de ces photons par le collimateur de la caméra TEP
permet de localiser le lieu de leur émission et donc la concentration du traceur en chaque
point de l'organe. Cette information quantitative est représentée sous la forme d'une image
faisant apparaître les zones de forte concentration du traceur. Ainsi la TEP permet de
visualiser les activités du métabolisme des cellules : on parle d'imagerie fonctionnelle par
opposition aux techniques d'imagerie dite structurelle comme celles basées sur les rayons X
(radiologie ou scanner) qui réalisent des images de l'anatomie. Par conséquent, la tomographie
par émission de positons est un outil diagnostique qui permet de déceler certaines pathologies
qui se traduisent par une altération de la physiologie normale comme les cancers ; en effet,
Comme les cellules tumorales sont plus actives que les cellules normales, elles consomment
davantage de glucose. La TEP permet ainsi d’obtenir des images précises de la répartition du
glucose radioactif dans l’organisme et donc de localiser des cellules cancéreuses. De
nombreuses méthodes de segmentation automatique d’images TEP ont été proposées dans la
littérature, pour la plupart d’entres elles, les efforts de recherches se sont concentrés
uniquement sur les données brutes fournies par l’image TEP. Cependant à cause du manque
de détail anatomique dans l’image TEP, ces algorithmes aboutissent généralement à une
segmentation fonctionnelle du volume TEP, et plus particulièrement à la segmentation des
hyperfixations2.
L’objectif de notre projet est la segmentation de volume TEP cérébrales, en intégrant les
connaissances apriori de l’anatomie cérébrale. Le principe de notre approche consiste à

1
En physique des particules, le positron ou positon, encore appelé antiélectron est l'antiparticule associée à l'électron. Il
possède une charge électrique de +1 charge élémentaire (contre -1 pour l'électron)
2
Zone de forte concentration du traceur radioactif
appliquer une transformation géométrique sur un atlas anatomique (segmenté et étiqueté) de
manière à ce qu’il soit correctement aligné au volume TEP à segmenter. Nous obtenons ainsi
une segmentation du volume TEP en structures anatomiques. La transformation géométrique
est déterminée par un procédé de recalage.
CHAPITRE I L’imagerie Médicale

I. Introduction :

Figure I.1 : Evolution de la pratique médicale

L’imagerie médicale regroupe l’ensemble des techniques permettant de visualiser une partie
du corps humain ou d’un organe sans avoir à opérer le patient ; cela, en créant une image
visuelle compréhensible d’une information à caractère médical dans le but d’établir un
diagnostic et de faire un suivi approprié du traitement.
De la trépanation (a) à la robotique chirurgicale (b), la pratique médicale a connu une
véritable révolution (Figure I.1). De nos jours, grâce aux nouvelles techniques d’imagerie, les
procédés de traitement se sont modernisés, le diagnostic est devenu plus précis et la qualité
des soins est désormais meilleure. Loin des pratiques traditionnelles, où «voir» passait par
«ouvrir», aujourd’hui, les radiologues, à l’aide des techniques tomographiques, peuvent
diagnostiquer et traiter de façon quasiment non-invasive. Le recours à la chirurgie invasive est
devenu la solution de dernier recours.

Selon la nature des recherches, on distingue celles qui fournissent des propriétés structurelles
(morphologiques) de la zone étudiée (IRM, Rayons X...), de celles qui restituent des aspects
fonctionnels (TEP, IRMf) :

• l’imagerie structurelle : permet d’obtenir des informations sur l’anatomie et la


structure des organes (leur taille, leur volume, leur localisation, la forme d’une
éventuelle lésion, etc.)

14
CHAPITRE I L’imagerie Médicale

• l’imagerie fonctionnelle : concerne le fonctionnement ; elle a révolutionné la


médecine en donnant un accès immédiat et fiable à des informations jusqu’alors
invisibles au diagnostic clinique.

Figure I.2 : Illustration de la multimodalité pour la compréhension du cerveau

Plusieurs modalités sont parfois utilisées pour effectuer un seul diagnostic (Figure I.2). Pour
certaines anomalies, le radiologue doit, à la fois, étudier l’aspect structurel et fonctionnel
d’une zone d’intérêt. Or, ces modalités sont, en général, utilisées avec un décalage dans le
temps. Les informations recueillies doivent être alors fusionnées dans un même repère pour
permettre d’effectuer les différentes analyses et comparaisons, nécessaires à l’établissent d’un
diagnostic précis et efficace.
15
CHAPITRE I L’imagerie Médicale

Dans ce chapitre nous survolerons les différentes techniques d’acquisition d’images médicales
telles les techniques Radiographiques, Ultrasonores et par Résonance Magnétique (IRM).

II. Modalités d’acquisition d’Images Médicales :


Les différents appareils d’acquisition d’images médicales sont nombreux et permettent
d’obtenir des informations différentes selon le procédé physique utilisé pour observer les
tissus du corps humain. Certains procédés apportent une information anatomique (Imagerie
Structurelle) tandis que d’autres détectent la fonctionnalité des organes en offrant une carte
d’activité.
Sans vouloir être exhaustif, nous décrirons rapidement dans ces paragraphes les principales
modalités d’acquisition d’images médicale.

II.1. Les Rayons X :

Les rayons X ont été découverts par hasard en 1895 par Wilhelm Röntgen [21] qui étudiait
les rayons cathodiques dans un tube à décharge gazeuse sous haute tension. Bien que ce tube
fût enchâssé dans un boîtier de carton noir, Röntgen nota qu'un écran de Platinocyanure de
Baryum, placé par hasard à proximité, émettait une lumière fluorescente lorsque le tube
fonctionnait. Après avoir effectué d'autres expériences, il conclut que cette fluorescence était
causée par un rayonnement invisible d'une nature plus pénétrante que le rayonnement
ultraviolet.
Comme il ne trouva pas de dénomination adéquate pour ces rayons, Röntgen les baptisa
« Rayons X ». Notons au passage que ce rayonnement est encore souvent appelé en
Allemagne Röntgenstrahlung. Peu après la découverte des rayons X, leur capacité à traverser
le corps humain fut mise en évidence et donnèrent naissance aux premières images médicales.
Le premier cliché est celui de la main d'Anna Bertha Röntgen (22 décembre 1895); il s'agit de
la première radiographie, la radiologie est née.(figure I.3)

16
CHAPITRE I L’imagerie Médicale

Figure I.3 : Une des premières radiographies prise par Wilhelm Röntgen.

II.1.1. La Radiographie Conventionnelle : [1]

Le terme « Radiographie » peut désigner l'ensemble des techniques permettant de réaliser les
clichés des structures internes d'un patient ou d'un composant mécanique et ce, à l'aide de
rayons X. L'application la plus courante est la radiographie médicale dans laquelle les clichés
traduisent l'opacité plus ou moins marquée des tissus ou organes par une teinte plus ou moins
claire.(Figure I.4)
Sachant que le corps est composé de tissus dits "mous" c’est à dire peu opaques aux rayons X
(comme la peau, la graisse, les muscles) et de tissus plus opaques (les os essentiellement), le
procédé de radiographie consiste à faire traverser un corps étudié par un faisceau de rayons
X ; Ceux-ci viennent frapper et imprimer une matrice de détecteurs photosensibles. L'image
est créée par la différence d'opacité des tissus due aux rayons X.
Les procédés d’acquisitions radiographiques mesurent la quantité de rayons X parvenant sur
les détecteurs et donc, pour les tissus traversés, leur coefficient d’absorption de rayons X. La
radiographie est encore le plus souvent réalisée sur film, celui-ci étant disposé dans une
cassette protectrice derrière ou sous le corps exposé.

17
CHAPITRE I L’imagerie Médicale

Figure I.4 : Radiographie du cavum et des sinus frontaux

Néanmoins, l'exclusivité de la radiographie sur film est généralement réservée aux « Tables
d'Os » qui sont dédiées uniquement à l'examen osseux.

La plupart des systèmes d'imagerie médicale proposent désormais une numérisation de


l'image réalisée par une transformation des rayons X en électrons via une couche d'iodure de
césium (CsI).

Cette radiologie numérique permet des applications de téléradiologie où le médecin qui


interprète les images se trouve à distance, éloigné du lieu où s’effectue l’examen (parfois
même dans un autre pays). Des applications de cette technologie sont effectives dans certains
hôpitaux des États-unis où des radiologues, situés en Inde font une première analyse des
clichés.

Les limites de la technique se situent sur deux plans :

• L'image restituée étant une projection en deux dimensions, il faut savoir l’interpréter
(sauf s’il y a utilisation d’une reconstruction en 3D).
• L'impact nocif sur l'organisme reste un problème majeur, qu'il s'agisse de la quantité
d'iode injectée le cas échéant ou qu'il s'agisse de l'exposition aux rayons X en cas de
procédure lourde ou répétée (possibilité d'alopécie ou de brûlure locale) bien que les
personnels soignants à proximité du patient soient les premiers concernés par ce dernier
risque.
18
CHAPITRE I L’imagerie Médicale

II.1.2. La Tomodensitométrie (scanner) : [5]

Le scanner, également appelé tomographe axial assisté par ordinateur (TAO), est un dispositif
de radiographie associant rayons X et traitement informatique permettant d’obtenir, par des
mesures de densité, une image des plans de coupe d’un objet, en particulier du corps humain.
Inventé par le Britannique Godfrey Hounsfield dans les années 1970, le scanographe —
appelé également scanner en raison de l’analyse par balayage qu’il effectue (de l’anglais
scanning) — reconstitue l’image du corps en mesurant la densité des rayonnements X à
travers le corps humain sous différents angles.
Le dispositif est constitué d’une source de rayons X, ou générateur, d’un couple émetteur-
détecteur et d’un appareil de balayage, le tout étant relié à un système de traitement
informatique et à une console permettant de visualiser et, éventuellement, d’archiver les
images. Le détecteur est composé d’un scintillateur et d’un photomultiplicateur ; dans les
premiers équipements, on employait des cristaux d’iodure de sodium, remplacés aujourd’hui
par un gaz rare, comme le xénon, placé dans une chambre d’ionisation.
Il existe différents systèmes de balayage. Dans l’un d’eux, le couple émetteur-détecteur
effectue un mouvement de translation, puis une rotation d’un angle a, ceci jusqu’à na = 180°
(n étant le nombre de rotations). Les densités ensuite déterminées sont converties en « unités
Hounsfield ».
Actuellement, la plupart des grands hôpitaux sont équipés de scanners qui révèlent les
tumeurs cancéreuses du foie, du cerveau, du poumon, des reins et qui décèlent les hernies
discales. La scanographie permet de distinguer par exemple les kystes, les masses de sang, de
graisse, de calcium. Elle a totalement révolutionné la radiologie, en particulier en neurologie.
En outre, l’examen est indolore et presque sans danger pour le patient.

II.1.3. L’Angiographie : [17]

L'angiographie est une technique d'imagerie médicale dédiée à l'étude des vaisseaux sanguins
qui ne sont pas visibles sur la radiographie standard. On parle d'artériographie pour
l'exploration des artères et de phlébographie pour celle des veines. L'angiographie est un
examen basé sur l'injection d'un produit de contraste lors d'une imagerie par rayons X. Sa
signification littérale est «imagerie des vaisseaux» (Figure I.5)

19
CHAPITRE I L’imagerie Médicale

Figure I.5 : Angiographie des mains.

Cette technique utilise les rayons X et un produit de contraste « radio-opaque ». Celui-ci peut
être constitué soit d’Iode (élimination par les reins) soit de dioxyde de carbone (CO2). Son
principe consiste à rendre visibles (ou opaques) les vaisseaux artériels ou veineux. Un cathéter
est introduit dans le vaisseau pour injecter le produit de contraste qui se mélange au sang : le
système vasculaire devient visible sur les clichés radiologiques grâce aux propriétés radio-
opaques de l'iode. L'artériographie peut concerner n'importe quelle artère du corps. Pour une
exploration cardiaque, on parlera de coronarographie ; pour celle carotidienne et céphalée, on
parlera de neuro-angiographie.

II.2. Les Images Ultrasonores : L’Echographie : [18]

L’échographie est une technique médicale consistant à visualiser certains organes à l'aide de
sons à haute fréquence (les Ultrasons). Les sons réfléchis par les organes sont analysés par
ordinateur de façon à produire une image sur un écran ou une photographie. Les sons sont émis
par un cristal à oscillation rapide dont la fréquence se situe entre 18 et 20 kHz. Ces vibrations
du cristal durent un millionième de seconde et se produisent 500 fois par seconde. On utilise
une sonde, en contact étroit avec la peau, pour émettre les sons et recevoir les échos. La peau
est également enduite de gel pour améliorer l'acoustique. L'air, les os et les tissus calcifiés
20
CHAPITRE I L’imagerie Médicale

absorbent la quasi-totalité des faisceaux d'ultrasons. Cet examen n'est donc pas utile pour
diagnostiquer les atteintes osseuses ou pulmonaires. En revanche, les fluides sont de bons
conducteurs d'ultrasons, si bien que cette technique est utilisée pour examiner les kystes et des
organes tels que la vessie, le système biliaire ou visualiser le fœtus dans le sac amniotique.

L'échographie peut également servir aux examens du réseau artériel, du cœur, du pancréas, de
la cavité péritonéale, de l'appareil urinaire, des ovaires, du système veineux, du cerveau et de
la moelle épinière. L'examen du fœtus pendant la grossesse est pourtant son utilisation la plus
courante.

L'échocardiographie est l'application de la technique des ultrasons à l'examen du cœur. Elle


est utilisée pour étudier les maladies cardiaques congénitales, les affections coronariennes, les
tumeurs cardiaques et d'autres troubles du cœur. L'échographie est également utilisée pour
guider les interventions chirurgicales comme l'amniocentèse amniocentèse ou au cours des
biopsies délicates.

À la différence des rayons X, l'échographie n'est pas contre-indiquée pendant la grossesse


puisqu'elle ne présente aucun risque, ni pour la mère, ni pour l'enfant. Elle permet de suivre la
croissance et le développement du fœtus, de s'assurer de sa bonne santé et de préciser le terme
du bébé car il est possible de déterminer l'âge exact du fœtus en mesurant son tour de tête.

II.3. Les Images Par Résonance Magnétique : [46]

L’imagerie par résonance magnétique (IRM), est une technique d'imagerie médicale
utilisée pour faire un diagnostic et se basant sur les principes de la résonance magnétique
nucléaire. Les images données par cette technique sont utilisées depuis une vingtaine
d'années, mais c'est entre 1930 et 1940 que furent conduites les recherches fondamentales
sur les interactions entre le noyau de l'atome et les champs magnétiques. En 1950, les
principes physiques fondamentaux de la résonance magnétique étaient déjà bien compris.
Pourtant, il restait encore trois conditions à remplir : disposer d'un ordinateur
suffisamment rapide et puissant, réaliser un aimant stable à taille humaine associé à des
appareils radio et enfin imaginer une utilisation médicale de ces techniques. Lauterbur,
Damadian et Mansfield ont démontré la faisabilité de cette idée en utilisant les principes
physiques de la résonance magnétique nucléaire. Les premières images réalisées grâce à

21
CHAPITRE I L’imagerie Médicale

cette technique furent publiées au début des années 1970. Les applications médicales se
sont considérablement développées dans les laboratoires et les centres médicaux du
monde entier entre 1983 et 1993.

Ces techniques d'imagerie médicale utilisant la résonance magnétique ont une multitude
d'applications. Les experts s'accordent à dire que l'IRM est la méthode de diagnostic la
plus puissante et la plus sensible disponible actuellement. Pour donner une idée de son
importance, disons simplement qu'elle permet d'obtenir des images de n'importe quel
organe, dans n'importe quelle coupe, et ce dans un délai relativement court. Des
techniques développées ultérieurement ont permis, par exemple, de visualiser l'anatomie
cardiaque dans tous ses détails. L'IRM a également pu être étendue à l'observation des
artères et des veines grâce à une technique appelée l'Angiographie à Résonance
Magnétique.

Enfin, la spectroscopie à résonance magnétique permet d'établir la composition


biochimique précise de toute partie du corps humain. La science dispose donc aujourd'hui
d'une quantité incroyable d'informations d'ordre biomédical et anatomique, ouvrant la
voie à de nouvelles découvertes et à un diagnostic plus précoce d'un certain nombre de
pathologies.

Le principe de l'IRM peut s'appliquer à l'organisme parce ce que ce dernier comporte une
multitude de petits « aimants atomiques », le plus courant et le plus réactif étant le proton
du noyau de l'atome d'hydrogène. Le principe de l'IRM met à profit la distribution
aléatoire des protons qui possèdent des propriétés magnétiques. Le processus se fait en
trois étapes. Dans un premier temps, l'IRM place le corps dans un champ magnétique très
puissant (30 000 fois plus puissant que celui de la Terre) qui oriente tous les protons dans
la même direction. Ensuite, les protons sont excités par des ondes radio, qui modifient
leur orientation. Enfin, la stimulation est brutalement interrompue, et l'appareil recueille
une onde dite de « résonance » par des antennes spécialement conçues. L'analyse
informatique du signal transmis permet d'établir les images des organes internes en
utilisant des méthodes similaires à celles qui ont été mises au point pour la radiographie
aux rayons X ou les scanners.

L'IRM est choisie pour diagnostiquer des atteintes du cerveau et du système nerveux
central. Les examens par IRM ont une résolution anatomique comparable à celle des

22
CHAPITRE I L’imagerie Médicale

scanners, mais d’un meilleur contraste. Ils fournissent le même type d'informations que la
tomographie par émission de positons, mais avec plus de détails anatomiques. Par
ailleurs, l'IRM est très supérieure aux images à rayons X, car elle a la capacité de
distinguer les différences d'intensités entre les tissus mous normaux et pathologiques.

L'IRM est sans risque. Elle est toutefois contre-indiquée aux patients porteurs de
prothèses. L'IRM est un examen très coûteux, mais qui constitue un progrès fantastique.
Elle fournit des éléments de diagnostic plus variés et plus précis.

II.4. L’imagerie Nucléaire :


La découverte de la radioactivité artificielle en 1934 par Irène et Frédéric Joliot-Curie a
été à l'origine de l'émergence d'une discipline médicale nouvelle, la médecine nucléaire.
Cette découverte a conduit à la production des isotopes radioactifs des éléments
constituants de la matière vivante et à leur utilisation comme traceurs. L'élément
radioactif est totalement indiscernable de son homologue stable naturel, sauf pour l'une
de ses propriétés : il est capable de manifester sa présence dans l'ensemble des atomes par
un rayonnement électromagnétique ou particulaire émis lors de sa désintégration.
La médecine nucléaire est l'ensemble des applications médicales des radiotraceurs ou
source radioactives. Cette technique se distingue de la plupart des autres modalités
médicale par le fait qu’elle apporte des images physiologique plutôt qu’anatomique. Des
molécules dont le comportement biologique est connu sont introduites dans le corps du
patient de la façon appropriée au test en cours : injecté, avalé, inhalé etc. Leur
comportement est alors étudié par le biais de l’imagerie par émission.

II.4.1. La Scintigraphie : [32]


La scintigraphie est une méthode d'imagerie médicale qui procède par l'administration,
dans l'organisme, d'isotopes radioactifs afin de produire une image médicale par la
détection des rayonnements émis par ces isotopes après captation par les organes à
examiner. Les différents traceurs utilisés sont spécifiques et capables de se fixer
sélectivement sur l'organe que l'on désire étudier. Une caméra à scintillation, détectant la
radioactivité, se déplace selon un axe longitudinal et transversal au-dessus de l'organe
étudié. Les informations sont ensuite présentées sous la forme d'un document

23
CHAPITRE I L’imagerie Médicale

photographique, en noir et blanc, parfois artificiellement colorisé pour augmenter les


contrastes.

II.4.1.1. La scintigraphie thyroïdienne :


La scintigraphie thyroïdienne (Figure I.6) repose sur l'utilisation d'un produit radioactif
qui se fixe sélectivement sur la thyroïde pour une recherche d'une anomalie
morphologique ou fonctionnelle. Deux radioéléments sont utilisés pour cet examen :
l'iode-123 et le technétium-99m. A l'aide de la scintigraphie thyroïdienne, il est possible
de visualiser des régions de la thyroïde qui captent moins le traceur (hypofixations
appelées nodules froids) ou qui captent plus le traceur (hyperfixations appelées nodules
chauds).

Figure I.6 : Scintigraphie thyroïdienne

II.4.1.2. La Scintigraphie Osseuse :


La scintigraphie osseuse repose sur la fixation dans les structures osseuses de molécules
phosphatées marquées au technétium-99m. Le radiopharmaceutique est injecté par voie
intraveineuse et aucune préparation particulière du patient n'est nécessaire avant
l'examen. Le traceur circule dans le sang et sa captation par le squelette est maximale au
bout de trois heures, ce qui impose un temps d'attente équivalent entre l'injection et le
début de l'examen.

24
CHAPITRE I L’imagerie Médicale

Figure I.7 : Scintigraphie Osseuse

II.4.1.3. La Scintigraphie Cardiaque :


La scintigraphie cardiaque (Figure I.8) permet d'évaluer la circulation du sang au niveau
du muscle cardiaque (évaluation de la perfusion) et donne des renseignements sur sa
fonction et ses capacités de contraction. La comparaison de la fixation du radiotraceur
dans le muscle cardiaque pour deux examens, un d'effort et un de repos, permet de
diagnostiquer ou d'exclure des maladies cardiaques. Les traceurs radioactifs couramment
utilisés pour cet examen sont le Thallium-201 et le Technétium-99m.

Figure I.8 : Scintigraphie Cardiaque.

II.4.2. La Tomographie par Emission de Positons :


En médecine nucléaire, la tomographie par émission de positons1 (TEP) est une méthode qui
permet de mesurer l'activité métabolique d'un organe grâce aux émissions produites par les
positons issus de la désintégration d'un produit radioactif injecté au préalable[9]. La TEP
repose sur le principe général de la scintigraphie qui consiste à injecter un traceur qui est
généralement sous forme de glucose [13]. Ce traceur est marqué par un atome radioactif qui
1
En physique des particules, le positron ou positon, encore appelé antiélectron est l'antiparticule associée à
l'électron. Il possède une charge électrique de +1 charge élémentaire (contre -1 pour l'électron)
25
CHAPITRE I L’imagerie Médicale

émet des positons dont l'annihilation produit elle-même des photons [39]. La détection de la
trajectoire de ces photons par le collimateur de la caméra TEP permet de localiser le lieu de
leur émission et donc la concentration du traceur en chaque point de l'organe. Cette
information quantitative est représentée sous la forme d'une image faisant apparaître les zones
de forte concentration du traceur. Ainsi la TEP permet de visualiser les activités du
métabolisme des cellules : on parle d'imagerie fonctionnelle par opposition aux techniques
d'imagerie dite structurelle comme celles basées sur les rayons X (radiologie ou scanner) qui
réalisent des images de l'anatomie. Par conséquent, la tomographie par émission de positons
est un outil diagnostique qui permet de déceler certaines pathologies qui se traduisent par une
altération de la physiologie normale comme les cancers ; en effet, Comme les cellules
tumorales sont plus actives que les cellules normales, elles consomment davantage de
glucose. La TEP permet ainsi d’obtenir des images précises de la répartition du glucose
radioactif dans l’organisme et donc de localiser des cellules cancéreuses [8]
La TEP est aussi utilisée en recherche biomédicale, par exemple en imagerie cérébrale où elle
permet de révéler les régions actives du cerveau lors de différentes activités cognitives. Dans
la figure I.9 nous remarquons que l’écoute subjective ou analytique d’une même pièce de
musique par un même sujet active respectivement l’hémisphère droit ou l’hémisphère gauche.

Figure I.9 Scan-TEP lors d’une écoute subjective (a) et analytique (b) d’une même pièce de musique par le
même sujet

26
CHAPITRE I L’imagerie Médicale

III. Conclusion :
L’imagerie médicale est certainement l’un des domaines de la médecine qui a le plus
progressé ces vingt dernières années, puisqu’elle a vu l’irruption de la machine. Le médecin
demeure lecteur et arbitre, mais c’est l’informatique qui révèle l’anatomie. Ces récentes
découvertes permettant non seulement un meilleur diagnostic mais offrent aussi de nouveaux
espoirs de traitement pour de nombreuses maladies.
Le besoin de concevoir des méthodes automatiques ou semi-automatiques pour traiter plus
spécifiquement les images médicales s’est donc fait ressentir. Une nouvelle communauté de
recherche spécialisée en traitement des images médicales est née. Ces chercheurs issu
principalement de la communauté «traitement d’images», tentent de répondre aux nombreuses
questions des radiologues. L’ensemble des solutions apportées font appel à des paradigmes
souvent présents dans d’autres domaines. Parmi ces paradigmes nous citons la restauration
d’images, la morphométrie, la segmentation, le recalage, la classification, la réalité
augmentée, la simulation et la robotique.

27
CHAPITRE II L’image Numérique

I. Introduction :

Le traitement d’image est une discipline relativement jeune (années 60) en pleine expansion,
donnant ainsi lieu chaque année à une multitude de travaux académiques, technologiques et
industriels.
Par traitement d'images, on désigne l'ensemble des opérations appliquées sur les images
numériques transformant une image en une autre, ou en une primitive formelle.
Ce chapitre a pour objectif l’introduction au domaine du traitement d’image. Nous aborderons
d’abord le vocabulaire et quelques notions fondamentales relatives à cette discipline telles que
la résolution spatiale et la quantification. Nous verrons par la suite les différentes techniques
de prétraitements en nous plaçant dans un contexte 2D puis 3D. Cependant, nous nous
focaliserons sur les images 2D lorsque la généralisation en 3D est triviale.

II. L’image Numérique :[2]

II.1 Définition :

Une image numérique est une fonction I à support discret et à valeurs discrètes. Le support
peut être bidimensionnel ou tridimensionnel. La fonction I associe à chaque élément du
support une mesure qui, à son tour peut être soit :

• Scalaire : lorsqu’il s’agit d’une intensité, comme par exemple le niveau de gris.
soit
• Vectorielle : la mesure est répartie en plusieurs canaux distincts. Dans le cas
d’image couleur RVB par exemple, chaque composante du vecteur représente une
des trois couleurs primaires (Rouge, Vert, Bleu).

Nous discutons de manière plus détaillée de l’espace de couleur dans la section II.4.

La nature d’une image dépend du phénomène physique à mesurer. Le tableau II.1 présente les
types les plus courants, les grandeurs physiques associées et les capteurs utilisés.

29
CHAPITRE II L’image Numérique

Phénomène Physique Grandeur Mesurée Capteur


Lumière visible Flux photonique émis ou réfléchi CCD, Scanner,…
Rayonnement Infrarouge Chaleur (Luminance Infrarouge) Bolomètre
Echo Ultrasonore Densité de tissus Echographie, Sonar,…
Résonance magnétique Présence de corps chimique IRM,…
Echo électromagnétique Spécularité de surface Radiographie

Tableau II.1 : Différentes Natures d’images

II.2 Représentation d’une image numérique :[11]

Une image numérique est représentée par un tableau I de h lignes et w colonnes où chaque
cellule désigne un pixel ; ce nom provient de la locution anglaise Picture Element qui signifie
« élément d’image ». Ainsi, un pixel est désigné par ses coordonnées entières dans l’image, la
valeur d’un pixel représente son intensité lumineuse, son niveau de gris ou sa couleur.
Par convention le pixel origine est généralement en haut à gauche. La figure II.1 illustre une
représentation d’une image numérique en niveau de gris.

Figure II.1 : Représentation d’une image en niveau de gris.

En imagerie médicale, les images sont généralement acquises sous forme de coupes [31], ces
dernières sont empilées les unes sur les autres, donnant ainsi une représentation volumique

30
CHAPITRE II L’image Numérique

(image 3D). Dans ce cas, le support est tridimensionnel, chaque élément du volume désigne
un voxel (Volumetric Picture Element) ; ce dernier est repéré par ses coordonnés entières
tridimensionnelles. Un volume v est représenté sous forme de cube (tableau tridimensionnel)
où la troisième dimension désigne la profondeur noté d. La figure II.2 illustre une
représentation d’un volume en niveaux de gris. La figure II.3 illustre un rendu volumique (c)
d’une IRM cérébrale mettant en évidence les différentes coupes ; à savoir la coupe sagittale
(a), coronale (b) et transversale (d).

Figure II.2 : Représentation d’un volume en niveau de gris

II.3. Notion d’adjacence :

Les pixels forment des ensembles connexes de points du plan euclidien, de telle sorte que
deux pixels voisins ne peuvent s'intersecter que sur leur bord, et que l'ensemble des pixels
recouvre le plan. Une telle décomposition du plan s'appelle un pavage. La figure II.4 illustre
trois types de pavages, dont les pavés sont des polygones réguliers : triangulaire (a), carré (b),
et hexagonal (c).

31
CHAPITRE II L’image Numérique

Figure II.3 : Représentation volumique d’une IRM cérébrale


Coupe Sagittale (a), coronal (b), transversal (d) et rendu volumique (c)

Figure II 4 : Différents types de pavages

32
CHAPITRE II L’image Numérique

En plaçant un point au centre de chaque pavé, puis en joignant les points dont les pavés
correspondants se touchent par un côté, nous obtenons le maillage correspondant au pavage,
Chaque nœud du maillage est un point discret correspondant au pixel. La figure II.5 illustre le
maillage établi à partir des différents types de pavages vue précédemment.

Figure II.5 : Différents types de maillages

Dans la figure II.5 on peut constater que le pavage triangulaire donne un maillage hexagonal
(a) et vice versa(c), tandis le pavage carré donne un maillage carré (b). Notons cependant que
le pavage et le maillage carrés sont les plus utilisés, car ils correspondent à nos habitudes
cartésiennes. De plus, les points lumineux d'un écran sont toujours disposés suivant un
maillage carré.
Dans un maillage carré, chaque pixel a deux types de voisins : les voisins axiaux et les voisins
diagonaux. Nous pouvons définir ainsi les relations 4-adjacents et 8-adjacents :

Deux pixels , et , sont dis :

• 4-adjacents : s’ils sont voisins axiaux, c'est-à-dire :

| | | | (2.1)

• 8-adjacents : s’ils sont voisins axiaux ou diagonaux :

| | ,| | (2.2)

33
CHAPITRE II L’image Numérique

La relation de proximité entre deux voisins axiaux est plus forte que celle entre deux voisins
diagonaux. La figure II.6 illustre les voisins d’un pixel (bleu) selon les deux type de relation.

Figure II.6 : Voisinage d’un pixel selon la relation 4-adjacents (a) et 8-adjacents (b).

En 3D, le seul polyèdre régulier permettant un pavage est le cube. Il est donc d'usage, pour les
images tridimensionnelles, d'utiliser un pavage cubique auquel correspond un maillage
cubique. Dans ce cas, chaque voxel dispose de 26 voisins se répartissant comme suit :

• 6 voisins axiaux.
• 12 voisins diagonaux.
• 8 voisins diamétraux.

La figure II.7 illustre les trois types de voisinage d’un voxel.

Figure II.7 : Voisins axiaux (a), diagonaux (b) et diamétraux (c) d’un voxel.

34
CHAPITRE II L’image Numérique

, , , ,
En 3D nous étendons la relation d’adjacence de la manière suivante :
Deux voxels et sont dits :

• 6-adjacents : s’ils sont voisins axiaux :

| | | | | | (2.3)

• 18-adjacents : s’ils sont voisin axiaux ou diagonaux :

| | | | | |
, ,
(2.4)

• 26-adjacents : s’ils sont voisins axiaux, diagonaux ou diamétraux :

| | ,| |, | | (2.5)

III. L’espace de couleur :

Actuellement, la plupart des écrans d'ordinateurs permettent d'afficher plus de 16 millions de


couleurs différentes. A l'époque où ils n'étaient pas capables d'en afficher plus de 16 ou 256, il
était possible d’identifier ces couleurs à partir de leurs noms. En passant à 16 millions de
couleurs, la tâche devient titanesque, et les limites de notre vision nous interdisent bien des
distinctions de couleurs. D'où l'utilisation de systèmes de couleurs ou de modèles de
représentation de l’espace colorimétrique de manière à pouvoir associer un code unique à
chaque couleur.

III.1. Le système RGB :

Le système RVB ("Rouge-Vert-Bleu", RGB en anglais) s'appuie sur la synthèse additive.


Chaque couleur est représentée par son niveau de rouge, de vert et de bleu. Par conséquent, si
on souhaite afficher une couleur spécifique, il "suffit" de déterminer l'importance de chacune
des trois primaires additives qui interviennent dans sa composition (et on reconstitue la
couleur en faisant la synthèse additive de ces trois niveaux.)

C'est le codage le plus simple d'un point de vue informatique, car il s'agit des valeurs à donner
aux pixels de l'écran, ce dernier fonctionnant sur le même principe, avec 3 faisceaux rouge-
vert-bleu. L’intensité de chaque composante varie entre 0 et 255 soit 256 nuances distincte.

35
CHAPITRE II L’image Numérique

Ce nombre n'a pas été fixé au hasard. En effet, d’une part, en informatique il est possible de
coder 256 valeurs distinctes à partir d’un seul octet, d’autre part, l'œil humain le plus exercé
est pleinement satisfait avec 256 nuances d'une même couleur. Notons aussi que 256 nuances
de chaque couleur primaire permet de créer 16,7 millions de couleurs (256 x 256 x 256) Alors
qu'en moyenne, l’œil humain n’est pas capable de distinguer plus de 350000 couleurs, on
conçoit donc facilement que les 256 nuances de chaque couleur primaire suffisent largement.
Le modèle RVB est un système à trois dimensions qui peut être représenté sous la forme d'un
cube dont chaque axe correspond à une couleur primaire. Le mélange deux par deux des
couleurs primaires donne lieu aux couleurs secondaires (Cyan, Magenta, Jaune).

III.2. Le modèle CMJN :

Le système CMJN ("Cyan-Magenta-Jaune-Noir", CMYK en anglais) a été conçu pour


l'impression sur papier. La raison en est simple: à l'écran, les combinaisons de couleurs
répondent à une synthèse additive, tandis que celles sur papier sont en synthèse soustractive.
Tout comme le RVB, mais cette fois-ci en synthèse soustractive, une couleur est décomposée
en ses composantes : cyan (C), magenta (M) et jaune (Y). Pour des raisons de pureté des
noirs, les gris sont délégués à une quatrième composante.
D'une manière générale, il n'existe guère de différences entre les systèmes CMY et RGB. Ils
sont en effet établis tous les deux à partir de trois couleurs fondamentales. Ce modèle est
surtout répandu dans le monde de l'imprimerie, en effet, alors que, dans le modèle RVB, il
faut une source lumineuse pour créer des couleurs, le modèle CMJN est fondé sur la qualité
d'absorption des couleurs de l'encre sur le papier.

III.3. Le modèle Niveau de gris :

Le niveau de gris représente l'intensité lumineuse d'un pixel, lorsque ses composantes de
couleurs sont identiques en intensité lumineuse. Comme nous l’avons vu précédemment, dans
les images couleurs chaque pixel est représenté par trois composantes (Rouge, Vert, Bleu pour
le modèle RVB), un pixel est dit « gris » lorsque ses trois composantes de couleurs sont
identiques. Une méthode simple pour convertir une image couleur en niveau de gris consiste à

36
CHAPITRE II L’image Numérique

calculer la moyenne des trois composantes RVB et d’utiliser cette valeur moyenne pour
chacune des trois composantes :

!" #" $ %&"


2.6
'

La C.I.E1 propose, de caractériser le niveau de gris d’un pixel selon la manière dont l’œil
humain perçoit les trois composantes (rouge, vert et bleu) de la lumière naturelle par la
formule suivante :

+, - ., / /0 · 23456 ., 7808 · 96,: ., .7/ · ;<64 (2.7)

III.4. Les Pseudocouleurs :

Parfois il est visuellement plus parlant de représenter une image niveaux de gris en une image
couleurs, en remplaçant chaque niveau de gris par une couleur au moyen d'une
correspondance entre niveaux de gris et couleurs. Il s’agit ici de fausses couleurs, ou de
pseudocouleurs. La figure II.8 illustre une image TEP niveaux de gris (a) transformée en
pseudocouleurs (b) à partir d’une fonction de correspondance entre niveau de gris et RVB,
celle-ci est illustrée dans la figure II.9.

Figure II.8 : Transformation d’une image TEP niveau de gris (a) en couleur (b)

1
Commission Internationale de l'Éclairage
37
CHAPITRE II L’image Numérique

Figure II.9 : Fonction de correspondance niveaux de gris et couleurs

IV. Résolution d’une image :

En optique, on appelle la résolution spatiale d'un appareillage, la distance minimum entre


deux sources lumineuses ponctuelles permettant de les distinguer. Plus cette distance est
petite, mieux on voit les détails de l'image ainsi produite ; on dit que la résolution spatiale est
plus fine ou plus grossière selon que cette distance est plus petite ou plus grande.
Comme nous l’avons vu précédemment, une image numérique est formée par un alignement
horizontal et vertical de pixels. Pour que deux sources ponctuelles lumineuses apparaissent
distinctement dans une telle image, il faut qu'elles soient sur deux pixels distincts. Par
conséquent la résolution spatiale, au sens optique, d'un système d'imagerie informatique, se
mesure par les dimensions spatiales d'un pixel. La résolution spatiale est plus fine ou plus
grossière selon que les dimensions des pixels sont plus petites ou plus grandes. Généralement,
la largeur et la hauteur d'un pixel sont égales (pixel carré), donc on peut mesurer la résolution
spatiale par le nombre de pixels par unité de longueur.
La quantification des intensités lumineuses dans l’image donne lieu à la résolution tonale ;
celle-ci correspond au nombre de valeurs différentes que l’on peut associer aux pixels de
l’image.

38
CHAPITRE II L’image Numérique

IV.1. La Résolution Spatiale :

Une image numérique ne constitue qu’une version approchée de l’image réelle formée par
l’image de projection de la scène 3D sur la portion de plan correspondant à la surface
photosensible du capteur. La qualité d’apporixmation dépend de la quantité d’information
portée par l’image numérique, en particulier de la résolution spatiale. La figure II.10
illustre différentes résolutions spatiales d’une même image TEP agrandies à la taille originale.

Figure II.10 : TEP, originale 128 x 128 (a) – 64 x 64 (b) – 32 x 32 (c)

Il est intuitivement évident qu’une structure fine comportant de fortes variations spatiales
nécessite plus de pixels qu’une structure présentant moins de variations. Cependant en
pratique le nombre de pixels est limité et dépend du dispositif d’acquisition ; il est donc
souhaitable que les pixels utilisés donnent lieu à une représentation plus ou moins ‘moyenne’
de la région concernée.
La figure II.11 représente un signal 1D sinusoïdal discrétisé avec un pas d’échantillonnage ne
satisfaisant pas la condition du théorème d’échantillonnage de Nyquist-Shannon2.[37]

On remarque dans la figure II.11 que le signal discret résultant est de même allure sinusoïdale
que le signal continu mais avec une fréquence 9 fois plus faible. Ce phénomène est appelé
aliasing. En signaux bidimensionnels, c'est-à-dire les images, le phénomène d’aliasing a une
ampleur aussi importante, faisant apparaitre des structure ne correspondant pas à la réalité

2
La fréquence d'échantillonnage d'un signal doit être égale ou supérieure au double de la fréquence maximale
contenue dans ce signal, afin de convertir ce signal d'une forme continue à une forme discrète
39
CHAPITRE II L’image Numérique

Figure II.11 : Phénomène d’aliasing sur un signal 1D

La figure II.12 illustre une bande rouge (a) discrétisée à une résolution fine (b) puis grossière
(c). Dans (b) nous obtenons une structure plus ou moins conforme à l’image continue,
cependant dans (c) une structure différente apparait ne représentant pas la réalité de l’objet ;
en effet, la bande ne conserve plus sa propriété de continuité du fait de la faible résolution
spatiale.

Figure II.12 : Phénomène d’aliasing sur une image

40
CHAPITRE II L’image Numérique

IV.2. La Résolution Tonale :

La résolution tonale d’une image correspond au nombre de valeurs différentes que l’on peut
associer aux intensités des pixels dans cette image, elle est exprimée par le nombre de bits
utilisé pour coder les valeurs des pixels. Idéalement le nombre de valeurs différentes des
intensités dans une image devrait dépendre de l’amplitude des grandeurs observées dans la
scène, cependant en pratique ce nombre dépend de la sensibilité du capteur.
La figure II.13 illustre une image TEP en niveaux de gris à des résolutions tonales différentes.

Figure II.13: Image TEP 8 bits (a) – 4 bits (b) - 1 bit (c).

V. Prétraitement d’image :

Le prétraitement d’image regroupe l’ensemble des techniques visant à améliorer l’aspect


d’une image. Ces opérations sont diverses ; en effet, il pourrait s’agir de renforcement de
contraste, de réduction de bruit3, ou d’extraction de primitive dans l’image (contours, points
d’intérêt, etc.) ; ceci, dans le but de faciliter les traitements ultérieurs tel que segmentation ou
la reconnaissance de forme.

3 Altération de certains pixels dans l’image, pouvant être causée par le processus d’acquisition, de transmission
ou de stockage.
41
CHAPITRE II L’image Numérique

Nous pouvons classer l’ensemble de ces opérations en trois catégories :

• Les Opérations Ponctuelles.


• Les Opérations Globales.
• Les Opérations Locales.

nous notons par =>6? la nouvelle image issue de l’opération sur une image en entrée =.
Nous présentons ici quelques méthodes pour chacune de ces catégories. Dans ce qui suit,

V.1. Les Opérations Ponctuelles :

Dans ce type d’opération, la nouvelle intensité de chaque pixel de l’image dépend uniquement

L’opération est représentée sous forme de courbe tonale, associant pour chaque valeur de =
de son ancienne valeur indépendamment des valeurs des autres pixels dans l’image.

une nouvelle valeur dans =>6? .[53]

V.1.1. Changement d’éclairage :

Comme son nom l’indique, cette opération effectue un changement d’éclairage sur l’image, il

translation :. Cette valeur est additionnée à l’ensemble des pixels de l’image, ce qui a pour
peut s’agir d’un éclaircissement ou d’un assombrissement, selon le signe du facteur de

effet, la translation de l’histogramme de l’image vers la direction donnée par :. L’opération


s’exprime comme suit :

=>6? , = , : (2.8)

La figure II.14 illustre la courbe tonale correspondant à un éclaircissement (a) et à un


assombrissement (b).

42
CHAPITRE II L’image Numérique

Figure II.14 : Courbe Tonale de l’opération d’éclaircissement (a) et d’assombrissement (b)

V.1.2. Inversion :
L’opération d’inversion consiste à inverser les valeurs des pixels de l’image par rapport à la
moyenne de valeur possible. Pour les images en niveau de gris l’opération s’exprime ainsi :

=>6? , /00 = , (2.9)

La figure II.15 illustre la courbe tonale de l’opération d’inversion.

Figure II.15 : Courbe Tonale de l’opération d’inversion.

43
CHAPITRE II L’image Numérique

V.1.3. Seuillage :

L'opération dite de seuillage consiste à mettre à zéro tous les pixels ayant une valeur
inférieure à un certain seuil et, à la valeur maximale, l’ensemble des pixels ayant une valeur
supérieure au seuil. Ainsi le résultat du seuillage est une image binaire contenant des pixels
noirs et blancs, c'est la raison pour laquelle le terme de binarisation est parfois employé.
L’opération de seuillage pour une image en niveaux de gris s’exprime ainsi :

. A = , B C DEF
=>6? , @
/00 - >3>
(2.10)

Le seuillage permet de mettre en évidence des formes ou des objets dans une image. Toutefois
la difficulté réside dans le choix du meilleur seuil. La figure II.16 illustre la courbe tonale de
l’opération de seuillage.

Figure II.16 : Courbe Tonale de l’opération de Seuillage

V.2. Les opérations globales :

Dans ce type d’opération, la nouvelle valeur de chaque pixel est calculée en tenant en compte
de l’intégralité des pixels dans l’image. Dans cette catégorie on trouve, par exemple, les
opérations sur les histogrammes ou les opérations qui nécessitent de passer dans l'espace de

44
CHAPITRE II L’image Numérique

Fourier. Nous nous limitons ici aux opérations de normalisation et d’égalisation


d’histogramme [15]

V.2.1. Normalisation d’histogramme :

La normalisation d’histogramme est une opération qui consiste à modifier les valeurs de
chaque pixel de manière à ce que l’image résultante exploite toute sa dynamique, améliorant

d'intensité la plus faible = soit à zéro et que la plus haute =


ainsi le contraste de l’image. Ceci revient à un étirement de l'histogramme afin que la valeur
> soit à la valeur maximale
(255) :

/00
=>6? , = , = G 2.11
>
= = >

La figure II.17 illustre la courbe tonale qui correspond à la normalisation d’histogramme

Figure II.17 : Courbe Tonale de Normalisation d’histogramme.

V.2.2. Egalisation d’histogramme :


L’égalisation d’histogramme consiste à harmoniser la répartition des niveaux de luminosité de
l'image, de manière à tendre vers un même nombre de pixel pour chacun des niveaux, ceci
revient à l’aplatissement de l’histogramme. Cette technique améliore le contraste et permet
d’augmenter artificiellement la clarté d’une image grâce à une meilleure répartition des
intensités. La nouvelle image est calculée de la manière suivante :

45
CHAPITRE II L’image Numérique

= ,

=>6? , /00 G I J> 2.12


K.

V.3. Les opérations locales :


Dans ce type d’opération, la nouvelle valeur de chaque pixel est calculée en fonction de son
voisinage. Dans un contexte de prétraitement, ce type d’opération est dit opération de
filtrage ; en effet, il pourrait s’agir d’une part, de filtrer les imperfections de l’image tel que le
bruit ou, d’autre part, de filtrer l’information portée par l’image de manière à en faire ressortir
des primitives telles que les contours ou les point d’intérêt.
Il est d'usage de choisir un voisinage carré et symétrique autour du pixel considéré. Ce
voisinage est une fenêtre de taille assimilable à une matrice (voisinage d’un pixel) ou un
cube (voisinage d’un voxel), la valeur de détermine l’étendu du voisinage à considérer lors
du traitement. Dans ce qui suit nous fixons la valeur de à 3 ceci correspond au voisinage 8-
adjacent d’un pixel et au voisinage 26-adjacent d’un voxel.
Nous pouvons distinguer deux catégories de filtrage, le filtrage linéaire et le filtrage non-
linéaire :

V.3.1. Filtrage Linéaire :


Le filtre est dit linéaire lorsque la nouvelle valeur de chaque pixel peut s’exprimer sous forme
d’une combinaison linéaire des valeurs de voisinage :

=>6? , I I L M , MN G = M , MN 2.13
MNKP M KP

La matrice L appelée noyau de convolution4, représente les coefficients entiers ou réels de la


combinaison linéaire spécifique au filtre. Dans le cas tridimensionnel, L est un cube :

4
Le noyau est indexé par des valeurs négatives et positives autour du centre A(0,0)
46
CHAPITRE II L’image Numérique

=>6? , , I I I L M , MN, MQ G = M , MN, MQ 2.14


MQKP MNKP M KP

Nous présentons ici quelques noyaux de convolution usuels.

V.3.1.1. Filtre de Gauss : [55]


Ce filtre tente d’atténuer les changements brusques d’intensité ce qui permet de réduire le
bruit dans une image. Le noyau de convolution est calculé par une fonction Gaussienne de
manière à donner une forte pondération aux pixels plus proche du centre :

/V /

L , ·6 2.15
P
/·S²
S√/ · U

Où S représente l’écart type.


La formule (2.15) est généralisée en 3D de la manière suivante : [33]

/V /V ²
L , , ·6 2.16
P
/·S²
S√/ · U

Bien que ce filtre permette de réduire considérablement le bruit dans l’image, son application
provoque une dégradation de l’image, en particulier des contours. Ceci se manifeste par un
effet de flou (figure II.18)

Figure II.18 : Application du filtre Gaussien (b) sur une image bruitée (a).

47
CHAPITRE II L’image Numérique

V.3.1.2. Filtre de Sobel :


Ce filtre permet l’extraction des contours dans une image par le biais de sa dérivée (gradient) ;
en effet, un contour est défini par une forte variation d’intensité selon une direction précise,
ainsi, le filtre de Sobel détermine la variation d’intensité autour de chaque pixel selon chaque
direction. Plus cette variation est importante et plus le pixel a de chance de se situer sur un
contour.

L et LN dans le cas d’image 2D et à trois noyaux L et LN et LQ dans le cas de volume. Le


Le filtre de Sobel se présente par un noyau pour chaque axe, ce qui correspond à deux noyaux

coefficient de chaque point du noyau est inversement proportionnel à la distance entre le point
en question et le centre du noyau. Ceci afin de privilégier les points les plus proches du centre.
Les coefficients sont calculés selon la formule d’Asfar [55] :

L , , Y /. 7
|| || | |

Ainsi, les noyaux de Sobel se présentent comme suit :

En 2D :

// . // // //
L Z . \ ; LN Z . . . \
// . // // //

En 3D :

/' . /' // . // /' . /'


• L Z // . //\ ;Z . \ ;Z // . //\
/' . /' QKP // . // QK. /' . /' QK

48
CHAPITRE II L’image Numérique

• LN
/' // /' // // /' // /'
Z . . . \ ;Z . . . \ ;Z . . . \
/' // /' QKP // // QKP /' // /' QKP

/' // /' . . . /' // /'


• LQ Z // //\ ; Z. . .\ ; Z // //\
/' // /' QKP . . . QK. /' // /' QK

V.3.2. Filtrage Non-Linéaire :


Si le filtre ne peut pas être exprimé par une combinaison linéaire, il est appelé non-linéaire.
Les filtres non-linéaires sont plus complexes à mettre en œuvre que les filtres linéaires.
Cependant les résultats obtenus sont très souvent de meilleure qualité. Nous présentons ici
deux filtres non-linéaires :
• Le filtre Médian.
• Le filtre de Diffusion.

V.3.2.1. Le filtre Médian : [3]


La médiane est une mesure statistique représentant une alternative robuste à la moyenne.
Considérons n valeurs numériques où n est impair. La valeur médiane correspond à la valeur
du centre de la suite lorsque celle-ci est ordonnée du plus petit au plus grand. L’application du
filtre médian dans une image consiste donc à remplacer chaque pixel ou voxel par la valeur
médiane de l’ensemble de son voisinage.
Le filtre médian est particulièrement efficace contre le bruit dans l’image sans pour autant
produire l’effet indésirable de flou, contrairement aux techniques de débruitage linéaires. La
figure II.29 illustre l’application du filtre médian sur une image bruitée.

49
CHAPITRE II L’image Numérique

Figure II.19 : Application du filtre Médian (b) sur une image bruitée (a)

V.3.2.2. Le Filtre de diffusion : [36]

Le filtre de diffusion tente d’atténuer les différences d'intensité entre chaque pixel et ses
voisins. Le principe est de calculer pour chaque voisin, la différence d'intensité avec le pixel
central. Plus la différence est faible, plus elle est propagée vers le pixel central. Cela permet
d'uniformiser les zones d'intensité proches et de conserver les forts contrastes (les contours).
Ainsi, la nouvelle valeur du pixel est calculée en ajoutant la somme des propagations à la
valeur actuelle :

=>6? , = , ^· I I _ = M , MN = , 2.18
MNKP M KP

Le facteur ^ permet de contrôler la force de la propagation afin d'éviter de saturer la nouvelle


valeur. _ est une fonction de pondération. Dans [42] Malik et Perona proposent les fonctions
de pondération suivantes :

• _ ∆= 6P
∆=
²
(2.19)

• _/ ∆= ∆= /
Vb c
(2.20)

∆= représente la variation d’intensité entre le pixel central et chacun de ses voisins. est une
constante.
50
CHAPITRE II L’image Numérique

VI. Conclusion :
Une image brute est généralement entachée de dégradations d’origines diverses ; l’objectif
des techniques de prétraitement que nous venons de voir est de minimiser l’influence de ces
dégradations sur les traitements ultérieurs. Parmi ces traitements on cite la segmentation
d’image qui consiste à faire un partitionnement de l’image en ensemble de régions
homogènes, ce qui permet d’avoir une représentation compacte de l’image facilitant ainsi son
interprétation. Face à la croissance de modalités d’acquisition d’images médicales et à la
complexité de celles-ci, la segmentation est devenue une nécessité en imagerie médicale.
Le chapitre suivant est consacré à la segmentation d’images médicales. Nous tenterons de
dresser un état de l’art sur les méthodes actuelles de segmentation d’images médicales.
Dans le tableau II.2, nous illustrons l’application de différentes techniques de prétraitement
vues dans ce chapitre sur une image TEP dégradée.

51
CHAPITRE II L’image Numérique

Opération Entrée Sortie

Réduction de bruit

Filtre Médian

Image 1 Image2

Augmentation de Contraste

Normalisation d’histogramme

Image 2 Image3

Binarisation

Seuil = 104

Image 3 Image 4

Application d’un masque


avec Image 4

Image 3 Image 5

Détection de contours

Filtre de Sobel

Image 5 Image 6

Tableau II.2 : Chaine de prétraitement appliquée à une image TEP

52
CHAPITRE III La Segmentation d’images Médicales

I. Introduction :

L'une des étapes critiques du traitement d'images est la segmentation, celle-ci consiste à
localiser dans une image les régions (ensembles de pixels) appartenant à une même structure
(objets ou scène imagés). Si l'homme sait naturellement séparer des objets dans une image
c'est grâce à des connaissances de haut niveau (compréhension des objets et de la scène).
Mettre au point des algorithmes de segmentation de haut niveau (chaque région est un objet
sémantique) est encore un des thèmes de recherche les plus courants en traitement d'images.
La segmentation est à la base de nombreuses applications tant en vision industrielle, qu'en
imagerie médicale. De nombreuses recherches ont eu lieu sur les méthodes de segmentation.
Il en résulte un très grand nombre de méthodes dont la comparaison, soit en termes de
structure soit en termes de performance, est très difficile.
Grace à l’évolution technologique dans le domaine médicale, un grand nombre de modalités
d’acquisition d’images médicales a vu le jour (Scanner, IRM, TEP,…etc.). Ces technologies
ont grandement augmenté nos connaissances en matière d’anatomie du corps et jouent
actuellement un rôle prépondérant dans le diagnostic médical. Cependant, la croissance du
nombre de modalité d’acquisition confronte l’expert aujourd’hui à un volume très important
d’information à traiter et diagnostiquer, ainsi, afin d’assister l’expert lors de son analyse, il est
devenu primordial de faire appel à des outils informatiques, et plus particulièrement aux
algorithmes de segmentation d’images qui consiste à délimiter les différentes structures,
pathologies ou région d’intérêt figurant dans l’image.

Ce chapitre est consacré à la segmentation d’images médicales. Nous aborderons d’abord


quelques notions fondamentales relatives à la segmentation d’images, nous verrons par la
suite les différentes techniques et approches de segmentation figurant en littérature. Nous
présenterons enfin le principe de notre approche de segmentation.

54
CHAPITRE III La Segmentation d’images Médicales

II. La segmentation d’images :

La segmentation d’images est un domaine de recherche en pleine activité qui couvre un


champ d’application très vaste (Imagerie médicale, Robotique, Imagerie Satellitaire…etc.).

En imagerie médicale la segmentation d’organe est si répandu qu’il serait difficile d’énumérer
la liste des organes communément segmentés, mais en général la liste inclurait au moins ce
qui suit : Le cerveau, le cœur, le foie et les vaisseaux sanguins.
Notons cependant qu’il n’existe actuellement pas d’algorithme universel de segmentation
applicable à tout type d’image; en effet le résultat de la segmentation dépend fortement de
l’information sémantique à discerner, celle-ci varie d’une application à une autre[54] ; de ce
fait nous nous focaliserons essentiellement sur la segmentation d’images médicales et plus
particulièrement aux images cérébrales (fig III.1).

Figure III.1 : Coupe d’une IRM mettant en évidence les différents tissus cérébraux
Source [57]

La segmentation d’image médicale consiste à associer à chaque voxel de l’image médicale


une étiquette ou un label indiquant ainsi le type de tissu ou la structure anatomique, la
collection d'étiquettes produite à travers le processus de segmentation s’appelle la carte

55
CHAPITRE III La Segmentation d’images Médicales

d’étiquettes (Labelmap). Celle-ci décrit la correspondance spatiale entre les intensités des
voxel dans l’image et les différents types de structure anatomiques présents dans l’image. La
figure III.2 illustre une coupe d’IRM cérébrale (a) ainsi que sa segmentation en tissus (b).

Figure III.2 : IRM cérébrale (a) – Segmentation de l’IRM en tissus (b)

II.1.Définition : [2]

Il n’est pas aisé de trouver une seule définition de la segmentation d’image car cette tâche est
souvent confondue avec la classification. Segmenter une image signifie trouver ses régions
homogènes et ses contours. Ces région et contours sont supposés être pertinents ; en effet, les
régions doivent correspondre aux parties significatives des objets du monde réel et les
contours à leurs contours apparents. Plus formellement, la segmentation est le processus de
partitionnement d’une image I en N sous-ensembles de région (R1,R2,…, RN) tel que :

1.
2. , , ,
1, ,
(3.1)
3.
4. , , ! " # $ ! % & ! ' ( ) * +,.

56
CHAPITRE III La Segmentation d’images Médicales

Dans un contexte médical, les régions Ri correspondent aux différentes structures


anatomiques constituant les régions d’intérêt. La détermination automatique du nombre de
région N reste néanmoins une vraie problématique.
Le prédicat P est utilisé pour tester l’uniformité des ensembles Ii. Ces sous-ensembles
constituent les régions de l’image. Une segmentation de l’image est donc sa décomposition en
un ensemble de région uniforme. Le critère d’uniformité restant à déterminer.
La première condition implique que tout pixel ou voxel de l’image appartient à une et une
seule région. En d’autre terme cela signifie que l’algorithme de segmentation ne doit pas se
terminer avant d’avoir traité tous les points. La seconde condition signifie que les régions
doivent être disjointes, Il n’y a donc aucun chevauchement ou intersection entre régions. La
troisième condition implique que chaque région est uniforme, selon le prédicat d’uniformité
défini au préalable. Enfin, la quatrième et dernière condition est une condition de maximalité
indiquant que la fusion de deux régions adjacentes ne doit pas être uniforme.
Le prédicat d’uniformité P est à la base de la définition des régions, il doit être choisi à travers
des descripteurs de pixel susceptibles de permettre une bonne identification des objets. Parmi
ceux-ci on peut citer : le niveau de gris, la couleur, la texture, la géométrie, et d’autres
paramètres pertinents [22][26].

II.2. Objectif de la segmentation :

L’objectif de la segmentation est de permettre l’exploitation du contenu de l’image pour


l’interprétation et l’aide au diagnostic en imagerie médicale et ce pour une éventuelle
localisation ou reconnaissance ou une mesure des évolutions (suivi thérapeutique).

La segmentation d’image fait partie d’une chaine de traitement que l’on peut résumer en
quatre étapes principales :

• Acquisition des images : Processus de production d’images exploitables par


ordinateur.
• Prétraitement des images : Amélioration des images possédant du bruit, un faible
contraste ou tout autre défaut.
• Segmentation des images : Construction d’une image symbolique en générant des
régions homogène selon le critère d’uniformité défini au préalable.
• Analyse des images : extraction des paramètres ou des fonctions représentatives de
l’image ou des régions.

57
CHAPITRE III La Segmentation d’images Médicales

II.3. La dimensionnalité : [12]

La dimensionnalité détermine si une méthode de segmentation opère sur un domaine


bidimensionnel ou tridimensionnel de l’image à segmenter. Traditionnellement les méthodes
2D sont appliquées aux images 2D alors que les méthodes 3D aux volumes 3D. Cependant,
les méthodes 2D peuvent séquentiellement opérer sur toutes les coupes d’une image 3D
séparément sans tenir compte des résultats obtenues sur les coupes précédentes. La
reconstruction du volume d’intérêt est réalisé par empilement des coupes segmentées ce qui
forme ainsi un volume d’intérêt constitué par la superposition des régions d’intérêt. Ce type
de segmentation est utilisé pour des raisons pratiques telles la facilité de mise en œuvre, la
faible complexité de calcul et les exigences mémoire réduites. Néanmoins cette approche
présente un inconvénient majeur ; en effet cette technique ne tient pas compte de
l’information spatiale de profondeur portée par les voxels ce qui peut conduire à une
mauvaise segmentation. Problème que les méthodes de segmentation 3D contournent grâce à
une exploration du volume en profondeur.

III.4. Interaction et Validation : [23][48]

Dans tout processus de segmentation, le compromis entre l’interaction manuelle et la


performance est d’une considération importante. L’interaction manuelle peut grandement
améliorer la précision en intégrant les connaissances préalables de l’expert. Toutefois, pour
les études de population importante, cela peut être très laborieux en termes de temps.

Le type d’interaction requis par les méthodes de segmentation varient d’une délimitation
complètement manuelle d’une structure anatomique (segmentation manuelle), à la sélection
d’un point de semence pour une région. La différence entre ces type d’interaction est la
quantité de temps et d’effort requit, ainsi que le degré de formation requis par l’expert.

Notons cependant que mêmes les méthodes automatiques de segmentation nécessitent


généralement une certaine interaction permettant de spécifier les paramètres initiaux qui
peuvent affecter considérablement les performances de la segmentation.

La segmentation est un vaste sujet d’étude faisant partie des grands thèmes de recherches en
imagerie numérique. De nombreuse publications font état de segmentation il n’est cependant
guère possible de préférer une méthode de segmentations des autres ; en effet, pour valider

58
CHAPITRE III La Segmentation d’images Médicales

une segmentation d’une image, il faut disposer de la vérité terrain, or il n’est pas toujours aisé
de définir de manière objective ou commencent et ou se terminent les objets sur une image ;
De ce fait il peut exister plusieurs segmentations possibles d’une même image et elles sont
généralement subjectives.

Dans des applications pratiques de segmentation, des erreurs dans l'image segmentée sont
tolérées. De fait, si les images à segmenter sont complexes et que les algorithmes sont
entièrement automatiques, l'erreur est inévitable ou du moins fort probable. L'erreur entre
l'image segmentée et l'image de segmentation idéale (image de référence) peut être le meilleur
critère pour évaluer les performances des algorithmes. Dans le cas des images synthétiques,
la segmentation de référence est très fiable et est d'une grande précision. Pour des images
naturelles, la segmentation de référence est subjective, vue l'impact du facteur humain.

L’indice de Jaccard [43][44] est un coefficient dont le but et de mesurer la similarité entre
deux ensembles de données. Ce coefficient représente le quotient de l’intersection des deux
ensembles par leur union. Formellement, il est défini comme suit :

|/ 0|
. /, 0
|/ 0|
(3.2)

Dans un contexte segmentation d’images, l’ensemble A représente une région dans la


segmentation à évaluer et l’ensemble B représente cette même région dans la segmentation de
référence (Segmentation manuelle). Ainsi, la similarité entre deux segmentations est
représentée par l’ensemble des indices de Jaccard exprimant les taux de correspondance de
chaque région des deux segmentations.

III. Approches de Segmentations :

Nous présentons dans cette section diverses techniques connues de segmentation en les
organisant selon l’approche qui les régit et les résultats obtenus. Ainsi nous avons retenue
trois approches [23] que sont les méthodes de segmentation utilisant les pixels comme critère
de décision, celles basées sur les régions, et enfin les méthodes basées sur les contours.

59
CHAPITRE III La Segmentation d’images Médicales

III.1. Pixel:

Cette approche consiste à regrouper les pixels de niveaux semblables, indépendamment des
relations de connexité qui peuvent les lier. La technique de seuillage d'histogramme , qui
constitue la majorité des méthodes de segmentation par classification, s'appuie sur l'hypothèse
que les régions de niveaux de gris uniforme produisent des modes suffisamment significatifs
dans les histogrammes de l'image pour que l'on puisse les caractériser directement par la
valeur limite des pixels qui les composent. Il suffit alors de seuiller l'image entre cette limite
pour en extraire les régions.
La figure III.3. illustre une image (b) dont l’histogramme (a) est bimodal ; en effet, nous
pouvons remarquer que l’image contient deux modes distincts : les objets d’intensités claires
et le fond de l’image plus sombre. Ainsi le seuil de binarisation (c) à choisir se situe au niveau
de la vallée qui sépare ces deux modes.

Figure III.3 Segmentation d’une image synthétique par seuillage

Cette approche travaille donc essentiellement sur l’histogramme de l'image par seuillage. Le
seuillage a pour objectif de segmenter une image en plusieurs classes en n'utilisant que
l'histogramme. On suppose donc que l'information associée à l'image permet à elle seule la
segmentation, c'est-à-dire qu'une classe est caractérisée par sa distribution de niveaux de gris.
Le seuillage est une technique qui permet de classer les pixels en deux catégories, ceux dont
la mesure est inférieure au seuil et ceux dont la mesure excède ou égale le seuil.

Le seuillage peut être appliqué sur toute l’image (Seuillage Global), ou seulement sur une
portion de l’image (Seuillage Local). Il existe aussi une technique de seuillage qui consiste à
partitionner l’image en sous images et de traiter chacune avec son propre seuil (Seuillage
Adaptatif). Le choix des dimensions de chaque sous image sera donc critique.

60
CHAPITRE III La Segmentation d’images Médicales

Dans ces technique le choix d’une valeur de seuil est critique : Avec un intervalle trop large,
on obtient des faux positifs, c’est à dire l'image seuillée contient des pixels qui ne font pas
partie des objets d'intérêt ; généralement il s'agit de bruit ou des structures d'une autre nature
qui ont un niveau de gris proche de celui des objets recherchés.

Avec un intervalle trop étroit, on obtient des faux négatifs, c’est à dire certains objets d'intérêt
n'apparaissent pas ou que partiellement dans l'image seuillée. Plusieurs techniques ont été
proposées pour la détermination automatique de la valeur du seuil. Ces techniques utilisent
généralement des méthodes d’analyse de données pour trouver automatiquement la valeur du
seuil qui sépare au mieux les objets du fond. Parmi ces méthodes nous pouvons citer
l’algorithme de Otsu dont le principe est de choisir la valeur du seuil qui maximise la variance
interclasse. Cette technique ne nous donne pas seulement la valeur du seuil qui permet de
séparer les classes, mais aussi le degré de dissimilarité qui sépare les classes. Notons que
l’algorithme d’Otsu ne s’applique que dans le cas de segmentation en deux régions. Une autre
méthode consiste à rechercher les vallées significatives dans l’histogramme, en considérant
qu’une vallée correspond à la frontière des régions.

La principale limitation des algorithmes cette approche est qu’ils ne tiennent pas compte de
l’information spatiale portée par l’image, rendant ainsi l’algorithme très sensible face au
bruit et aux irrégularités dans l’image. Ces artefacts affectent considérablement
l’histogramme de l’image, de ce fait, la séparation entre les classes devient plus difficile. Le
seuillage est donc souvent employé comme une première étape de prétraitement dans une
séquence d'opérations de traitement d'image et plus particulièrement pour les images
mammographiques où l’on peut généralement distinguer deux principales classes de tissue les
tissues sains et les tissues tumoraux.

III.2. Région :

Dans cette approche, c’est la similitude des points connexes qui est favorisée. Les points
connexes ayant des propriétés similaires vont être réunis dans le même ensemble. Le choix de
ces propriétés détermine le critère de segmentation. Il est en effet nécessaire de définir un
critère d’homogénéité d’une région dans l’image. Le critère qui définit l’homogénéité est
donc un point déterminant des performances de la segmentation. Les principaux critères
utilisés sont niveau de gris la couleur ou la texture.

61
CHAPITRE III La Segmentation d’images Médicales

Les algorithmes de cette méthode correspondent généralement aux algorithmes


d'accroissement ou de découpage de région.

L'accroissement de région est une méthode bottom-up : on part d'un ensemble de petites
régions uniformes dans l'image (de la taille d'un ou de quelques pixels) et on regroupe les
régions adjacentes de même couleur jusqu'à ce qu'aucun regroupement ne soit plus possible.

Le découpage de région est un processus top-down : on part de l'image entière que l'on va
subdiviser récursivement en plus petites régions tant que ces régions ne seront pas
suffisamment homogènes. Les algorithmes dits Split and Merge sont un mélange de ces deux
méthodes.

III.2.1. Décomposition/Fusion (Split/Merge)

Cette technique enchaîne les 2 phases suivantes [6]:

• Découper itérativement l'image jusqu'à avoir des blocs contenant exclusivement des
pixels similaires.
• Regrouper les blocs voisins s'ils sont similaires

Les deux phases sont nécessaires afin de garantir que les régions obtenues sont à la fois
homogènes et également les plus grandes possibles.

• La décomposition :

La méthode couramment utilisée consiste à faire une dichotomie par zones de l'image. Le
principe consiste à tester la validité du critère de segmentation sur les différentes zones de
limage. Si le critère est validé l’algorithme s’arrête, sinon la zone considérée est décomposée
en zones plus petites jusqu'à obtention d’une zone qui valide le critère. Pour cela, l’algorithme
commence par définir une zone de la taille de l'image, Si la zone est homogène alors la
décomposition s’arrête. Sinon, la zone est ainsi découpée en 4 zones. Le contenu de chaque
zone est examiné et ainsi de suite jusqu'à ce qu'il n'y ait plus besoin de décomposer les zones :

62
CHAPITRE III La Segmentation d’images Médicales
DECOMPOSITION (Zone)

Debut
Si Critère(Zone)=VRAI Alors Arrêt
Sinon
Diviser la Zone en 4 : Z1, Zz,Z3 et Z4
Pour Chaque Zone Zi (i=1 à 4) FAIRE
DECOMPOSITION i)
DECOMPOSITION(Z
FinPour
FinSi
Fin

Algorithme III.1 : Algorithme récursif de la segmentation par décomposition

L'implémentation la plus simple pour cette méthode consiste à définir une structure d'arbre
appelée quaternaire (QuadTree). C'est un arbre dans lequel chaque nœud représente un bloc.
Chaque nœud possède donc 0 sous-nœud (bloc homogène) ou 4 sous-nœuds (bloc non-
homogène).

La figure III.4 présente l’application de l’algorithme de décomposition sur une image binaire
en considérant la couleur comme critère de similarité. L’arbre quaternaire issu de la
décomposition de l’image est représenté dans la figure III.5.

Figure III.4 : Décomposition d’une image binaire

63
CHAPITRE III La Segmentation d’images Médicales

Figure III.5 : Arbre quaternaire issu d’une décomposition

Dans l’exemple la figure III.4 nous pouvons remarquer que l’algorithme entraine la création
de 22 régions distinctes alors qu’il est clair que l’image initiale n’en comporte que deux. Ainsi
Au final, l'image va contenir de nombreux petits blocs jointifs et similaires. Ce phénomène,
inhérent à la méthode de décomposition, s'appelle la sur-segmentation (over segmentation).
La prochaine étape de l'algorithme va donc être de regrouper les blocs jointifs et similaires en
une seule région.

• La fusion :

Cette étape à pour objectif d'identifier les régions qui composent l'image en regroupant les
blocs jointifs et similaires. Il faut tout d'abord définir le critère de similarité entre blocs. Le
plus simple est d'étendre la définition de similarité entre pixels définie lors de l'étape de
décomposition. Ainsi, on peut assimiler un bloc à un " gros " pixel en calculant sa
valeur/couleur moyenne, et en utilisant le graphe d'adjacence pour naviguer vers les blocs
voisins. Cet algorithme construit les régions une par une, en regroupant progressivement les
blocs jointifs autour d'un bloc de départ. L'algorithme amalgame les blocs adjacents à la
région, formant ainsi une région de plus en plus grande

64
CHAPITRE III La Segmentation d’images Médicales

III.2.2. Croissance de région (Region Growing) :

Cette technique consiste à faire progressivement croître les régions autour de leur point de
départ [49]. L'algorithme se présente en deux étapes:

1. Trouver les points de départ des régions.


2. Faire grossir les régions par agglomérations des pixels voisins.

• Point de départ :

Le choix des points de départ est l'étape est la partie critique de l'algorithme. En effet, l'étape
de croissance va utiliser une mesure de similarité pour choisir les pixels agglomérer. Si le
point de départ est situé dans une zone non homogène, la mesure de similarité va produire de
fortes variations et la croissance va s'arrêter très tôt.

Par conséquent, il convient de choisir les points de départs dans des zones les plus
homogènes possibles (figure II.17). Pour trouver ces zones, on peut réutiliser le principe de
décomposition utilisé dans l'algorithme split/merge. Comme la décomposition finale nous
donne une liste de blocs homogènes, il suffit de choisir le centre des plus gros blocs pour
avoir de bons points de départ.

• Croissance :

Cette étape à pour objectif de faire grossir une région en agglomérant des pixels voisins. Les
pixels sont choisis afin de maintenir l'homogénéité de la région. Pour cela, nous devons
définir un indicateur d'homogénéité. Les pixels voisins sont ajoutés à la région si l'indicateur
d'homogénéité reste vrai. La croissance s'arrête lorsqu'on ne peut plus ajouter de pixels sans
briser l'homogénéité

III.2.3. Ligne de partage des eaux : [24]

Cette technique consiste à faire grossir simultanément toutes les régions jusqu'à ce que
l'image soit entièrement segmentée. Cette technique tire son nom d'une analogie avec la
géophysique. On peut en effet considérer les valeurs d'intensité des pixels d'une image comme
une information d'altitude. Dans ce cas on peut représenter cette image (appelée carte
d'élévation) comme un terrain en 3 dimensions. Le principe est alors de remplir

65
CHAPITRE III La Segmentation d’images Médicales

progressivement d'eau chaque bassin du terrain. Chaque bassin représente une région.
Lorsque l'eau monte et que deux bassins se rejoignent, la ligne de rencontre (la ligne de
partage des eaux) est marquée comme une ligne de frontière entre les deux régions. ( figure
III.6)

Figure III.6 : Ligne de partage des eaux entre 2 bassins

L'algorithme se compose de deux étapes :


1. Générer une carte d'élévation à partir de l'image de départ
2. Remplir progressivement les bassins

La carte d'élévation est une image dont les valeurs représentent une altitude. Pour construire
cette image nous allons partir du gradient de l'image. Dans la carte d'élévation, on assigne
l'altitude la plus élevée (HMAX) aux pixels ayant un fort gradient ainsi qu'aux bords de
l'image.

Il existe de nombreux algorithmes permettant de réaliser le remplissage des bassins. Parmi


eux il existe un algorithme utilisant la technique de croissance de région vue précédemment.
Dans cet algorithme, le remplissage des bassins est un procédé itératif qui consiste à élever
progressivement le niveau de l'eau de zéro à HMAX. A chaque itération, on doit remplir les
bassins existants (extension des régions) et éventuellement créer les nouveaux bassins
(nouvelles régions).

III.3. Contour :

Contrairement à l’approche région, cette approche ignore les relations qui peuvent exister
entre les régions de l’image, elle comprend les techniques de détection de contours. Un
contour est un ensemble de pixels formant une frontière entre deux ou plusieurs régions

66
CHAPITRE III La Segmentation d’images Médicales

voisines, l'épaisseur d'un contour est d'un ou plusieurs pixels et il est défini par une variation
"brusque" de caractéristique, la figure III.7 montre quelques modèles de contours. Un contour
peut être défini comme une marche d'escalier si le contour est net, comme une rampe si le
contour est plus flou ou comme un toit s'il s'agit d'une ligne sur un fond uniforme.

Figure III.7 : Modèles de Contours

La recherche des contours dans une image numérique est un des problèmes les plus étudiés
depuis l'origine des travaux sur l'imagerie numérique, les approches contours travaillent sur
les discontinuités de la fonction d'intensité dans les images afin de déterminer les contours des
régions. La notion de contour étant reliée à celle de variation, il est évident qu'une telle
définition nous amène tout naturellement vers une évaluation de la variation en chaque pixel.
Nous exposons dans ce qui suit les différentes méthodes de détection de contours.

III.3.1. Modèle Dérivatifs :

Un contour dans une image peut être défini comme une zone de l’image où l’intensité des
pixels change brusquement. Le principe de la détection de contours repose donc sur l'étude
des dérivées de la fonction d'intensité dans l'image.

La figure III.8 illustre le modèle de contour de type marche (monodimensionnel) ainsi que sa
dérivée première et seconde.

Une dérivation du premier ordre présentera un maximum pour le contour ; une dérivée
seconde présentera un passage par zéro.

67
CHAPITRE III La Segmentation d’images Médicales

Figure III.8 : Détection de contour (Monodimensionnel)

Pour déterminer la position des éventuels contours on utilise les méthodes dérivatives.
L'image dérivée met en évidence les variations de niveau de gris. L'approche dérivative
consiste à balayer une image avec une fenêtre définissant la zone d'intérêt. A chaque position,
un opérateur est appliqué sur les pixels de la fenêtre afin d'estimer s'il y a une transition
significative au niveau de l'attribut choisi. Le résultat obtenu sera alors une image binaire
constituée de deux classes: les pixels des contours et les pixels des non-contours. A partir des
pixels susceptibles d'appartenir à un contour.

On peut classer les méthodes dérivatives selon deux approches:

• Approche Gradient.
• Approche Laplacien.

II.3.1 Le gradient :

Le gradient est un opérateur dérivatif du premier ordre [38], le calcul du gradient en un pixel
d’une image donne un vecteur caractérisé par son amplitude et sa direction. L'amplitude est
directement liée à la quantité de variation locale des niveaux de gris. La direction du gradient
est orthogonale à la frontière qui passe au point considéré. Soit I une fonction continue qui
représente l'intensité de chaque point d’une image, le gradient de I en un point est le vecteur
V définit comme suit dans un contexte 2D

68
CHAPITRE III La Segmentation d’images Médicales

Y ,, W
Y,
V (,, W XY ,, W Z
YW (3.3)
Et :

_` a,b,c
_a
^_` a,b,c f
V ,, W, [ ] _b e
_` a,b,c
(3.4)

\ _c d

Dans un contexte 3D.

Pour calculer ce gradient en chaque point de I, on effectue, généralement, le produit de


convolution de I avec un opérateur de dérivation fournissant des masques ga ,gb et gc
correspondant aux directions verticale, horizontale et la direction de profondeur tels que :

ia ,, W ga j ,, W
_` a,b

h_`
_a k
ib ,, W gb j ,, W
a,b
(3.5)
_b

Dans le cas 2d et :

ia ,, W, [ ga j ,, W, [
_` a,b,c
o
m_`
_a

ib ,, W, [ gb j ,, W, [ k
a,b,c

n _b
m _` a,b,c
(3.6)

l _c
ic ,, W, [ gc j ,, W, [

dans le cas 3D.

L’opération j désigne l’opérateur de convolution.


L’amplitude du gradient en 2D et 3D est donnée par les formules suivantes respectivement :

pV ,, W p qia ,, W r s ib ,, W r

t |ia ,, W | s uib ,, W u
(3.7)

Et
pV ,, W, [ p qia ,, W, [ r s ib ,, W, [ r s ic ,, W, [ r

t |ia ,, W, [ | s uib ,, W, [ u s |ic ,, W, [ |


(3.8)

69
CHAPITRE III La Segmentation d’images Médicales

Dans le cas discret, les dérivées dans les directions horizontale, verticale et de profondeur au
point de coordonnées (x,y,z) sont approchées par la méthode des différences finies :

ia (,, W, [ , s 1, W, [ v ,, W, [
hib ,, W, [ ,, W s 1, [ v ,, W, [ k
ic ,, W, [ ,, W, [ s 1 v ,, W, [
(3.9)

Notons cependant qu’il existe d’autres opérateur donnant une bonne approximation de la
dérivée de l’image tel l’opérateur de Sobel vu dans le chapitre précédent. La figure III.9
illustre l’extraction de contours faites par l’opérateur Sobel suivie d’un seuillage sur une
image radiographique.

Figure III.9 : Détection de contours (Sobel) sur une image radiographique

A partir du gradient de l’image, l’extraction des contours est communément réalisée à travers
un processus de seuillage par hystérésis Ce type de seuillage permet l'obtention de points de
contour bien connexes entre eux et de conserver que les contours les plus cohérent. Le
principe de cette méthode consiste à utiliser deux seuils distincts S1 et S2 En dessous du seuil
bas S1, on considère qu'il n'y a pas de contours. Au dessus du seuil haut S2, on décide qu'il y a
contour : ces contours sont ensuite complétés par les pixels compris entre S1 et S2 si et
seulement s'ils sont connexes entre eux. L'avantage de la procédure de seuillage par hystérésis

70
CHAPITRE III La Segmentation d’images Médicales

est qu'elle permet d'obtenir plus d'ensembles de points connexes, ce qui facilite grandement
les étapes de chaînage
nage et d'approximation prévues généralement en amont.
La figure III.10 illustre une détection de contour suivie d’un seuillage par hystérésis sur une
l’image synthétique de la figure III.3.

Figure III.10 : Seuillage par hystérésis sur une image synthétique


(S1=90 ; S2=120)

II.3.2 Le Laplacien :

Le Laplacien d’une image est un opérateur dérivatif du second ordre, il est exprimé en un
points (x,y,z) d’une image I par les formules suivantes :

De même que pour l’approche dérivative du premier ordre, la dérivée seconde peut être
approximée par différences finies :

71
CHAPITRE III La Segmentation d’images Médicales

wa = (, s 1, W, [ v 2 · ,, W, [ s , v 1, W, [
hwb ,, W s 1, [ v 2 · ,, W, [ s ,, W v 1, [ k
wc ,, W, [ s 1 v 2 · ,, W, [ s ,, W, [ v 1
(3.12)

Dans cette approche, les points de contour sont caractérisés par des passages par zéro du
Laplacien [45]. La détection de ces points s’effectue généralement en trois étapes :
• Détermination de l’image de polarité IP :

0 ∆ g ~ 0k
g {
z
1 ∆ g •0
(3.13)

• Détection des passages par zéro Iz :

1 si M correspond à une transition 0 v 1 ou 1 v 0 dans I„ k


I€ M {
0 sinon
(3.14)

• Seuillage des passages par zéro:


L'élimination des passages par zéro de faible norme de gradient peut s'effectuer par un
algorithme de seuillage quelconque. L'algorithme de seuillage par hystérésis décrit pour
l'approche dérivée première peut par exemple être utilisé.

III.3.2. Gradient Morphologique :

La morphologie mathématique [19][35] généralement appliquée sur les images binaires


contenant un objet X et le fond, donne un cadre intéressant pour l’approche contour de la
segmentation. La généralisation des opérations morphologiques dans un contexte 2D et 3D
étant triviale, de ce fait, dans ce qui suit nous nous plaçons dans un cadre monodimensionnel.
L'idée de base de la morphologie mathématique est de comparer l’ensemble à analyser avec
un ensemble de géométrie connue appelé élément structurant.
Un élément structurant est un masque binaire (constitué de pixels blancs et noirs) possédant
les caractéristiques suivantes :
• Une forme Géométrique connue.
• Une taille représentée par le rayon du masque.
72
CHAPITRE III La Segmentation d’images Médicales

• Une origine. L'origine o appartient généralement à l'élément structurant mais ce n'est


pas une obligation.

A titre d’exemple la figure III.11 illustre quelques éléments structurants de taille unitaire.
L’origine étant marquée par un point rouge.

Figure III.11 : Exemples d’éléments structurant

Ainsi nous pouvons définir les deux opérations morphologiques de bases que sont l’érosion et
la dilatation.
Soit B un élément structurant et Bx cet élément centré en un point x. L’érosion consiste à
poser en chaque pixel x d’un objet X, la question : « Bx est-il contenu entièrement dans X ? ».

…† (‡) appelé érodé de X par B. Autrement dit :


L’ensemble des positions x correspondant à une réponse positive forme le nouvel ensemble

…† (‡) = ˆ,|0a ‰ ‡Š (3.15)

La figure III.12 illustre une image binaire (a) ainsi que son érosion (c) par un élément
structurant (b) de type croix.
L’opération de dilatation se définit de manière analogue à l’érosion. A partir de l’élément
structurant B, on se pose pour chaque point x de l’image la question « Bx touche-t-il l’objet
X ? ». En d’autre cela revient à déterminer s’il existe une intersection non vide entre Bx et X.

73
CHAPITRE III La Segmentation d’images Médicales

Figure III.12 : Erosion d’une image binaire par un élément structurant de type croix

ensemble ‹† (‡), appelé dilaté de X par B. C'est-à-dire :


L’ensemble des points de l’image correspondant aux réponses positives forme le nouvel

‹† (‡) = ˆx|BŽ X Š (3.16)

La figure III.13 illustre la dilatation (c) d’une image binaire (a) par l’élément structurant (b).

Figure III.13 : Dilatation d’une image binaire par un élément structurant de type croix

La différence entre l’image dilatée et érodée par le même élément structurant de taille unitaire
donne le gradient morphologique GM qui est un operateur de détection de contour pouvant
être résumé par l’équation suivante :

i• = ‹† (‡) v …† (‡) (3.17)


Dans la figure III.14 une détection de contour par gradient morphologique est appliquée à
l’image binaire (c) de la figure III.3

74
CHAPITRE III La Segmentation d’images Médicales

Figure III.14 : Détection de Contours par Gradient Morphologique

III.3.3. Les contours Actifs :

Les contours obtenus par les méthodes citées précédemment ne sont généralement pas
connexes. Il faudra alors appliquer des algorithmes de fermeture de contours .Ce n’est
qu’après fermeture des contours que les régions apparaissent, définies par l’intérieur des
contours.

D’autres classes d’algorithmes ont été proposées et qui sont basées sur une détection globale
du contour de l’objet à l’aide d’un modèle paramétrique déformable comme celui du Contour
Actif aussi connu sous le nom de Snake introduit par Kass et Al en 1987 [28][25].
[28][25

Dans l’approche des Contours Actifs, le contour est un modèle physique décrit par une suite
d’unités soumises à des forces externes qui représentent des caractéristiques de l’image et à
des forces internes d’élasticité et de rigidité
rigidité qui assure une certaine cohérence durant
l’évolution du modèle initial. Une grande rigidité empêche le contour de faire des angles et
des coins alors que l’élasticité permet au contour de s’allonger et de se rétrécir. L’évolution de
ce modèle permettraa au contour de trouver un état d’équilibre en minimisant toutes les
énergies.

L’idée de base est de positionner, au voisinage du contour à détecter, une courbe qui sera
l’initialisation du contour actif et de la déformer successivement jusqu’à ce qu’elle coïncide
avec la frontière de l’objet. La figure III.15 illustre l’initialisation (a) et la déformation (b)

75
CHAPITRE III La Segmentation d’images Médicales

d’un contour actif sur une IRM cérébrale permettant ainsi l’isolation de la pathologie présente
dans l’image.

Figure III.15 : Evolution d’un contour actif sur une IRM

Le contour est représenté comme un modèle élastique déformable contrôlé par une contrainte
de continuité dont les mouvements de glissement se produisant lors de la déformation lui ont
valu le nom de Snake (ou serpent). La segmentation est réalisée à travers un processus de
minimisation d’une énergie basé sur deux forces de contrainte :

• Force externe : dépend des propriétés du contour à détecter et qui est responsable de
mettre le contour proche d’un minimum local en terme d’énergie.
• Force interne : responsable de l’élasticité et de la rigidité du modèle en question. Une
grande rigidité empêche le contour de faire des angles et des coins alors que
l’élasticité permet au contour de s’allonger ou de se rétrécir.
L’évolution de ce modèle permet au contour de trouver un état d’équilibre en minimisant
toutes les énergies. Contrairement à l’approche consistant à appliquer un masque à l’image
pour extraire les points correspondants aux gradients élevés et ensuite appliquer à ces points
un processus de chaînage suivant un critère de connexité, de forme ou autre, les deux étapes
sont combinées en une seule en cherchant une courbe connexe C qui s’appuiera sur des point
de l’image de gradients élevés; c’est cette courbe qui va représenter le contour de l’objet

76
CHAPITRE III La Segmentation d’images Médicales

auquel on s’intéresse. Les contours actifs sont définis par une courbe continue, fermée ou non,
à extrémités fixes ou non. Ils se déforment à partir d’une position d’initialisation située près
de l’objet d’intérêt. Le modèle est soumis à des forces qui le déforment et le déplacent dans
l’image. Le contour est défini par une représentation paramétrique :

‘’ Ω 0,1 ” •r

Le choix de Kass et ses collaborateurs s’est porté sur une énergie E faisant intervenir plusieurs
termes, que l’on peut écrire sous la forme suivante :

– ‘ –`—˜™š—™ ‘ s –›a˜™š—™ ‘ s –œ•—˜™a˜™ ‘ (3.18)

–`—˜™š—™ ‘ et –›a˜™š—™ ‘ désignant respectivement l’énergie externe (image) et l’énergie


interne du point v dans la courbe. Quant à –œ•—˜™a˜™ ‘ , elle désigne l’énergie d’interaction
(de contexte) introduite par l’utilisateur.

III.3.3.1 Energie interne :

L’énergie interne gère la cohérence de la courbe. Elle maintient la cohésion des points et la
raideur de la courbe. L’énergie interne choisie par Kass est la suivante :

r
¡ r
–`—˜™š—™ ‘ ž Ÿ ¢Ÿ s £ Ÿ ¤¢ Ÿ
¤¡
(3.19)

Où Ω représente l’abscisse curviligne du point v.


On peut voir que cette énergie est composée de deux termes, un terme exprimé par la dérivé
du premier ordre de v contrôlé par α, et un autre terme exprimé par le dérivé du second ordre
de v contrôlé par β
Le terme du premier ordre correspond à la tension. Il prend une valeur importante quand la
courbe se distend. Lorsque α=0 la courbe peut présenter des discontinuités. Nous parlons
alors d’énergie de continuité.

Le terme du second ordre correspond à la courbure ou rigidité. Il prend une valeur importante
lorsque la courbe s’incurve. Lorsque β=0 la courbe peut prendre une forte convexité
(apparition de coins), par contre lorsque β est grand la courbe tendra vers un cercle si elle est
fermée ou une droite si elle est ouverte. α et β sont les poids respectifs de l’énergie de

77
CHAPITRE III La Segmentation d’images Médicales

continuité et de courbure introduit par l’utilisateur afin de favoriser une énergie du modèle
par rapport à une autre.

III.3.3.2. Energie Externe :

L’énergie externe dépend des caractéristiques de l’image. C’est la force qui dirige le contour
vers la position désirée dans l’image. Rappelons que ce sont les contours de formes qui sont
recherchés donc les points de fort gradient.

III.3.3.3. Energie de contexte :

L’énergie de contexte, parfois appelée énergie de contrainte permet d’introduire des


connaissances à priori sur ce que nous cherchons. Nous pouvons citer un exemple de cette
énergie qui est l’énergie ballon introduite par Laurent D Cohen. Les Snakes ont une tendance
naturelle à se rétracter. La minimisation de l’énergie implique une minimisation de distance.
La force Ballon va tendre à gonfler le contour actif ou accélérer sa rétraction selon le signe de
la force introduite. De plus cette force va permettre de dépasser les contours présentant un
faible gradient et ainsi de sortir du bruit pour atteindre une frontière plus fortement marquée.

Les différentes énergies sont définies de manière précise pour chaque application. Elles
correspondent aux forces choisies dans le modèle pour la représentation voulue du contour.

78
CHAPITRE III La Segmentation d’images Médicales

IV. CONCLUSION :

A travers ce chapitre, nous avons tenté de dresser de manière non exhaustive un état de l’art
des différentes techniques de segmentation d’images médicale en les regroupant selon trois
approches : approche Pixel, approche région et approche Contour.
En imagerie cérébrale, l’approche contour est souvent employée pour extraire frontières entre
les différents tissus du cerveau ou afin d’isoler une pathologie présente dans l’image.
Cependant en pratique les contours ne sont que très rarement bien définis rendant ainsi ces
algorithmes très vulnérables face au bruit et aux artefacts.

Dans l’approche région, l’identification des points de départ (Croissance de région) peut
nécessiter une interaction manuelle, de plus la détermination des critères d’homogénéité est
fortement dépendant de l'image. L’approche pixel quant à elle, ne tient pas compte de
l’information spatiale portée par les points de l’image rendant ainsi difficile la création de
régions connexes durant la segmentation.

Ainsi les méthodes de segmentation reposant uniquement sur les observations brutes fournies
par l’image ne peuvent pas à elles seules faire face à la complexité des données et à la
variabilité des structures à étudier dans l’image ; Les intensités pour les mêmes structures
anatomiques peuvent en effet être différents d’une modalité d'imagerie à une autre, ou pour la
même modalité mais à différents instants et sous diverses conditions.

Plus récemment, de nouvelles approches de segmentation intégrant des connaissances a priori


ont vue le jour. Les méthodes de segmentation basée sur un atlas ont été proposées pour
segmenter automatiquement des structures sur les images médicales. Ces méthodes reposent
sur l'existence d'une image de référence dite Atlas dans lequel les structures d'intérêt ont été
soigneusement segmentées. L'atlas est ensuite recalé à l'image à segmenter en calculant la
transformation spatiale appropriée. Cette transformation est ensuite utilisée pour projeter les
structures étiquetées de l'Atlas sur les structures anatomiques correspondant dans l'image à
étudier. Par conséquent, la clé des méthodes de segmentation basée atlas repose les
algorithmes de recalage capables de calculer la transformation entre l'atlas et l'image à
segmenter de manière fiable et précise. Les concepts mathématiques des algorithmes de
recalage sont présentés dans le chapitre suivant.

79
CHAPITRE IV Le Recalage d’images

I. Introduction :
La pratique clinique actuelle conduit à manipuler de plus en plus d’images médicales. Les
comparaisons d’images issues d’une même ou de différentes modalités sont souvent réalisées
mentalement par le praticien. En imagerie nucléaire fonctionnelle, la résolution spatiale
limitée et le caractère bruité des images augmentent la difficulté de cette tâche. Une aide à
l’intégration des données est donc utile et ce, de la manière la plus simple, rapide et
automatique possible. Cette intégration passe généralement par un procédé d’alignement
spatial des différentes images, connu sous le nom de recalage.
Durant ces 20 dernières années, un intérêt croissant a été porté au domaine du recalage
d’image, se manifestant par une augmentation du nombre de publication sur le sujet. Faire un
état de l’art s’avère ainsi très délicat étant donné le nombre de publications sur ce sujet. Nous
proposons néanmoins dans ce chapitre une vue d’ensemble des différentes méthodes de
recalage proposées dans la littérature de manière non exhaustive, et ce afin de mettre en
évidence les problématiques relatives au recalage d’images médicales.
Le recalage peut se résumer par le calcul du déplacement ou de la transformation à appliquer
à une image afin que celle-ci ressemble le plus possible à une autre. Ceci engendre un certain
nombre de questions :
• Quelles sont les informations à utiliser pour guider le recalage.
• Comment définir la ressemblance entre deux images.
• Comment déformer une image.
• Comment trouver la « meilleure » solution

Ces questions mènent respectivement aux quatre critères caractérisant une méthode de
recalage :
• Les Attributs : ce sont les caractéristiques, extraites des images, qui permettent de
guider le recalage. On distingue les attributs extrinsèques par exemple des marqueurs
externes fixés sur le patient, et les attributs intrinsèques : information issue de l'image,
comme par exemple les niveaux de gris ou des primitives géométriques extraites.
• Le critère de Similarité : il définit une certaine distance entre les attributs des images
permettant ainsi de quantifier la notion de ressemblance entre images.
• Le modèle de Déformation : il conditionne la manière dont l’image est
géométriquement modifiée. Il peut être global ou local et est caractérisé par un certain
nombre de degré de liberté.

81
CHAPITRE IV Le Recalage d’images

• La stratégie d’Optimisation : c’est la méthode qui permet de déterminer la meilleure


transformation au sens du critère de similarité dans l’espace de recherche défini par le
modèle de déformation.

Ce chapitre est consacré au recalage d’images. Dans un premier temps nous présentons la
problématique générale du recalage. Nous discutons ensuite les différents choix d’attributs
possibles en distinguant les méthodes géométriques et les méthodes denses. Dans la quatrième
et cinquième partie nous présentons les différentes métriques de similarité utilisées pour le
calcul de ressemblance ainsi que les techniques d’interpolation pour l’approximation
d’intensité. La sixième partie est consacré aux modèles de déformation, nous présentons enfin
les différentes stratégies d’optimisation.

II. Problématique :

II.1. Formalisation du Problème :

Dans cette partie nous allons poser le problème de recalage de manière plus formelle en
introduisant les différentes notations relatives au problème et en décrivant le principe général
de la procédure de recalage (Fig III.1)

Figure IV.1 : Schéma général d’un algorithme de recalage

82
CHAPITRE IV Le Recalage d’images

Considérons le recalage d’une image Ω sur une image de référence


:Ω les supports Ω et Ω des images sont des sous-ensemble de où d =
2 dans le cas d’images 2D, 3 dans le cas d’image 3D ou 2D+t et 4 dans e cas d’images 3D+t.
s désigne un point du domaine Ω . Le problème de mise en correspondance des deux
images consiste en l’estimation d’une transformation Ω Ω qui, à chaque point s

de l’image de référence associe les coordonnées dans l’image ;u


représente le champ de déformation. La transformation h est recherchée parmi un ensemble H
de transformations définissant l’espace de recherche des transformations.

Une étape préliminaire à l’estimation de la transformation est l’extraction à partir des images
brutes des informations et pertinentes (les attributs) permettant de guider le
recalage. et sont donc construites respectivement à partir des fonctions et .
Ces fonctions peuvent regrouper une chaine de traitements incluant par exemple l’extraction
de primitives géométriques, la suppression d’inhomogénéité, la réduction du bruit,
l’extraction de certaines caractéristiques de l’image, etc.

Une fois les informations extraites, il s’agit de définir la fonction d’énergie E permettant
d’associer et une valeur permettant de quantifier leur proximité ou bien leur
ressemblance. Cette fonction E, appelée aussi critère de similarité ou métrique, devrait
théoriquement être minimale (ou maximale) lorsque l’image de référence et l’image à recaler
sont en parfaite correspondance.

La phase d’optimisation consiste enfin à trouver la transformation optimale qui minimise (ou
maximise) la fonction d’énergie E sur l’espace de recherche H. Le problème de recalage peut
ainsi être formulé de la manière suivante :

arg , (4.1)

Dans la figure IV.1 les images et sont construites grâce aux fonctions et
par extraction des attributs des images ; est déformée par application de la
transformation h. Le critère de similarité E permet de quantifier la ressemblance entre les

83
CHAPITRE IV Le Recalage d’images

images. La phase d’optimisation consiste à déterminer la transformation optimale qui


minimise E

II.2. Application :

Le recalage est dit monomodal lorsque les images à recaler proviennent de la même modalité
(par exemple IRM-IRM). Dans le cas où les images sont issues de différentes modalités (par
exemple IRM –TEP) le recalage est dit multimodal

D’autre part, le recalage peut être intrapatient si les modalités recalées appartiennent au
même patient ou interpatients si les images à recaler sont issues de patients différents par
exemple patient atlas. Dans ce dernier cas, des algorithmes élastiques sont principalement
utilisés afin de minimiser les différences de morphologies interindividuelles ou la différence
Patient/Atlas.

II.2.1. Un seul Sujet, une seule Modalité :


Il s’agit ici de la situation la plus simple, elle peut faire intervenir les données issues soit de
plusieurs acquisitions, soit d’une acquisition dynamique. Parmi les applications possibles on
peut citer :
• Le contrôle opératoire : Il s’agit de comparer deux images acquises avant et après une
intervention, afin de vérifier à posteriori si les résultats attendus ont été atteints. Il peut
s’agir par exemple de comparer les images avant et après l’ablation d’une tumeur.
• Le suivi : Il s’agit de comparer une séquence d’images acquises à différents stades
d’une évolution d’une pathologie.
• La correction de mouvement : Lors d’une acquisition, les problèmes de bouger
s’avèrent particulièrement important dans les cas cliniques au point de rendre les
données acquises inutilisables.

II.2.2. Un seul Sujet, Plusieurs Modalités :


Les applications de recalage multimodales sont nombreuses et suscitent actuellement un vif
intérêt. Parmi ces application on cite :
La Fusion d’images :
On cherche à palier le fait que chaque modalité a des spécificités quant aux types de structure
qu’elle permet d’imager ; en effet, la radiographie par exemple donne d’excellents résultats
pour les tissus osseux, en revanche l’IRM offre un meilleur contraste pour les tissus mous. En

84
CHAPITRE IV Le Recalage d’images

oncologie, le recalage d’images acquises à partir de modalités différentes [47] (par exemple
IRM – TEP) permet de combiner les informations anatomiques et fonctionnelles
complémentaires fournis par chaque modalité ; des structures anatomiques clairement visibles
sur une telle modalité peuvent par exemple être altérées voire même inexistantes sur une telle
autre modalité. Il est donc important de combiner ces informations afin d’assister le
diagnostic et l’évaluation thérapeutique. La figure IV.2 illustre une IRM (a) et une Image
TEP d’un même patient ainsi que leurs fusions : avant (c) et après (d) recalage.

Figure IV.2 : Recalage d’images multimodale IRM-TEP (Source [47])

La Planification d’intervention clinique :


Une image anatomique permet de définir précisément la marche à suivre pendant
l’intervention chirurgicale relative à une tumeur détectée par imagerie fonctionnelle.

La corrélation Anatomo-fonctionnelle :
Il s’agit d’améliorer l’interprétation et la localisation anatomique sur des images
fonctionnelles généralement très pauvre sur le plan anatomique.

La Corrélation entre plusieurs Modalités Fonctionnelles :


L’essor des techniques d’imagerie fonctionnelle auquel nous assistons depuis une quinzaine
d’années a profondément modifié la manière d’aborder la cartographie fonctionnelle du
cerveau humain.
Les projets de cartographie fonctionnelle du cerveau nécessitent aujourd’hui le recalage des
données acquises avec différentes modalités fonctionnelles, le lien étant le plus souvent
réalisé par l’intermédiaire d’une modalité anatomique.

85
CHAPITRE IV Le Recalage d’images

II.2.3. Plusieurs Sujets, une ou plusieurs Modalités :


Un grand nombre d’études impliquent la possibilité de comparer des données issues de
plusieurs sujets, on peut citer par exemple la détection des cas pathologiques par comparaison
avec un groupe d’individus sains, la construction d’atlas anatomique par moyenne statistique ;
l’étude et la réalisation de cartographie fonctionnelle par moyennant des données inter-
individuelles et enfin la segmentation guidée par atlas ; dans ce dernier cas, une déformation
est appliquée à un atlas anatomique de manière à ce qu’il se rapproche le plus possible au
volume du entrée.
L’imagerie médicale, telle qu’elle est généralement admise, est une imagerie macroscopique
(avec une résolution de l’ordre du millimètre). La diversité des modalités fonctionnelles,
éventuellement couplées avec l’usage d’un produit injecté, permet d’accéder à diverses
informations d’activations. Toutefois, un certain nombre de données, en particulier
structurelles, restent hors d’atteinte parce que le signal à l’origine des images ne permet pas
de distinguer cette structure par rapport à son environnement (c’est par exemple le cas de
certains ganglions de la base, dont le signal se confond avec celui de la matière blanche
environnante). De ce fait certaines quantités d’informations potentiellement importantes
deviennent hors de portée de l’imagerie.
Une solution envisageable pour surmonter ce problème est d’utiliser des connaissances a
priori des structures anatomiques. Ces connaissances peuvent être résumées sous forme
picturale, c’est-à-dire une image, que l’on qualifiera de modèle ou d’atlas. Il peut alors être
intéressant d’utiliser directement cette image, qui représente implicitement la connaissance
anatomique, pour transporter les structures recherchées sur l’image d’un patient donnée. Ce
transport nécessite l’application d’un recalage entre l’atlas et l’image considérée. Il s’agit plus
particulièrement d’un recalage interpartient.
La segmentation basée recalage consiste alors à recaler l’image représentative sur l’image que
l’on souhaite segmenter, et à appliquer la transformation trouvée à l’atlas correctement
segmenté. Cette technique peut également s’appliquer à des structures qui, bien que
potentiellement visibles, peuvent être délicates à contourer automatiquement, on obtient ainsi
une méthode quasi-automatique de segmentation. Une telle approche est donc très
intéressante pour tous les besoins de segmentation en imagerie médical.

86
CHAPITRE IV Le Recalage d’images

III. Approche de recalage :

Le choix des attributs utilisés pour guider le recalage est crucial. Il est largement conditionné
par la nature des images à traiter. Deux approches se distinguent : les méthodes géométiques
et les méthodes denses qualifiées aussi de méthodes iconiques.

Les méthodes géométriques consistent à extraire de manière manuelle ou automatique des


primitives géométriques sur chacune des deux images à recaler (Points, Courbes ou surface)
et à les mettre en correspondance. Quant aux approches denses, elles utilisent l’ensemble de
l’information portée par les niveaux de gris de l’image, soit directement en comparant les
intensités, soit en comparant les valeurs de l’image ayant subit un traitement. Par ailleurs, des
méthodes hybrides combinant ces différentes approches ont été proposées.

III.1. Les Méthodes Géométriques :

Les méthodes géométriques sont basées sur l’extraction dans les images des sous-ensembles
de points homologues (primitive) qu’il s’agit ensuite de mettre en correspondance. Le choix
des primitives doit être guidé par un certain nombre de propriétés : détection facile et précise,
répartition sur l’ensemble de l’image robustesse aux bruits, aux artefacts et aux différents
changements liés à l’acquisition. Trois types de primitives géométriques peuvent être
distingués : les points, les courbes et les surfaces.

III.1.1. Points :

L’une des premières idées, assez naturelle pour guider le recalage est l’utilisation de points
caractéristiques appelés aussi amers (Landmarks). L’objectif est d’estimer une transformation
permettant d’apparier exactement les points homologues, la déformation étant ensuite étendue
à l’ensemble du domaine.

Deux types d’amers peuvent être distingués : les amers extrinsèques et intrinsèques. Les
amers extrinsèques sont des marqueurs externes (cadre stéréotaxique, vis ou marqueurs
externes collés sur la peau) visibles dans la modalité d’imagerie. Historiquement, la première
technique géométrique utilisée consiste à fixer la tête du patient dans un cadre rigide [40]
interdisant toute translation ou rotation. Lors des différentes acquisitions, ce cadre est placé
dans un même repère, ainsi les différentes images acquises seront exactement alignées et ne
nécessiteront aucune transformation géométrique. Malgré l’apparente simplicité de ce
87
CHAPITRE IV Le Recalage d’images

procédé, des problèmes se posent : d’une part il est difficile de positionner la tête du patient
exactement à la même position à chaque examen, en effet les points de fixations du cadre
reposent sur la peau qui présente une grande élasticité. D’autre part, la technique est très
contraignante pour le patient étant immobilisé pendant toute la durée de l’examen. Une
alternative à l’utilisation de marqueurs externes consiste à repérer sur les images des points
anatomiques caractéristiques [14]. Les amers intrinsèques sont déterminés à partir de l’image
soit manuellement par un expert soit automatiquement ou semi-automatiquement en utilisant
certaines propriétés locales portées par le niveau de gris.

III.1.2. Courbes :

L’utilisation de courbes comme primitives géométriques est très intéressantes dans le contexte
du recalage d’images cérébrale, en particulier pour la mise en correspondance des sillons1
corticaux puisqu’ils peuvent être modélisés par une représentation filaire. La méthode la plus
répandue repose sur l’extraction de lignes de crêtes. Les lignes de crête sont définies comme
les lieux dont la courbure principale est localement maximale dans la direction principale
associée. L’extraction précise ainsi que l’étiquetage de ces primitives restant un problème
ardu, de nombreuses équipes continuent à recourir à des méthodes manuelles ou semi-
automatiques basées sur une définition interactive de lignes ou de points d’initialisation à la
surface du cerveau.

III.1.3. Surface :

Les primitives géométriques sans doute les utilisées dans le contexte de recalage d’image sont
les surfaces. Elles sont obtenues par la segmentation de certaines structures anatomiques.
Comme nous l’avons vu dans le chapitre précédant, de nombreuses méthodes ont été
proposées pour la segmentation automatique d’image. Dans un contexte d’image cérébrale,
les modèles déformables apparaissent être les plus privilégiées. Cette popularité est
principalement liée à la possibilité d’introduire facilement des connaissances à priori en
utilisant un modèle moyen et une base de déformation propre associée.

Le principal avantage des approches géométriques est la manipulation d’une représentation


compacte de l’image ayant pour conséquence une charge calculatoire beaucoup plus faible
que dans le cas des approches denses. Notons cependant qu’étant donnés la diversité des
images à recaler, ces méthodes sont difficilement automatisables ; en effet, la plupart des

1
Frontière entre les différents lobes du cerveau.
88
CHAPITRE IV Le Recalage d’images

méthodes de cette approche repose sur une extraction manuelle des attributs ce qui se révèle
être très fastidieux en terme de temps pour l’expert.

Illustrons à présent le problème du recalage multimodal fonctionnel/structurel (Fig. IV.3). Ce


type de recalage, propre au domaine médical, fait appel à des modalités dont les principes de
fonctionnement sont très différents.

Figure IV.3 : Acquisitions IRM et TEP du cerveau d’un même patient

Dans ce problème, les images Iref et Ireca représentent la même zone du cerveau, mais leurs
rendus sont très différents. En effet, dans la figure IV.3 l’image (a) rend compte de l’aspect
structurel du cerveau, alors que l’image (b) nous informe des activations cérébrales, c'est-à-
dire son fonctionnement. L’image (a) a été acquise par IRM-T2 et l’image (b) par TEP.
L’utilisation de modalités d’acquisition fonctionnelles introduit donc une difficulté de taille :
l’information morphologique dans l’image (b) étant très pauvre, l’extraction de primitives
géométriques devient alors un exercice très difficile, voire impossible dans certains cas.
L’approche géométrique du recalage développée plus haut trouve alors ses limites et de
nouvelles approches ont dû être inventées.

III.2. Les méthodes Denses :

Contrairement aux méthodes géométriques, les méthodes denses ou iconiques n’utilisent pas
une étape préliminaire de réduction de données. Elles utilisent l’information portée par

89
CHAPITRE IV Le Recalage d’images

l’ensemble des voxels de l’image. L’approche dense du recalage se fonde sur la comparaison
locale des intensités. Les primitives utilisées ne sont pas, contrairement aux méthodes
étudiées plus haut, de nature géométrique, mais correspondent à des vecteurs contenant la
position et l’intensité. Elles ne nécessitent aucune extraction d’amers géométriques (i.e :
aucune compréhension de la structure géométrique de l’image), ce qui leur vaut l’appellation
de méthodes de bas niveau. Aucune segmentation des images n’est alors nécessaire. Cette
particularité les rend plus adaptées au recalage multimodal et interpatient des images
médicales.

L’avantage principal des approches denses est qu’elles utilisent toutes l’information portée
par l’image. De plus elles sont pour la plupart complètement automatique. L’inconvénient
majeur de ces méthodes est lié au cout calculatoire important dû au fait de devoir considérer
chacun des voxel des images. De nos jours, grâce au progrès technologiques, la puissance des
stations de travail permettent de réaliser des calculs plus couteux en des temps raisonnable.

IV. Critère de Similarité :


Une fois définie l'information à utiliser pour guider le recalage, il s'agit de lui associer un
critère de similarité permettant de définir une certaine distance entre deux images. Ce critère
doit être caractérisé par une valeur minimale (ou maximale selon le cas) dès lors que la
ressemblance entre les images est la plus forte.
Nous évoquerons dans un premier temps les différents critères de similarité utilisés pour
mesurer une distance entre des primitives géométriques, puis nous examinerons différentes
catégories de critères de similarité denses.

IV.1. Critères de similarité géométriques :


Différents critères ont été proposés dans la littérature pour mesurer des distances entre
primitives géométriques. On distinguera le cas des distances entre des points appariés
identifiés dans les deux images et le cas des distances entre des ensembles de points (courbes
ou surfaces).
Pour mesurer la distance entre des points correspondants, la norme euclidienne est
classiquement utilisée ; elle permet, dans le cas du recalage rigide ou affine, de conduire à une
solution analytique pour l'estimation des paramètres de la transformation (méthode de
Procruste)

90
CHAPITRE IV Le Recalage d’images

Pour mesurer la distance entre deux courbes ou deux surfaces, plusieurs approches sont
possibles. Une première idée utilisée dans l'algorithme ICP (Iterative Closest Point) consiste
à se ramener au problème précédent de mesure de distance entre points correspondants. Cet
algorithme est composé de deux étapes réitérées successivement. La première étape consiste
à associer à chaque point de la primitive à recaler le point de la primitive de référence le plus
proche. La seconde étape consiste ensuite à estimer analytiquement la transformation grâce a
la méthode de Procruste. Une autre idée pour construire une distance entre deux ensembles de
points est de considérer la moyenne du carré de la distance de chaque point de la primitive à
recaler par rapport au point le plus proche de la primitive de référence dans la direction du
centroïde de cette dernière.
Une autre approche consiste à utiliser les cartes de distance. Une carte de distance est obtenue
en fixant à zéro les voxels correspondant à des contours de l'objet de l'image de référence,
puis en calculant par propagation, la distance associée à chaque voxel du point de contour le
plus proche. Une distance couramment utilisée pour la construction de cartes de distance du
fait de son efficacité et de sa rapidité est la distance de chanfrein. Le masque de chanfrein 2D
est représenté par la matrice suivante :

1 4 3 4
! " #$% ( )3 0 3,
(4.2)
3
4 3 4

Les voisins axiaux et diagonaux de chaque point contour ont respectivement les valeurs 1
-
et . . La mesure de la distance globale peut être obtenue en propageant les distances locales

suivant les axes principaux et diagonaux. Cette propagation est illustrée à la figure IV.4.

91
CHAPITRE IV Le Recalage d’images

Figure IV.4 : Calcul des distances de chanfrein par propagation

La distance de Chanfrein constitue donc une bonne approximation de la distance euclidienne


en étant plus rapide à calculer. La figure IV.5 illustre une carte de distance de Chanfrein
calculée sur un contour représenté par des pixels gris.

Figure IV.5 : Carte de Distance de Chanfrein

L’utilisation de la carte de distance offre la possibilité de calculer de manière rapide et


efficace la distance qui sépare deux contours donnés. Le processus est illustré à la figure IV.6
Cette figure reprend la carte de distance de la figure IV.5 et y superpose un second contour,
celui dont on veut connaitre la distance par rapport au premier. La distance globale qui sépare
les deux courbes (30 dans cet exemple) est donnée par la simple sommation de toutes les
distances rencontrées le long du deuxième contour. Une distance moyenne peut être obtenue
en normalisant ce résultat par la longueur de ce dernier contour.

92
CHAPITRE IV Le Recalage d’images

Figure IV.6: Distance entre deux contours.

Enfin, une autre mesure utilisée pour caractériser la distance entre deux ensembles de points
est la distance de Hausdorff En considérant une distance d(x,y) (par exemple la distance
euclidienne) entre deux points x et y, x appartenant à l'ensemble de points /0 et y à celui des
points /1 la distance de Hausdorff entre les deux ensembles /0 et /1 est définie de la manière
suivante :

2 /0 , /1 max 5min 58 9, : | 9 /0 $< : /1 ==> (4.3)

IV.2. Critères de similarité denses :


Les critères de similarité denses permettent de comparer toute l'information portée par les
niveaux de gris de l'image. Chaque critère fait une hypothèse sur la relation qui lie les valeurs
à comparer. Parmi les hypothèses faites sur la relation entre les intensités, on peut distinguer
la relation identité, la relation affine, et de manière plus générale la relation fonctionnelle. Une
approche encore plus générale consiste à considérer les images comme des réalisations de
variables aléatoires et à quantifier une certaine dépendance entre elles en termes de distance
entre distributions par exemple. Le choix du critère est donc guidé par les modalités des
images à recaler, et fait l'objet d'un compromis entre le temps de calcul, la robustesse et la
généralité de la relation qu'il permet d'appréhender. Les critères permettant d'appréhender des
relations très générales et complexes sont souvent plus couteux à calculer et leur optimisation
est plus délicate (vitesse de convergence faible, présence de nombreux minima locaux
d'énergie). D'autres approches consistent à estimer de manière explicite cette relation lors
d'une étape de normalisation des intensités.

93
CHAPITRE IV Le Recalage d’images

IV.2.1. Relation identité :


La première idée pour le recalage d'images monomodales est de faire l'hypothèse que les
intensités des voxels qui se correspondent dans les deux images sont égales à un bruit blanc
gaussien près. Les approches reposant sur cette hypothèse minimisent généralement des
critères basés sur la différence entre les intensités des images. Le critère le plus couramment
utilisé en recalage monomodal est la norme L2 (ou critère des moindres carrés) donnée par la
relation :

?1 @
0
, , A BΩCDE B
( ∑G ΩCDE H 1
(4.4)

Où s représente un point dans le support Ω de l’image .


Ce critère a cependant l'inconvénient d'être très sensible aux valeurs aberrantes. D'autres
fonctions, comme la norme L1 (différence absolue des intensités), offrent une moins grande
sensibilité aux valeurs aberrantes :

0
?0 @ , , A BΩCDE B
( ∑G ΩCDE B H B (4.5)

IV.2.2. Relation affine :


En pratique, l'hypothèse de relation identité est rarement vérifié, même dans le cas
monomodal. La valeur des intensités dans l'image n'ayant pas de signification physique
intrinsèque directe (la valeur des intensités dépend de l'instrument de mesure), il est
nécessaire de prendre en compte une remise à l'échelle des intensités grâce à une relation
affine du type I J K. Le coefficient de corrélation linéaire permet justement
d'appréhender cette relation. Son expression est la suivante :

∑ (I ref ( s ) − I ref )( I reca (h( s )) − I reca )


s∈Ω ref
CC ( I ref , I reca , h) = (4.6)
∑ I ref ( s) − I ref )2 ⋅
s∈Ω F
∑ I reca (h( s)) − I reca ) 2
s∈Ω ref

94
CHAPITRE IV Le Recalage d’images

Où L représente la moyenne des intensités dans l’image de référence :

0
L ∑G MCDE
BMCDE B (4.7)

L représente la moyenne des intensités dans des projections de chaque point de


l’image selon la transformation h :

1
L O (4.8)
BΩ B
G MCDE

Ainsi, ce critère, qui a une valeur comprise entre -1 et 1, mesure l'existence ou non d'une
relation linéaire entre les intensités des images et . Une valeur nulle de ce critère
signifie que les deux images sont des réalisations de variables aléatoires non corrélées, par
conséquent non recalées. Il s'agit donc au cours du recalage de maximiser ce critère.

IV.2.3. Relation fonctionnelle :


Bien que donnant généralement de bons résultats pour le recalage d'images monomodales,
l'hypothèse de relation affine n'est plus du tout adaptée quand il s'agit d'images de modalités
différentes. Une hypothèse plus générale qui peut alors être faite dans ce cas est celle d'une
relation fonctionnelle du type j = f(i). L'hypothèse d'une relation fonctionnelle suppose qu'à
chaque intensité d'une image donnée peut être associée une unique valeur dans la seconde
image. Parmi les critères satisfaisant cette hypothèse, on citera le critère de Woods. Le critère
de Woods représente une des premières tentatives dans la définition de mesures de similarité
adaptées au cas multimodal. Il se base sur le principe qu’une zone homogène de l’image de
référence correspond forcément à une zone homogène de l’image à recaler même si les
modalités d’acquisition des deux images sont différentes. Le critère de Woods à minimiser
s’exprime par la relation suivante :

WX |U>
PQQ8 R , S O TU ·
(4.9)
YX |U>
U

95
CHAPITRE IV Le Recalage d’images

Où YX |U> et WX |U> représente respectivement la moyenne et l'écart-type des intensités


observées dans l'image correspondant aux voxels de l'image ayant l'intensité j et
TU la fréquence des voxels dans l'image ayant une intensité j.

IV.2.4. Relation de dépendance :


Il est possible de considérer une relation encore moins restrictive que la relation fonctionnelle
en introduisant la notion de dépendance. Les images sont considérées comme des réalisations
de variables aléatoires dont il s'agit de caractériser la dépendance. Dans ce contexte,
l'information mutuelle est la mesure qui a connu le plus grand succès en particulier pour le
recalage d'images médicales multimodales [50][7][30]. Son expression est donnée par :

T[,U
ZR , S O O T[,U log (4.10)
T[ TU
[ U

Avec T[ et TU désignant respectivement la probabilité d'un voxel de l'image d'avoir une


intensité i et d'un voxel de l'image d'avoir une intensité j, et T[,U la probabilité d'un
voxel d'avoir une intensité i dans et j dans .
Une interprétation intuitive possible de ce critère est de considérer qu'il mesure la quantité
d’information d’une image contenue dans une seconde image. Le cas le plus défavorable est
celui de deux images indépendantes (information mutuelle nulle) et le cas idéal est celui pour
lequel les deux images sont parfaitement recalées (information mutuelle maximum). Ces
critères issus de la théorie de l'information ont montré leur efficacité pour le recalage
multimodal

V. Interpolation :
L’application d’une transformation consiste à projeter chaque pixel s de l’image de référence
Iref vers une position non-pixel2 ̌ dans l’image à recaler Ireca (Figure IV.7) . Pour cette
raison, nous devons avoir recours à des techniques dites d’interpolation afin d’estimer la
valeur de ̃ dans l’équation (4.1). Ces techniques se basent sur l’information apportée
par les pixels de voisinage pour estimer leur valeur dans l’image résultante. Nous présentons
dans la suite certaines approches d’interpolation.

2
Position de coordonnées non entières.
96
CHAPITRE IV Le Recalage d’images

̃
s

Image de Référence
Image à Recaler

Figure IV.7 : Projection du point s dans l’image à recaler selon une transformation h

L’interpolation au plus proche voisin est une interpolation d’ordre 0, ici ~


x prend la valeur du
pixel le plus proche. L’interpolation linéaire dite bi-linéaire (2D) ou tri-linéaire (3D) est une
interpolation d’ordre 1, ici on suppose qu’entre chaque pixel de l’image, l’intensité varie
linéairement, ainsi la valeur de ~
x est calculée par la moyenne pondéré des intensités voisines,
les poids sont inversement proportionnels à la distance entre ~
s et chacun de ses voisins
respectifs. La figure IV.8 illustre le principe d’une interpolation d’ordre 0 (a) et d’une
interpolation bi-linéaire (b), dans ce dernier cas l’intensité du point p s’exprime ainsi :

` 1H" 1Ha [,U 1H" a [,Ub0 " 1Ha [b0,U "a [b0,Ub0 (4.11)

Figure IV.8 : Interpolation d’ordre 0 (a) et d’ordre 1 (b)

97
CHAPITRE IV Le Recalage d’images

Un ordre d’interpolation élevé implique une haute précision d’estimation mais aussi une

̃ est généralement exprimé par les


complexité calculatoire importante, d’où la nécessité d’un compromis entre qualité et temps
d’exécution. Lors d’une interpolation d’ordre n,
fonctions B-Spline [29][41][30] de la manière suivante :

I reca ( ~
s ) = ∑ k∈S ( ~s ) C ( k ) ⋅ β n ( ~
s − k) (4.12)

Où β n désigne la fonction B-Spline d’ordre n. Les coefficients C(k) sont calculés à partir des

valeurs Ireca(k) dans le support de ~


s noté S (s~ ) [10]. La figure IV.9 illustre les fonctions
BSpline d’ordre 0,1,2 et 3.

Figure IV.9 : Fonction B-Spline d’ordre 0,1,2 et 3

VI. Les modèles de transformation :

Le recalage d’image est le processus qui consiste à déterminer la différence entre deux
images, cette différence peut être une combinaison de translation, de rotation et de
changement d’échelle, etc.

La figure IV.10 montre les transformations géométriques les plus courantes qui sont les
transformations rigides (a), affines (b) et élastiques (c). Nous pouvons ainsi classer les

98
CHAPITRE IV Le Recalage d’images

méthodes de recalage en deux catégories : le recalage rigide (linéaire) et le recalage non-


rigide (non linéaire) selon que la transformation à rechercher est rigide/affine ou non rigide.

Figure IV.10 : Différents modèles de transformation

Dans ce qui suit, nous présenterons brièvement les différentes classes de transformations ainsi
que leur implication dans le recalage des images médicales. Nous introduirons les modèles
linéaires, puis les modèles non-linéaires

VI.1. Le recalage Rigide : (linéaire)

VI.1.1. Les transformations rigide :

La transformation 3D globale la plus simple à envisager est la transformation rigide. Cette


transformation est à priori appropriée au recalage d’images cérébrales monomodalité et
monopatient (le crâne étant considéré comme un objet 3D rigide). Dans ce type de
transformation, l’image est considérée comme un corps rigide où seules les translations et
rotations sont autorisées

<d , <e et <f et trois (03) paramètres de rotation : gd , ge et gf représentant respectivement les
La transformation rigide 3D implique six paramètres ; trois (03) paramètres de translation

translations et les rotations sur les axes X, Y et Z.

correspondant (9h, :h, ih) dans l’autre image est donnée par le système d’équations suivant :
La relation entre les coordonnées (x,y,z) d’un point d’une image et les coordonnées

99
CHAPITRE IV Le Recalage d’images

9h 9
:h :
j k l(m(n o
ih i
1
(4.13)
1

Où R et T désignent respectivement les matrices de rotation et de translation définie comme


suit :

1 0 0 0 cos ge 0 H sin ge 0 cos gf sin ge 0 0


0 cos gd sin gd 0 0 1 0 0 H sin ge cos ge 0 0
l j kj kj k
0 H sin gd cos gd 0 sin ge 0 cos ge 0 0 0 1 0
(4.14)

0 0 0 1 0 0 0 1 0 0 0 1

1 0 0 <d
0 1 0 <e
m j k
0 0 1 <f
(4.15)

0 0 0 1

En imagerie médical, la transformation rigide peut uniquement être utilisée pour recaler deux
images ne présentant pas d’évolution de structures (croissance du crâne, ou modification de la
position ou du volume d’une sous-structure) et dont les imageurs n’ont pas induit de
distorsions. Néanmoins, on peut se servir d’une telle transformation comme bonne
approximation d’une transformation faiblement élastique.

VI.1.2. Les transformations affines :

Les transformations affines sont plus générales que les transformations rigides. Contrairement
aux transformations rigides, aucune restriction n’est faite sur les éléments de la matrice de
transformation, ce qui permet ainsi de réaliser des distorsions plus complexes de l’image
telles que l’étirement, le cisaillement ou le changement d’échelle, tout en conservant certaines
propriétés3 géométriques de l’image
Une transformation affine 3D est définie par douze coefficients "[U de la matrice de
transformation. La relation entre les coordonnées dans une image et les coordonnées dans
l’autre image est donnée par le système d’équations linéaire suivant :

3
C’est Euler, en 1748, qui est à l’origine du terme « transformation affine », car dit-il, « deux courbes images
l’une de l’autre par une telle transformation présentent entre elles une certaine affinité ».
100
CHAPITRE IV Le Recalage d’images

9h "rr "r0 "r1 "r. 9


:h " "00 "01 "0. :
j k n 0r o(n o
ih "1r "10 "11 "1. i
(4.16)

1 0 0 0 1 1

La matrice de transformation peut être décomposée en une matrice B :

"rr "r0 "r1


s )"0r "00 "01 ,
"1r "10 "11
(4.17)

et le vecteur m "r. , "0. , "1. h représentant le vecteur de translation.

Si B=I (matrice d’identité) la transformation se réduit donc à une translation. Dans le cas
particulier où B est une matrice de rotation, nous retrouvons une transformation rigide.

Si B=Diag(Sx,Sy,Sz) la transformation est une mise à l’échelle avec les facteurs Sx ,Sy et Sz
selon les axes X,Y et Z respectivement.

VI.2. Le recalage non rigide (non linéaire) :

Dans un processus de recalage d’images médicales, les transformations que nous venons de
voir (rigide, affine) ne permettent pas de prendre en considération les déformations dues aux
mouvements physiologiques (respiration, battement de cœur, changement de morphologie)
[34]. Les transformations élastiques ou non-rigides ont été introduites afin de palier à ce
problème.

Comparée aux méthodes de transformation rigide, la transformation élastique offre un DDL4


plus important. L’une des transformations élastiques est la transformation polynomiale.Nous
pouvons par exemple citer le modèle de transformation quadratique régit par un polynôme du
second degré :

9h "rr … "r1 "r. 91


:h " … "01 "0.
o ( j: k
1
j k n 0r
ih "1r u "11 "1. v
(4.18)

1 0 0 0 1 1
4
Degré de Liberté (Degree Of Freedom) représente le nombre de variables impliquées dans la transformation
101
CHAPITRE IV Le Recalage d’images

Ainsi la transformation ci-dessous est caractérisée par un DDL de 30. De manière similaire,
ce modèle de transformation peut être étendu à un degré polynomial d’ordre supérieur tel le
modèle polynomial du troisième (DDL=60), quatrième (DDL=105) et cinquième ordre
(DDL=168). Bien que les approches polynomiale offre un DDL plus important, elles ne sont
cependant pas utilisables dans un contexte de recalage non-rigide d’images médicales ; en
effet leur capacité à tenir compte des déformations locales dans les structures anatomiques est
très limitée car elles sont modélisées par un changement globale de la forme. De plus les
modèles polynomiaux d’ordre important ont tendance à introduire des artefacts tels que des
oscillations.

L’une des techniques de déformation les plus utilisées pour le recalage non-rigide est la
déformation basée sur une grille [52][51][16] : une grille régulière est superposée à l’image
formant ainsi un ensemble de point sk dits points de contrôle régulièrement espacée par une
distance σ. Chaque point de contrôle sk est caractérisé par un déplacement pk. La valeur de
déplacement en chaque point de l’image est déterminée par interpolation, l’interpolation B-
Spline cubique est souvent employée afin de garantir une déformation élastique cohérente
[27]:

s − sk
h( s ) = s + ∑ pk ⋅ β 3 ( ) (4.19)
s k ∈S ( s ) σ

S(s) dénote le support du point s, il représente l’ensemble de points de contrôle voisins de s.

La figure IV.11 illustre la déformation BSpline d’ordre 3 d’une grille régulière

Figure IV.11 : Déformation B-Spline d’ordre 3 d’une grille régulière

102
CHAPITRE IV Le Recalage d’images

VII. Optimisation :
La résolution du problème d’optimisation de l’équation (2.1) revient à déterminer le vecteur
de paramètres µ pour lequel le coût de la transformation est minimal.

La méthode d'ordre 0 dite recherche exhaustive consiste à échantillonner à intervalle régulier


l'ensemble de l'espace des paramètres et de retenir la solution optimale. Bien qu'elle permette
d'accéder au minimum global avec une précision définie par le pas d'échantillonnage, elle est
en pratique rarement utilisée en raison du nombre important de paramètres à estimer en
particulier pour les transformations élastiques, une recherche exhaustive est inenvisageable.
Afin d'augmenter la vitesse de convergence vers le minimum, certains algorithmes utilisent
des caractéristiques différentielles (gradient et/ou hessien) du critère. Les méthodes de
descente de gradient et du gradient conjugué utilisent l'information portée par le gradient. Les
méthodes dites de Newton utilisent quant à elles l'information portée par le hessien.
Cependant, le calcul du hessien pouvant s'avérer délicat, des méthodes ont recours à une
approximation du hessien à partir du gradient comme par exemple la méthode de quasi-
Newton.
Dans un contexte de recalage d’images, l’optimisation est communément réalisée à travers un
processus itératif de la manière suivante :

hk +1 = hk + a k d k (4.20)

Où dk représente la direction de recherche à l’itération k. ak est le facteur de gain, pouvant


être constant tout au long des itérations ou variable. Le produit ak d k définit le pas de

recherche à l’itération k. Ainsi à chaque itération, une nouvelle solution hk +1 est générée à

partir de la solution actuelle hk et du pas de recherche.


La figure IV.12 illustre la valeur du coût E entre deux IRM en fonction du paramètre de

transformation hˆ = (t x , t y ) , les flèches représentent le pas de recherche en direction de

l’optimum.

103
CHAPITRE IV Le Recalage d’images

Figure IV.12 : Optimisation itérative du coût de translation entre deux IRM

VII.1. La Descente de Gradient :

L’algorithme de descente de gradient consiste à prendre la direction inverse du gradient du


coût pour direction de recherche :

∂E
hk +1 = hk − a k (4.21)
∂h
Le facteur de gain est généralement exprimé par une fonction décroissante de k ce qui
implique un pas de recherche initial important qui décroit tout au long des itérations faisant
ainsi augmenter la précision.

VII.2. Quasi-Newton :
Les méthodes de Quasi- Newton sont inspirées du célèbre algorithme de Newton-Raphon
défini par :

104
CHAPITRE IV Le Recalage d’images

H x2 z{0 |
|}
wb0 w y
(4.22)

Où 2 y
représente la matrice hessienne de la mesure de ressemblance E, évaluée à la
solution w. L’utilisation de la dérivée du second ordre permet théoriquement une meilleure
convergence vers le minimum que l’algorithme de descente de gradient. Cependant le calcul
de la matrice hessienne ainsi que de son inverse est très couteux particulièrement pour les
problèmes d’optimisation d’ordre important tel le recalage non-rigide.

Les méthodes de Quasi-Newton contournent ce problème en faisant une approximation de


l’inverse de la matrice hessienne :

?w ~ x2 y
z{0 (4.23)

L'idée principale de cette méthode est d'éviter de construire explicitement la Hessienne et de


construire à la place une approximation de l'inverse de la dérivée seconde de la fonction à
minimiser, en analysant les différents gradients successifs

Ainsi le calcul de la transformation à chaque itération est exprimé par l’équation suivante :

H "w ?w
|}
wb0 w | (4.24)

Plusieurs méthodes permettant la construction de la série 5>?w => ont été proposées dans la
littérature, parmi elles nous citons la formule DFP (Davidon–Fletcher–Powell) ainsi que la
méthode BFGS (Broyden-Fletcher-Goldfarb-Shanno).

VII.3. Gradient Conjugué Non-Linéaire :

Le développement des méthodes de gradient conjugué a commencé avec le gradient linéaire


conjugué. Ces algorithmes étaient essentiellement appliqués pour la résolution des systèmes
d’équations linéaires. Le gradient conjugué non-linéaire (GCN) est une extension de cet
algorithme adaptée pour la minimisation de fonctions non-linéaires. L’algorithme GCN suit le

105
CHAPITRE IV Le Recalage d’images

même schéma général itératif de l’équation (4.20). La direction de recherche dk est exprimée
par une combinaison linéaire faisant intervenir à la fois l’expression du gradient ainsi que la
direction de recherche précédente :

8w H Kw 8w{0
|}
|
(4.25)

Plusieurs expressions pour le coefficient Kw ont été proposées dans la littérature :

ƒ w h·ƒ w
•" H € " Kw•‚
8hw{0 · ƒ w H ƒ w{0 h
(4.26)

ƒ w h · ƒ w H ƒ w{0
2$ <$ $ H „< $#$… Kw †
8hw{0 · ƒ w H ƒ w{0 h
(4.27)

La notation ƒ
|}
w | y
a été introduite pour un souci de clarté.

Une approche hybride combinant ces deux expressions a été proposée dans [56] :

Kw max 0, min Kw † , Kw•‚ (4.28)

106
CHAPITRE IV Le Recalage d’images

VIII. Conclusion :

Nous avons défini le long de ce chapitre le recalage d’images en présentant sa problématique,


son contexte en imagerie médicale et sa formulation mathématique à travers la notion de
transformation géométrique de mesure de similarité et d’algorithme d’optimisation.

Après ce tour d’horizon sur différentes techniques de recalage, nous pouvons conclure sur la
diversité des approches proposées pour recaler un jeu d’images et sur la complexité ainsi que
la subjectivité du choix de la technique la plus adaptée à ce jeu de données. En effet, ce choix
est complexe et porte sur les primitives à extraire, le type de la transformation géométrique à
considérer, le critère de similarité à exploiter et enfin la stratégie d’optimisation à adopter.

Pour la résolution du problème de recalage, deux approches principales ont été proposées. Le
premier schéma a concerné l’approche géométrique. Trois méthodes appartenant à cette
classe ont été données : l’appariement de points, de courbes et de surfaces. Les limites de
cette approche ont été illustrées en démontrant son inadéquation au cadre multimodal du
recalage en particulier dans un contexte multimodal anatomo-fonctionnel. De ce fait, nous
nous sommes retournés vers l’approche iconique qui s’avère la plus adaptée dans notre
contexte. (Recalage ATLAS/TEP)

L’objectif principal de notre projet étant la segmentation d’image TEP en intégrant les
connaissances à priori sur l’anatomie cérébrale, nous proposons une méthode de segmentation
par recalage entre un Atlas anatomique cérébrale et le volume TEP à segmenter. La
méthodologie que nous avons adoptée ainsi que les détails de conception sont présentés dans
le chapitre suivant.

107
CHAPITRE V Méthodologie et Conception

CHAPITRE V

Méthodologie et Conception

108
CHAPITRE V Méthodologie et Conception

Introduction :
Dans ce chapitre nous présentons les principes de notre approche ainsi que les principales
fonctionnalités de l’outil de nous avons élaboré.
Dans la section 1 nous exposons le principe de notre approche de segmentation à savoir la
segmentation par atlas. Dans la section 2 nous présentons les données utilisés pour
l’élaboration nos tests, ces données représentent l’atlas utilisé ainsi que les volumes TEP à
segmenter au format Analyze. Ce format est étudié de manière plus formelle dans la section 3.
Les résultats de notre approche de segmentation sont présentés dans la section 4, dans un
premier lieu nous présentons les résultats de manière visuelle puis, dans un second lieu nous
comparons les différents résultats obtenus par moyen d’indice de Jaccard selon différents
métrique de similarités (SSD, CC et MI)

I. Présentation de notre approche :


L’objectif de notre travail est la segmentation basée atlas d’images TEP 3D. L’approche que
nous proposons consiste à recaler le volume TEP à segmenter avec un Atlas anatomique
cérébral. L’image TEP représente ainsi l’image fixe, l’atlas représente l’image mobile qui
sera déformée de manière à prendre la forme du volume à segmenter. Notre approche est
constitué de trois étapes : dans un premier lieu, un recalage affine est établi ; ce qui permet
d’avoir un alignement global des volumes. Le paramètre obtenu de la transformation affine
µ Affine sert ensuite comme initialisation pour la seconde étape qui est le recalage élastique. Ce
dernier est établi afin de prendre en considération les déformations locales entre les
volumes.(figure V.1)
Dans la troisième étape nous appliquons les transformations obtenues précédemment µ Affine et

µ Elastique séquentiellement sur chacun des deux atlas segmentés selon une interpolation au
plus proche voisin (d’ordre 0), cela afin de préserver les mêmes intensités après segmentation.
Nous obtenons ainsi une segmentation du volume TEP. La minimisation de dissimilarité est
réalisée à travers un algorithme itératif de descente de gradient. Nous avons intégrer
ELASTIX à notre implémentation. Cet outil est un Framework OpenSource. Elastix se
compose d'une collection d'algorithmes (Calcul de métrique, Interpolation, Transformation)
dédiés au problème de recalage d’images médicales.
La conception modulaire d’Elastix permet à l'utilisateur de rapidement configurer, tester et
comparer les méthodes de recalage pour une application spécifique. Une interface de ligne de
commande permet le traitement automatisé au moyen de scripts
109
CHAPITRE V Méthodologie et Conception

TEP ATLAS

RECALAGE RIGIDE

µ Affine

TRANSFORMATION

ATLAS aligné

RECALAGE ELASTIQUE

µ Elastique

Figure V.1 : Etapes 1 et 2 de notre procédé.

110
CHAPITRE V Méthodologie et Conception

L’optimisation est réalisée à travers l’algorithme de descente de gradient qui selon la


littérature est le plus adapté pour les problèmes de recalage d’images.
II. Les Données :
II.1. L’atlas :
L’atlas utilisé provient du laboratoire d’imagerie neurologique LONI1 d’UCLA et est fourni
avec deux volumes segmentés : Un volume segmenté en tissus : Matière blanche, grise et
liquide céphalorachidien (Figure V.2). Le second volume est segmenté en lobes. La figure V.3
illustre différentes structures anatomiques ainsi que leurs intensités sur la coupe n° 100 du
second atlas.
Chacun des deux atlas est associé à un fichier texte étiquette faisant la correspondance entre
les intensités dans le volume et les ontologies cérébrales associées.

Figure V.2 : Atlas Segmenté en Tissus

Figure V.3 : Atlas Segmenté en Lobes

1
LONI Laboratory Of Neuro Imaging UCLA http://www.loni.ucla.edu/
111
CHAPITRE V Méthodologie et Conception

II.2. Volume TEP :


Nous avons effectué nos tests sur des données TEP cérébrales 128 × 128 × 64 au format
Analyze, obtenues auprès de l’institut neurologique BIC2 de Montréal.
La figure V.4 illustre un des volumes TEP auquel nous avons effectué nos tests.

Figure V.4 : Coupes 1,10,20,30,40,50 et 60 d’un volume TEP

III. Le Format Analyze :


Le format ANALYZE permet de stocker un volume de coupes (IRM, PET, etc.) dans deux
fichiers distincts :

• L’entête HDR : Ce fichier contient seulement les informations du volume telles que
ses dimensions, le type de données utilisées dans le volume…etc. Ces informations
sont nécessaires lors de la lecture d’un volume.
• Le Fichier IMG : Ce fichier stocke les données utiles du volume, c'est-à-dire les
intensités des voxels.

Les deux fichiers (HDR et IMG) doivent porter le même nom afin qu’une relation puisse
s’établir lors de la lecture d’un volume.

III.1. Le fichier d’entête HDR :

III.1.1. Structure :

La taille du fichier d’entête est de 348 octets où chaque octet représente une information
concernant le volume. La structure du fichier est illustrée dans le tableau 13 ci-dessous.

2
BIC McConnel Brain Imaging Center Montréal http://www.bic.mni.mcgill.ca/
112
CHAPITRE V Méthodologie et Conception

OFFSET ATTRIBUT TYPE/TAILLE DESCRIPTION


0 Size_of_hdr Int /4octets Indique la taille du fichier d’entête hdr.
Vaut « r » pour indiquer que tous les volumes ont
38 Regular Char/2octet
les mêmes dimensions.
40 Dim0 Int/2octets Nombre de Dimension. Vaut généralement : 4

42 Dim1 Int/2octets Dim X : Largeur en pixel d’une coupe.


44 Dim2 Int/2octets Dim Y : Hauteur en pixel d’une coupe.
46 Dim3 Int/2octets Dim Z : Nombre de coupe dans le volume.
48 Dim4 Int/2octets Nombre de volume

50 à 55 Inutilisé

56 Vox_units Char/4octets Unité spatiale de mesure du voxel

60 à 69 Inutilisé

70 Datatype Int/2octets Indique le type de donnée utilisé(*)


Nombre de bits par pixel pour représenter
72 Bitpix Int/2octets
l’intensité.
74 Inutilisé

80 Pixdim1 Float/4octets Largeur d’un voxel en mm


84 Pixdim2 Float/4octets Longueur d’un voxel en mm

88 Pixdim3 Float/4octets Epaisseur d’une coupe en mm

92 Inutilisé
112 Scale_Factor Float/4octets
(**)
116 Zero_intercept Float/4octets
120 à
inutilisé
348

Tableau V.1 : Structure de Fichier HDR

(*)- L’attribut Data_Type : (Offset 70)

Cet attribut stocke le code du type de donnée utilisée pour les intensités des voxels, le tableau
V.2 illustre le code associé à chaque type.

3
Source : Mayo Clinic Analyze 7.5 Format: http://www.mayo.edu

113
CHAPITRE V Méthodologie et Conception

Type Code Description


DT_BINARY 1 1 bit par voxel (Intensités Binaires)
DT_UNSIGNED_CHAR 2 8 bits par voxel
DT_SIGNED_SHORT 4 16 bits par voxel
DT_SIGNED_INT 8 32 bits par voxel
DT_FLOAT 16 32 bits par voxel représenté en Float
DT_COMPLEX 32 2*32 bits par voxel
DT_DOUBLE 64 64 bits par voxel
DT_RGB 128 Voxel en couleur (RGB)

Tableau V.2 : Codification des types utilisés pour représenter les intensités

Notons cependant que pour les volumes médicaux, les types communément utilisés sont :
DT_Unsigned_Char (Sur 8 bits) et DT_Signed_Short sur (16 bits)

(**)- Les attributs Scale_Factor et Zero_Intercept : (Offsets 112 et 116 respectivement)

Ces attributs représentent les coefficients d’une fonction linéaire permettant de calculer
l’intensité réelle d’un voxel en fonction de l’intensité brute dans le fichier IMG.

Intensité réelle = Scale_Factor * Intensitébrute + Zero_intercept

III.1.2. Représentation :

Pour la représentation des informations d’entête, notre choix s’est porté sur une structure de
données de type enregistrement :

114
CHAPITRE V Méthodologie et Conception

Représentation des Informations d’entête

Structure Header
{
Taille : Entier ; //Taille en octet du fichier hdr = 348
NbDim : Entier; //Nombre de dimension du Volume
Xdim : Entier; //Dimension sur l’axe X
Ydim : Entier ; //Dimension sur l’axe Y
Zdim : Entier ; //Dimension sur l’axe Z
NbVol : Entier; //Nombre de volume
TypeDonnees : Entier; // l’attribut DataType
Unite : Chaine de caractères //Unité de mesure des voxel ; ex : « mm »
Bpv : Entier ; //Nombre de bits utilisés pour la représentation des intensité
VoxelX : Réel ; //Largeur d’un voxel
VoxelY : Réel ; //Longueur d’un voxel
VoxelZ : Réel ; //Epaisseur d’un voxel
Politique: Chaine de caractères //vaut « little-endian » ou « big-endian »
};

III.1.3. Exemple :

Le tableau V.3 illustre le code hexadécimal d’un fichier HDR. Nous allons à partir de ce
fichier, extraire certains attributs selon la définition de la structure HDR.

Afin de calculer la valeur d’un attribut codé sur plusieurs octets, il est primordial de
déterminer au préalable la politique de stockage utilisée ; il en existe deux :

• Little Endian : L’octet le plus à droite représente le poids faible.


• Big Endian : L’octet le plus à droite représente le poids fort.

Etant donné que la taille du fichier HDR est fixe (348 octets), l’attribut Size_of_HDR
déterminera quelle est la politique utilisée.

115
CHAPITRE V Méthodologie et Conception

Déplacement
00 01 02 03 04 05 06 07 08 09 10 11 12 13 14 15
OS : 0 à 15 00 00 01 5c 00 00 00 00 00 00 00 00 00 00 00 00
OS : 16 à 31 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 32 à 47 00 00 00 00 00 00 72 00 00 04 00 40 00 40 00 40
OS : 48 à 63 00 01 00 00 00 00 00 00 6d 6d 00 00 00 00 00 00
OS : 64 à 79 00 00 00 00 00 00 00 04 00 10 00 00 00 00 00 00
OS : 80 à 95 40 40 00 00 40 40 00 00 40 40 00 00 00 00 00 00
OS : 96 à 111 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 112 à 127 3e 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 128 à 143 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 144 à 159 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
0OFFSET

OS : 160 à 175 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 176 à 191 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 192 à 207 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 208 à 223 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 224 à 239 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 240 à 255 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 256 à 271 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 272 à 287 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 288 à 303 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 304 à 319 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 320 à 335 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
OS : 336 à 347 00 00 00 00 00 00 00 00 00 00 00 00

1-) L’attribut Size_Of_HDR : (Offset 0)

Valeur Hexadécimale : (0000015C) = 348

Valeur Hexadécimale Equivalent décimale


0000015C 348

Il s’agit donc de la politique Little Endian qui est utilisé pour ce fichier. Dans le cas d’une
politique Big Endian la valeur hexadécimale aurait été de (5C010000).

2-) L’attribut REGULAR : (Offset 38)

Valeur Hexadécimale Equivalent en Char


72 r

116
CHAPITRE V Méthodologie et Conception

L’attribut REGULAR vaut la valeur « r » ce qui signifie que tous les volumes ont les mêmes
dimensions. (Si éventuellement il existe plus d’un volume dans le fichier)

3-) L’attribut Dim0 : (Offset 40, Nombre de dimensions)

Valeur Hexadécimale Equivalent Décimal


0004 4

4-) L’attribut Dim1 : (Offset 42)

Valeur Hexadécimale Equivalent Décimal


0040 64

5-) L’attribut Dim2 : (Offset 44)

Valeur Hexadécimale Equivalent Décimal


0040 64

6-) L’attribut Dim3 : (Offset 46)

Valeur Hexadécimale Equivalent Décimal


0040 64

7-) L’attribut Dim4 : (Offset 48)

Valeur Hexadécimale Equivalent Décimal


0001 1

117
CHAPITRE V Méthodologie et Conception

La dimension du volume est donc la suivante : 64 x 64 x 64 x 1. Le volume contient donc 64


coupes où la dimension de chaque coupe est de 64 x 64 pixels.

8-) L’attribut Vox_Units : (Offset 56)

Valeur Hexadécimale Equivalent en Char


6d6d0000 mm

L’unité spatiale de mesure est le millimètre (mm).

9-) L’attribut Data_Type : (Offset 70)

Valeur Hexadécimale Equivalent Décimal


0004 4

Data_type vaut la valeur 4 ; par conséquent, le type de donnée utilisé pour représenter les
intensités des voxel est DT_SIGNED_SHORT (Voir Tableau 2)

10-) L’attribut BitPix : (Offset 72)

Valeur Hexadécimale Equivalent Décimal


0010 16

16 bits sont utilisés pour représenter les intensités des voxels.

11-) L’attribut PixDim1 : (Offset 80)

Valeur Hexadécimale Equivalent Float


40400000 3.00

118
CHAPITRE V Méthodologie et Conception

12-) L’attribut PixDim2 : (Offset 84)

Valeur Hexadécimale Equivalent Float


40400000 3.00

13-) L’attribut PixDim3 : (Offset 88)

Valeur Hexadécimale Equivalent Float


40400000 3.00

Les dimensions en millimètre d’un voxel sont : 3.00 x 3.00 x 3.00 mm.

14-) L’attribut Scale_Factor : (Offset 112)

Valeur Hexadécimale Equivalent Float


3e000000 0.125

15-) L’attribut Zero_Intercept : (Offset 116)

Valeur Hexadécimale Equivalent Float


00000000 0

L’intensité réelle d’un voxel IntensitéRéelle est donc donnée par la fonction linéaire suivante :

IntensitéRéelle = 0.125 * IntensitéBrute

III.2. Le Fichier IMG :

III.2.1. Description :

Un volume est représenté sous forme de matrice 3D. Chaque élément de la matrice représente
l’intensité d’un voxel (Figure V.5)

119
CHAPITRE V Méthodologie et Conception

Figure V.5 : Représentation d’un volume.

La matrice est de dimensions Xdim x Ydim x Zdim, regroupant ainsi l’ensemble des coupes
de chacune des trois vues possibles.
Le choix d’une vue parmi les trois dépend de l’axe choisi. La figure V.6 illustre la première et
dernière coupe de chacune des trois vues.

Figure V.6 : Première et dernière coupe de chaque vue dans le volume.

III.2.2. Lecture :
Le fichier IMG stocke la séquence de toutes les intensités du volume de manière linéaire,
organisé, ligne par ligne, coupe par coupe ; ce fichier peut être représenté sous forme d’un
vecteur ligne regroupant ainsi l’ensemble de toutes les intensités dans le volume.

120
CHAPITRE V Méthodologie et Conception

La lecture d’un fichier IMG consiste donc à faire le passage d’une représentation linéaire vers
une représentation tridimensionnelle. La Figure V.7 illustre ce processus.

Figure V.7 : Chargement d’un fichier IMG

Ainsi la construction du volume se fait par la superposition de l’ensemble de coupes selon


leur ordre. La dimension de chaque coupe est de Xdim x Ydim ; le nombre de coupe vaut
Zdim.

121
CHAPITRE V Méthodologie et Conception

Algorithme : Lecture d’un Fichier img


Entrée : BufferImg //Fichier Img à lire sous forme de buffer
Entrée : BufferHdr //Fichier Hdr sous forme de buffer
Sortie : Volume V

Header : Hdr ;
Entiers : i , j , k , x ;
Début
LectureHDR(BufferHdr, hdr) ; //Lecteur du bufferHdr dans la structure Header : hdr
Allocation_Volume(V ( hdr.Xdim , hdr.Ydim , hdr.Zdim) ) //Allocation dynamique du volume V
x=1
Si (hdr.bpv = 16 ) Alors
Si hdr.Politique= «Big-Endian » Alors
Pour (i=1 à hdr.Xdim)
Pour (j=1 à hdr.Ydim)
Pour (k=1 à hdr.Zdim)
V( i , j , k ) bufferimg(x)*255 + bufferimg(x+1)
x x+2
FinPr;
FinPr;
FinPr;

Sinon //Politique “Little-Endian”


Pour (i=1 à hdr.Xdim)
Pour (j=1 à hdr.Ydim)
Pour (k=1 à hdr.Zdim)
V( i , j , k ) bufferimg(x+1)*255 + bufferimg(x)
x x+2
FinPr;
FinPr;
FinPr;
Fsi ;
Sinon //bpv = 8
Pour (i=1 à hdr.Xdim)
Pour (j=1 à hdr.Ydim)
Pour (k=1 à hdr.Zdim)
V( i , j , k ) bufferimg(x)
x x+1
FinPr;
FinPr;
FinPr;
Fsi ;

FIN

122
CHAPITRE V Méthodologie et Conception

III.2.3. La visualisation :
Comme nous l’avons vu dans la section précédente, les données brutes du volume peuvent
être représentées sur 8 ou sur 16 bits. Dans le cas de volume 8 bits, la visualisation est en
niveau de gris ce qui permet une exploitation totale de la dynamique des intensités.
Cependant pour les intensités sur 16 bits une normalisation devient alors nécessaire ; dans un
premier lieu nous avons normalisé les intensités du volume de manière linéaire en une échelle
niveau de gris (de 0 à 255) de la manière suivante :

255
MIN

Où MAX et MIN représentent les intensités maximale et minimale du volume. Notons


cependant que cette normalisation réduit de manière conséquente la dynamique des intensités
dans le volume (de 16 à 8 bits). Afin de préserver la dynamique du volume, nous avons dans
un second lieu utilisé une échelle pseudo-couleur garantissant un meilleur contraste lors de la
visualisation. L’échelle que nous utilisons est définie de la manière suivante :
• L’intensité minimale (0) est représentée par la couleur NOIR.
• L’intensité Maximale (MAX) est représentée par la couleur ROUGE.
• Entre ces deux valeurs nous représentons les intensités Max/4, Max/2 et 3Max/4 par
les couleurs Bleu (0,0,255) ,Aqua (0,255,255), Jaune (255,255,0) et Rouge (255,0,0)
respectivement.

Figure V.8 : Fonction de correspondance entre intensité et pseudocouleurs

123
CHAPITRE V Méthodologie et Conception

La figure V.9 illustre une coupe axiale d’IRM 16 bits normalisée en niveau de gris (a) et
pseudocouleurs (b)

Figure V.9 : Coupe axiale d’IRM niveau de gris (a) et pseudocouleurs (b)

IV. Test et Validation :


IV.1. Validation visuelle :
Les figures V.10 illustre les résultats de la segmentation de volume TEP en tissus et en lobes
cérébraux selon notre approche.
Une fois la segmentation réalisée, la quantification des tissus cérébraux devient alors possible.
La figure V.11 illustre les résultats de la quantification après segmentation. Pour chaque tissu
les informations suivantes sont calculées :
• Le nombre de Voxels.
• Le taux (%) par rapport au cerveau.
• Le volume en mm3 : le volume est calculé à partir des dimensions des voxels
spécifiées dans le fichier hdr.

124
CHAPITRE V Méthodologie et Conception

Figure V.10 : Résultat de la segmentation en tissus (a) et en lobes (b)


(Métrique : IM – Nombre itérations : 500)

IV.1.1. Fusion :
La fusion [14] consiste à calculer l’image Fusion contenant l’information des deux volumes
recalée : (TEP et Atlas) et ce par opérations arithmétiques ou logiques sur les intensités. Dans
ce projet nous avons établi 3 modes de fusions :

• Fusion par moyenne pondérée : L’image Fusion est calculée en moyennant les
intensités des deux volumes TEP et Atlas. Le poids α permet d’introduire un dosage
afin de privilégier un des deux volumes par rapport à l’autre lors de la visualisation.

· 1 · 0" "1

125
CHAPITRE V Méthodologie et Conception

Figure V.11 : Quantification des tissus cérébraux

• Fusion sur canaux RGB distincts : Le volume Fusion est construit en remplaçant
chacun des deux volumes à fusionner sur un canal RGB distinct ; nous avons
représenté le volume TEP sur le canal bleu et le volume Atlas sur le canal rouge.

#$% , 0,

• Fusion Intensité / Contour : Ce mode de fusion est identique au précédent à


l’exception que les intensités de l’atlas sont remplacée par les contours :
#$% ' , 0,

Les résultats des trois modes de fusions avant et après recalage sont présentés dans la figure
V.12

126
CHAPITRE V Méthodologie et Conception

Figure V.12 : Fusion TEP / Atlas Avant et Après Recalage

IV.1.2 Triangulation : [26]


Cette technique consiste à partager un curseur 3D désignant les mêmes coordonnées dans les
images recalées, ce qui permet ainsi la localisation anatomiques de la zone sélectionnée dans
l’image TEP et ce grâce l’étiquetage faisant correspondre les ontologies anatomiques du
cerveau aux intensités de l’atlas segmenté. Le résultat de triangulation est représenté dans la
figure V.13.

Figure V.14 : Localisation de l’hippocampe par triangulation.

127
CHAPITRE V Méthodologie et Conception

IV.1.3. Extraction du Cerveau : (Brain Extraction)


L’extraction du cerveau consiste à retirer le cerveau de la boite crânienne dans le volume TEP
de manière à ne garder uniquement les tissus cérébraux.
Le recalage TEP/Atlas étant établie, l’extraction automatique du cerveau de la boite crânienne
devient alors une tache aisée ; en effet, l’atlas recalé représente un masque qui sera appliqué
sur le volume TEP. La figure V.15 illustre un volume TEP avant (a) et après extraction du
cerveau. Le procédé d’extraction est décrit dans l’algorithme suivant :

Algorithme : Extraction du Cerveau


Entrée : Volume : TEP // Volume TEP
Entrée : Volume : Atlas // Atlas après recalage
Sortie : Volume : Brain // Cerveau extrait du volume TEP

Début
Pour (i=1 à Xdim)
Pour (j=1 à Ydim)
Pour (k=1 à Zdim)
Si Atlas( i , j , k ) ≠ 0 Alors
Brain ( i , j , k ) Volume ( i , j , k )
Sinon
Brain ( i , j , k ) 0
FinSi
FinPr;
FinPr;
FinPr;

FIN

Figure V.15 : Extraction du cerveau

128
CHAPITRE V Méthodologie et Conception

IV.1.4. Extraction de région d’intérêt :


Une région d'intérêt, souvent abrégé RdI ou RoI (Region of Interest), est un sous-ensemble de
donnée sélectionné au sein d'un ensemble de données identifiées pour un but particulier. La
notion de RdI est couramment utilisée en imagerie médicale ; en effet une RdI peut par
exemple être une tumeur identifiée dans le but de mesurer sa taille, de calculer sa position ou
d’étudier son évolution.
Dans le cas d’image TEP, Les cellules cancéreuses présentent des modifications de leur
métabolisme et de leur fonctionnement qui se manifeste par une consommation plus
importante du traceur radioactif, de ce fait les principales RdI recherchées par les experts pour
l’établissement d’un diagnostique représentent les zones d’hyperfixation, c'est-à-dire les zone
de forte concentration du marqueur radioactif.
Nous avons intégré à notre outil un algorithme semi automatique pour la détection et la
localisation des zones d’hyperfixation. L’algorithme que nous avons implémenté est un
algorithme de remplissage par diffusion 6-adjacents de type récursif, l’algorithme prend en
entrée la position du voxel de départ appelé germe ainsi qu’un entier représentant le seuil de
tolérance et renvoi l’ensemble des points appartenant à la RdI. Les entrées de l’algorithme
sont déterminées par l’utilisateur :

Algorithme : Extraction d’une RdI


Entrée : Voxel : Germe // Voxel de départ spécifié par l’utilisateur
Entrée : Entier : Tolerance // Seuil d’acceptation spécifié par l’utilsateur
Entrée : Volume : V // Volume en entrée
Sortie : Ensemble de voxel :RdI // Région d’intérêt

Début
Remplissage(Germe)
FIN
-----------------------------------------------------------------------------------------------------------
Procédure : Remplissage ( Voxel : p)

Début
Si |V (p) – V(Germe)| ≤ Tolerance Alors
RdI RdI ( p
Pour chaque voisins 6-adjacent p’ de p Faire
Remplissage(p’)
FinPr ;
Fsi ;

FIN

129
CHAPITRE V Méthodologie et Conception

Dans la figure V.16 une hyperfixation est superposée à l’atlas recalée cette combinaison
permet non seulement de localiser la RdI dans l’atlas mais aussi de déterminer de manière
automatique le taux de participation de chaque structure anatomique dans la RdI.

Figure V.16 : Extraction d’une RdI et superposition sur l’atlas recalé

La figure V.17 illustre une capture de notre application après extraction d’une RdI , celle-ci
est localisée au niveau de 5 structures, le taux de participation de chacune d’entre elles est
calculé de manière automatique en terme de pourcentage (%) et de volume (mm3)

Figure V.17 : Localisation d’une RdI

130
CHAPITRE V Méthodologie et Conception

IV.2. Validation Quantitative :


Beaucoup de méthodes de segmentation ont été développées, mais il y a encore peu de
mesures de performance satisfaisante. Concevoir une bonne mesure pour la qualité de
segmentation est un problème dur, ceci est du au fait que l’évaluation d’une segmentation est
de nature subjective et peut différer d’un expert à un autre.
Une vérité terrain experte est un résultat de segmentation d'une image naturelle tracé
manuellement par un expert. Ce type de vérité terrain est souvent utilisé pour l’évaluation de
la qualité d’une segmentation.
Dans cette section nous comparons les résultats de segmentation obtenus par les métriques
suivantes :
• La mesure L2 (Moindres carrés).
• Le Coefficient de Corrélation CC.
• L’Information Mutuelle.

La méthode que nous avons adoptée pour évaluer de manière quantitative les résultats de la
segmentation consiste à compter le nombre de voxels corrects et faux dans le volume résultat
par rapport à la vérité terrain, nous pouvons ainsi calculer par la suite le pourcentage Tc de
voxels bien détectés.
Etant donné que nous ne disposions malheureusement pas de vérité terrain experte en image
TEP à cause de leur complexité, nous avons établi ces tests sur un volume IRM qui a été
soigneusement segmentée en tissus par un expert. Ces données ont été téléchargées au niveau
du site de OASIS4
La figure V.18 illustre le volume IRM en entrée (a), sa segmentation manuelle (b) ainsi que
les résultats de la segmentation selon les trois mesures de similarités. L’indice Tc
correspondant à chacune des trois méthodes est représenté dans la figure V.19.

Figure V.18 : Résultats de la segmentation selon les trois métrique L2, CC et l’IM.

4
OASIS : Open Access Series of Imaging Studies – Projet visant à rendre des données d'IRM du cerveau à la
libre disposition de la communauté scientifique. http://www.oasis-brains.org/
131
CHAPITRE V Méthodologie et Conception

86

84

82

80

78

76

74

72

70

68

66
L2 (72.5%) CC (75,3%) IM (84,2%)

Figure V.19 : Evaluation de l’indice Tc selon les trois métriques

V. Discussion :
Dans ce chapitre nous avons présenté notre approche de segmentation basée atlas qui consiste
à déterminer les transformations rigide et élastique qui conduisent au meilleur alignement
TEP / Atlas.
Nous avons dans un premier lieu présenté les résultats sous forme de fusion et de
triangulation. La fusion des volumes TEP / Atlas a permis d’une part d’évaluer de manière
visuelle les résultats du recalage qui se révèlent très concluant. D’une autre part la fusion offre
la possibilité d’intégrer les informations anatomiques dans le volume TEP facilitant ainsi de
manière conséquente l’établissement de diagnostic pour l’expert. La triangulation quant à elle
sert à se localiser dans le volume TEP dans un sens anatomique.
Puis, dans un second lieu nous avons évalué de manière quantitative les résultats de la
segmentation selon chacune des métriques suivantes : le critère des moindre carrés, le
coefficient de corrélation et enfin l’information mutuelle. La qualité du recalage et donc de la
segmentation a été fortement liée à la métrique choisi. Les résultats de notre expérience ont
montré l’efficacité de l’information mutuelle par rapport au coefficient de corrélation et à la
mesure L2.

132
Conclusion :

Dans ce projet, nous avons présenté une approche de segmentation d’image TEP cérébrales en
intégrant les connaissances à priori sur l’anatomie du cerveau.

L’intérêt principal de notre approche réside dans la donnée d’une connaissance à priori
résumée sous forme picturale, c’est-à-dire une image, que l’on qualifie de modèle ou d’atlas
représentant de manière implicite la connaissance anatomique.

L’incorporation de connaissances a priori est employée d’une part afin d’améliorer la


robustesse face au bruit et aux bords faiblement contrastés et permet d’autre part d’orienter la
recherche de la solution en la contraignant à rester « proche » d’une classe donnée de formes
qui est l’atlas. De plus cette connaissance est mise à profit pour la détection des structures
difficilement visualisable, par exemple en raison d’un contraste faible avec les structures
environnantes, phénomène très courant en imagerie TEP.
Les résultats obtenus sont très prometteurs, ceci en majeure partie grâce à la robustesse de
l’information mutuelle face à la diversité d’intensités entre volumes à recaler (TEP-ATLAS).

L’outil que nous proposons permet entre autres de :

• Quantifier les tissus cérébraux, information qui facilite l’étude de nombreuses


pathologies neurodégénératives telles que la maladie d’Alzheimer.
• Localiser par triangulation les structures anatomiques sur l’image TEP.
• Fusionner les informations fournis par l’atlas et le volume TEP en entrée.
• Etudier les zones d’hyperfixation.

Notre approche reste cependant inapplicable en temps réel étant donnée la complexité de
calcul de l’information mutuelle ainsi que de son gradient. En perspective, nous prévoyons
l’intégration au niveau d’ELASTIX d’autres algorithmes d’optimisation contournant le calcul
du gradient (Simplexe, Recuit Simulé).
Bibliographie
1 Anne Strauss-De la radiologie conventionnelle au pixel-Université Pierre et
Marie Curie,-1994

2 Antoine Manzanera-L'image numérique-ENSTA ParisTech Support de Cours


Master -2008

3 Antoine Manzanera-Filtrage et restauration-ENSTA ParisTech Support de


Cours Master -2008

4 Barbara Zitovà, Jan Flusser-Image registration methods: a survey-Image


and Vision Computing 21-2003

5 Bruno Boyer-Tomodensitométrie : principes, formation de l’image-


Encyclopédie Médico-Chirurgicale 35-170-A-10-

6 Bryan S.Morse-Segmentation Region Based-Brigham Young Univesity-2000

7 C. Fookes, A. Maeder-Comparison of Popular Non-Rigid Image Registration


Techniques and a New Hybrid Mutual Information-Based Fluid Algorithm-
Workshop on Digital Image Computing-2003
8 CANCER INFO-[En Ligne] Consulté le 01/01/2011 -Disponible sur :
http://www.e-cancer.fr/les-cancers-

9 Charles Laymon-PET Image Quantification and Reconstruction-Multi-modal


Neuroimaging Training Program-2007

10 Daniel Ruijters, Philippe Thevenaz-GPU Prefilter for Accurate Cubic B-


spline Interpolation-Ecole polytechnique fédérale de Lausanne, Switzerland-
2010

11 Dennis P. Curtin-An Extension to The Textbook of Digital Photography-


Pixels and Images-2007

12 Dzung L.Pham, Chenyang Xu, Jerry L.Prince-A survey of current methods in


medical image segmentation-Annual Review of Biomedical Engineering-1998
13 Elizabeth Adams, Karen Flynn-Positron Emission Tomography-Management
Decision And Research Center-1998

14 Emmanuel DUMAS-Elaboration d'Outils de Segmentation et de Recalage


d'Images Multimodales Application à l'étude des Accidents Vasculaires
Cérébraux à partir d'Angiographie IRM chez le Primate non humain-
UNIVERSITE DE CAEN / BASSE-NORMANDIE U.F.R. SCIENCES ECOLE
DOCTORALE SIMEM-2000

15 Guy Almouzni-Traitement numérique des images-EISTI-2010

16 H. A. Kirişli, M. Schaap, S. Klein, T. van Walsum-Evaluation of a multi-atlas


based method for segmentation of cardiac CTA data: a large-scale,
multicenter, and multivendor study-The International Journal of Medical
Physics Research and Practice Vol 37 Issues 12-2010

17 Jacques Chiras-Angiographie cérébrale normale-Encyclopédie Médico-


Chirurgicale 17-032-D-10-

18 Jean Pergrale-Echographie Médicale: principes et applications-Philips


Medical Systems Research Paris-2005

19 Jean-François Rivest, Pierre Soille, Serge Beucher-Morphological gradients-


J. Electronic Imaging 2(4)-1993

20 Jean-Jacques ROUSSELLE-les contours actifs une méthode de segmentation-


Université François Rabelais de Tours-2003

21 Jean-Jacques Samueli-La découverte des rayons X par Röntgen--1995


22 Jean-Loïc ROSE-Croissance de région variationnelle et contraintes
géométriques tridimensionnelles pour la segmentation d’image-L’Institut
National des Sciences Appliquées de Lyon-2008
23 Jérémy Lecoeur, Christian Barillot-Segmentation d’images cérébrales : État
de l’art-Rapport de recherche INRIA -2007

24 Laurent Najman, Michel Couprie-Watershed algorithms and contrast


preservation-Laboratoire A2SI, Groupe ESIEE-2003

25 Lei He, Zhigang Peng, Bryan Everding, Xun Wang,Chia Y.Han , Kenneth
L.Weiss, William G.Wee-A comparative study of deformable contour methods
on medical image segmentation-Image and Vision Computing 26 141–163
ScienceDirect-2008

26 Mamy RAKOTO-RAVALONTSALAMA-METHODES DE SEGMENTATION


AUTOMATIQUE D’IMAGE-Analyse quantitative des formes (SATFORM )-
2000
27 Metz CT, Klein S, Schaap M, van Walsum T, Niessen WJ.-Nonrigid
registration of dynamic medical imaging data using nD + t B-splines and a
groupwise optimization approach-Medical Image Analysis Vol 15 Issue 2-
2011

28 Michael Kass, Andrew Witkin, Demetri Terzopoulos-Snakes : Active Contour


Models-International Journal of Computer Vision 321-331-1988

29 Michael Unser-Splines : A perfect Fit for Signal and Image Processing-IEEE


Signal Processing Magazine 1053-5888-1999

30 Michael Unser, Akram Aldroubi, Murray Eden-Bspline Signal Processing :


Part II - Efficient Design-IEEE Transactions on signal processing Vol 41 N°
2-1993
31 MIPAV User's Guide-Understanding Image Basics-Volume 1 : Basics-2008

32 Monssif MENDOUBI-LA SCINTIGRAPHIE MYOCARDIQUE :


TECHNIQUE ET INDICATIONS-UNIVERSITE HASSAN II-2006

33 Moo K. Chung-The Gaussian Kernel-Medical Image Analysis-2007


34 N. Betrouni, T. Lacornerie, M. Vermandel-Recalage d’images pour la
délinéation : principes, validation et pratique en routine-Cancer /
Radiothérapie Volume 13, numéro 6-7 pages 588-593-2009

35 Neil Scott-Edge Detection using Mathematical Morphology-UNIVERSITY


OF WINDSOR-2007

36 Olivier Coulon-Filtrage et introduction aux équations de diffusion - Support


de Cours-Laboratoire des Sciences de l’Information et des Systèmes-2005

37 Olivier FRANÇAIS-Théorie de l’échantillonnage et de la quantification--


2000

38 P. BONNET-Support de Cours Traitement d'image-Université Lille 1 Science


et Technologie-2005

39 Peeyush Bhargava M.D-PET & PET - CT Imaging-St. Luke’s Roosevelt


Hospital Center-2003

40 Peter T. Fox, Joel S. Perlmutter, Marcus E. Raichle-A Stereotactic Method


of Anatomical Localization for Positron Emission Tomography-Journal of
Computer Assisted Tomography 9(1):141-153-1985

41 Philippe Thévenaz, Thierry Blu,Michael Unser-Interpolation Revisited-IEEE


TRANSACTIONS ON MEDICAL IMAGING, VOL. 19, NO. 7-2000

42 Pietro Perona, Jitendra Malik -Scale-Space and Edge Detection Using


Anisotropic diffusion-IEEE on Pattern Analysis and Machine Intelligence Vol
12 N° 7 -1990
43 R. Unnikrishnan, C. Pantofaru, M. Hebert-A Measure for Objective
Evaluation of Image Segmentation Algorithms-The Robotics Institute
Carnegie Mellon University Pittsburgh-2005
44 R. Unnikrishnan, C. Pantofaru, M. Hebert-Toward Objective Evaluation of
Image Segmentation Algorithms-IEEE TRANSACTIONS ON PATTERN
ANALYSIS AND MACHINE INTELLIGENCE, VOL. 29, NO. 6-2007

45 Raman Maini, Himanshu Aggarwal-Study and Comparison of Various Image


Edge Detection Techniques-International Journal of Image Processing
(IJIP), Volume (3) : Issue (1)-2009
46 Romain FERNANDEZ-Construction d'un modèle anatomique du système
cardio-vasculaire par segmentation d'IRM-INRIA Sophia-Antipolis-2003

47 S. Cherik, H. Mouhadjer, A. Belghoraf-Fusion d’Image Médicale Multimodal


(IRM, TEP)-4th International Conference on Computer Integrated
Manufacturing-2007
48 Simon K.Warfield, Kelly H.Zou, William M.Wells-Validation of image
segmentation by estimating rater bias and variance-Springer Berlin /
Heidelberg-2006
49 Slime Samir-Environnement de segmentation d’image à base d’une approche
biomimétique-Institut National de formation en Informatique (I.N.I) Alger-
2008
50 Stefan Klein-Optimisation Methods for Medical Image Registration-PhD
thesis, Utrecht University, the Netherlands-2008

51 Stefan Klein, Marius Staring, Josien P.W.Pluim-Evaluation of Optimization


Methods for Nonrigid Medical Image Registration Using Mutual Information
and B-Splines-IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 16,
NO. 12-2007

52 Stefan Klein, Marius Staring, Keelin Murphy, Max A. Viergever, Josien


P.W.Pluim-elastix: a toolbox for inte+C32nsity-based medical image
registration-IEEE TRANSACTIONS ON MEDICAL IMAGING 29 (1)-2010

53 Stéphane PIGNOL-Initiation au traitement d'images--2007


54 Václav Hlavác-IMAGE SEGMENTATION-Center for Machine Perception
Prague-2008

55 Xavier Philippeau-Les filtres usuels en traitement d'images--2007


56 Y.H. Dai and Y. Yuan-An efficient hybrid conjugate gradient method for
unconstrained optimization-Annals of Operation Research Vol 103 N° 1-4 33-
47-2001
57 Yujun Guo-Medical Image Registration and Application to Atlas-Based
Segmentation-Université de Kent OHIO-2006
Résume

En imagerie médicale, la tomographie par émission de positons (TEP) s’impose comme un outil majeur en
oncologie pour le diagnostic, le suivi et l’évaluation thérapeutique. Contrairement aux modalités habituelles
(IRM ou Scanner), la TEP fournit des informations sur la fonction cellulaire du corps plutôt que sur son
anatomie ; ce qui permet ainsi de diagnostiquer des lésions à un stade très avancé, voire avant même
qu’elles n’aient de manifestation morphologique. Cependant, du fait de la nature fonctionnelle des images
TEP, la localisation des structures anatomiques dans une telle image reste une tâche très difficile ; en effet,
les images TEP ne fournissent qu’une très faible information anatomique. La segmentation d’images TEP
requiert donc l’intervention d’un expert médical qui pourra s’affranchir de ces artefacts grâce à ses
connaissances à priori du corps à étudier ; dans ce cas l’expert procède à une segmentation manuelle d’un
volume coupe par coupe ce qui s’avère être très fastidieux et couteux en matière de temps. Nous présentons
dans ce mémoire, une approche de segmentation d’image TEP cérébrales combinant à la fois, l’information
fournie par le volume TEP à segmenter et des connaissances apriori sur le volume fournis sous forme d’Atlas
Anatomique. Le principe de notre approche consiste à appliquer un recalage entre le volume TEP en entrée
et l’atlas anatomique, déterminant ainsi, la transformation géométrique conduisant au meilleur alignement
TEP/Atlas.

Mots clés :
Segmentation; Recalage d’images; Atlas; Optimisation; Information Mutuelle; TEP; Imagerie
Médicale; Médecine Nucléaire; Métric; Imagerie Fonctionnelle.

Vous aimerez peut-être aussi