II.
Introduction
II.1
Pour cette famille de mthodes, la segmentation dune image est vue comme une subdivision
de cette dernire en diffrentes classes de telle manire que : les lments dune mme classe
soient les plus similaires possibles (minimisation de la variance intra-classe), et les lments
de deux classes distinctes soient les plus diffrents possibles (maximisation de la variance
inter-classe).
On peut grouper les mthodes classificatoires en deux grandes familles, cette fois-ci, on
prend en considration lintervention ou non dun attribut classe au fur et mesure du
processus de la classification, ces deux types sont : supervise et non supervise .
II.1.1
Mthodes supervises :
Ce sont des mthodes dans lesquelles les classes sont connues a priori avant d'effectuer
l'opration d'identification des lments de l'image. Elles demandent une phase
d'apprentissage sur l'chantillon reprsentatif dans le but d'apprendre les caractristiques de
chaque classe et une autre phase pour dcider l'appartenance d'un pixel telle ou telle classe.
Parmi ces mthodes on peut citer : la segmentation Baysienne, la segmentation par les
champs de Markov [6], rseaux de neurones [7] etc.
Pour notre cas, puisquil sagit de segmenter des images mdicales IRM crbrales, la
classification supervise de ces images ncessite donc la cration dune base dapprentissage
pour chaque classe et pour chaque patient ce qui est en elle-mme une tache trs fastidieuse
pour lexpert [3]. Cest pour cette raison quon sintresse aux mthodes non supervises
II.1.2
Lintrt des mthodes non supervises est quelles ne ncessitent aucune base
dapprentissage et par l mme aucune tche pralable dtiquetage manuel. La seule
intervention de lexpert se situe la fin du processus pour identifier les images en comparant
les classes calcules avec les classes de la vrit terrain.
Les algorithmes non superviss les plus rpandus tendent dcouper l'espace des pixels en
zones homognes selon un critre de ressemblance et
dpondant de la distance de chaque pixel aux prototypes (ou noyaux) des classes. Selon la
certitude de la classification que nous voulons obtenir, et la relation entre les classes, nous
pourrons distinguer plusieurs mthodes de classification, dans notre travail nous prsentons
les mthodes : K-Means qui a t gnralise pour obtenir la mthode C-Moyennes Flous
(FCM) do dcoule la mthode FCM_S illustres ci-dessous.
II.2
J ( x , v )= x iv k
i=1 k=1
.: est la norme Euclidienne qui mesure la similarit entre un pixel est un autre.
Cest lun des algorithmes les plus connu et le plus utilis en classification non supervise
du fait de sa simplicit de mise en uvre. Il vise produire un partitionnement des pixels de
manire ce que les pixels dune mme classe soient semblables et les pixels issus de deux
classes diffrentes soient dissemblables. Chaque classe de la partition est dfinie par ses objets
et son centrode.
Le k-means est un algorithme itratif qui minimise la somme des distances entre chaque objet
et le centrode de son cluster (classe). La position initiale des centrodes conditionne le
rsultat final, de sorte que les centrodes doivent tre initialement placs le plus loin possible
les uns des autres de faon optimiser lalgorithme. K-means change les objets de cluster
jusqu' ce que la somme ne puisse plus diminuer. Le rsultat est un ensemble de clusters
compacts et clairement spars, sous rserve qu'on ait choisi la bonne valeur K du nombre de
clusters.
II.2.1.
Lalgorithme de K_means :
Etape 1: choisir une partition quelconque P P(k), tel que P(k) lensemble de toutes les k
partitions dfinies sur X.
Etape 2 : obtenir alatoirement les centres de classes initiaux
Etape 3 : Assigner
xi
i=1 .n
x iv k xi v p; p=1, , c
vk
; k =1, ,c
la classe k ; k =1 c si :
Avec : i p
vk =
1
x
ni i=1 i
II.2.2
Afin de remdier ces inconvnients, Dunn propose une meilleure dtection de classes
compactes et bien spares en largissant le domaine de la recherche lensemble des
k_partitions floues de X [1]. La gnralisation consiste minimiser le critre
dessous dans lequel le carr de la distance dun lment
par le carr du degr dappartenance de
au centroide
vi
J2
[2] ci-
est pondr
x la classe i :
Ou ui (i) dnote ici la partition floue, dfinie par les diffrentes fonctions dappartenance
ui
Des parties
II.3.
Xi
quil a appele c-moyennes floues. Le nombre de groupes est dsormais dsign par c (et non
plus K). Lalgorithme des c-moyenne floues effectue une optimisation itrative en valuant de
faon approximative les minimums dune fonction derreur. Il existe toute une famille de
fonction derreur associes cet algorithme qui se distinguent par des valeurs diffrentes
prises par un paramtr rglable m, appel indice de flou (fuzzy index) et qui dtermine le
degr de flou de la partition obtenue. Les FCM sont un cas particulier dalgorithmes bass sur
la minimisation dun critre ou dune fonction objectif.
N
J m (u ( . ) , v )= uij (x)mx jv i
j=1 i=1
Avec :
U ij =1 , U ij [ 0 1 ] , 1 j N ,1 i c
i=1
donne, calculs
x jv i m 1
U ij = (
)
k=1 x j v k
U
n
( ij)m
j=1
n
(U )m x j
j=1
ij
V i=
II.3.1
Dans ce qui suit nous prsentons les tapes de lalgorithme FCM pour lexcution :
Calculer
Etape 5 : rpter les tapes 3 4 jusqu satisfaction du critre darrt qui scrit :
|Jm (u ( . ) , v )J m (u ( . ) , v )|<
II.3.1
II.4 Les