Vous êtes sur la page 1sur 6

CHAPITRE II : SEGMENTATION PAR CLASSIFICATION

II.

Introduction

II.1

Segmentation par classification :

Pour cette famille de mthodes, la segmentation dune image est vue comme une subdivision
de cette dernire en diffrentes classes de telle manire que : les lments dune mme classe
soient les plus similaires possibles (minimisation de la variance intra-classe), et les lments
de deux classes distinctes soient les plus diffrents possibles (maximisation de la variance
inter-classe).
On peut grouper les mthodes classificatoires en deux grandes familles, cette fois-ci, on
prend en considration lintervention ou non dun attribut classe au fur et mesure du
processus de la classification, ces deux types sont : supervise et non supervise .
II.1.1

Mthodes supervises :

Ce sont des mthodes dans lesquelles les classes sont connues a priori avant d'effectuer
l'opration d'identification des lments de l'image. Elles demandent une phase
d'apprentissage sur l'chantillon reprsentatif dans le but d'apprendre les caractristiques de
chaque classe et une autre phase pour dcider l'appartenance d'un pixel telle ou telle classe.
Parmi ces mthodes on peut citer : la segmentation Baysienne, la segmentation par les
champs de Markov [6], rseaux de neurones [7] etc.
Pour notre cas, puisquil sagit de segmenter des images mdicales IRM crbrales, la
classification supervise de ces images ncessite donc la cration dune base dapprentissage
pour chaque classe et pour chaque patient ce qui est en elle-mme une tache trs fastidieuse
pour lexpert [3]. Cest pour cette raison quon sintresse aux mthodes non supervises
II.1.2

Mthodes non supervises :

Lintrt des mthodes non supervises est quelles ne ncessitent aucune base
dapprentissage et par l mme aucune tche pralable dtiquetage manuel. La seule
intervention de lexpert se situe la fin du processus pour identifier les images en comparant
les classes calcules avec les classes de la vrit terrain.

CHAPITRE II : SEGMENTATION PAR CLASSIFICATION

Les algorithmes non superviss les plus rpandus tendent dcouper l'espace des pixels en
zones homognes selon un critre de ressemblance et

minimiser une fonction cout,

dpondant de la distance de chaque pixel aux prototypes (ou noyaux) des classes. Selon la
certitude de la classification que nous voulons obtenir, et la relation entre les classes, nous
pourrons distinguer plusieurs mthodes de classification, dans notre travail nous prsentons
les mthodes : K-Means qui a t gnralise pour obtenir la mthode C-Moyennes Flous
(FCM) do dcoule la mthode FCM_S illustres ci-dessous.
II.2

Les k_moyennes ou K_means :

Le principe des K-means est de minimiser la fonction objective :


n

J ( x , v )= x iv k
i=1 k=1

n est le nombre de donnes.


vk
est le centre de classe i

.: est la norme Euclidienne qui mesure la similarit entre un pixel est un autre.

est le nombre de classe

Cest lun des algorithmes les plus connu et le plus utilis en classification non supervise
du fait de sa simplicit de mise en uvre. Il vise produire un partitionnement des pixels de
manire ce que les pixels dune mme classe soient semblables et les pixels issus de deux
classes diffrentes soient dissemblables. Chaque classe de la partition est dfinie par ses objets
et son centrode.
Le k-means est un algorithme itratif qui minimise la somme des distances entre chaque objet
et le centrode de son cluster (classe). La position initiale des centrodes conditionne le
rsultat final, de sorte que les centrodes doivent tre initialement placs le plus loin possible
les uns des autres de faon optimiser lalgorithme. K-means change les objets de cluster
jusqu' ce que la somme ne puisse plus diminuer. Le rsultat est un ensemble de clusters
compacts et clairement spars, sous rserve qu'on ait choisi la bonne valeur K du nombre de
clusters.

CHAPITRE II : SEGMENTATION PAR CLASSIFICATION

II.2.1.

Lalgorithme de K_means :

Lalgorithme suivant rsume les tapes principales pour lexcution:

Etape 1: choisir une partition quelconque P P(k), tel que P(k) lensemble de toutes les k
partitions dfinies sur X.
Etape 2 : obtenir alatoirement les centres de classes initiaux
Etape 3 : Assigner

xi

i=1 .n

x iv k xi v p; p=1, , c

vk

; k =1, ,c

la classe k ; k =1 c si :

Avec : i p

Etape 3 : Mettre jour les centres des classes par la formule :


n

vk =

1
x
ni i=1 i

ni : est le nombre de pixels dans la classe

Etape 4 : Rpter de ltape 2 et 3 jusqu atteindre la convergence : v k =v k ; k =1, ,c

II.2.2

Contraintes lies la classification par K-means :

Cet algorithme plusieurs inconvnients :


La classification finale dpend du choix de la partition initiale et le choix alatoire des
centres initiaux.
Convergence vers un minimum local.
K-means est fortement sensible au bruit.

CHAPITRE II : SEGMENTATION PAR CLASSIFICATION

Afin de remdier ces inconvnients, Dunn propose une meilleure dtection de classes
compactes et bien spares en largissant le domaine de la recherche lensemble des
k_partitions floues de X [1]. La gnralisation consiste minimiser le critre
dessous dans lequel le carr de la distance dun lment
par le carr du degr dappartenance de

au centroide

vi

J2

[2] ci-

est pondr

x la classe i :

J 2 (u ( . ) , v)= ui ( x)2 d (x , v i)2


xX i=1

Ou ui (i) dnote ici la partition floue, dfinie par les diffrentes fonctions dappartenance
ui
Des parties

II.3.

Xi

Les c-moyennes floues ou Fuzzy C-Means (FCM) :


J2

Bezdek [3] a gnralis le critre

propos par Dunn toute une famille dalgorithmes

quil a appele c-moyennes floues. Le nombre de groupes est dsormais dsign par c (et non
plus K). Lalgorithme des c-moyenne floues effectue une optimisation itrative en valuant de
faon approximative les minimums dune fonction derreur. Il existe toute une famille de
fonction derreur associes cet algorithme qui se distinguent par des valeurs diffrentes
prises par un paramtr rglable m, appel indice de flou (fuzzy index) et qui dtermine le
degr de flou de la partition obtenue. Les FCM sont un cas particulier dalgorithmes bass sur
la minimisation dun critre ou dune fonction objectif.
N

J m (u ( . ) , v )= uij (x)mx jv i
j=1 i=1

Avec :

CHAPITRE II : SEGMENTATION PAR CLASSIFICATION

U ij =1 , U ij [ 0 1 ] , 1 j N ,1 i c
i=1

Les centres et les degrs dappartenance sont, pour une valeur de

donne, calculs

laide des deux formules suivantes :


2

x jv i m 1
U ij = (
)
k=1 x j v k

U
n

( ij)m
j=1
n

(U )m x j
j=1

ij

V i=

II.3.1

Lalgorithme des FCM :

Dans ce qui suit nous prsentons les tapes de lalgorithme FCM pour lexcution :

Etape 1 : fixer les paramtres C : nombre de classe ,

: seuil reprsentant lerreur de

convergence (par exemple =0.001 , m : degr de flou, gnralement m=2 .


Etape 2 : Initialiser la matrice de grs dappartenances U par des valeurs alatoires dans
lintervalle [0 1].
Etape 3 : mettre jour le prototype v

par la relation (24554).

Calculer J m (u ( . ) , v ) par la relation (2555).


Etape 4 : mettre jour la matrice degrs dappartenance par la relation (25552)

CHAPITRE II : SEGMENTATION PAR CLASSIFICATION

Calculer

Jm (u ( . ) , v ) par la relation (24554)

Etape 5 : rpter les tapes 3 4 jusqu satisfaction du critre darrt qui scrit :

|Jm (u ( . ) , v )J m (u ( . ) , v )|<

II.3.1
II.4 Les

Contraintes lies la classification

c-moyennes floues avec des contraintes spatiales FCM_S :

Vous aimerez peut-être aussi