Vous êtes sur la page 1sur 0

REPUBLIQUE TUNISIENNE

MINISTERE DE LENSEIGNEMENT SUPERIEUR, DE LA


RECHERCHE SCIENTIFIQUE ET DE LA TECHNOLOGIE

UNIVERSITE DE MONASTIR

FACULTE DES SCIENCES DE MONASTIR




MEMOIRE


Prsent pour lobtention du diplme de :

MASTERE


Spcialit :
INFORMATIQUE

Par :

Fradj Ben Lamine


Sujet :



Proposition dun modle daide au diagnostic des tumeurs
crbrales laide des rseaux baysiens





Soutenu le 30/04/ 2011, devant le jury compos :

Pr. Mohamed Nazih Omri Prsident
Dr. Nacra Issaoui Membre
Dr. Karim Kalti Membre (Encadreur)



Unit de recherche Prince (Ple de recherche en informatique du centre)

N dordre :
ii

Ddicace


Aux plus proches mon cur :
Mes parents,
Mes frres,
Ma sur,
Mes amis.






iii

Remerciements



Je tiens tout dabord exprimer ma profonde reconnaissance Monsieur Karim
KALTI, Matre assistant la facult des sciences de Monastir, pour avoir encadr ces
travaux de mastre. Ses qualits humaines, ses remarques pertinentes, ses conseils mont
t dun grand soutien et ont largement contribu la ralisation de ce mmoire.


Je remercie Madame Nacra ISSAOUI, Matre assistant la facult des sciences
de Monastir, pour avoir accept dtre rapporteur de mon mmoire de mastre, et pour les
conseils et les remarques constructives quils mont apports.


Jadresse galement mes remerciements Monsieur Mohamed Nazih OMRI,
Matre de confrences la facult des sciences de Monastir, qui ma fait lhonneur
daccepter de prsider mon jury de mastre.

Je voudrais galement exprimer mes remerciements Monsieur Mohamed Ali
Mahjoub, Matre assistant linstitut prparatoire aux tudes dingnieur de Monastir
pour ces remarques importantes durant mes exposs.

Une pense particulire est adresse aux membres de lquipe de recherche en
informatique la facult des sciences de Monastir.


Je voudrais adresser ma gratitude tous les enseignants de dpartement des
sciences informatiques la facult des sciences de Monastir o jai dvelopp mes
connaissances.


Jadresse ma gratitude toute ma famille pour leur encouragement moral qui ma
soutenue et rconforte. Je remercie en particulier mes parents, Ali et Dalila qui mont
encourag continuer mes tudes. Un grand merci mes frres Hamdi, Mezri et
Oumaima pour leur amour et le moment de joie que nous avons partag ensemble.


Finalement, je remercie tous mes amis pour leur encouragement qui ma donn
lopportunit de mener ces travaux bien.

iv

Rsum

Pendant la dernire dcennie, plusieurs systmes daide au diagnostic mdical utilisant les
rseaux baysiens ont t dvelopps. Dans ce travail, nous proposons une modlisation de
lexpertise du diagnostic des tumeurs crbrales laide des rseaux baysiens. Ces
derniers sont bien adapts la reprsentation de lincertitude qui caractrise le processus
de diagnostic de ces tumeurs. Dans notre travail, nous avons dabord test plusieurs
structures du rseau baysien dduites du raisonnement effectu par les mdecins. Cette
tape a pour but de trouver la meilleure structure qui augmente la prcision du diagnostic.
Ensuite, afin destimer les paramtres du rseau baysien partir dune base de donnes
incompltes, nous avons propos une extension de lalgorithme EM en lui ajoutant des
connaissances priori sous forme des contraintes estimes par la premire phase de
lalgorithme RBE. Les rsultats obtenus montrent que la majorit des paramtres du rseau
satisfait les contraintes imposes.
Mots-cls : Rseau baysien, Tumeurs crbrales, Diagnostic, Apprentissage des
paramtres, Apprentissage de structure, Infrence, Algorithme EM, algorithme RBE.

Abstract

During the last decade, several systems in medical diagnosis using Bayesian networks have
been developed. In this work, we propose a modeling of the expertise in the diagnosis of
brain tumors using Bayesian networks. Bayesian networks are well adapted to the
representation of the uncertainty that characterizes the process of diagnosing these tumors.
In our work, we first tested several network structures deduced from Bayesian reasoning
performed by the doctors. This step aims to find the best structure that increases the
diagnostic accuracy. Then, to estimate the parameters of Bayesian network from an
incomplete database, we have proposed an extension of the EM algorithm by adding a
priori knowledge in the form of constraints estimated by the first phase of the RBE
algorithm. The results obtained show that the majority of parameters in the network satisfy
the imposed constraints.
Keys-words: Bayesian network, Brain Tumors, Diagnosis, Parameters learning, Structure
learning, Inference, EM algorithm, RBE algorithm.

v

Table des matires


Introduction gnrale .......................................................................................................... 1

Chapitre1 : Les tumeurs crbrales ................................................................................... 3

1.1 Introduction ..................................................................................................................... 4
1.2 Les tumeurs crbrales .................................................................................................... 4
1.2.1 Dfinition .............................................................................................................. 4
1.2.2 Elments ncessaires pour le diagnostic des tumeurs crbrales .......................... 6
1.2.3 Modalits utilises pour le diagnostic des tumeurs crbrales ............................. 6
1.2.1.1 Le scanner ...................................................................................................... 7
1.2.1.2 Imagerie par rsonnance magntique ............................................................ 7
1.3 Diagnostic des principales tumeurs ................................................................................. 9
1.3.1 Tumeurs de lenfant .............................................................................................. 9
1.3.1.1 Astrocytome ................................................................................................... 9
1.3.1.2 Mdulloblastome ........................................................................................... 9
1.3.1.3 Ependymome ............................................................................................... 10
1.3.1.4 Gliome ......................................................................................................... 10
1.3.1.5 Autres tumeurs ............................................................................................. 10
1.3.2 Tumeurs de ladulte............................................................................................. 10
1.3.2.1 Tumeurs intra-axiales .................................................................................. 10
a. Lsions non spcifiques ........................................................................... 10
b. Lsions spcifiques .................................................................................. 11
1.3.2.2 Tumeurs extra-axiales .................................................................................. 12
a. Neurinomes de lacoustique ..................................................................... 12
b. Mningiomes ............................................................................................ 12
c. Tumeurs glomiques .................................................................................. 12
d. kystes dermode et pidermode ............................................................... 12
e. Kyste arachnodien ................................................................................... 13
1.4 Rcapitulation des principales caractristiques ncessaires au diagnostic des tumeurs
crbrales ............................................................................................................................ 13
vi

1.5 Conclusion ..................................................................................................................... 15

Chapitre 2 : Les rseaux baysiens .................................................................................. 16

2.1 Introduction ................................................................................................................... 17
2.2 Modle graphique et D-sparation ................................................................................ 17
2.2.1 Connexion en srie .............................................................................................. 18
2.2.2 Connexion divergente ......................................................................................... 18
2.2.3 Connexion convergente ....................................................................................... 18
2.2.4 D-sparation ........................................................................................................ 19
2.3 Notions fondamentales sur la thorie de probabilit ..................................................... 19
2.3.1 Notion de probabilit........................................................................................... 19
2.3.2 Probabilit conditionnelle ................................................................................... 20
2.3.3 Rgle de Bayes .................................................................................................... 20
2.4 Les rseaux baysiens .................................................................................................... 21
2.4.1 Dfinition ............................................................................................................ 21
2.4.2 Domaines dapplication des rseaux baysiens .................................................. 23
2.4.2.1 Dpannage informatique .............................................................................. 23
2.4.2.2 Diagnostic mdical ...................................................................................... 23
2.4.2.3 Vision par ordinateur ................................................................................... 24
2.4.2.4 Traitement de linformation ......................................................................... 24
2.4.3 Le rseau baysien naf ....................................................................................... 24
2.5 Infrence ........................................................................................................................ 25
2.6 Lapprentissage dans les rseaux baysiens .................................................................. 27
2.7 Apprentissage des paramtres dans les rseaux baysiens ............................................ 28
2.7.1 Table de probabilit conditionnelle ..................................................................... 28
2.7.2 Apprentissage partir des donnes compltes .................................................... 29
2.7.2.1 Approche statistique .................................................................................... 29
2.7.2.2 Approche baysienne ................................................................................... 30
2.7.3 Apprentissage partir des donnes incompltes ................................................ 32
2.7.3.1 Lalgorithme EM ......................................................................................... 33
2.7.3.2 Robust bayesian estimator(RBE) ................................................................ 34
2.7.3.3 Lchantillonnage de Gibbs ......................................................................... 36
2.7.3.4 Incorporation des contraintes sur les paramtres ......................................... 38
vii

2.7.3.5 Apprentissage des paramtres avec influence qualitative ........................... 40
2.8 Conclusion ..................................................................................................................... 41

Chapitre 3 : Proposition dune approche daide au diagnostic des tumeurs crbrales
............................................................................................................................................. 42

3.1 Introduction ................................................................................................................... 43
3.2 Motivations du choix des rseaux baysiens pour la modlisation de lexpertise du
diagnostic des tumeurs crbrales ....................................................................................... 43
3.3 Approche globale ........................................................................................................... 46
3.4 Modlisation de la structure du rseau baysien ........................................................... 47
3.4.1 Proposition des nouvelles structures par changement de lorientation des arcs . 52
3.4.1.1 Etude dinfluence des nuds eda et edt ........................................... 53
3.4.1.2 Etude dinfluence des nuds sg, lt et cl ..................................... 54
3.4.1.3 Etude dinfluence des nuds cl, sg et edt ................................... 55
3.4.2 Proposition des nouvelles structures par suppression des variables ................... 57
3.4.2.1 Etude dinfluence de la suppression des nuds ma et pi ................ 57
3.4.2.2 Etude dinfluence de la suppression des nuds ma , pi et edt .... 58
3.4.2.3 Etude dinfluence de la suppression des nuds ma , pi , edt et
eda .......................................................................................................................... 60
3.4.3 Modlisation laide dun rseau baysien naf ................................................. 61
3.4.3.1 Prsentation .................................................................................................. 61
3.4.3.2 Rseau baysien de classification ................................................................ 62
3.4.4 Bilan sur la modlisation de la structure du rseau baysien .............................. 63
3.5 Modlisation des paramtres du rseau baysien daide au diagnostic ......................... 64
3.5.1 Dmarche de notre approche ............................................................................... 65
3.5.2 Rsultats exprimentaux ..................................................................................... 68
3.6 Conclusion ..................................................................................................................... 71

Conclusion gnrale et perspectives ................................................................................. 73

Bibliographie ...................................................................................................................... 75
Webographie ...................................................................................................................... 81

viii

Liste des figures

Figure 1.1 : Anatomie du cerveau ............................................................................................................... 5
Figure 1.2 : Image obtenue par scanner crbral [3]................................................................................. 7
Figure 1.3 : Imagerie par Rsonance Magntique .................................................................................... 7
Figure 1.4 : Diffrentes coupes du cerveau ralises par lIRM .............................................................. 8
Figure 1.5 : Les diffrentes coupes avec injection des liquides ................................................................ 9
Figure 2.1 : Connexion en srie ................................................................................................................ 18
Figure 2.2 : Connexion divergente ........................................................................................................... 18
Figure 2.3 : Connexion convergente ......................................................................................................... 18
Figure 2.4 : Un exemple de rseau baysien ............................................................................................ 22
Figure 2.5 : Rseau baysien avec influence qualitative ........................................................................ 41
Figure 3.1 : Etapes ncessaires la modlisation de lapproche daide au diagnostic des tumeurs
crbrales ....................................................................................................................................................... 46
Figure 3.2 : Dmarche de la premire tape ............................................................................................ 47
Figure 3.3 : Structure du rseau baysien dduite partir du raisonnement effectu par les mdecins
.......................................................................................................................................................................... 48
Figure 3.4 : Log-Likelihood de la structure propose ............................................................................ 50
Figure 3.5 : Log-Likelihood de la structure initiale avec des connaissances a priori de Dirichlet ..... 51
Figure 3.6 : Proposition dune structure en changeant les nuds eda et edt .......................... 53
Figure 3.7 : Log-Likelihood de linfluence de nuds eda et edt ..................................................... 54
Figure 3.8 : Etude de linfluence des nuds sg , lt et cl .......................................................... 55
Figure 3.9 : Log-Likelihood de linfluence des nuds sg , lt et cl ......................................... 55
Figure 3.10 : Etude dinfluence des nuds cl , sg et edt ........................................................ 56
Figure 3.11 : Log-Likelihood de linfluence des nuds cl , sg et edt ..................................... 56
Figure 3.12 : Etude de linfluence de la suppression des nuds ma et pi .................................. 57
Figure 3.13 : Log-Likelihood aprs suppression des nuds ma et pi ........................................ 58
ix

Figure 3.14 : Etude de linfluence de suppression des nuds ma , pi et edt ......................... 59
Figure 3.15 : Log-Likelihood aprs suppression des nuds ma , pi et edt ........................... 59
Figure 3.16: Etude de linfluence de la suppression des nuds ma , pi , edt et eda ........ 60
Figure 3.17 : Log-Likelihood aprs suppression des nuds ma , pi , edt et eda ............. 61
Figure 3.18 : Rseau baysien de classification ....................................................................................... 62
Figure 3.19 : Log-Likelihood du rseau baysien de classification ....................................................... 62
Figure 3.20 : Rcapitulatif sur la prcision de linfrence pour les diffrentes structures proposes
.......................................................................................................................................................................... 64
Figure 3.21 : Principe d lalgorithme dapprentissagepropos ............................................................. 65
Figure 3.22 : Illustration dune itration pour lalgorithme EMS ........................................................ 68
Figure 3.23 : Variation de Log-Likelihood de EM et EMS .................................................................... 69
Figure 3.24 : Variation des probabilits aprs infrence en utilisant EM et EMS par rapport aux
tumeurs prvues ............................................................................................................................................ 70
Figure 3.25: Variation de la distribution des probabilits dans le nud dcision avec EM et EMS .. 71




x

Liste des algorithmes

Algorithme 2.1 : Algorithme darbre de jonction .................................................................................. 26
Algorithme 2.2 : Algorithme Maximum de Vraisemblance ................................................................. 30
Algorithme 2.3 : Algorithme Maximum A Posteriori .......................................................................... 31
Algorithme 2.4 : Algorithme Esprance Maximisation ........................................................................ 33
Algorithme 3.1 : Algorithme Esprance Maximisation Seuillage ........................................................ 67



xi

Liste des tableaux

Tableau 1.2 : Tumeurs crbrales tudies .............................................................................................. 13
Tableau 1.3 : Caractristiques ncessaires pour le diagnostic des tumeurs crbrales ..................... 14
Tableau 2.1 : Nombre de structures possibles en fonction de nombre de variables ............................ 28
Tableau 3.1 : Liste des tumeurs tudies ................................................................................................. 43
Tableau 3.2 : Les caractristiques de diagnostic de tumeurs crbrales et leurs valeurs possibles ... 44
Tableau 3.3 : Signification des nuds du rseau baysien .................................................................... 48
Tableau 3.4 : Indicateurs relatifs la premire structure dduite partir du raisonnement effectu
des mdecins ................................................................................................................................................... 50
Tableau 3.5 : Les valeurs des indicateurs obtenues aprs lajout de connaissances priori de
Dirichlet .......................................................................................................................................................... 51
Tableau 3.6 : Les descripteurs prioritaires pour lidentification de tumeurs crbrales .................... 52
Tableau 3.7 : Rsultat dinfluence des nuds eda et edt................................................................. 54
Tableau 3.8 : Rsultats dinfluence des nuds sg , lt et cl ..................................................... 55
Tableau 3.9 : Rsultats dinfluence des nuds sg , cl et edt ................................................... 57
Tableau 3.10 : Rsultats aprs suppression des nuds ma et pi ................................................ 58
Tableau 3.11 : Rsultats aprs suppression des nuds ma , pi et edt ................................... 60
Tableau 3.12 : Rsultats aprs suppression des nuds ma , pi , edt et eda ..................... 60
Tableau 3.13 : Rsultats du rseau baysien de classification ............................................................... 63



xii

Liste des abrviations
CPT Conditional Probabilities Tables

DAG Directed Acyclic Graph

EM Esprance Maximisation

EMS Esprance Maximisation Seuillage

FLAIR Fluid Attenuation Inversion Recovery

IC Inductive Causation

IRM Imagerie par Rsonnance Magntique

MAP Maximum Posteriori

MAR Missing At Random

MCAR Missing Completely At Random

MCMC Monte Carlo Markov Chain

MNAR Missing Not At Random

MV Maximum de Vraisemblance

NASA National Aeronautics and Space Administration

NP Non Polynomial

OMS Organisation Mondiale de la Sant

PC Prediction Causation

RBE Robust Bayesian Estimator

i
Une table de probabilits pour un nud X
i

i,j,k
La probabilit de la variable X
i
est dans ltat x
k
et ses
parents sont dans la configuration x
j

i,j,k


le nombre dvnements dans la base de donnes pour
lesquels la variable X
i
est dans ltat x
k
et ses parents sont
dans la configuration x
j



1


Introduction gnrale


Ltude des tumeurs crbrales possde une grande importance dans cette dernire
dcennie. Ce domaine mdical prend son importance de la gravit des consquences de ces
tumeurs. Ces dernires mettent la vie en un norme danger. Le nombre de varits de ces
tumeurs rend leur diagnostic assez difficile. Plusieurs caractristiques entrent en jeu pour
dcider le type exact de la tumeur. Certaines de ces caractristiques sont extraites partir
des images par rsonance magntique. Dautres caractristiques sont extraites des donnes
cliniques du patient. Pour prendre la bonne dcision, le processus de diagnostic des
tumeurs crbrales ncessite lintervention des plusieurs avis des mdecins.
Pour acclrer le processus de prise de dcision et amliorer la prcision du diagnostic,
nous avons fait appel aux outils informatiques et notamment les outils dintelligence
artificiels. Parmi ces outils, on cite les modles graphiques.
Les rseaux baysiens font partie de cette famille avec lutilisation des probabilits pour
exprimer lincertitude. Les rseaux baysiens sont les outils les plus appropris pour traiter
le problme du diagnostic des tumeurs crbrales. Ils permettent le rassemblement des
diffrentes caractristiques ncessaires pour le diagnostic des tumeurs crbrales dans un
mme modle et lexpression de lincertitude des mdecins.
De ce fait, notre problmatique consiste la proposition dune modlisation de lexpertise
du mdecin dans le cadre du diagnostic des tumeurs crbrales en utilisant les rseaux
baysiens. Pour atteindre cet objectif, il est ncessaire de trouver des rponses aux
questions suivantes : Quelle est la meilleure structure adquate pour le diagnostic des
tumeurs crbrales ? Quels sont les mthodes dapprentissage dans les rseaux baysiens ?
Comment peut-on amliorer le taux de prcision dans le diagnostic des tumeurs
crbrales ?
La rponse ces questions fera lobjet de notre mmoire de mastre qui est organis de la
faon suivante :
Dans le premier chapitre, nous prsentons les diffrents moyens pour le diagnostic des
tumeurs crbrales ainsi que les tapes de leurs identifications. Ensuite, nous donnons la
classification la plus utilise dans le cadre de ces tumeurs en prcisant les caractristiques
cliniques et radiologiques pour chaque varit.
Introduction gnrale

2

Dans le deuxime chapitre nous donnons le cadre thorique relatif aux rseaux baysiens.
Nous donnons brivement une tude sur le mcanisme dapprentissage de structure et
dinfrence toute en citant les principaux algorithmes qui existent. Ensuite, nous
expliquons de faon tendue les diffrents algorithmes dapprentissage des paramtres
dans le rseau baysien. En premier lieu, nous donnons le cas dapprentissage o les
donnes sont compltes. En deuxime lieu, nous dcrivons les principaux algorithmes
dapprentissage o les donnes sont incompltes en dtaillant leurs points forts et leurs
points faibles.
Dans le troisime chapitre, nous donnons notre proposition concernant la modlisation de
lexpertise relative laide au diagnostic des tumeurs crbrales. Notre proposition touche
aussi bien la structure du rseau baysien ainsi que ses paramtres.
Enfin, nous clturons ce mmoire par une conclusion dans laquelle nous rappelons les
principaux rsultats obtenus et nous donnons les perspectives pour sa continuation.




















Chapitre 1





Les tumeurs crbrales

Chapitre 1 Les tumeurs crbrales

4

1.1 Introduction
Durant ces dernires dcennies, de plus en plus de chercheurs dans le domaine mdical se
sont intresss aux tumeurs crbrales. Cet intrt sexplique par limpact que possdent
ces tumeurs sur la vie des tres humains. Leurs grandes varits posent un problme pour
lidentification de leurs types exacts. Cette difficult est due un ensemble de paramtres
qui sont extraits du dossier mdical du patient comme par exemple lge et le sexe.
Dautres paramtres proviennent des images mdicales telles que les images par rsonance
magntique et les images du scanner. Malgr lutilisation de ces techniques, le diagnostic
des tumeurs crbrales reste toujours li lexpertise du mdecin et intervient dans les cas
de conflit.
Nous commenons dans ce premier chapitre par prsenter les tumeurs crbrales. Nous
nous intressons ensuite aux lments ncessaires pour leurs diagnostics. Nous mettons
laccent par ailleurs sur les modalits utilises pour la dtection de ces tumeurs.
Finalement, nous exposons la manire du diagnostic de principales tumeurs qui existent
dans la littrature et nous donnons la liste rcapitulative des caractristiques daide au
diagnostic des tumeurs crbrales.
1.2 Les tumeurs crbrales
1.2.1 Dfinition
Une tumeur crbrale est un groupe de cellules anormales lintrieur de la bote
crnienne. Elle se dveloppe dans le cerveau et elle peut tre bnigne ou maligne. Dans
lencphale, ces deux types de tumeur peuvent tre dangereux et mettent la vie du patient
en danger.
Les symptmes associs la prsence des tumeurs crbrales varient selon la zone o elles
se dveloppent dans lencphale. Le mal de tte reste le symptme le plus prcoce.
Dautres symptmes existent tels que les troubles visuels, les troubles de mmoire et le
changement de la personnalit.
La classification officielle des tumeurs crbrales est assure par lorganisation mondiale
de la sant OMS [61] et se base sur la localisation de la tumeur et le degr de malignit des
tumeurs crbrales. Toutefois, la classification des ces tumeurs reste assez complexe. Elle
peut se faire selon diffrents critres et conduit chaque fois des familles de tumeurs
spcifiques. Ainsi dans le cas dune classification base sur la localisation de la tumeur par
rapport la paroi de lencphale, deux familles peuvent tre distingues :
Chapitre 1 Les tumeurs crbrales

5

Les tumeurs intra-axiales : Ces tumeurs se dveloppent dans le tissu crbral.
Les tumeurs extra-axiales : Ces tumeurs se dveloppent dans les espaces sous
arachnodiens ou dans les parois osseuses de la cavit crnienne.
Une autre classification existe et met en jeu laspect topographique (cf. figure 1.1 [58]).
Cette classification distingue les deux catgories suivantes :
Les tumeurs sus-tentorielles : Ces tumeurs se localisent au-dessus de la tente du
cervelet et se dveloppent dans les hmisphres et sur la ligne mdiane.
les tumeurs sous-tentorielles : Ces tumeurs se localisent gnralement au
niveau de la fosse postrieure.

Figure 1.1 : Anatomie du cerveau

Les classifications prcdentes peuvent leurs tours tre dcomposes selon lge. Ce
facteur permet une rpartition des tumeurs crbrales en deux classes (chez lenfant et chez
ladulte).
On signale que :
Chez ladulte : la distinction entre les diffrentes tumeurs (extra-axiales,
hmisphrique ou de la ligne mdiane) peut tre faite en regardant les images IRM.
Chez lenfant : le caractre dimportance est en faveur des tumeurs sous-
tentorielles. Ils se caractrisent par la varit et par son emplacement dans la boite
Chapitre 1 Les tumeurs crbrales

6

crnienne. Le diagnostic de ces tumeurs est pris en relief lors dune tude
histologique.

1.2.2 Elments ncessaires pour le diagnostic des tumeurs crbrales
Le diagnostic des tumeurs crbrales se base sur un ensemble des donnes qui peuvent tre
classes en deux grandes familles :
La premire famille regroupe les donnes sur le patient et sur son dossier mdical
en particulier lge et le sexe.
La deuxime famille reprsente les donnes qui sont issues des images mdicales
et sont connues sous le nom de donnes radiologiques. Ces caractristiques
regroupent la localisation de la tumeur, sa taille, sa texture, le nombre dinfection
et le statut de sa limite.
Dautres paramtres entrent en jeu qui sont des spcifications lies aux appareils
dimagerie par rsonance magntique et du scanner :
Prise de signal en T1
Prise en signal en T2
Prsence de ldme
Prsence des composantes kystiques


Un rapport de radiologue doit imprativement contenir la plupart de ces caractristiques
afin de faciliter la dcision dans le diagnostic et faire le traitement chirurgical le plus
adquat.

1.2.3 Modalits utilises pour le diagnostic des tumeurs crbrales
De nos jours, le diagnostic des tumeurs se base en grande partie sur lexamen des images
produites par les deux modalits suivantes : le scanner crbral et limagerie par rsonance
magntique. Nous prsentons dans le paragraphe suivant ces deux modalits ainsi que les
caractristiques des images quelles produisent.


Chapitre 1 Les tumeurs crbrales

7

1.2.3.1 Le scanner
Le scanner est un appareil qui permet la prise en charge radiothrapique de la bote
crnienne. Cet appareil expose les cellules cancreuses dune tumeur des radiations. Les
performances des images prises par le scanner crbral restent lies la localisation de la
tumeur, de son stade dvolution et de ltat gnral de la personne malade.

Figure 1.2 : Image obtenue par scanner crbral [53]
1.2.3.2 Imagerie par rsonance magntique (IRM)
Limagerie par rsonance magntique IRM est une technologie qui permet de dtecter les
diffrentes anomalies qui existent chez une personne malade. [60] Cest une technique
d'exploration de l'organisme utilisant les modifications d'orientations (rsonance ou
vibration) de certains atomes (hydrogne) soumis un champ magntique intense. Lors de
l'examen, la perturbation du champ magntique par une onde radio provoque la rsonance
des atomes. Les signaux mis lors de ce phnomne sont enregistrs, traits pour donner
une image haute dfinition.

Figure 1.3 : Imagerie par Rsonance Magntique
Chapitre 1 Les tumeurs crbrales

8

Dans le cas dune tumeur crbrale, lexamen comporte plusieurs images correspondant
aux diffrentes coupes de cerveau. Ces coupes sont donnes par la figure 1.4.

coupe sagittale coupe axiale coupe coronale
Figure 1.4 : Diffrentes coupes du cerveau ralises par lIRM

Ces coupes peuvent se prsenter aux diffrents niveaux du contraste. Chaque niveau
permet en effet de prciser certaines caractristiques de la tumeur. La variation du
contraste est obtenue travers linjection des produits spciaux et en contrlant la prise des
signaux utiliss. En IRM, deux prises de signal sont utilises :

La prise de signal en T1 consiste prendre des images lorsque les atomes
dhydrogne sont en quilibre de faon longitudinale c'est--dire dans la mme
direction que le champ magntique de lappareil IRM.
La prise de signal en T2 a la mme signification que T1 mais lquilibre des atomes
est de faon transversale.

Dautres squences sont employes en IRM. En particulier la squence FLAIR qui permet
de supprimer le signal des liquides par une modification sur le signal T1. Ces squences
sont trs utilises en IRM crbrale pour limagerie de ldme.
Le tissu crbral est compos principalement de deux matires qui se diffrencient par leur
couleur : la matire blanche et la matire grise. La dtection de chaque matire ncessite
lutilisation dun signal possdant un certain niveau dintensit. En IRM, trois niveaux
dintensits sont utiliss : hypersignal, hyposignal et isosignal. La figure 1.5 illustre les
diffrentes images obtenues.
Chapitre 1 Les tumeurs crbrales

9


T1 T2 Flair
Figure 1.5 : Les diffrentes coupes avec injection des liquides

Ces coupes facilitent normment le diagnostic dune tumeur crbrale et permettent
didentifier son type et de faire le traitement chirurgical le plus adquat.

1.3 Diagnostic des principales tumeurs
La partie qui suit dcrit les principales variantes des tumeurs crbrales [11] ainsi que les
caractristiques de base ncessaires leur diagnostic. Les tumeurs seront reprsentes
selon lge. Dans ce cadre, on distingue les tumeurs de lenfant et les tumeurs chez
ladulte.
1.3.1 Tumeurs de lenfant
1.3.1.1 Astrocytome
L'astrocytome [11,1] est une tumeur crbrale qui se localise dans le cervelet. Elle est
considre comme la tumeur la plus frquente chez lenfant. Il sagit dune lsion kystique
hypodense au scanner. En IRM, le kyste apparat en hypersignal en T2 et en hyposignal en
T1 et la paroi prend galement le contraste en T1 aprs injection intraveineuse de
Gadolinium. Pratiquement, le contraste du kyste pose problme dans le diagnostic cause
de la ressemblance dautres varits des tumeurs.
1.3.1.2 Mdulloblastome
Le sige des mdulloblastomes [11,1] est en gnral le vermis de cervelet, mais aussi les
hmisphres crbelleux et le 4me ventricule situ entre le tronc crbral et le cervelet. Le
mdulloblastome est une tumeur sous-tentorielle maligne de la rgion postrieure de
lencphale et son tat dvolution est rapide. Cest une tumeur de taille volumineuse. Elle
se dveloppe partir des cellules primitives du systme nerveux et survient surtout chez
lenfant. Ceci explique sa mauvaise limitation sur le scanner ou sur l'IRM. Au scanner, la
lsion apparat hypodense, prsente dans 50% des cas des calcifications et prend le
contraste de manire htrogne. L'IRM est fondamentale pour mieux prciser la
Chapitre 1 Les tumeurs crbrales

10

localisation pendymaire et l'extension prcise de la lsion ainsi que sa nature charnue ou
kystique. La seule solution pour cette tumeur est le traitement chirurgical par ablation.
1.3.1.3 Ependymome
Lpendymome [11,1] est une lsion qui provient de cellules pendymaire qui sont des
cellules de glia. Les pendymomes peuvent se dvelopper en tout point du systme
nerveux central partir de lpendyme. Les localisations au quatrime ventricule sont plus
frquentes que les localisations sus-tentorielles. LIRM montre une tumeur bien limite qui
se rehausse plus ou moins aprs injection de produit de contraste. Les tumeurs sus-
tentorielles sont frquemment volumineuses et kystiques avec parfois des zones
dhmorragie intra-tumorale ou des calcifications.
1.3.1.4 Gliome
Les gliomes [11,1] sont des tumeurs qui se localisent dans le tronc crbral et sont
classifies comme des tumeurs malignes qui apparaissent chez lenfant et ladulte jeune.
Elles sinfiltrent autour des commandes nerveuses du cerveau avec des symptmes
cliniques volutifs (quelques semaines). Dans les images du scanner, ces tumeurs
apparaissent sous une forme isodense et leur caractristique la plus significative est
laugmentation du volume du tronc crbral, ce qui rend difficile leur diagnostic avec cette
modalit. En imagerie par rsonance magntique, on marque une prise de signal
hyposignal en T1 et hypersignal en T2. En injectant de Gadolinium, la prise de contraste
est plus nette que le scanner.
1.3.1.5 Autre tumeurs
Il existe dautres tumeurs crbrales chez lenfant mais leurs frquences sont trs faibles
(1% de ces tumeurs dtectes par an). Elles ont presque les mmes caractristiques
histologiques que les tumeurs cites auparavant.

1.3.2 Tumeurs de ladulte
1.3.2.1 Tumeurs intra-axiales
a. Lsions non spcifiques
Mtastase : Les mtastases [11, 56] sigent essentiellement dans le cervelet et le
tronc crbral. Il sagit en gnral des lsions dont leurs formes sont arrondies. Au
scanner, elles apparaissent isodenses ou hypodenses et prennent un contraste de
manire annulaire ou modulaire. Ces lsions sont entoures par un dme
Chapitre 1 Les tumeurs crbrales

11

prilsionnel souvent important. Ces tumeurs se diffrencient par rapport aux autres
tumeurs par le caractre multiple qui permet daider le diagnostic.
Lymphome : Les lymphomes [11, 55] nont pas en gnral un sige spcifique mais,
ils se dveloppent au voisinage des ventricules. Ils sont classifis comme des
tumeurs malignes. Avec une imagerie au scanner, ils apparaissent isodenses et
prennent le contraste de manire intense. Leffet de masse est souvent discret et
ldme est absent. Limagerie par rsonance magntique donne des lsions qui
apparaissent en hypersignal en T2 et la prise de contraste est discrte. L'imagerie en
coupe notamment le couple TDM-IRM oriente le diagnostic qui est confirm par
lexamen histologique. Plusieurs stratgies thrapeutiques sont adoptes dans ce
type de tumeur.
b. Lsions spcifiques
Hmangioblastome : Lhmangioblastome [11] est une tumeur accompagne dans
la majorit des cas avec une maladie hrditaire nomme Von Hippel-Lindau. La
croissance de son volution est lente. Elle est classifie comme une tumeur
bnigne. La location de ces lsions est multiple. Elle se dveloppe dans le tronc
crbral, cervelet et dans la moelle en particulier la cervicale. Le nombre des
tumeurs est multiple. Dans le cas dun scanner crbral ou dune IRM, la prise de
contraste est intense. La prsence dune composante kystique pour cette tumeur est
ncessaire. LIRM prcise de faon dterministe le nombre des lsions et le sige
pour cette tumeur. La localisation de hmangioblastome o elle se dveloppe
influence normment les symptmes.
Gliome du tronc crbral : Cette tumeur [55] peut tre soit bnigne ou maligne.
Elle peut tre souvent observe lge adulte. Elle possde des caractristiques
similaires celles des tumeurs observes chez lenfant. Elle se dveloppe dans le
4
me
ventricule et prsente parfois des composantes kystiques.
Mdulloblastome : Les caractristiques de cette tumeur sont diffrentes de celle
observes chez lenfant. Elle peut tre observe lge adulte avec un pourcentage
trs petit mais peut tre observe chez ladulte jeune. Elle se dveloppe dans les
hmisphres crbelleux et elle est souvent mal limite. Dans un scanner crbral,
la prise de contraste apparait beaucoup plus htrogne et irrgulire chez lenfant.



Chapitre 1 Les tumeurs crbrales

12

1.3.2.2 Tumeurs extra-axiales
a. Neurinomes de lacoustique
Le scanner crbral montre que ces tumeurs [59] apparaissent sous forme isodense. Elles
prennent le contraste homogne et arrondi. Elles se dveloppent essentiellement dans
langle ponto-crbelleux. LIRM pour cette tumeur est plus adapte que le scanner afin de
raliser un bilan pour dterminer le type de ces lsions en particulier le prolongement
intracanalaire. Le sige des neurinomes peut tre galement sur le trajet des autres nerfs
crniens. Cette varit de tumeur atteint les personnes entre 40 et 60 ans, et plus
particulirement de sexe fminin. Le plus souvent on remarque des troubles dans
lquilibre lors de la marche comme symptme principal.
b. Mningiomes
La tumeur de mningiome [45, 15] est classifie comme une tumeur bnigne. Elle prend
son appellation du lieu o elle se dveloppe. Elle croit partir des cellules du revtement
mning de lencphale et de la moelle pinire. Elle est frquente surtout aprs lge de
40 ans et son tat dvolution est trs lent. Le sige de cette tumeur se trouve au niveau de
la fosse postrieure et galement au niveau de clivus. Avec le scanner crbral, ces lsions
apparaissent isodenses et parfois hyperdenses.
Elle prsente aussi une calcification. La prise de contraste est homogne. Le diagnostic de
cette tumeur est parfois difficile. En IRM, ces lsions apparaissent en isosignal en T1 et en
T2. Dans certains cas, linjection intraveineuse de Gadolinium est ncessaire pour assurer
un bon diagnostic. Lexrse chirurgicale complte est le traitement essentiel pour cette
tumeur. Mais, malheureusement certains mningiomes sont inoprables sur le plan
technique.
c. Tumeurs glomiques
La tumeur glomique est une tumeur qui se dveloppe dans les nerfs qui entourent les
vaisseaux qui se situent dans la paroi de la veine jugulaire. Son volution envahit la fosse
postrieure. Son scanner crbral se montre isodense et la prise de contraste est intense et
homogne.
Le chmodectome fait partie de ces tumeurs dont le traitement ncessite une intervention
chirurgicale. Cette tumeur se dveloppe dans le tissu paraganglionnaire situ autour de
ganglion. Il sagit dune tumeur bnigne.
d. Kystes dermode et pidermode
Ce type de kyste [7] attaque le plus souvent les jeunes femmes dont la majorit est de
nature bnigne. Ces kystes se produisent nimporte quel ge. Toutefois, lge principal de
Chapitre 1 Les tumeurs crbrales

13

leur dtection reste les annes de grossesse. Leur taille varie entre un centimtre et
quarante cinq centimtres. A partir de scanner crbral, ces lsions apparaissent
hypodenses et la prise de contraste est trs faible. Les images IRM montrent un aspect
hypointense en T1 et hyperintense en T2.
e. Kyste arachnodien
Le kyste arachnodien [57] nest pas une tumeur crbrale au sens propre du terme, mais il
prsente des lsions kystiques qui perturbent les cellules de la mning. Les principaux
symptmes sont des troubles visuels, une lvation de la tension intracrnienne et la
fatigue. La dcouverte de ce kyste est ncessairement travers lIRM.
Le signal IRM dun kyste arachnodien est hyperintense en T2 et hypointense en T1. De
ces faits, les kystes arachnodiens sont faciles diagnostiquer puisquils ont un signal
liquidien homogne sur toutes les squences.
1.4 Rcapitulation des principales caractristiques ncessaires
au diagnostic des tumeurs crbrales
A lissu de la prsentation faite dans le paragraphe prcdent, nous constatons que le
diagnostic des tumeurs crbrales tient compte dun certain nombre des caractristiques
qui proviennent des images IRM et du contexte du patient. Ces caractristiques sont
ncessaires pour identifier le type de la tumeur en premier lieu et faire les traitements
chirurgicaux les plus adquats. Dans ce travail, nous proposons de limiter le champ d'tude
uniquement sur une famille de tumeurs. Les experts ont recommand de se concentrer sur
tumeurs appartenant la famille des tumeurs intra-axiales sus-tentorielle. Ce choix a pour
objectif de rduire le taux derreur de lidentification du type de la tumeur. La difficult
dans la phase de lidentification est due la ressemblance dans les principales
caractristiques ncessaires au diagnostic. Les types des tumeurs dintrt sont donns dans
le tableau 1.2.
1 Astrocytome
2 Gliome
3 Oligodendrogliome
4 lymphome
5 Mtastase
6 Ependymome
7 Mdulloblastome
Tableau 1.2 : Tumeurs crbrales tudies

Chapitre 1 Les tumeurs crbrales

14

Nous prsentons dans le tableau 1.3 la liste rcapitulative des principales caractristiques
prises en considration pour le diagnostic des tumeurs crbrales ainsi que lensemble des
valeurs possibles pour chacune delles.

Caractristiques Valeurs possibles
L
e
s

c
a
r
a
c
t

r
i
s
t
i
q
u
e
s

r
a
d
i
o
l
o
g
i
q
u
e
s

Sige Sus-tentorielle, sous-tentorielle
Localisation
Superficielle, Profonde, Tronc crbral, Vermis, Hmisphre
crbelleux
Limite
Bien limite, mal limite
Taille
Petite, moyenne, grande
Nombre
Unique, multiple
Prsence Prise de Contraste Intense, Faible, Absente
Prise de signal en T1 Hyposignal, Isosignal, Hypersignal, Hyposignal et isosignal
Prise de signal en T2 Hyposignal, isosignal, Hypersignal, isosignal et hypersignal
Composante Kystique Oui, Rare, Non
Calcification Oui, Rare, Non
Hmorragie -, +
Envahissement du corps
Calleux
-, +
Prsence de ldme 0, +, ++, +++
Effet de masse 0, +, ++
Type de prise de contraste Nodulaire, Annulaire, Annulaire/ Nodulaire
Composition Charnue, Mixte, Kystique
L
e
s

c
a
r
a
c
t

r
i
s
t
i
q
u
e
s

d
u

p
a
t
i
e
n
t

Lge Enfant, Adulte, +60
Le sexe Homme, Femme
Autres maladies Oui, non
Premire infection Oui, non
Tableau 1.3 : Caractristiques ncessaires pour le diagnostic des tumeurs crbrales

Ces caractristiques, dans le cas dun rapport mdical, ne sont pas toutes prsentes dans la
majorit des cas tudis. Ceci rend le diagnostic de ces tumeurs crbrales incertain pour
linsuffisance des donnes. De ce fait, le diagnostic des tumeurs crbrales reste toujours
li lexpertise du mdecin et lintervention de ce dernier reste ncessaire dans les cas de
dsaccord. Son intervention est assure par les cas traits auparavant. Lensemble de ces
cas feront la mise jour des frquences dapparition des certaines tumeurs par rapport aux
autres.
Chapitre 1 Les tumeurs crbrales

15

1.5 Conclusion
Dans ce premier chapitre, nous avons pass en revue des tumeurs crbrales. Nous avons
tudi en premier lieu les diffrents symptmes ainsi que les classifications existantes pour
les tumeurs crbrales. Nous nous sommes intresss en deuxime lieu aux modalits
utilises pour la dtection de ces tumeurs crbrales. Enfin, nous avons donn un dtail sur
le processus de diagnostic pour les principales tumeurs crbrales en concluant par
lextraction de la liste rcapitulative des diffrents lments ainsi que leurs valeurs
possibles pour laide au diagnostic de ces tumeurs.
Pour faire face aux problmes lis au diagnostic des tumeurs crbrales, le rseau baysien
semble tre loutil le plus adapt la ralisation dun modle daide au diagnostic des
tumeurs crbrales. La prsentation de ces rseaux fera lobjet du chapitre suivant.




















































Chapitre 2





Les rseaux baysiens

Chapitre 2 Les rseaux baysiens

17

2.1 Introduction
Lacquisition, la reprsentation et lutilisation des connaissances incertaines dans le
contexte dintelligence artificielle et/ou des systmes experts sont assures par les modles
graphiques [27, 16] qui sont une combinaison entre la thorie de graphes et la thorie de
probabilits. Le succs de ces modles est d plusieurs facteurs. Dune part, les modles
graphiques donnent une reprsentation visuelle du systme modliser ce qui permet une
comprhension entre les diffrents intervenants (informaticiens, statisticiens, mdecins,)
en favorisant une bonne communication entre eux. Dune autre part, ces modles
expriment de faon naturelle les dpendances et les indpendances entre les diffrents
acteurs constituant le systme modliser.
Les rseaux baysiens [27, 17] sont parmi les modles graphiques le plus utiliss pour leur
reprsentation comprhensible. De plus, ils se basent sur les probabilits ce qui permet un
raisonnement qui prend en charge lincertitude.
Dans ce deuxime chapitre nous commenons par prsenter les modles graphiques ainsi
que les notions fondamentales de la probabilit. Dans une deuxime partie, nous dtaillons
les caractristiques relatives aux rseaux baysiens et leurs domaines dapplications.
Ensuite, nous expliquons brivement les phnomnes dinfrence et dapprentissage de
structure. Finalement, nous dtaillons de faon approfondie le processus dapprentissage de
paramtres dans les rseaux baysiens.

2.2 Modle graphique et D-sparation
Un modle graphique [6] est constitu dune manire gnrale par deux composantes. Une
composante graphique qui est un graphe orient acyclique DAG ou non orient. Cette
composante varie selon le type de modle choisi. Elle met en valeur les variables du
domaine du systme modliser et les relations dinfluence (dpendance conditionnelle,
causalit, etc.). Une deuxime composante nomme composante numrique (comme par
exemple, table des probabilits conditionnelles dans le cas des modles graphiques
probabilistes). La composante numrique sert quantifier les relations dinfluence dans le
modle.
La circulation dinformation entre les nuds dun modle graphique dpend des topologies
qui le constituent. Nous limitons notre intrt pour les modles graphiques dirigs
probabilistes.
Chapitre 2 Les rseaux baysiens

18

Il sagit denvisager trois cas de figures de topologies : les connexions en srie, les
connexions convergentes et les connexions divergentes.

2.2.1 Connexion en srie
On considre la situation dans la figure 2.1. A a une influence sur B qui leur tour a une
influence sur C.



Figure 2.1 : Connexion en srie

La circulation dinformation peut tre tablie de A vers C ou de C vers A. Si B est
instanci, elle bloque la communication entre A et C [16, 17].

2.2.2 Connexion divergente






Figure 2.2 : Connexion divergente
La situation dans la figure 2.2 est nomme connexion divergente. Linfluence peut passer
entre tous les fils de A. Si A est instanci, il bloque la communication entre ses fils [16,17].
2.2.3 Connexion convergente








Figure 2.3 : Connexion convergente

C A B
B C E
A
A
B C E
Chapitre 2 Les rseaux baysiens

19

La description dans la figure 2.3 est plus complique que les prcdentes. Si aucune
information sur A nest connue lexception quelle peut tre infre partir des
connaissances de ses parents B, CE, alors les parents sont dit indpendants [16, 17].
Ces trois cas de figures couvrent les topologies locales que nous pouvons rencontrer dans
un rseau baysien. Ils illustrent le principe de la communication entre les nuds. A partir
de ces connexions on peut dfinir la D-sparation.

2.2.4 D-sparation
Deux variables distinctes A et B dans un rseau causal sont D-spars ( D pour graphe
dirig) si pour tout chemin entre A et B, il existe une variable intermdiaire V diffrente de
A et B qui vrifie les conditions suivantes :
i) La connexion est en srie ou divergente et V est instancie
ii) La connexion est convergente et ni V ni les descendants de V ne sont pas
instancis.
Si A et B ne sont pas D-spars, alors ils sont nomms D-connects.

2.3 Notions fondamentales sur la thorie de probabilit
Les modles graphiques probabilistes sont accompagns par des distributions de
probabilits qui quantifient chaque nud dans le graphe. Dans ce paragraphe nous donnons
les principales rgles de la thorie des probabilits utilises avec les modles graphiques.

2.3.1 Notion de probabilit
Nous considrons S lensemble de vnements et A un vnement qui appartient S, alors
la probabilit de A , note P(A), pour chaque vnement A S doit obir aux trois
axiomes suivants :
i) P(S) =1
ii) Pour chaque A S, P(A) 0 : chaque vnement A S doit avoir une
probabilit non ngative.
iii) Si A S et B S et A B = alors P(AB) = P(A) + P(B) : A et B sont dit
disjoints.
Si A B alors P(AB) = P(A) + P(B) - P(AB)
Chapitre 2 Les rseaux baysiens

20

Lexpression des relations dinfluence dun nud sur un autre dans le modle graphique,
ce phnomne fait appel a une autre catgorie de probabilit cest la probabilit
conditionnelle.

2.3.2 Probabilit conditionnelle
Pour deux vnements A et B avec P(B) > 0, alors la probabilit conditionnelle de A
sachant B est [24] :

( )
( )
( )
P A B
P A B
P B

=



2.3.3 Rgle de Bayes
La rgle de bayes [24] produit une mthode de mise jour de la certitude dun vnement
A sachant une connaissance sur un autre vnement B. La rgle de Bayes se prsente sous
la forme suivante :


( )
( ) ( )
( )
* P B A P A
P A B
P B
=



Pour cette raison, P(A) est nomm probabilit priori et P(A|B) est nomm probabilit
posteriori. La probabilit P(A|B) est appele vraisemblance de A sachant B.
La combinaison des modles graphiques avec la thorie des probabilits constitue les
modles graphiques probabilistes. Seuls les rseaux baysiens feront lobjet dune analyse
dtaille comme un modle graphique probabiliste. Nous donnons dans ce qui suit une
prsentation de ce modle graphique.







(2.1)
(2.2)
Chapitre 2 Les rseaux baysiens

21

2.4 Les rseaux baysiens
2.4.1 Dfinition
Les rseaux baysiens [38] permettent lexpression dun formalisme de modlisation et de
raisonnement avec des connaissances incertaines. Ils sont connus aussi sous le nom de
rseaux de croyances . Ils font appel aux notions de la probabilit et la thorie des
graphes. Ils constituent un diagramme dinfluence comprhensible par ltre humain ce qui
rend leurs interprtations faciles.
De faon formelle, un rseau baysien est un graphe dirig acyclique (DAG pour Directed
Acyclic Graph) aboutissant une reprsentation des relations dindpendances
conditionnelles entre les diffrents acteurs (nuds) mis en jeu pour la modlisation du
problme. Chaque nud est muni dune table de probabilit conditionnelle afin de
quantifier lincertitude de ses relations dinfluence. Donc, un rseau baysien met en jeu
deux aspects importants, le premier est dit qualitatif et lautre quantitatif :
Laspect qualitatif : consiste en un graphe dirig acyclique G(X, E) o X engendre
lensemble des variables alatoire (X
1
,

X
2,,
X
n
)

dcrivant les acteurs du domaine,
et E est lensemble des arcs. Un arc de X
i
vers X
j
constitue une relation de
dpendance entre ces nuds.
Laspect quantitatif : est un ensemble des tables de probabilits conditionnelles
associes chaque variable X
i
. Ces tables sont remplies soit par un expert du
domaine soit par un apprentissage automatique. Les probabilits conditionnelles de
chaque instance de X
i
sont spcifies en tenant compte des valeurs possibles prises
par les parents de X
i
. ces valeurs sont notes par pa(X
i
).
La distribution jointe de probabilits sur un ensemble de variables en utilisant la notion
dindpendance est assure par le rseau baysien et permet de faciliter les calculs. Les
indpendances entre les variables permettent la dcomposition de la distribution jointe
globale en un groupe de distributions locales associes un sous graphe. Ce formalisme
acclre le traitement des rseaux de grandes tailles et permet davoir un gain en espace
mmoire. Lquation 2.1 [38] dans ce cas se transforme en une rgle de chanage et aboutit
la probabilit jointe qui est donne par :
( ) ( )
( ) 1 2
1
, ,...,
n
n i i
i
P X X X P X pa X
=
=



(2.3)
Chapitre 2 Les rseaux baysiens

22

O : X
i
reprsente une valeur alatoire,
n le nombre des variables alatoires,
pa(X
i
) les parents de la variable X
i
.
La dcomposition de cette loi jointe augmente la puissance des algorithmes dinfrences
qui font des rseaux baysiens des outils de modlisation et de raisonnement dans les
situations des applications incertaines et surtout lors de la prsence de donnes
manquantes.
La figure 2.4 reprsente un exemple assez utilis dans la littrature [17] : Ce matin-l,
alors que le temps est clair et sec, M. Holmes sort de sa maison. Il s'aperoit que la pelouse
de son jardin est humide. Il se demande alors s'il a plu pendant la nuit, ou s'il a simplement
oubli de dbrancher son arroseur automatique. Il jette alors un coup d'il la pelouse de
son voisin, M. Watson, et s'aperoit qu'elle est galement humide. Il en dduit alors qu'il a
probablement plu, et il dcide de partir au travail sans vrifier son arroseur automatique.
La description des diffrentes variables utilises pour la construction du rseau est donne
comme suit :
Le nud A reprsente lvnement que M. Holmes a oubli de dbrancher son
arroseur automatique.
Le nud PN reprsente lvnement quil a plu cette nuit.
Le nud J reprsente lvnement que lherbe de son jardin est humide.
Le nud W reprsente lvnement que lherbe du jardin de M. Watson est
humide.
Les valeurs possibles pour les nuds A, PN, J et W sont soit oui soit non.
















Figure 2.4 : Un exemple de rseau baysien
oui non
P(A) 0.4 0.6
oui non
P(PN) 0.3 0.7
Oui Non
P (w | PN)
0.5 0.9
0.5 0.1

Oui Non
Oui Non Oui Non
P (j |A, PN)
0.2 0.4 0.6 0.7
0.8 0.6 0.4 0.3
J
PN
W
A
Chapitre 2 Les rseaux baysiens

23

(2.4)
La probabilit jointe associe au rseau de la figure 2.4 est donne par :

( ) ( ) ( ) ( ) ( )
, , , * * , * P A PN J W P A P PN P J A PN P W PN =


Vue leur capacit modliser les problmes dincertitude, les rseaux baysiens sont
appliqus dans plusieurs domaines afin de rsoudre certaines problmatiques qui posent
conflit pour les experts.

2.4.2 Domaines dapplications des rseaux baysiens
Les modles graphiques en gnral et les rseaux baysiens en particulier, ont t
employs dans plusieurs applications du monde rel. Dans cette section, nous allons
essayer de mettre en vidence certaines applications o les rseaux baysiens ont t
employs.

2.4.2.1 Dpannage Informatique
Le systme d'exploitation Windows utilise un systme bas sur les rseaux baysiens
pour le dpannage des problmes d'impression par exemple. L'utilisateur est tenu
d'indiquer ses observations sur le problme travers une interface graphique. Le rseau
baysien tente alors de comprendre la cause la plus probable du problme.
2.4.2.2 Diagnostic Mdical
Plusieurs applications mdicales emploient les rseaux baysiens. L'ide principale derrire
est de modliser les maladies par les causes, les symptmes et les effets. Par l'observation
des symptmes, un rseau baysien peut donner la probabilit de diffrentes maladies qui
pourraient tre responsables de ces symptmes. Des systmes pareils ont t dvelopps
entre autre pour :
Laide dans le diagnostic des maladies cardiaques congnitales [37].
Lobtention dun diagnostic prliminaire des maladies neuromusculaires [52].
Laide dans le diagnostic du cancer du sein [44].
L'ajustement de la dose d'insuline des patients diabtiques [13].


Chapitre 2 Les rseaux baysiens

24

2.4.2.3 Vision par ordinateur
Les applications de vision par ordinateur, qui emploient les rseaux baysiens tel que le
traitement d'image ont t dveloppes. Des exemples de ces applications comprennent:
Les rseaux baysiens pour l'interprtation des images [40].
Les rseaux baysiens pour linfrence 3D partir de donnes 2D [41].
Les rseaux baysiens pour la segmentation des images [19].
Les rseaux baysiens pour la classification dimages [8].

2.4.2.4 Traitement de l'information
Plusieurs systmes d'extraction d'information utilisant les rseaux baysiens ont t
dvelopps. Dans ce cadre, il est possible de mentionner la NASA [38] qui a utilis, lors du
lancement de navettes spatiales, les rseaux baysiens pour le filtrage des informations
affiches par le systme de propulsion.

2.4.3 Les rseaux baysiens nafs
Les RB nafs reprsentent une forme trs simple des rseaux baysiens, qui se composent
dun graphe avec un seul parent, reprsentant le nud non observ, et plusieurs nuds
feuilles correspondant aux nuds observs, avec une forte hypothse dindpendance entre
les feuilles dans le contexte de leur parent.
Une fois le rseau baysien est quantifi, il est possible de classer tout nouvel objet, tant
donn les valeurs des attributs, en utilisant la rgle de Bayes exprime par :

( )
( | ) * ( )
|
( )
i i
i
P A c P c
P c A
P A
=



o c
i
est une valeur possible de la classe et A reprsente lobservation concernant les
attributs. Soit a
1
, a
2
, ..., a
n
les valeurs observes des attributs A
1
, A
2
, ..., A
n
. Sous
lhypothse que les attributs sont indpendants (dans le contexte du nud parent C), la
probabilit P(c
i
|A) peut tre dveloppe comme suit :

1 2
1 2
( | ) * ( | ) *...* ( | ) * ( )
( | )
( , , ..., )
i i n i i
i
n
P a c P a c P a c P c
P c A
P a a a
=

(2.5)
(2.6)
Chapitre 2 Les rseaux baysiens

25

Les rseaux baysiens nafs ont plusieurs avantages dus, en particulier, leur construction
qui est trs simple. Linfrence est assure de faon linaire (alors que linfrence dans les
rseaux baysiens qui ont une structure gnrale est connue comme un problme NP
complet). En plus, la construction des rseaux baysiens nafs est incrmentale, dans le
sens quelle peut facilement tre mise jour (notamment, il est toujours possible de
prendre en considration de nouvelles classes). Cependant, les rseaux baysiens nafs
travaillent sous une hypothse dindpendance trs forte entre les attributs dans le contexte
de la nature de la session


2.5 Infrence
Nous avons dtaill dans les sections prcdentes la notion du rseau baysien. Nous
rsumons que le rseau baysien est une reprsentation graphique dun ensemble des
variables alatoires pour lesquelles on a un certain nombre de relations de dpendances. A
un certain moment, on dispose dune nouvelle information sur une ou plusieurs variables.
Alors, on veut savoir les nouvelles connaissances que le rseau baysien a fourni travers
lancienne distribution de probabilits sur lensemble de variables qui construisent le
rseau.
La rgle de bayes joue dans ce mcanisme un rle important pour la mise jour de toutes
les connaissances dans le rseau baysien. Elle permet le calcul de la probabilit
posteriori du rseau sachant une vidence e . Ce formalisme est appel linfrence. En
dautres termes, linfrence permet la propagation des vidences pour une ou plusieurs
variables dans le rseau baysien afin de dgager nimporte quelle probabilit de variables
dintrt sachant lvidence. De point de vue mathmatique, il sagit de calculer P (X | e).
O X dsigne lensemble de variables alatoires et e une instanciation possible dune
partie ou de tout lensemble de X.
Afin de rsoudre cette problmatique, plusieurs approches ont t dveloppes et ont
engendr deux grandes classes dalgorithmes dinfrence :
Les algorithmes exacts
Les algorithmes approximatifs
Les premires suggestions dalgorithmes exacts pour linfrence ont t proposes par [26]
et [29]. Le principe gnral consiste un passage des messages entre les diffrents nuds
jusqu ce quun quilibre soit atteint. Une amlioration de cette approche a conduit
Chapitre 2 Les rseaux baysiens

26

lapparition de lalgorithme de larbre de jonction [48] [18]. Dautres approches ont t
labores comme par exemple lalgorithme cutset-conditioning [27] [16].
La complexit de linfrence est NP-difficile [22]. Elle conduit un temps de calcul
norme dans le cas des rseaux baysiens plus complexes ce qui rend impossible le calcul
direct de la distribution de la probabilit dans un nud donn. Ceci fait natre les
algorithmes dinfrence approximatifs en premier lieu lalgorithme de Monte Carlo [12] et
lalgorithme variationnel [35].
Dans nos travaux, nous utilisons pour faire linfrence lalgorithme exact de larbre de
jonction. Le principe gnral de cet algorithme est dtaill dans lalgorithme 2.1 :


Algorithme Arbre de jonction (Entre : DAG, table de probabilits conditionnelles,
vidence)
Sortie : table de probabilits conditionnelles
Dbut
1. Phase1 : transformation du graphe en un arbre de jonction en appliquant
a. Moralisation : marier les parents
b. Triangulation : ajout slectif des arcs afin dobtenir un graphe triangul
c. Construction des cliques
d. Construction dun arbre non dirig en connectant les cliques
2. Phase2 : propagation de la nouvelle information et remettre jour les distributions de
probabilits
3. Retourner table de probabilits conditionnelles
Fin
Algorithme 2.1 : Algorithme darbre de jonction

Le mcanisme dinfrence nest applicable que lorsque la structure du rseau baysien a
t dfinie et les tables de probabilits sont remplies. La structure du rseau baysien ainsi
que ses paramtres peuvent tre donns soit par un expert du domaine soit par un
apprentissage automatique en se basant sur une base de donnes. Le paragraphe suivant
dcrit brivement le processus dapprentissage de structure et de paramtres dans le cadre
dun rseau baysien.

Chapitre 2 Les rseaux baysiens

27

2.6 Lapprentissage dans les rseaux baysiens
La section prcdente nous a permis de dfinir un rseau baysien comme un
regroupement dun modle graphique et de probabilits conditionnelles. Lapprentissage
partir des donnes est lun de domaine de recherche courant dans les modles graphiques
dont le but majeur est destimer les paramtres sachant quon a la structure auparavant et
de trouver la structure graphique possible qui dcrit le mieux lindpendance
conditionnelle suggre par les donnes du problme.
Donc, lapprentissage se rpartit sur deux axes spars : lapprentissage de structure et
lapprentissage des paramtres.
Lapprentissage de structure consiste trouver la meilleure structure qui modlise
bien un problme.
Lapprentissage des paramtres est lestimation des probabilits conditionnelles de
chaque nud du rseau tout en supposant que la structure a t fixe auparavant.
La modlisation des problmes possde de nombreuses techniques qui varient selon la
disponibilit des donnes qui traitent ces problmes et les connaissances de lexpert du
domaine.
Ces techniques se repartissent alors en deux grandes catgories :
Apprentissage partir des donnes compltes ou incompltes, en utilisant des
approches statistiques ou baysiennes.
Acquisition des connaissances avec un expert du domaine qui prend en charge la
dfinition des variables alatoires qui entrent en jeu pour la modlisation du
problme.
La reprsentation de la distribution observe sous forme dun rseau baysien en tenant
compte dindpendance conditionnelle entre les variables est le phnomne
dapprentissage de la structure.
Le nombre de structures dun rseau baysien pour n variables alatoires est super-
exponentielle qui ncessite la prsence des algorithmes qui font face ce problme. Le
nombre de structures possibles pour n variables est sous la forme :

1 si n = 0 ou 1
NB(S)=
(1)
()

2
()
NB(n i) si n > 1
Chapitre 2 Les rseaux baysiens

28


Nombre des nuds 2 3 4 5 6
Nombre des DAG 3 25 543 29 281 3 781 503
Tableau 2.1 : Nombre de structures possibles en fonction de nombre de variables

Les algorithmes dapprentissage de structures sont nombreux. On identifie les algorithmes
qui se basent sur la causalit tels quIC [25] et PC [39].
En second lieu, on note les algorithmes qui utilise un score dans la recherche de la
structure et enfin les algorithmes qui font un parcours de recherche tels que K2 [23] et
structural EM [36].
Lapprentissage de structure est un domaine de recherche qui volue de jour en jour et
aboutit des amliorations dans la modlisation de problmes. Toutefois, avoir une bonne
modlisation ne veut pas dire avoir une meilleure prcision des paramtres du rseau
baysien. Dans ce cadre, nous allons donner une description dtaille sur lapprentissage
de paramtres dans le cas o les donnes sont compltes ou incompltes.
2.7 Apprentissage des paramtres dans les rseaux baysiens
La tche dapprentissage de paramtres dans le rseau baysien possde une grande
importance de nos jours pour leur intrt la prise de dcision. Les approches et les
applications qui utilisent les rseaux baysiens attaquent de plus en plus diffrents
domaines en particulier ceux qui se basent sur la notion dincertitude. Cette incertitude est
exprime par les tables de probabilits conditionnelles. Le paragraphe suivant donne une
dfinition dtaille de cette table.

2.7.1 Table de probabilits conditionnelles
Une table de probabilit conditionnelle [17] est un vecteur multidimensionnel note
i
.
Cette table contient lensemble de probabilits de la variable X
i
pour chacune de ses
valeurs possibles sachant chacune des valeurs prises par lensemble de ses parents pa(X
i
).
Chaque composante du vecteur
i
est exprime par lquation 2.7.

( )
( ) , ,

i j k i k i j
P X x pa X x = = =

(2.7)
Chapitre 2 Les rseaux baysiens

29

Le calcul de chaque
i
dans le rseau baysien a t dtermin par lexpert du domaine
pour les premires applications de cet outil dintelligence artificiel. De nos jours, ce
mcanisme se fait de faon automatique et varie selon la base dapprentissage utilise.
Dans ce cadre, on distingue lapprentissage des paramtres dans le cas o les donnes sont
compltes ou incompltes.
2.7.2 Apprentissage des paramtres partir des donnes compltes
La base dapprentissage D est dite complte si toutes les variables dans les rseaux
baysiens sont instancies avec leurs valeurs possibles. Dans ce cas, le calcul des tables de
probabilits conditionnelles devient facile raliser. On distingue principalement dans ce
cas deux catgories : lapproche statistique et lapproche baysienne.

2.7.2.1 Approche statistique
Lestimation statistique consiste dterminer la probabilit dun vnement par la
frquence dapparition de cet vnement dans la base dobservation D. La mthode la plus
utilise dans ce cadre est le maximum de vraisemblance MV (Maximum Likelihood) qui
est note gnralement par L(|D) [38].
Soient :
D base dapprentissage,
n nombre des nuds,
r
i
les tats possibles dun nud,
q
i
les configurations possibles du parent dun nud,
X
i
un nud,
(
i
) dsigne le parent du nud X
i
,

i,j,k
le nombre dvnements dans la base de donnes pour lesquels la variable
X
i
est dans ltat x
k
et ses parents sont dans la configuration x
j
,

i,j,k
le paramtre o la variable X
i
est dans ltat x
k
et ses parents sont dans la
configuration x
j
.
Le principe de la mthode MV est alors donn par lalgorithme suivant :




Chapitre 2 Les rseaux baysiens

30

Algorithme Maximum de Vraisemblance (MV) (Entre : DAG, Base dapprentissage D)
Sortie : tous les paramtres du rseau baysien
Dbut
Pour chaque nud i faire
Pour chaque configuration des parents j faire
Pour chaque valeur possible du nud k faire
Calculer
( )
( )
, ,
, ,
, ,
i j k
i k i j i j k
i j k
k
N
P X x pa X x
N
= = = =


Fin pour
Fin pour
Fin pour
Fin
Algorithme 2.2 : Algorithme Maximum de Vraisemblance

2.7.2.2 Approche baysienne
Lestimation baysienne [38] est une application directe de la rgle de Bayes. Elle consiste
dterminer la probabilit posteriori en fonction de la probabilit priori en conservant
la vraisemblance. Cette estimation est donne par :

( ) ( ) ( )
* P D P D P


O dsigne une galit approximative.
On constate aussi, dans lestimation baysienne, que la frquence dapparition dun
vnement sachant ses parents dans le rseau baysien peut tre nulle. Mais, dans la ralit
cet vnement peut tre rencontr dans les applications relles. La probabilit priori est
dans ce cas multinomiale. La distribution conjugue qui permet de garder la mme nature
de la distribution priori et la distribution posteriori est la distribution de Dirichlet qui est
donne mathmatiquement par :

( )
, ,
, ,
1 1 1
1
i i
i j k q r
n
i j k
i j k
P


= = =

=


(2.8)
(2.9)
Chapitre 2 Les rseaux baysiens

31

O :
i,j,k
sont les coefficients de la distribution de Dirichlet associe la loi priori
P(X
i
= x
k
| pa(X
i
) = x
j
).
n : nombre de variables alatoires.
r
i
les tats possibles dun nud.
q
i
les configurations possibles du parent dun nud.

Un des avantages des distributions exponentielles comme la distribution de Dirichlet est
quil est possible dexprimer facilement la loi posteriori des paramtres P ( | D):

( )
, , , ,
, ,
1 1 1
1
i j k
i i
i j k q r
n
i j k
i j k
N
P D


= = =
+
=


Lapproche baysienne MAP (Maximum posteriori) [38] permet de faire face aux
frquences nulles en utilisant les coefficients de Dirichlet. Le principe de fonctionnement
de cette approche est donn par lalgorithme 2.3.

Algorithme Maximum A Posteriori (MAP) (Entre : DAG, Base dapprentissage
D, : coefficients de Dirichlet)
Sortie : tous les paramtres du rseau baysien
Dbut
Pour chaque nud i faire
Pour chaque configuration des parents j faire
Pour chaque valeur possible du nud k faire
Calculer
( )
( )
, , , ,
, ,
, , , ,
1
1
i j k i j k
i k i j i j k
i j k i j k
k
N
P X x pa X x
N

+
= = = =
+


Fin pour
Fin pour
Fin pour
Fin
Algorithme 2.3 : Algorithme Maximum A Posteriori

(2.10)
Chapitre 2 Les rseaux baysiens

32

Ces rsultats restent toujours possibles si la base de cas D ne possde aucun lment
absent. En pratique, avoir toutes les variables instancies est presque difficile atteindre.
Do lapparition des nouveaux algorithmes pour le calcul des probabilits conditionnelles
dans le cas de donnes incompltes.

2.7.3 Apprentissage des paramtres partir des donnes incompltes
Dans la section prcdente, nous avons prsent les approches permettant destimer la
probabilit conditionnelle partir des donnes compltes (un ensemble des donnes o
chaque variable a une valeur). Dans la pratique, cette condition nest pas toujours assure.
En effet labsence de valeurs est une situation assez frquente. Cette absence peut tre
accidentelle ou due une suppression intensive.
Dans un rseau baysien, les valeurs absentes peuvent tre rparties selon leur nature en
trois catgories [38, 49]:

Donne MCAR : (Missing Completely At Random) La probabilit quune
donne soit manquante ne dpend pas de D. Labsence de donnes est due
compltement au hasard.
Donne MAR : (Missing At Random) La probabilit quune donne soit
manquante dpend des donnes observes. Labsence de donnes est due la
prsence dautres valeurs dans certains nuds.
Donne MNAR : (Missing Not At Random) La probabilit quune donne
soit manquante dpend la fois des donnes observes et manquantes.

La rsolution des donnes MCAR et MAR est facile traiter pour la possibilit de corriger
labsence de ces donnes dans la base dapprentissage, par contre les donnes MNAR sont
sensibles au traitement car il faut faire appel des informations extrieures pour leurs
manipulations.
Plusieurs approches dapprentissage de paramtres dans les rseaux baysiens traitent le
cas des donnes manquantes. Nous donnons dans ce qui suit un aperu sur certaines de ces
approches.



Chapitre 2 Les rseaux baysiens

33

2.7.3.1 Lalgorithme EM
La prise en compte des donnes incompltes est base sur un algorithme itratif fond sur
deux tapes : lesprance et la maximisation. Lalgorithme EM crit par Dempster en 1977
estime les paramtres dun rseau baysien o les donnes de la base D sont incompltes.
Une description dtaille de cet algorithme est donne dans [2] [42] [47] [14].
EM [38] procde de la manire suivante : rpter les tapes esprance et maximisation
jusqu la convergence. Chaque itration garantit laugmentation dune fonction de
vraisemblance qui converge finalement vers un maximum local. La rapidit de la
convergence de cet algorithme augmente si le nombre des nuds ayant des valeurs
manquantes diminue.
Lalgorithme complet est donn comme suit :

Algorithme Esprance Maximisation EM (Entre : DAG, Base dapprentissage D, E la
fonction qui permet de calculer lesprance)
Sortie :
i, j, k

Dbut
1. t=0
2. Initialiser alatoirement les paramtres
(t)

3. Rpter
4. Esprance
Utiliser les paramtres courants
i,j,k
(t)
pour estimer les donnes manquantes
E
(t)
(N
i, j, k
) = p
(t)
(X
i
=x
k
| pa(X
i
)=x
j
) pour i de 1 N
5. Maximisation
Utiliser les donnes estimes pour appliquer la procdure dapprentissage.
(par exemple le maximum de vraisemblance)

i,j,k
(t+1)
= E (N
i, j, k
) / E (N
i, j
)
6. t=t+1
Jusqu convergence (
i,j,k
(t+1)
=
i,j,k
(t)
)
Fin
Algorithme 2.4 : Algorithme Esprance Maximisation



Chapitre 2 Les rseaux baysiens

34

Cet algorithme donne une meilleure performance dans quatre situations :
Augmentation de la taille des donnes dapprentissage,
Diminution de la part des donnes manquantes,
Augmentation du nombre ditrations,
Utilisation des informations priori.

Pour affronter la complexit des problmes, lalgorithme EM possde des extensions qui
amliorent lune des deux tapes soit lesprance soit la maximisation. Parmi ces
extensions, nous citons :

Lalgorithme GEM : [2] a t propos par Dempster en 1977 qui est une
gnralisation de lalgorithme EM pour assurer la convergence vers un maximum
local de vraisemblance, il n'est pas ncessaire de maximiser chaque tape mais
qu'une simple amlioration est suffisante.
Lalgorithme CEM : [21] L'algorithme EM cherche maximiser la vraisemblance
du paramtre , sans considration de la classification faite posteriori en
utilisant la rgle de Bayes. L'approche classification, propose par Celeux et
Govaert en 1992 consiste optimiser, non pas la vraisemblance du paramtre,
mais directement la vraisemblance complte.
Lalgorithme SEM : [20] Afin de rduire le risque de tomber dans un maximum
local de vraisemblance, Celeux et Diebolt en 1985 proposent dintercaler une
tape stochastique de classification entre les tapes E et M.
2.7.3.2 Robust Bayesian Estimator (RBE)
Lapproche Robust Bayesian Estimator [30, 31, 32, 33, 34, 9] est considre comme une
procdure qui parcourt tout lensemble des donnes D, enregistre les observations
concernant les variables et ensuite, elle permet de borner la probabilit conditionnelle
dune variable X
i
. Cette procdure commence par identifier les frquences virtuelles
suivantes :
n(X
i
=x
k
| ?) : qui reprsente le nombre dobservations o la variable X
i
prend la
valeur x
k
et la valeur de pa(X
i
) est non compltement observe.
Chapitre 2 Les rseaux baysiens

35

(2.11)
n(? | pa(X
i
)=x
j
) : qui reprsente le nombre dobservattions o les parents pa(X
i
)
prend la configuration xj et la valeur de X
i
est manquante.
n(? | ?) : qui dsigne le nombre dobservattions o les deux valeurs de X
i
et pa(X
i
)
sont inconnues et la valeur de pa(X
i
) peut tre complete comme xj.
Ces frquences nous aident calculer le nombre minimum et maximum des observations
qui peuvent avoir les caractristiques X
i
=x
k
et pa(X
i
)=x
j
dans la base des donnes D :
( )
( )
( )
( ) ( ) ( )
min
n ? ? ? ?
i k i j i j i k
n X x pa X x n pa X x n X x n = = = = = + = +

Lquation 2.11 dsigne le nombre minimum des observations avec les caractristiques
X
i
=x
k
et pa(X
i
)=x
j
.
( ) ( ) ( ) ( ) ( ) ( )
max
n ? ? ? ?
i k i j i j i k
h k
n X x pa X x n pa X x n X x n

= = = = = + = +



Lquation 2.12 reprsente le nombre maximum des observations avec les caractristques
X
i
=x
k
et pa(X
i
)=x
j
.
Les frquences virtuelles dfinies prcdemment peuvent avoir la valeur nulle. Pour viter
cette situation on fait appel la distribution de Dirichlet avec les paramtres
,j,k
.
La borne infrieure de lintervalle est dfinie par lquation 2.13 :
( )
( )
( )
( )
( ) ( )
, ,
, ,
,
min
i j k i k i j
i j k i k i j
i j i j min
n X x pa X x
P X x pa X x
n pa X x n

+ = =
= = = =
+ = +


et la suprieure par lquation 2.14:
( )
( )
( )
( )
( ) ( )
, ,
, ,
,
max
i j k i k i j max
i j k i k i j
i j i j max
n X x pa X x n
P X x pa X x
n pa X x n

+ = = +
= = = =
+ = +




(2.12)
(2.13)
(2.14)
Chapitre 2 Les rseaux baysiens

36

Alors nous concluons que
i,j,k
[min
i,j,k
, max
i,j,k
]
Un exemple dtaill donn dans [32] montre lutilisation des ces quations dans le calcul
des probabilits conditionnelles en dterminant les bornes minimales et maximales de
lintervalle.
Cette phase de dtermination de min
i,j,k
et max
i,j,k
dpend seulement de la frquence des
donnes observes dans la base des donnes et des frquences virtuelles calcules en
compltant les enregistrements. Lavantage majeur de cette mthode est lindpendance de
la distribution des donnes manquantes sans essayer de les infrer.
Pour trouver les meilleurs paramtres pour cette mthode, une deuxime phase est
ncessaire. Elle estime les paramtres en utilisant une combinaison convexe partir de
chaque distribution calcule pour chaque noeud donn. Cette combinaison convexe peut
tre dtermine soit par des connaissances externes sur les donnes manquantes, soit par
une estimation dynamique partir des informations valables dans la base des donnes. Une
description de lexcution de cette phase est donne dans [31, 33].

2.7.3.3 Lchantillonnage de Gibbs
Dans cette section, on dcrit lchantiollonnage de Gibbs [54, 46, 9] comme une mthode
gnrale pour linfrence probabiliste. Cette mthode est mise en place pour la copie des
informations incompltes et elle est bien suggere pour un nombre important
dapplications.
Lchantiollonnage de Gibbs est un cas particulier des mthodes MCMC (Monte Carlo
Markov Chain). Il permet de gnrer une chaine de Markov dont la distribution est
stationnaire. Il gnre une chane dchantillons en acceptant ou en rejetant des points
intressants. Par exemple, la mthode dchantillonnage de Gibbs sapplique lorsque
X={x
1
,x
2
,...,x
n
} est multidimentionnel et consiste tirer successivement sur toutes les
distributions conditionnelles p(x
k
|X
\k
) en instanciant X
\k
avec les valeurs trouves lors des
prcdents tirages.
Dans lapprentissage des paramtres, lchantillonnage de Gibbs est une mthode qui
converge lentement ou nadmet pas de solution si le nombre des variables manquantes est
trs grand.
Soit le problme dapprentissage avec deux paramtres

et

. Nous pouvons
chantillonner partir des distributions conditionnelles p(

, D) et p(

, D) o D
Chapitre 2 Les rseaux baysiens

37

sont les donnes. Alors, nous commenons par un point initial arbitraire dans lespace des
paramtres et on construit une squence comme suit :

{(

(0),

(0)),(

(1),

(1)),..(

(k),

(k))}

Pour k de 1 n, les paramtres sont dfinis comme suit:

(k) ~ p(

(k 1), D)

(k) ~ p(

(k), D)
O ~ indique que la valeur en question est construite partir de la distribution indique.
La mthode peut tre gnralise pour nimporte quel nombre de variables m comme suit:

(k) ~ p(

(k 1),

(k 1), ,

(k 1), D)

(k) ~ p(

(k 1),

(k 1), ,

(k 1), D)




(k) ~ p(

(k),

(k), ,
()
(k), D)
La convergence de cette mthode est assez lente et parfois inacceptable.
M.Romani et P.Sebastiani [32] ont montr daprs leurs rsultats exprimentaux que
lorsque les donnes manquantes sont de type MCAR ou MAR, les deux algorithmes EM et
lchantillionnage de Gibbs peuvent utiliser les connaissances sur les donnes pour estimer
les tables des probabilits conditionnelles alors que lalgorithme RBE ne peut pas dans la
majorit des cas donner la mme prcision dans les prdictions correctes.
Cependant, lorsque les donnes manquantes sont MNAR, les trois algorithmes donnent des
fausses prdictions pour le mcanisme dapprentissage des donnes manquantes.
Afin de rduire les inconvnients des algorithmes EM et de lchantiollonnage de Gibbs
dans lapprentissage des paramtres, lincorporation des connaissances sur le domaine dans
le processus dapprentissage est utilise. Elle a pour but, la rduction de lespace de
recherche et lchappement des maximums locaux. Il existe deux approches essentielles
dincorporation des connaissances. La premire consiste mettre des contraintes sur les
paramtres
i,j,k
et la deuxime consiste introduire des influences qualitatives entre les
variables alatoires.
.
.
.
.
.
.
Chapitre 2 Les rseaux baysiens

38

2.7.3.4 Incorporation des contraintes sur les paramtres
Le processus dapprentissage de paramtres dans le rseau baysien est assez complexe.
Lintgration des contraintes [51, 10, 5] dans un tel processus permet damliorer
lestimation des probabilits sur deux niveaux qui sont la prcision et la vitesse de
convergence. Les contraintes peuvent tre utilises dans ce cadre sont de diffrents types
[43]. Nous les citons dans ce qui suit :
Contrainte de type 1 : la valeur du paramtre est connue
Exemple : si un patient a une attaque cardiovasculaire on a 90% de probabilit que le
patient a une douleur thoracique.
Contrainte de type 2 : partage des paramtres
Exemple : tant donne une combinaison des symptmes, certaines maladies sont
quiprobables.
Contrainte de type 3 : proportionnalit constantes
Exemple : tant donne une combinaison des symptmes, la maladie X est quiprobable
la maladie Y.
Contrainte de type 4 : partage de la somme
Exemple : le patient fumeur a la mme chance davoir une maladie cardiovasculaire
quavoir une maladie pulmonaire.
Contrainte de type 5 : partage du ratio
Exemple : la proportion relative mot de lordinateur est la mme au sein de diffrents
langages. Selon le pays, certains mots relatifs mot de lordinateur peuvent tre utiliss
dans dautres domaines.
Contrainte de type 6 : partage gnral des paramtres
Exemple : Sachant quil est fumeur, la probabilit quune personne a une attaque
cardiovasculaire est la mme pour un patient qui vit dans une zone pollue ou non.
Contrainte de type 7 : partage des paramtres hirarchiques
Exemple : il existe des mots qui sont spcifiques pour des pays. Dautres sont partags par
diffrents langages.
Contrainte de type 8 : partage de la somme, distribution multiple
Exemple : la frquence des subjectifs en italien est gale la frquence des subjectifs en
espagnol.


Chapitre 2 Les rseaux baysiens

39

Contrainte de type 9 : partage de ratio, distribution multiple
Exemple : la frquence relative davoir une attaque cardiovasculaire dans deux pays
diffrents est la mme, alors quavoir une maladie de cur est diffrente cause du style
de vie dans ces pays.
Contrainte de type 10 : inquation entre la somme des paramtres
La probabilit des adverbes dans un langage est infrieure la probabilit davoir des
verbes dans le mme langage.
Contrainte de type 11 : borne suprieure (respectivement infrieure)
La probabilit des noms dans la langue anglaise est plus grande que 0,4.

Wenhui Liao et Qiang Ji dans [51] ont propos dautres types de contraintes qui
concernent le rang et la relation relative entre les paramtres.
Contrainte du rang :
Le rang dfinit la borne infrieure et la borne suprieure de paramtres. Supposons que

i,j,k
et
i,j,k
reprsentent respectivement la borne infrieure et la borne suprieure sur
i,j,k

alors la contrainte du rang est dfinie formellement par la forme suivante :

i,j,k

i,j,k

i,j,k
avec 0
i,j,k
1 et 0


,,
1
Contrainte de la relation relative
Elle dfinit la relation relative entre une paire de paramtres. Elle est exprime par les
signes <, > et =. Si les deux paramtres partagent le mme nud X
i
et la mme
configuration x
j
alors la contrainte est dite intra-relation et peut tre crite sous la forme :

i,j,k

i,j,k
o kk
Si les deux paramtres ne satisfont pas la contrainte intra-relation, alors la contrainte est
dite inter-relation et elle est dfinie par la forme suivante :

i,j,k

i,j,k
o ii et j j
Wenhui Liao et Qiang Ji ont intgr ces deux types de contraintes dans lalgorithme EM
pour proposer une nouvelle mthode dapprentissage de paramtres dans le rseau
baysien appele CEM [51]. Lincorporation de contraintes est faite de la manire
suivante : Soit A lensemble des paramtres o leur rang est connu grce aux
connaissances du domaine et soit B lensemble qui contient les contraintes de relation
relative.


Chapitre 2 Les rseaux baysiens

40

Le problme dapprentissage de paramtres avec la mthode CEM est donn par :
Maximiser (L
D
()) sous les contraintes suivantes :

i,j,k

i,j,k
;
i,j,k

i,j,k

i,j,k
;

i,j,k
=1
O 1 i ; 1 j
i
; 1 k
i

2.7.3.5 Apprentissage des paramtres avec influence qualitative [50, 4, 3]
Ce type de connaissances priori sur le domaine traduit linfluence que peut avoir la
valeur dun nud sur un autre nud. Cette influence est exprime par les signes +, -, 0.
Une influence positive est note par le signe + sur larc qui relie deux variables alatoires
alors quune influence ngative est note par le signe -. Le 0 dsigne labsence dune
influence dun nud sur un autre nud.
Soient :
- un nud Y avec les parents X= {X
1
, X
2
, , X
k
}
- D
y
= {1, 2, , d
y
} lensemble qui contient d
y
valeur possible pour Y avec
lhypothse que les valeurs dans D
y
sont linairement ordonnes.
- D
Xi
= {1, 2, , d
i
} lensemble qui contient d
i
valeurs possibles pour X
i
. Les
valeurs prises par X
i
sont aussi linairement ordonnes.
- D= D

Xi
dnote lensemble de toutes les configurations des parents de Y.
Alors,
Un parent X
i
a une influence positive sur Y si pour tout x
i
, x
i


D
Xi
on a :
x
i
x
i
=> P(Y| x
i
, X
-i
) P(Y| x
i
, X
-i
)
o X
-i
est nimporte quelle configuration des parents de Y autre que le nud X
i
.
P(Y| x
i
, X
-i
) P(Y| x
i
, X
-i
) signifie que la distribution de Y pour la configuration du
parent (x
i
, X
-i
) est stochastiquement petite que la configuration du parent (x
i
, X
-i
) c..d.
F(y| x
i
, X
-i
) F(y| x
i
, X
-i
) pour y={1, 2, , d
y
}o F(y) = P(Y y). En dautres termes,
pour la petite valeur de X
i
, les petites valeurs pour Y sont les mmes.
De mme, une influence ngative est dfinie dune manire analogue : pour des larges
valeurs de X
i
, les petites valeurs pour Y sont les mmes.




Chapitre 2 Les rseaux baysiens

41

On illustre ces observations par lexemple ci-dessous :







Figure 2.5 : Rseau baysien avec influence qualitative

La figure 2.5 exprime que le parent X1 a une influence positive sur Y. Si X1 est absent
alors X3 a une influence ngative sur Y. En plus, si X1 est prsent et X2 est absent alors
X3 na aucune influence sur Y. le rseau ne spcifie aucune connaissance priori par
rapport au signe dinfluence de X2 sur Y.

2.8 Conclusion
Durant ces dernires annes, lutilisation des modles graphiques est de plus en plus en
progression. Lintrt de ces modles rside dans leur comprhension par les non
spcialistes. Dans ce chapitre nous avons donn une description du principe de
fonctionnement de modles graphiques. Ensuite, nous avons mis en uvre les rseaux
baysiens en dtaillant ces principaux concepts. Puis, nous avons expos le principe
dinfrence. Nous avons par ailleurs dtaill brivement le principe dapprentissage de
structure. Finalement, nous avons consacr une grande partie pour la description de
mthodes dapprentissage de paramtres dans le cas o la base dapprentissage est
complte ou incomplte.



+
Y
X3 X2 X1
X1=0 : -
(+,0) :0


















































Chapitre 3


Proposition dune
approche daide au
diagnostic des tumeurs
crbrales


Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

43

3.1 Introduction
Dans ce chapitre, nous allons proposer notre approche pour la modlisation de lexpertise
dans le domaine daide au diagnostic des tumeurs crbrales. Pour ce faire, nous
commenons dabord par donner la motivation qui nous a conduit vers le choix des rseaux
baysiens comme outil de modlisation. Nous prsentons ensuite la modlisation de la
structure du rseau baysien afin de rsoudre la problmatique daide au diagnostic des
tumeurs crbrales. Puis, nous passons la prsentation de notre contribution qui concerne
lapprentissage de paramtres.

3.2 Motivations du choix des rseaux baysiens pour la
modlisation de lexpertise du diagnostic des tumeurs crbrales
Notre travail porte sur la modlisation de lexpertise relative au diagnostic dune famille
des tumeurs crbrales qui est celle des tumeurs de type intra-axial sus-tentorielle. Les
tumeurs de cette famille se caractrisent par la forte ressemblance de leurs caractristiques
ce qui rend leur diagnostic assez difficile.
Nous limitons notre champ dtudes aux sept tumeurs cites ci-dessous :

1 Astrocytome
2 Gliome
3 Oligodendrogliome
4 lymphome
5 Mtastase
6 Ependymome
7 Mdulloblastome
Tableau 3.1 : Liste des tumeurs tudies

En observant plusieurs rapports mdicaux, nous avons constat que les informations qui
entrent dans le diagnostic de ces tumeurs crbrales se rpartissent en deux catgories. La
premire catgorie rassemble les donnes extraites du dossier mdical du patient comme
par exemple lge, le sexe et lhistorique mdical. La deuxime catgorie est constitue
dun ensemble de donnes extraites partir des images IRM. La difficult du diagnostic de
cette famille de tumeurs est due aux valeurs communes pour certaines caractristiques.
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

44

Nous avons collect lensemble de paramtres qui entrent en jeu dans le diagnostic des
tumeurs crbrales ainsi que leurs valeurs possibles dans le tableau 3.2.


Caractristiques Valeurs possibles
L
e
s

c
a
r
a
c
t

r
i
s
t
i
q
u
e
s

r
a
d
i
o
l
o
g
i
q
u
e
s

Sige Sus-tentorielle, sous-tentorielle
Localisation
Superficielle, Profonde, Tronc crbral, Vermis,
Hmisphre crbelleux
Limite Bien limite, mal limite
Taille Petite, moyenne, grande
Nombre Unique, multiple
Prsence Prise de Contraste Intense, Faible, Absente
Prise de signal en T1 Hyposignal, Isosignal, Hypersignal, Hyposignal et isosignal
Prise de signal en T2 Hyposignal, isosignal, Hypersignal, isosignal et hypersignal
Composante Kystique Oui, Rare, Non
Calcification Oui, Rare, Non
Hmorragie -, +
Envahissement du corps Calleux -, +
Prsence de ldme 0, +, ++, +++
Effet de masse 0, +, ++
Type de prise de contraste Nodulaire, Annulaire, Annulaire/ Nodulaire
Composition Charnue, Mixte, Kystique
L
e
s

c
a
r
a
c
t

r
i
s
t
i
q
u
e
s

c
l
i
n
i
q
u
e
s

Lge Enfant, Adulte, +60
Le sexe Homme, Femme
Autres maladies Oui, non
Premire infection Oui, non
Tableau 3.2 : Les caractristiques prises en considration dans le diagnostic des tumeurs crbrales
et leurs valeurs possibles

Lutilisation de ces caractristiques dans le cadre dune consultation mdicale est
insuffisante. Lexpertise du mdecin est ncessaire afin davoir une bonne prcision dans
ce type de diagnostic. Ce dernier intervient dans la majorit de cas tudis pour lever
lincertitude didentification du type de la tumeur. Son intervention se base sur les
situations traites auparavant. Chaque situation donne de nouvelles connaissances sur une
tumeur donne et met jour lexpertise du mdecin concernant son incertitude sur la
frquence dapparition dune tumeur par rapport une autre. Lincertitude dans le
diagnostic des tumeurs crbrales peut tre modlise par des probabilits.
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

45

Loutil retenu doit dabord collecter les diffrentes caractristiques avec lesquelles nous
pouvons dterminer le type de la tumeur. Cet outil doit ensuite exprimer la notion
dincertitude qui existe dans le cadre dun diagnostic mdical.
Les modles graphiques probabilistes semblent tre loutil dintelligence artificiel le plus
appropri la modlisation des systmes daide au diagnostic mdical. Par nature, ces
systmes intgrent un certain degr dincertitude et expriment de faon lisible le
phnomne de dpendance. Les rseaux baysiens offrent une reprsentation graphique
explicite, intuitive et comprhensible par les non spcialistes. Ils donnent aussi la
possibilit de rassembler et de fusionner de connaissances de diverses natures dans un
mme modle. Pour ces raisons, le formalisme des rseaux baysiens a t retenu pour la
modlisation du problme de diagnostic des tumeurs crbrales. La modlisation des
connaissances sous forme de rseaux baysiens amne une meilleure comprhension de
processus de cette problmatique.
Dans le cadre dun modle daide au diagnostic des tumeurs crbrales, les rseaux
baysiens permettent dutiliser la liste de caractristiques cites dans le tableau 3.2 dans un
mme modle. Ces caractristiques sont modlises par les nuds du rseau baysien. En
plus, les arcs du rseau baysien reprsentent les indpendances entre ces diffrents
nuds. Lincertitude de lexpert est exprime par un ensemble de tables de probabilits
conditionnelles qui permettent de quantifier le taux de certitude dun nud en tenant
compte de ses parents. Les tables de probabilits conditionnelles CPTs sont remplies au
pass par lexpert du domaine. Cette tche devient de plus en plus difficile pour la
modlisation de problme de grande taille. Ce travail se fait aujourdhui par un
apprentissage automatique partir dune base de donnes collecte par lensemble de cas
tudis par lexpert du domaine. Ce processus connu sous le nom de apprentissage de
paramtres dans le rseau baysien permet de remplir les CPTs mme en prsence de
donnes manquantes dans la base dapprentissage.
Nous constatons que les rseaux baysiens offrent la bonne modlisation de problmes de
diagnostic dans le domaine mdical. Nous allons adapter ces outils dans la suite de ce
chapitre pour proposer une approche daide au diagnostic des tumeurs crbrales.





Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

46

3.3 Approche globale
La figure 3.1, reprsente les tapes de base ncessaires la proposition dun modle daide
au diagnostic des tumeurs crbrales en utilisant les rseaux baysiens. Ces tapes sont : la
modlisation de la structure, la modlisation des paramtres par apprentissage et
linfrence.




Figure 3.1 : Etapes ncessaires la modlisation de lapproche daide au diagnostic des tumeurs
crbrales

La modlisation de la structure du rseau baysien est une phase assez complexe. Cette
difficult est due au grand nombre de caractristiques qui entrent en jeu dans le diagnostic
des tumeurs crbrales. Une fois la structure du rseau baysien fixe, il y a lieu de dfinir
lensemble des paramtres. Cette dfinition peut tre accomplie soit par lexpert du
domaine soit par apprentissage automatique. Dans notre travail, nous allons faire un
apprentissage de paramtres de faon automatique. Pour ce faire, nous avons collect un
ensemble de cas traits auparavant qui sont sous la forme de rapports mdicaux et des
images IRM. Nous avons prpar une base de donnes partir de ces connaissances o les
colonnes reprsentent toutes les variables qui modlisent la structure du rseau baysien et
les lignes reprsentent les cas tudis.
La troisime phase est une tape qui permet de valider la structure et les paramtres du
rseau baysien. Elle permet dinjecter des vidences dans la meilleure modlisation
obtenue afin de prendre la dcision la plus adquate. Dans notre travail, nous nallons pas
tudier cette tape pour la grande varit de ces algorithmes. Nous avons choisi un
algorithme standard appel arbre de jonction pour faire linfrence. Le calcul exact
effectu par cet algorithme est derrire ce choix.
Chaque tape cite ci-dessus peut influencer sur la qualit du modle daide au diagnostic
des tumeurs crbrales. Nos travaux de recherche mettent plutt laccent sur les deux
premires tapes.
Modlisation de la
structure du rseau
baysien
Modlisation des
paramtres
(par apprentissage)
Prise de dcision
(Infrence)
Chapitre 3


Le dveloppement de notre approche se droule en deux phases
nous nous focalisons sur la modlisation de la structure du rseau baysien. Pour ce faire,
nous partons dune structure dduite des entretiens que nous avons effectus avec les
mdecins pour identifier les dpendances entre les c
ensuite cette structure de dpart en lui apportant des modifications bases sur un ensemble
de descripteurs prioritaires didentification des tumeurs crbrales.

Figure 3.2
Dans la deuxime phase, nous nous intressons essentiellement la modlisation des
paramtres du rseau. Pour ce faire, nous fixons dabord la structure de ce dernier. Puis,
nous dduisons ses paramtres travers une technique dapprentissage que nous
proposons. Cette technique est une variante de lalgorithme EM [2, 42]. Dans la suite de ce
chapitre, nous allons donner une description dtaille des deux phases cites ci
que les rsultats exprimentaux quelles fournissent.

3.4 Modlisation de la structure du
La modlisation de la structure du rseau baysien possde une grande importance de point
de vue conceptuel de la problmatique du diagnostic des tumeurs crbrales. Elle permet
de concevoir les connaissances utilises sur cette problm
comprhensible par les non spcialistes. Pour ce faire, nous sommes parties dune
proposition directement dduite partir du raisonnement effectu par les mdecins. Cette
structure est compose de trente nuds rpartis sur quat
reprsente lensemble des caractristiques qui sont mises en jeu pour la prise de dcision
dans le cadre de diagnostic des tumeurs crbrales. Le deuxime et le troisime niveau sont
des nuds intermdiaires de dcision. Le qu
Modle daide au diagnostic
47
Le dveloppement de notre approche se droule en deux phases. Dans la premire phase,
nous nous focalisons sur la modlisation de la structure du rseau baysien. Pour ce faire,
nous partons dune structure dduite des entretiens que nous avons effectus avec les
mdecins pour identifier les dpendances entre les caractristiques. Nous amliorons
ensuite cette structure de dpart en lui apportant des modifications bases sur un ensemble
de descripteurs prioritaires didentification des tumeurs crbrales.
Figure 3.2 : Dmarche de la premire tape

me phase, nous nous intressons essentiellement la modlisation des
paramtres du rseau. Pour ce faire, nous fixons dabord la structure de ce dernier. Puis,
nous dduisons ses paramtres travers une technique dapprentissage que nous
technique est une variante de lalgorithme EM [2, 42]. Dans la suite de ce
chapitre, nous allons donner une description dtaille des deux phases cites ci
que les rsultats exprimentaux quelles fournissent.
Modlisation de la structure du rseau baysien
La modlisation de la structure du rseau baysien possde une grande importance de point
de vue conceptuel de la problmatique du diagnostic des tumeurs crbrales. Elle permet
de concevoir les connaissances utilises sur cette problmatique de manire simple et
comprhensible par les non spcialistes. Pour ce faire, nous sommes parties dune
proposition directement dduite partir du raisonnement effectu par les mdecins. Cette
structure est compose de trente nuds rpartis sur quatre niveaux. Le premier niveau
reprsente lensemble des caractristiques qui sont mises en jeu pour la prise de dcision
dans le cadre de diagnostic des tumeurs crbrales. Le deuxime et le troisime niveau sont
des nuds intermdiaires de dcision. Le quatrime niveau est compos dun seul nud
au diagnostic des tumeurs crbrales
. Dans la premire phase,
nous nous focalisons sur la modlisation de la structure du rseau baysien. Pour ce faire,
nous partons dune structure dduite des entretiens que nous avons effectus avec les
aractristiques. Nous amliorons
ensuite cette structure de dpart en lui apportant des modifications bases sur un ensemble

me phase, nous nous intressons essentiellement la modlisation des
paramtres du rseau. Pour ce faire, nous fixons dabord la structure de ce dernier. Puis,
nous dduisons ses paramtres travers une technique dapprentissage que nous
technique est une variante de lalgorithme EM [2, 42]. Dans la suite de ce
chapitre, nous allons donner une description dtaille des deux phases cites ci-dessus ainsi
rseau baysien
La modlisation de la structure du rseau baysien possde une grande importance de point
de vue conceptuel de la problmatique du diagnostic des tumeurs crbrales. Elle permet
atique de manire simple et
comprhensible par les non spcialistes. Pour ce faire, nous sommes parties dune
proposition directement dduite partir du raisonnement effectu par les mdecins. Cette
re niveaux. Le premier niveau
reprsente lensemble des caractristiques qui sont mises en jeu pour la prise de dcision
dans le cadre de diagnostic des tumeurs crbrales. Le deuxime et le troisime niveau sont
atrime niveau est compos dun seul nud
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

48

qui dsigne le nud dcision permettant didentifier le type de la tumeur crbrale. La
structure de ce rseau est donne par la figure 3.3.


Figure 3.3 : Structure du rseau baysien dduite partir du raisonnement effectu par les mdecins

Les diffrentes significations de noms employs dans la figure 3.3 sont dtailles dans le
tableau 3.3.















Tableau 3.3 : Signification des nuds du rseau baysien


Nom du nud signification
AG Age
CK Composante Kystique
CL Calcification
CP Composition
DM Dossier Mdical
DT Dcision Tumeur
ECC Envahissement Corps Calleux
EDA Etat donnes Auxiliaires
EDE Etat donnes encphaliques
EDL Etat donnes Liquides
EDT Etat Donnes tumeur
EM Etat Radiologique
Ems Effet de Masse
EPC Etat de Prise de Contraste
EPS Etat prise de signal
Nom du nud Signification
ES Etat Clinique
HM Hmorragie
IPC Importance Prise de Contraste
LT Location Tumeur
LTT Limite Tumeur
MA Maladies auxiliaires
NT Nombre Tumeur
PI Premire Infection
Poe Prsence dme
PST1 Prise de Signal en T1
PST2 Prise de Signal en T2
SG Sige
SX Sexe
TPC Type de Prise de Contraste
TT Taille Tumeur
Niveau 1
Niveau 2
Niveau 3
Niveau 4
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

49

Ltude exprimentale de nos travaux a t labore avec la librairie Bayesian Network
Toolboxs (BNT) de Kevin Murphy avec laquelle plusieurs travaux de recherche ont t
effectus. BNT est une bibliothque open-source de fonctions Matlab pour la cration,
linfrence et lapprentissage de modles graphiques dirigs ou non dirigs. En particulier
cest un ensemble de fonctions qui permettent de grer tous les concepts relis aux rseaux
baysiens. Cette librairie permet de donner la courbe reprsentative de la variation de Log-
Likelihood qui est dfini par :

, , , ,
1 1 1
LL(D| ) = log L(D| )= log
i i
q r
n
i j k i j k
i j k
N
= = =


O :
n est le nombre de nuds.
q
i
est le nombre de configurations de parents du nud i.
r
i
est le nombre dtats du nud i.
N
i,j,k
est le nombre de cas o le nud i est dans ltat k et ses parents dans la configuration
j.

i,j,k
est la valeur du paramtre o le nud i est dans ltat k et ses parents sont dans la
configuration j.

Lquation 3.1 permet de donner la performance de paramtres calculs dans le rseau
baysien. Le Log-Likelihood donne les paramtres qui dcrivent le mieux la base
dapprentissage. Cette valeur est mise jour chaque itration dans lalgorithme EM.
Dans la suite de ce paragraphe, nous adoptons lalgorithme EM [2, 42] pour faire
lapprentissage de paramtres et lalgorithme darbre de jonction pour linfrence. Nous
commenons par valuer la performance de la structure dduite partir du raisonnement
effectu par les mdecins.
Nous utilisons une base dapprentissage compose de 72 cas et une base de test de cinq
instanciations possibles pour les nuds. La figure 3.4 montre la variation de lallure de la
fonction Log-Likelihood.
(3.1)
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

50


Figure 3.4 : Log-Likelihood de la structure dduite partir du raisonnement effectu par les
mdecins

Nous montrons dans le tableau 3.4 certains nombre dindicateurs relatifs la structure du
rseau baysiens dduite partir du raisonnement effectu par les mdecins. Ces
indicateurs concernent le nombre ditrations de lalgorithme EM, le temps dexcution et
la prcision de prdiction de linfrence.

Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
32 64,107 40
Tableau 3.4 : Indicateurs relatifs la premire structure dduite partir du raisonnement des
mdecins

Les rsultats obtenus pour cette premire proposition de la structure ne sont pas
satisfaisants de point de vue prcision dinfrence.
Pour faire face au faible nombre de cas qui existent dans la base de donnes, nous avons
ajout des connaissances priori sous la forme des coefficients de Dirichlet qui consiste
crer de cas imaginaires avec le mme nombre de variables et les mmes valeurs prises par
ces nuds. Lajout des connaissances priori de Dirichlet ne fait pas varier le Log-
Likelihood comme le montre la figure 3.5.

Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

51


Figure 3.5 : Log-Likelihood de la structure dduite partir du raisonnement effectu par les
mdecins avec des connaissances priori de Dirichlet

Le tableau 3.5 montre les valeurs des indicateurs obtenues aprs la phase dapprentissage
et dinfrence en ajoutant des connaissances priori de Dirichlet. Ces valeurs se
rapprochent de celles obtenues partir de la structure initiale. Les coefficients de Dirichlet
sont inspirs de la base dapprentissage ce qui explique les valeurs obtenus.

Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
32 62,485 40
Tableau 3.5 : Les valeurs des indicateurs obtenues aprs lajout de connaissances priori de
Dirichlet

La prise de dcision avec ces modlisations reste ambige. Ceci nous donne des
motivations pour trouver de nouvelles structures qui augmentent la prcision dans le
diagnostic des tumeurs crbrales.
Pour remdier aux limites de cette premire modlisation, notamment en ce qui concerne la
faible prcision de linfrence, notre premire approche consiste modifier la structure
dduite partir du raisonnement effectu par les mdecins. Ces modifications oprent par :
Changement de lorientation des arcs en conservant le mme nombre de variables
Elimination des variables
Modlisation par rseau baysien naf


Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

52

Chaque modification possde une stratgie particulire. Les experts de diagnostic des
tumeurs crbrales ont donn un tableau rcapitulatif des caractristiques prioritaires pour
lidentification de six tumeurs parmi sept. Le tableau 3.6 donne la liste de ces
caractristiques.
Tumeur Mtastase Astrocytome Pylocitique Glioblastome
D
e
s
c
r
i
p
t
e
u
r
s

P
r
i
o
r
i
t
a
i
r
e
s

Descripteur Valeur Descripteur Valeur Descripteur Valeur
Unique Multiple Siege Sous Tentoriel Taille Grande
dme +++ Forme PS Annulaire/Nodule Sige Sus tentoriel
Forme PC Htrogne

Corps calleux Oui

dme Existe

Calcification Oui
Tumeur Oligodendrogliome Lymphome Gliome de Bas Grade
D
e
s
c
r
i
p
t
e
u
r
s

P
r
i
o
r
i
t
a
i
r
e
s

Descripteur Valeur Descripteur Valeur Descripteur Valeur
Siege Sus Tentoriel Siege Profond Importance PC Absente, Faible
Calcification Oui PST1 Iso & Hyper dme 0

PST2 Iso effet masse 0

Limite Mal limit
Tableau 3.6 : Les descripteurs prioritaires pour lidentification des tumeurs crbrales

La dfinition des stratgies appliques la modification de la structure dduite partir du
raisonnement effectu par les mdecins est base sur les connaissances collectes dans le
tableau 3.6. Dans le paragraphe suivant, nous allons dcrire le principe de chaque stratgie
ainsi que les rsultats obtenus.

3.4.1 Proposition de nouvelles structures par changement de
lorientation des arcs
Le principe consiste dgager les caractristiques prioritaires dans le diagnostic des
tumeurs crbrales et de les orienter directement au nud dcision. On remarque daprs le
tableau 3.6 que plusieurs critres entrent dans laide la dcision des tumeurs crbrales.
On cite dans un premier plan le sige, ldme et la calcification.
Nous proposons dans la suite des modlisations possibles drives de la structure dduite
partir du raisonnement effectu par les mdecins en changeant lorientation des arcs qui
sont en relation avec ces nuds.
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

53

3.4.1.1 Etude de linfluence des nuds eda et edt

Figure 3.6 : Proposition dune structure en changeant les nuds eda et edt

La figure prcdente illustre le changement de la direction darc de deux nuds eda et
edt vers le nud dcision au lieu dtre dirige vers le nud em . Ces nuds
rassemblent la majorit des caractristiques qui entrent dans le diagnostic des tumeurs
crbrales de faon directe. La figure 3.7 illustre la variation de Log-Likelihood chaque
itration de lalgorithme EM.


Figure 3.7 : Log-Likelihood de linfluence de nuds eda et edt
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

54

Lexprimentation de cette modlisation a abouti aux rsultats donns par le tableau 3.7.


Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
21 41,13 40
Tableau 3.7 : Rsultat dinfluence des nuds eda et edt

Nous remarquons daprs cette modlisation que le nombre ditrations pour lalgorithme
EM diminue par rapport la structure initiale. Ceci est due au nombre de paramtres qui a
diminu dans le rseau baysien. Le rsultat de la prcision dans linfrence reste 40%.
3.4.1.2 Etude de linfluence des nuds sg , lt et cl

Figure 3.8 : Etude de linfluence des nuds sg , lt et cl

Nous remarquons daprs le tableau 3.6 que les nuds sg , lt et cl sont les trois
caractristiques similaires dans les tumeurs tudies. En effet, ces nuds jouent un rle
important dans la prise de dcision. Cette structure est excute sur la mme machine et
aboutit la courbe de Log-Likelihood illustre dans la figure 3.9.
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

55


Figure 3.9 : Log-Likelihood de linfluence des nuds sg , lt et cl

La figure prcdente montre que lallure de Log-Likelihood est similaire aux cas tudis
mais en se rapprochant de la valeur -1000. Ltude de la performance de cette structure est
donne par le tableau 3.8.

Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
21 24,86 40
Tableau 3.8 : Rsultats dinfluence des nuds sg , lt et cl

Nous constatons que le pourcentage de prcision dans linfrence est similaire celui des
modlisations tudies auparavant. Le seul avantage de cette suggestion est le gain en
temps dexcution.
3.4.1.3 Etude de linfluence des nuds cl , sg et edt
Le tableau 3.6 montre que la calcification et le sige jouent un rle important dans la phase
de diagnostic des tumeurs crbrales. En plus, le nud edt rassemble les
caractristiques extraites partir de limage IRM. Ces facteurs nous encouragent les
relier directement vers le nud dcision.

Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

56


Figure 3.10 : Etude de linfluence des nuds cl , sg et edt

Le Log-Likelihood pour cette proposition de structure nous donne presque la mme allure.
La figure 3.11 montre que la valeur de Log-Likelihood dpasse la valeur -1000 ce qui
reprsente un gain du point de vue vraisemblance des paramtres avec la base
dapprentissage.

Figure 3.11 : Log-Likelihood de linfluence des nuds cl , sg et edt





Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

57

Ltude exprimentale de cette modlisation est donne dans le tableau 3.9.
Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
21 30,77 60
Tableau 3.10 : Rsultats de linfluence des nuds sg , cl et edt

Nous constatons une amlioration dans la prcision de linfrence. Cette valeur atteint une
moyenne de 60% de cas tests.
Nous avons montr daprs ces premires modifications de la structure initiale propose
par les mdecins que lamlioration dans le pourcentage de prcision effectu par
linfrence reste trs faible et nobit pas aux tendances du modle daide au diagnostic.
Nous allons dans la suite proposer une autre modification base sur la suppression de
certaines variables.
3.4.2 Proposition de nouvelles structures par suppression de
variables
Le principe consiste liminer les variables qui ne sont pas prioritaires dans le diagnostic
ou celles qui possdent beaucoup des valeurs manquantes. Nous avons propos plusieurs
structures dans ce choix. Les meilleures suggestions sont modlises dans les sections qui
suivent.
3.4.2.1 Etude de linfluence de la suppression des nuds ma et pi

Figure 3.12 : Etude de linfluence de la suppression des nuds ma et pi

Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

58

Cette structure est la mme que la structure initiale mais en liminant les nuds ma et
pi qui sont les maladies auxiliaires et la premire infection. Ces deux caractristiques
nentrent pas dans le diagnostic de la majorit des tumeurs. En outre, elle prsente des cas
qui ne sont pas observs dans la base dapprentissage, ce qui explique leur limination de
la structure dduite partir du raisonnement effectu par les mdecins.

Figure 3.13 : Log-Likelihood aprs suppression des nuds ma et pi
Nous constatons que le Log-Likelihood dpasse la valeur -1000. Ceci sexplique par la
rduction des valeurs manquantes dans la base dapprentissage.

Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
25 45,18 40
Tableau 3.10 : Rsultats aprs suppression des nuds ma et pi

Ce faible pourcentage de prcision de linfrence nous encourage supprimer dautres
variables afin daugmenter ce taux.
3.4.2.2 Etude de linfluence de la suppression des nuds ma , pi et edt
La figure 3.14 montre quen plus de la suppression des nuds ma et pi (traitement
de cas prcdent), on supprime aussi le nud edt qui possde beaucoup de valeurs
manquantes dans la base dapprentissage. Nous obtiendrons dans ce cas les caractristiques
extraites des images IRM relies directement au nud dcision.


Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

59


Figure 3.14 : Etude de linfluence de la suppression des nuds ma , pi et edt

Ltude exprimentale de cette structure augmente lgrement la vraisemblance entre les
paramtres calculs et les donnes dans la base dapprentissage. Ceci sexplique par la
diminution du nombre des valeurs manquantes dans la base. Lallure de cette fonction est
donne par la figure 3.15.

Figure 3.15 : Log-Likelihood aprs suppression des nuds ma , pi et edt

Cette structure nous donne un pourcentage de russite dans linfrence qui atteint 60%
partir de la mme base de test. Le Log-Likelihood de cette structure se rapproche de la
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

60

valeur -900. Lalgorithme EM converge en 20 itrations et prend 34,32 secondes pour tre
excut.
Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
20 34,32 60
Tableau 3.11 : Rsultats aprs suppression des nuds ma , pi et edt

Lamlioration de la prcision nous encourage suivre cette voie de suppression des
variables. Le paragraphe suivant est une extension de la structure traite prcdemment
avec la suppression dune autre variable.
3.4.2.3 Etude de linfluence de la suppression des nuds ma , pi , edt et
eda

Figure 3.16: Etude de linfluence de la suppression des nuds ma , pi , edt et eda

Cette modlisation est une extension de la structure prcdente. Nous liminons aussi le
nud eda afin de permettre aux nuds calcification et composante kystique dtre
relis directement au nud dcision. Ces nuds jouent un rle important dans la dcision.

Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
5 9,90 80
Tableau 3.12 : Rsultats aprs suppression des nuds ma , pi , edt et eda

Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

61

Les rsultats obtenus sont trs encourageants de point de vue infrence. Cette structure
permet datteindre 80% de russite dans le diagnostic des tumeurs crbrales. De plus,
lalgorithme EM converge dans un nombre ditrations gal cinq. Le temps dexcution
est valu 9,90 secondes. La figure 3.15 nous montre la variation de lallure pour le Log-
Likelihood qui atteint la valeur -900. Les valeurs entre les itrations varient peu.

Figure 3.17 : Log-Likelihood aprs suppression des nuds ma , pi , edt et eda
Les structures proposes dans les paragraphes prcdents, nous motivent modifier la
structure du rseau baysien de faon dfinitive. Nous donnons dans le paragraphe suivant
une variante des rseaux baysiens connue sous le nom de rseau baysien de classification
ou rseau naf.
3.4.3 Modlisation laide dun rseau baysien naf
3.4.3.1 Prsentation
Nous avons montr que le rseau baysien de classification [38] est directement issu de
lapplication de la rgle de dcision de Bayes en rajoutant lhypothse dindpendance
conditionnelle des caractristiques de la tumeur crbrale conditionnellement au
caractristiques du diagnostic. Les implmentations du rseau baysien de classification
considrent que toutes les variables sont discrtes. Un des inconvnients des rseaux
baysiens de classification est le grand nombre de paramtres estimer, alors que dans la
plupart des cas, le nombre de donnes disponibles est faible. La structure du rseau
baysien de classification est trs simple. Elle se dcompose en deux couches dont la
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

62

premire est constitue par un seul nud qui prsente les diffrentes classes de dcision et
la deuxime regroupe les diffrentes caractristiques du problme.
3.4.3.2 Rseau baysien de classification

Figure 3.18 : Rseau baysien de classification

Ce rseau dont le nud classe est le nud dcision, est lune des structures les plus
simples utiliser. Elle vrifie la rgle de Bayes de faon directe. Le reste des nuds
prsente lensemble des caractristiques qui nous aide prendre une bonne dcision dans
le diagnostic des tumeurs crbrales. Lallure de Log-Likelihood nous donne une grande
amlioration par rapport aux modlisations testes auparavant. Cette courbe est donne par
la figure 3.19.

Figure 3.19 : Log-Likelihood du rseau baysien de classification

Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

63

Les rsultats obtenus sont meilleurs que les prcdents en amliorant la prcision de
linfrence. Cette structure permet datteindre jusqu 100% des diagnostics correctes. Ceci
est d au faible nombre des donnes manquantes dans la base dapprentissage.

Nombre ditrations dEM Temps dexcution (sec) Prcision de linfrence (%)
9 13,57 90 ~ 100
Tableau 3.13 : Rsultats du rseau baysien de classification


3.4.4 Bilan sur la modlisation de la structure du rseau baysien
La modlisation de la structure du rseau baysien est un processus assez difficile car ce
phnomne dpend largement du nombre de variables alatoires utilises pour mettre en
vidence la problmatique propose. Ltude de la structure initiale possde beaucoup
dinconvnients. Le choix des nuds intermdiaires de dcision a caus limprcision
aprs infrence. Cette imprcision est cause par les nuds de dcision intermdiaires.
Deux regroupements des caractristiques du premier niveau peuvent donner des dcisions
intermdiaires contradictoires. Cependant, dans un cas clinique, ces caractristiques sont
parfois prsentes au mme temps. Alors, le choix des nuds dcision intermdiaires est
invalide dans la structure dduite partir du raisonnement effectu par les mdecins.
Linconvnient de cette structure sclaircit lorsque nous avons supprim certains nuds
intermdiaires. Ce processus a abouti une nette amlioration de point de vue prcision
des rsultats dinfrence. Nous avons aussi constat que le rseau baysien naf donne une
meilleure prcision que les premires propositions. La figure 3.20 illustre un rcapitulatif
des rsultats dinfrence pour les structures tests.
Chapitre 3


Figure 3.20 : Rcapitulatif sur la prcision de linfrence pour les diffrentes structures proposes

Ces rsultats dinfrence montrent la limite de la structure
effectu par les mdecins
dcision intermdiaires.
Nous passons dans le paragraphe suivant ltude du
au diagnostic des tumeurs crbrales qui touche les paramtres du rseau baysien. Pour ce
faire, nous adoptons la structure
comme une structure connue pour faire

3.5 Modlisation de
diagnostic
Les sources dincertitude dans le cadre dun diagnostic mdical sont prsentes dans la
majorit de modles dintelligence artificielle. Lincertitude peut
labsence dun historique clinique complet et dtaill pour les patients. En plus, ces
derniers ne se rappellent pas parfois de tous les symptmes pendant lvaluation de leurs
maladies. Pendant la phase dinterrogation, linformation do
mal exprime et il peut mme mentir au mdecin. En mdecine, beaucoup de donnes sont
imprcises en particulier celles qui proviennent des images IRM et de tests de laboratoire.
0%
10%
20%
30%
40%
50%
60%
70%
80%
90%
100%
Modle daide au diagnostic
64
Rcapitulatif sur la prcision de linfrence pour les diffrentes structures proposes
Ces rsultats dinfrence montrent la limite de la structure dduite partir du raisonnement
effectu par les mdecins et mettent par consquent en cause lutilit des nuds de
Nous passons dans le paragraphe suivant ltude du deuxime modle du modle daide
au diagnostic des tumeurs crbrales qui touche les paramtres du rseau baysien. Pour ce
faire, nous adoptons la structure dduite partir du raisonnement effectu par les mdecins
comme une structure connue pour faire lapprentissage des paramtres.
des paramtres du rseau baysien
Les sources dincertitude dans le cadre dun diagnostic mdical sont prsentes dans la
majorit de modles dintelligence artificielle. Lincertitude peut tre provoque par
labsence dun historique clinique complet et dtaill pour les patients. En plus, ces
derniers ne se rappellent pas parfois de tous les symptmes pendant lvaluation de leurs
maladies. Pendant la phase dinterrogation, linformation donne par le patient peut tre
mal exprime et il peut mme mentir au mdecin. En mdecine, beaucoup de donnes sont
imprcises en particulier celles qui proviennent des images IRM et de tests de laboratoire.
infrence
au diagnostic des tumeurs crbrales
Rcapitulatif sur la prcision de linfrence pour les diffrentes structures proposes
dduite partir du raisonnement
et mettent par consquent en cause lutilit des nuds de
deuxime modle du modle daide
au diagnostic des tumeurs crbrales qui touche les paramtres du rseau baysien. Pour ce
dduite partir du raisonnement effectu par les mdecins

rseau baysien daide au
Les sources dincertitude dans le cadre dun diagnostic mdical sont prsentes dans la
tre provoque par
labsence dun historique clinique complet et dtaill pour les patients. En plus, ces
derniers ne se rappellent pas parfois de tous les symptmes pendant lvaluation de leurs
nne par le patient peut tre
mal exprime et il peut mme mentir au mdecin. En mdecine, beaucoup de donnes sont
imprcises en particulier celles qui proviennent des images IRM et de tests de laboratoire.
inference
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

65

Ces causes conduisent une base dapprentissage souvent incomplte qui ncessite des
algorithmes appropris pour travailler dessus. Dans ce qui suit, nous donnons une
contribution qui entre dans ce cadre. En effet, nous proposons un algorithme
dapprentissage pouvant travailler sur des donnes manquantes. Cet algorithme est une
extension de lalgorithme standard dapprentissage EM en rgularisant les paramtres
maximiss par des seuils extraits de lexcution de la premire phase de lalgorithme RBE
[30,31, 32, 33, 34, 9] prsent dans le chapitre 2.
3.5.1 Dmarche de notre approche
Notre approche est une combinaison de lalgorithme EM et de la premire phase de
lalgorithme RBE. Son objectif est de corriger la valeur de chaque paramtre
i,j,k
aprs la
phase de maximisation de lalgorithme EM.






Paramtres arbitraires























Figure 3.21 : Principe de lalgorithme dapprentissage propos


Maximisation
Esprance
Calcul des seuils par
la premire phase de
lalgorithme RBE
Seuillage
Normalisation
Base de
donnes
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

66

Admettons que nous avons :
min
i,j,k
: la probabilit minimale calcule suivant la phase 1 de lalgorithme RBE.
max
i,j,k
: la probabilit maximale calcule suivant la phase 1 de lalgorithme RBE.
Le principe gnral consiste augmenter la valeur
i,j,k
si elle est infrieure min
i,j,k
avec
cette valeur. De mme, si la valeur de
i,j,k
dpasse la probabilit maximale calcule par la
phase 1 de lalgorithme RBE, nous la mettons jour avec max
i,j,k
.

Le but majeur de cette approche est de rgulariser les valeurs de
i,j,k
prsentes dans le
rseau baysien afin de minimiser le taux derreur entre la valeur de
i,j,k
maximise et la
contrainte des bornes utiliss par de lalgorithme RBE : min
i,j,k

i,j,k
max
i,j,k
.
Afin de respecter la contrainte que la somme des probabilits, pour une combinaison des
parents j pour toutes les valeurs possibles dtat du nud i , soit gale 1, nous
avons fait une normalisation des nouvelles valeurs calcules selon la formule suivante :

( )
, , ( 1 )
, , ( )
, , '
'
t
i j k t
i j k t
i j k
k

+
=




O :
i,j,k
(t)
: le paramtre o la variable X
i
est dans ltat x
k
et ses parents sont dans la
configuration x
j
litration t.
k : est ltat du nud X
i
.

Lalgorithme EMS (Esprance Maximisation Seuillage) est dcrit de la manire suivante :
Etape 1 : Esprance, similaire lalgorithme EM.
Etape 2 : Maximisation, similaire aussi lalgorithme EM.
Etape 3 : Seuillage selon le principe dcrit ci-dessus.
Etape 4 : Normalisation selon lquation (3.2).






(3.2)
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

67

Algorithme Esprance Maximisation Seuillage (EMS) (Entre : DAG, Base dapprentissage
D, E la fonction qui permet de calculer lesprance, min
i, j, k
, max
i, j, k
)
Sortie :
i, j, k

Dbut
t=0
Initialiser alatoirement les paramtres
i, j, k
(t)

Rpter
Esprance
Utiliser les paramtres courants
i, j, k
(t)
pour estimer les donnes manquantes.
E
(t)
(N
i, j, k
) = p
(t)
(X
i
=x
k
| pa(X
i
)=x
j
) pour i de 1 N
Maximisation
Utiliser les donnes estimes pour appliquer la procdure dapprentissage.
(par exemple le maximum de vraisemblance)

i, j, k
(t+1)
= E (N
i, j, k
) / E (N
i, j
)
Seuillage
pour chaque nud i, configuration des parents j, valeur k faire
si (
i, j, k
< min
i, j, k
) alors

i, j, k
= = min
i, j, k

sinon si (
i, j, k
> > max
i, j, k
) alors

i, j, k
= = max
i, j, k

sinon
on garde le mme
i, j, k

f fi in n s si i
f fi in n s si i
f fi in n p po ou ur r
N No or rm ma al li is sa at ti io on n: :


( )
, , ( 1 )
, , ( )
, , '
'
t
i j k t
i j k t
i j k
k

+
=


t=t+1
Jusqu convergence (
i, j, k
(t+1)
=
i, j, k
(t)
)
Fin

Algorithme 3.1 : Algorithme Esprance Maximisation Seuillage



Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

68

Une illustration du principe de fonctionnement de lalgorithme 3.1 est donne par la figure
3.22. Nous avons extrait cet exemple une itration de lalgorithme EMS appliqu un
nud du rseau baysien.
Min 0.0556 0.0556 0.0714 0.0714 0.0132 0.0132 0.0833 0.0833
Max 0.5 0.5 0.5 0.5 0.5 0.5 0.5 0.5

i, j, k

0.6206 0.3794 0.7322 0.2678 0.4979 0.5021 0.3292 0.6708
seuillage 0.5 0.3794 0.5 0.2678 0.4979 0.5 0.3292 0.5
normalisation 0.5686 0.4314 0.6512 0.3488 0.4990 0.5010 0.3970 0.6030
Figure 3.22 : Illustration dune itration pour lalgorithme EMS

Nous remarquons que le rsultat aprs normalisation se rapproche de la borne maximale ou
de la borne minimale. Ceci rgularise les valeurs de paramtres chaque itration car les
paramtres calculs avec lalgorithme EM restent approximatifs. Alors que les bornes
extraites partir de la premire phase de lalgorithme RBE sont dmontrs
mathmatiquement.
Nous allons par suite tester cette contribution avec une base dapprentissage avec de
donnes incompltes constitues de 72 cas.

3.5.2 Rsultats exprimentaux
Nous avons compar notre contribution avec le standard dapprentissage de paramtres
EM. Nous constatons que lallure de la courbe de lalgorithme EM est suprieure
lalgorithme EMS de point de vue Log-Likelihood. Ceci est d la phase de seuillage qui
augmente certaines valeurs des paramtres. Do le Log-Likelihood augmente lgrement
par rapport celui de lalgorithme EM. La figure 3.23 illustre cette comparaison.



Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

69






Figure 3.23 : Variation de Log-Likelihood de EM et EMS

Dautre part, nous remarquons que lalgorithme EMS converge en un nombre ditrations
infrieur celui de lalgorithme EM pour le mme point de dpart. Cette rapidit de
convergence est assure dans 70% de cas si nous adoptons plusieurs points de dpart pour
les deux algorithmes. Le temps dexcution pour lalgorithme EMS est ncessairement
plus grand que celui de lalgorithme EM. Pour linfrence, les deux algorithmes sont
presque semblables.



-2100,0000
-1900,0000
-1700,0000
-1500,0000
-1300,0000
-1100,0000
-900,0000
EM
EMS
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

70








Figure 3.24 : Variation des probabilits aprs infrence en utilisant EM et EMS par rapport aux
tumeurs prvues.

Le but majeur de lajout de cette phase de seuillage est davoir des paramtres qui vrifient
lappartenance lintervalle calcul par la premire phase de lalgorithme RBE et en
utilisant lalgorithme EM comme algorithme dapprentissage. Nous montrons dans la
figure 3.25 la distribution de probabilit dans le nud dcision. Ce nud contient huit
valeurs reprsentant huit types des tumeurs. Il possde deux parents dont chacun contient
deux valeurs. Ceci conduit quatre combinaisons pour chaque type de tumeur.
0,0000
0,1000
0,2000
0,3000
0,4000
0,5000
0,6000
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r
8
tumeur 1
prvus
EM
tumeur 1
prvus
EMS
0,0000
0,0500
0,1000
0,1500
0,2000
0,2500
0,3000
0,3500
0,4000
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r
8
tumeur 2
prvus EM
tumeur 2
prvus EMS
0,0000
0,0500
0,1000
0,1500
0,2000
0,2500
0,3000
0,3500
0,4000
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r
8
tumeur 3
prvus EM
tumeur 3
prvus
EMS
0,0000
0,1000
0,2000
0,3000
0,4000
0,5000
0,6000
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r
8
tumeur 4
prvus EM
tumeur 4
prvus
EMS
0,0000
0,1000
0,2000
0,3000
0,4000
0,5000
0,6000
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r
8
tumeur 5
prvus EM
tumeur 5
prvus
EMS
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

71






Figure 3.25: Variation de la distribution des probabilits dans le nud dcision avec EM et EMS

Lalgorithme EMS augmente le pourcentage de vrification des contraintes extraites par la
premire phase de lalgorithme RBE en le comparant avec lalgorithme EM mais natteint
jamais le pourcentage maximal. Si cette contrainte nest pas vrifie, nous constatons que
la valeur du paramtre essaye de se rapprocher de lintervalle calcul.


3.6 Conclusion
Nous avons propos une modlisation de lexpertise de laide au diagnostic des tumeurs
crbrales en utilisant les rseaux baysiens. Notre modle est constitu de trois phases. La
phase de modlisation de la structure o diffrentes conceptions de rseaux baysiens ont
t labores et testes avec la librairie BNT. Certaines suggestions ont donn des
amliorations dans la prcision concernant lidentification du type de la tumeur par rapport
la structure dduite partir du raisonnement des mdecins de ce domaine. Ensuite, nous
avons trait la deuxime phase du modle daide au diagnostic qui consiste trouver les
0
0,1
0,2
0,3
0,4
0,5
0,6
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r

8
combinaison
1 des parents
EM
combinaison
1 des parents
EMS
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r

8
combinaison
2 des parents
EM
combinaison
2 des parents
EMS
0
0,2
0,4
0,6
0,8
1
1,2
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r

8
combinaison
3 des parents
EM
combinaison
3 des parents
EMS
0
0,05
0,1
0,15
0,2
0,25
0,3
0,35
0,4
0,45
t
u
m
e
u
r

1
t
u
m
e
u
r

2
t
u
m
e
u
r

3
t
u
m
e
u
r

4
t
u
m
e
u
r

5
t
u
m
e
u
r

6
t
u
m
e
u
r

7
t
u
m
e
u
r

8
combinaison
4 des parents
EM
combinaison
4 des parents
EMS
Chapitre 3 Modle daide au diagnostic des tumeurs crbrales

72

bons paramtres du rseau baysiens partir dune base dapprentissage incomplte. Nous
avons enfin propos une extension de lalgorithme EM en bornant les paramtres issus de
la phase de maximisation de lalgorithme EM. Nous constatons daprs les rsultats
obtenus que notre contribution a donn des influence ngatives de point de vue
vraisemblance des donnes. Cependant, notre contribution possde des avantages. Ces
avantages sont expliqus par la rapidit de convergence de lalgorithme propos et
labsence des probabilits nulles dans la distribution des probabilits dans les nuds.

73

Conclusion gnrale et perspectives


Lobjectif de ce travail est de proposer une modlisation de lexpertise du diagnostic des
tumeurs crbrales laide dun rseau baysien. Pour ce faire, nous avons tout dabord
effectu une tude sur les tumeurs crbrales. Cette tude a mis laccent sur les
classifications possibles de ces tumeurs ainsi que leur diagnostic clinique. Ensuite, nous
nous sommes intresss aux rseaux baysiens en dtaillant les diffrents concepts relatifs
ces outils. Nous avons dtaill en particulier le concept dapprentissage des paramtres
dans ces rseaux. Nous avons entam ensuite notre travail de modlisation. Cette tche
sest droule en deux tapes : une tape de la modlisation de la structure et une autre
pour lestimation des paramtres dans le rseau baysien.
Pour effectuer la modlisation de la structure, nous sommes partis dune structure dduite
partir du raisonnement effectu par les mdecins. Nous avons effectu des modifications
sur cette structure pour amliorer la prcision du diagnostic. Ces modifications consistent
changer les dpendances entre les caractristiques prises en compte lors de la dcision. Ces
changement ont aboutit des tendances pour lutilisation des dpendances directes entre
les caractristiques mises en jeu pour le diagnostic et le nud dcision. Cette modlisation
est effectue par le rseau baysien naf dont les rsultats ont donn la meilleure prcision.
Le problme destimation des paramtres dans le rseau baysien ncessite une structure
fixe et une base de test. Dans notre cas, cette base prsente plusieurs donnes manquantes.
Nous avons constat que les algorithmes qui traitent cette problmatique possdent des
limites cet gard en particulier lorsque le nombre des donnes manquantes est norme et
la taille du rseau est grande. Pour remdier cela, nous avons donn une tude largie sur
le concept dapprentissage des paramtres dans le rseau baysien. Nous avons inspir de
cette tude une proposition pour lestimation des paramtres. Nous avons propos une
extension de lalgorithme EM en lui ajoutant une troisime phase pour la correction des
paramtres aprs lexcution de cet algorithme. La troisime phase consiste borner les
paramtres par des seuils calculs par la premire phase de lalgorithme RBE.
Nous avons compar cette extension avec lalgorithme EM. Les rsultats ont montr que
notre proposition converge plus rapidement avec un pourcentage important que
lalgorithme EM. En plus, nous constatons labsence des probabilits nulles et la
vrification des bornes calcules par la premire phase de lalgorithme RBE dans la
majorit des paramtres du rseau baysien.

74

Dans la phase de la modlisation de la structure, nous avons fix lalgorithme
dapprentissage de paramtres et linfrence pour valuer la performance de la structure.
Nous allons essayer dautres algorithmes pour faire face aux concepts dapprentissage des
paramtres et dinfrence dans les futurs travaux. En plus, les paramtres calculs par notre
proposition dans la phase de lestimation des paramtres ne vrifient pas tous la contrainte
de rang calcule par la premire phase de lalgorithme RBE. Pour remdier cela, on
cherche trouver dautres mthodes de normalisation de faon retirer tous les paramtres
dans lintervalle calcul. Finalement cette contrainte de rang peut tre mlang aves les
contraintes de lexpert pour les injecter dans lalgorithme CEM qui permet lajout des
connaissances priori lalgorithme EM sous forme de contraintes.

75

Bibliographie

[1] A. Aissa, I. Hasni Bouraoui, A. Abid, W. Gamaoun, H. Moulahi, H. Jemni, I. Ksira,
M. Mokni, K. Journal de Radiologie, Volume 89, numro 10, page 1584, Sousse
Tunisie octobre 2008.

[2] A.P. Dempster, N.M. Laird, D.B Rubin Maximum likelihood from incomplete data
via the EM algorithm, Journal of the royal statistical society, Series B, vol. 39, pp. 1-
38, 1977.

[3] AD. Feelders, A new parameter learning method for bayesian network with
qualitative influences, In UAI, pp. 117124, 2007.

[4] AD. Feelders, L. Van der Gaag Learning bayesian network parameters with prior
knowledge about context-specific qualitative influences, Proceedings of the
Proceedings of the Twenty-First Conference Annual Conference on Uncertainty in
Artificial Intelligence (UAI), AUAI Press , Arlington, Virginia, pp.193-200, 2005.

[5] AD. Feelders, Learning bayesian network under order constraints, Proceedings of
the Proceedings of the Twenty-First Conference Annual Conference on Uncertainty
in Artificial Intelligence (UAI), pp. 37-53, 2006.

[6] B. Ann, N. Patrick. Les Rseaux baysiens : Modles graphiques de connaissance.
Edition Eyrolles, 1999.

[7] B. El Mostarchid, M. Maftah, A. Mansouri, N. EL Abbadi, F. Bellakhdar, Kyste
pidermode de la fosse postrieure avec sinus dermique rvl par un abcs
crbelleux : A propos dun cas. Mdecine du Maghreb 1998 n69.

[8] B. Lerner, R. Malka, Learning Bayesian Networks for Cytogenetic Image
Classification, In: Proc. 18th ACM conf. on pattern recognition, vol. 2, pp. 772775,

76

2006.

[9] C. Yonghui, Study of the case of learning bayesian network from incomplete data,
International Conference on Information Management, Innovation Management and
Industrial Engineering, iciii, vol. 4, pp.66-69, December 2009.

[10] CP de Campos. Improving bayesian network parameter learning using constraints.
International Conference on Pattern Recognition (ICPR), p. 1-4, 2008.

[11] D. Doyon, E.A. Cabanis, M.T Iba-Zizen, B. Roger, J. Frija, I. Idy Peretti IRM:
imagerie par rsonance magntique, Masson, 4me dition, pages 291-311.

[12] D. Mackay, An introduction to Monte Carlo Methods, In Learning in Graphical
Models, MIT Press, pp. 175-204,1999.

[13] Daisuke Takahashi, Yang Xiao, Fei Hu. A Survey of Insulin-Dependent Diabetes-
Part II: ControlMethods, International journal of telemedicine and applications, 22
March 2008.

[14] E. Bauer, D. Koller, Y. Singer, Update rules for parameter estimation in bayesian
networks, Proceedings of the Proceedings of the Thirteenth Conference Annual
Conference on Uncertainty in Artificial Intelligence (UAI-97), Morgan Kaufmann,
3-13, San Francisco, CA, 1997.

[15] Elkharras Abdennasser En-nouali Hassane, Jawhari Najib, Elhaddad Abdellatif, Ajja
Assou, Chaouir Souad, Benamaur Mohammed. Mningiome gant dveloppement
intra et extra crnien . African journal of neurological sciences, volume 25, N1,
page 63-68, 2005.

[16] F.V Jensen, An introduction to bayesian network, UCL press, UK, 1996.

[17] F.V Jensen, Bayesian network and decision graph, SpringerVerlag, USA, 2001.

77


[18] F.V. Jensen., S.L. Lauritzen., K.G. Olesen Bayesian updating in recursive graphical
models by local computations, Computational Statistical Quaterly, vol. 4, pp. 269-
282, 1990.

[19] Feng Xiaojuan; Williams Christopher K. Training Bayesian networks for image
segmentation, Mathematical modeling and estimation techniques in computer
vision, vol. 3457, pp. 82-92,Conference San Diego CA , ETATS-UNIS,1998.

[20] G. Celeux and J. Diebolt. The SEM algorithm : a probabilistic teacher algorithm
derived from the EM algorithm for the mixture problem. Comp. Statis. Quaterly,2,
73-82, 1985.

[21] G. Celeux, G. Govaert, A classification EM algorithm for clustering and two
stochastic versions, Computational Statistics and Data Analysis, 14(3) :315-332.
1992.


[22] G. Cooper, The computational complexity of probabilistic inference using bayesian
belief networks, In Artificial Intelligence, 42 (2-3): 393 405, 1990.


[23] G. Cooper, E. Hersovits, A bayesian method for the induction of probabilistic
networks from data. Maching Learning, volume 9, 309347, 1992.

[24] Guy Auliac, Probabilits et statistiques cours et exercices corrigs. Ediscience
international, 1995.
[25] J. Pearl & T.S. Verma. A theory of inferred causation. In J. F. Allen, R. Fikes & E.
Sandewall, Eds., KR91: Principles of Knowledge Representation and Reasoning, p.
441452, San Mateo, California: Morgan Kaufmann, 1991.

[26] J. Pearl, Reverand Bayes on inference engines: A distributed hierarchical

78

approach, In Proceedings of the AAAI National Conference on AI, pp. 133-136,
Pittsburgh, 1982.

[27] J. Pearl, Probabilistic reasoning in intelligent systems: Network I plausible
inference, Morgan Kaufman Publishers, USA, 1988.

[28] J. Radiol, Calcification tumorales intracrbrales mconnues en IRM, dition
franaise de radiologie, paris, 1997.

[29] J.H. Kim J. Pearl, CONVINCE: A Conversational Inference Consolidation
Engine, In IEEE Trans. On Systems, Man and Cybernetics, vol. 17, pp. 120-132,
1987.

[30] M. Ramoni et P. Sebastiani, Learning bayesian network from incomplete data,
Technical Report KMI-TR- 43, Knowledge Median Institute, The open University,
February 1997.

[31] M. Ramoni, P. Sebastiani, Bayesian inference with missing data using bound and
collapse, Technical Report. KMI-TR-58, KMI, Open University, 1997.

[32] M. Ramoni, P. Sebastiani, Robust Learning with Missing Data, Machine
Learning, vol. 45, pp. 147170, 2001.

[33] M. Ramoni, P. Sebastiani, The use of exogenous knowledge to learn bayesian
network from incomplete databases, Technical Report KMI 97-07, Knowledge
Median Institute, The open University,1997.

[34] M. Ramoni, P. Sebastiani. Discovering bayesian network from incomplete
databases, Technical Report KMI-TR- 46, Knowledge Median Institute, The open
University, March 1997.

[35] M.I. Jordan, Y. Weiss. Probabilistic inference, In Graphical models, MIT Press,
Five Cambridge Center, MA 02142-1493 USA, 2001.

79



[36] N. Friedman The Bayesian structural EM algorithm. Proceedings of the 14th
Conference on Uncertainty in Artificial Intelligence (UAI), p. 129138, San
Francisco: Morgan Kaufmann, 1998.

[37] N. Harris, David J. Spiegelhalter, K. Bull, C.G. Franklin Rodney, Criticizing
Conditional Probabilities in Belief Networks, Proceedings of the Annual
Symposium on Computer Application in Medical Care, London, UK, 1990.

[38] P. Nam, P.H. Wuillemin, Ph. Leray, O. Pourret, A. Becker. Rseaux baysiens,
Eyrolles 3me dition, 2007.
[39] P. Spirtes, C. Glymour, R. Scheines, Causation, Prediction, and Search. The MIT
Press, 2 dition, 2000.

[40] Ph. Leray, I. Zaarour, L. Heutte, B. El Eter, J. Labiche D. Mellier. Rseaux
Baysiens pour la Dcouverte de Stratgies d'criture Manuscrite chez l'Enfant en
cole Primaire. In Proceedings of 14me Congrs Francophone Reconnaissance des
Formes et Intelligence Artificielle, RFIA 2004, pages 1135-1142, Toulouse, France.

[41] R. Howe Nicholas, E. Leventon Michael, T. Freeman William, Bayesian
Reconstruction of 3D Human Motion from Single-Camera Video, Advances in
Neural Information Processing Systems, 820-826, MIT Press, 1999.

[42] R.M. Neal, G.E. Hinton. A new view of the EM algorithm that justifies incremental,
sparse and other variants, Learning in Graphical Models, Kluwer Academic
Publishers, 355-368,1998.

[43] RS. Niculescu, TM. Mitchell, Bayesian network learning with parameter
constraints, Journal of Machine Learning Research 7, pp. 13571383, 2006.

[44]
S. Burnside Elizabeth, L. Rubin Daniel, P. Fine Jason, D. Shachter Ross, A. Sisney
Gale, K. Leung Winifred. Bayesian Network to Predict Breast Cancer Risk of

80

Mammographic Microcalcifications and Reduce Number of Benign Biopsy Results:
Initial Experience. Radiology, Volume 240, N3, 666 673, 2006.

[45] S. Gaillard. Mningiome et THS. Table ronde : Pathologies Particulire la
mnopause. XXVIes journes pour lassociation franaise pour ltude de la
mnopause, Novembre 2005.

[46] S. Geman and D. Geman, Stochastic relaxation, Gibbs distributions, and the
Bayesian restoration of images, IEEE Transactions on Pattern Analysis and Machine
Intelligence (6), pp. 721741, 1984.

[47] S.L Lauritzen. The EM algorithm for graphical association models with missing
data, Computational Statistics and data analysis, vol. 19, pp. 191-201, 1991.
[48] S.L. Lauritzen, Local computation with probabilities on graphical structures and
their application to expert systems, In Journal of the Royal Statistical Society, vol.
50, pp. 157, 1988.

[49] Thse Olivier Franois, De lidentification de structure de rseaux baysiens la
reconnaissance de formes partir dinformations compltes ou incompltes, Institut
National des Sciences Appliques de Rouen, page 14, 28 novembre 2006.

[50] W. Liao, Q. Ji. Exploiting qualitative domain knowledge for learning bayesian
network parameters with incomplete data, U.S. Army Research Office under grant
number W911NF-06-1-0331, 2009.

[51] W. Liao, Q. Ji. Learning bayesian network parameters under incomplete data with
domain knowledge, Pattern Recognition vol.42, pp. 3046-3056, 2009.

[52] Y. Xiang, B. Pant, A. Eisen, MP. Beddoes, D. Poole, Multiply sectioned Bayesian
networks for neuromuscular diagnosis, PubMed, pp.293-314, 1993.



81

Webographie

[53] Association pour la Recherche sur les Tumeurs Crbrales, Partenaire de la Fdration
de Recherche sur le Cerveau, disponible sur internet :
http://www.artc.asso.fr/static/tumeurs/tumeurs.htm

[54] Brown university, departement of Computer Science, site universitaire, recherche
scientifique, disponible sur internet:
http://www.cs.brown.edu/research/ai/dynamics/tutorial/Documents/GibbsSampling.htm
l

[55] Dr. Alymlahi Elkhalil, Imagerie des tumeurs crbrales, documentaire mdicale,
disponible sur internet :
http://club.telepolis.com/sinaradiologie/Imageriedestumeurscerebrales.pdf

[56] Dr. F.X. Slosman, renseignements varis sur les examens de radiologie, Dernire
modification:15/02/09, disponible sur internet :
http://www.inforadiologie.ch/metastases_cerebral_poumon.php

[57] Dr. F.X. Slosman, renseignements varis sur les examens de radiologie, Dernire
modification: 15/02/09, disponible sur internet :
http://www.info-radiologie.ch/paralysie-faciale-kyste-arachnoidien.php

[58] Educating educators about ABI, education mdicale, disponible sur internet :
http://www.abieducation.com/binder/French/chap1.html

[59] Encyclopdie mdicale dans un langage accessible tous, vulgaris mdical, disponible
sur internet :
http://www.vulgaris-medical.com/encyclopedie/neurinome-de-l-acoustique-3211.html

[60] Futura-sant, site documentaire mdicale, disponible sur internet :
http://www.futura-sciences.com/fr/definition/t/medecine-2/d/irm_177/


82


[61] OMS : organisation mondiale de la sant, disponible sur internet
http://www.who.int/fr/index.html