Académique Documents
Professionnel Documents
Culture Documents
Plan
Rseaux baysiens Infrence dans les rseaux baysiens
Infrence exacte Infrence approximative
Rseaux baysiens
Au chapitre dintro sur les pbs, on a vu que
Les distributions de probabilits jointes compltes pouvaient rpondre toutes les questions, mais quelles pouvaient tre fort coteuses en computation. Lindpendance et lindpendance conditionnelle permettaient de rduire le nombre de probabilits spcifier pour dfinir une distribution de probabilits jointes complte.
Un ensemble de variables alatoires. Un ensemble de liens orients connectant deux nuds. Sil y a un lien entre le nud X et Y, on dit que X est le parent de Y. Chaque nud a une distribution de probabilit conditionnelle P(Xi | Parents(Xi)) qui quantifie leffet des parents sur le nud.
4
Exemple du dentiste
Weather est indpendante des autres variables Toothache et Catch sont conditionnellement indpendantes sachant Cavity.
Il ny a aucun lien direct entre Toothache et Catch.
5
Exemple de lalarme
Vous avez une nouvelle alarme la maison qui
sonne lorsquil y a un cambriolage; sonne parfois lorsquil y a un tremblement de terre.
Vous avez deux voisins qui vous appellent au bureau sils entendent lalarme.
John appelle tout le temps quand il entend lalarme, mais parfois il confond le tlphone avec lalarme. Mary aime couter de la musique forte et parfois elle nentend pas lalarme.
Exemple de lalarme
Exemple de lalarme
La topologie du rseau reflte un ensemble de relations dindpendances conditionnelles
Bulgary et Earthquake affectent directement la probabilit de dclenchement dune alarme Le fait que John ou Mary appelle ne dpend que de lalarme. John et Mary ne peroivent pas directement le cambriolage ou les tremblements de terre mineurs.
9
Exemple de lalarme
10
Spcification concise
Une table de probabilit conditionnelle (TPC) pour une variable boolenne Xi, avec k parents boolens, a 2k rangs. Chaque range a un nombre p (e.g. une pb) pour Xi = True Si le nombre maximal de parents est k, alors le rseau demande O(nk) nombres.
Le nombre pour Xi = False est 1 p
Pour lexemple (alarme), a donne 10 nombres (soit 5 variables fois 2) au lieu de 25 = 32 pour la table complte.
11
Exemple:
12
Exemple
Supposons que lon choisit lordre B, E, A, M, J
Bulgary Earthquake
Alarm
MaryCalls
JohnCalls
14
Exemple
Supposons que lon choisit le mauvais ordre M, J, A, B, E P(J|M) = P(J)? Non P(A|J,M) = P(A|J)? Non P(A|J,M) = P(A|M)? Non P(B|A,J,M) = P(B|A) ? Oui P(B|A,J,M) = P(B) ? Non P(E|B,A,J,M) = P(E|A) ? Non P(E|B,A,J,M) = P(E|A,B) ? Oui
MaryCalls JohnCalls
Alarm
Bulgary Earthquake
15
On obtient un rseaux plus complexe avec des probabilits plus difficiles dterminer.
16
Si MB(X) = A, alors P(A|A,B) = P(A|A) Autrement dit: la seule connaissance pour prdire le nud A cest MB(A)
17
Alarme
MaryAppelle
JohnAppelle
18
Habituellement, la relation peut tre dcrite par une distribution canonique qui correspond un certain patron.
La table complte peut tre dfinie en nommant le patron et peut-tre certains paramtres.
19
Distribution canonique
Nuds dterministes
Les valeurs dun nud dterministe sont dfinies exactement par les valeurs de ses parents.
X = f(Parent(X)) pour une certaine fonction f.
Exemple: Fonction boolenne, le fils = disjonction des parents Relation numrique entre des variables continues
20
Distribution canonique
Noisy-OR (ou bruit)
Utilis pour dcrire les relations incertaines La relation causale entre parent et fils peut tre inhibe.
Ex: un patient peut avoir la grippe sans avoir de la fivre.
Deux suppositions:
Toutes les causes possibles sont listes. (Il peut y avoir un nud Autres). Linhibition dun parent est indpendante de linhibition des autres parents.
21
Exemple Noisy-OR
La grippe, le rhume et la malaria causent de la fivre. Avec une relation Noisy-OR , on peut dfinir toute la table en spcifiant seulement les trois probabilits dinhibition suivantes :
22
Exemple Noisy-OR
Toutes les causes sont supposes listes Les causes :C nont pas dinfluence sur le nud en question Linhibition de chaque parent (soit qi )est indpendante de celles des autres parents; soit
j P (xijparents(Xi)) = 1 i=1 qi
23
Exemple Noisy-OR
Ex:
Exemple Noisy-OR
Ex:
Le nombre de probabilits dfinir est linaire (O(k) au lieu de O(2k) si k parents) selon le nombre de parents au lieu dtre exponentiel.
25
Variables continues
Plusieurs problmes du monde rel contiennent des quantits continues: hauteur, poids, temprature, argent, etc. Avec des variables continues, on ne peut pas dfinir des probabilits conditionnelles pour chacune des valeurs possibles. Deux solutions
Utiliser la discrtisation (perte de prcision et trs grande table) Dfinir des densits de probabilits avec un nombre fini de paramtres.
26
Exemple
Un consommateur achte des fruits dpendamment du cot (Cost), qui lui dpend de la taille de la cueillette (Harvest) et sil y a eu une subvention du gouvernement (Subsidy). Deux cas:
Variable continue avec des parents continus et discrets
Ex: Cost
Pour la variable continue (Harvest), on spcifie une fonction de distribution pour la variable Cost en fonction de la variable Harvest.
28
29
Sommaire
Les rseaux baysiens sont une manire naturelle de reprsenter les dpendances causales. Cest une reprsentation compact des distributions jointes. Gnralement facile construire Les distributions canoniques sont une manire compacte de reprsenter les tables de probabilits conditionnelles. Pour les variables continues, on peut utiliser des fonctions de distribution.
31
33
34
En simplifiant, on obtient:
36
Rptitions
37
Facteurs
39
Exemple
Pour le facteur M, on enregistre les probabilits, tant donn chaque valeur de a, dans un vecteur deux lments.
On fait la mme chose pour J. Pour le facteur A, on obtient une matrice de 2 x 2 x 2, fA(A,B,E)
40
Exemple
Il faut maintenant faire la somme du produit des trois facteurs. La barre sur le A, indique que lon a fait la somme pour A.
41
Exemple
Le facteur et la sommation sur E sont calculs de la mme manire.
Finalement, on obtient:
42
43
Variables inutiles
Considrons: P(J|b)
La somme sur M donne 1, donc M est inutile.
46
Exemple
47
Exemple
48
Exemple
49
Exemple
50
Exemple
51
Exemple
52
Exemple
53
54
55
Donc,
57
58
Fixer les variables dvidence chantillonner uniquement sur les autres variables Attribuer un poids aux chantillons (w) selon la probabilit que lvnement survienne en accord avec lvidence.
59
60
61
w=1
62
w=1
63
w=1
64
w = 1 * 0.1
65
w = 1 * 0.1
66
w = 1 * 0.1
67
Utilisation de W
W Sample 1 2 3 4 Key ~b ~b ~b b ~e ~e ~e ~e ~a ~a a ~a ~j j j ~j ~m ~m m ~m Weight 0.997 0.10 0.63 0.001
In order to compute the probability of an event that is independent, such as P(Burglary=true), we sum the weight for every sample where Burglary=true and divide by the sum of all of the weights. For example, in the above data, the only sample where Burglary=true is sample 4, with weight 0.001. Therefore, P(Burglary=true) = (0.001) / (0.997 + 0.10 + 0.63 + 0.001) = 0.001 / 1.728 = 0.00058 Similarly P(a | j) = 0.63 / (0.10 + 0.63) = 0.63 / 0.73 = 0.863.
69
70
71
73