Académique Documents
Professionnel Documents
Culture Documents
Bayésiens
Machine Learning
Réalisateurs
•Cambriolage
•Séisme
•Alarme
•Marie Appelle
•Jean Apelle
Définitions
La topologie du RB modélise les relations de
causalité.
Un arc d’un nœud X vers un nœud Y signifie que la
variable X influence la variable Y:
– Un cambriolage peut déclencher l’alarme
– Un séisme aussi
– L’alarme peut inciter Jean à appeler
– Idem pour Marie
Une table de probabilités conditionnelles (TPC)
donne la probabilité pour chaque valeur du nœud
étant donnés les combinaisons des valeurs des
parents du nœud (c’est l’équivalent d’une
distribution).
Définitions
S’il y a un arc d’un nœud Y vers un nœud
X, cela signifie que la variable Y influence
la variable X.
– Y est appelé le parent de X
– Parents(X) est l’ensemble des
parents de X
Si X n’a pas de parents, sa distribution de
probabilités est dite inconditionnelle ou
a priori.
Si X a des parents, sa distribution de
probabilités est dite conditionnelle.
2.Les dépendances
conditionnelles
Indépendances Conditionnelles
Un Réseau Bayésien est un graphe:
Orienté
Acyclique
Dont les nœuds sont des variables aléatoires et les arc
représentent:
Les dépendances probabilistes entre les variables
Les distributions de probabilités conditionnelles pour chaque
variable étant donnés ses parents (permet de déterminer la
taille des tables de probabilité conditionnelle).
Indépendances Conditionnelles
Les dépendances et indépendances conditionnelles permettent
de mettre en relation directe plusieurs variables.
Cependant Le sujet de la dépendance conditionnelle reste peu
abordé dans la littérature statistique, et peu de tests statistiques
ont été développés pour découvrir des dépendances
conditionnelles.
Ainsi donc nous allons voir les indépendances conditionnelles.
Indépendances Conditionnelles
1.Exemple:
Je suis au travail. Mes voisins Marie et Jean m’ont promis de m’appeler
chaque fois que mon alarme sonne.
Mon voisin Jean m’appelle pour me dire que mon alarme sonne.
Parfois il confond l’alarme avec la sonnerie du téléphone.
Par contre ma voisine Marie ne m’appelle pas Toujours
Parfois elle met la musique trop fort.
Parfois mon alarme se met à sonner lorsqu’il y a de légers séismes.
Comment conclure qu’il y’a un cambriolage chez moi ?
Indépendances Conditionnelles
On peut représenter cette situation par un RB.
Variables Aléatoires (Variables binaires vrai ou faux):
•Cambriolage
•Séisme
•Alarme
•Marie Appelle
•Jean Apelle
Indépendances Conditionnelles
1. Relation entre grand-parent et enfant
étant donné parent: ils sont
indépendants si parent observé.
Cambriolage et MarieAppelle sont
dépendants à priori mais ils sont
indépendants étant donné Alarme:
P(M|A,C) = P(M|A)
Indépendances Conditionnelles
2. Relation entre deux enfants étant
donné parent: ils sont indépendants si
parent observé.
JeanAppelle et MarieAppelle sont
dépendants à priori mais ils sont
indépendants étant donné Alarme:
P(M|A,J) = P(M|A)
Indépendances Conditionnelles
3. Relation entre parents étant donné
enfant: ils sont indépendants si enfant
non-observé.
Cambriolage et Seisme sont
indépendants a priori mais ils sont
dépendants étant donné Alarme:
P(C|A,S) n’est pas simplifiable
Indépendances Conditionnelles
2.D-Séparation:
C’est la critère générale pour decider si un noeud X est indépendent d’un
noeud, étant donnés d’autres noeuds Z = {Z1 …,Zm}.
X est independent de Y sachant Z si tous les chemins non-dirigés entre X et
Y sont bloqués par Z.
Un Chemin est bloqué s’il contient au moins un noeud N qui satisfait l’une
ou l’autre des conditions suivantes:
•Il inclue un noeud => N => ou <= N => où N appartient à {Z1 …,Zm}
•Il inclue un noeud => N <= et N n’appartient pas à {Z1 …,Zm}
Ni aucun des descendants de N.
Indépendances Conditionnelles
1.Est-ce que Age et Gender sont
indépendants ?
2.Est-ce que Age et Lung-Tumor sont
indépendants sachant Smoking ?
3.Est-ce que Exposure-to-Toxins et
Smoking sont indépendants sachant
Age et Lung-Tumor ?
3.Notions de probabilité
Définitions
Probabilité
Définitions:
Deux variables X et Y sont indépendantes si et seulement si:
P(X ∩ Y ) = P(X)P(Y )
Deux variables X et Y sont indépendantes conditionnellement à un ensemble
de variables Z si et seulement si:
P(X ∩ Y |Z) = P(X|Z)P(Y |Z)
Théorème de Bayes :
Soient deux variables X et Y on a alors:
P(X ∩ Y ) = P(X|Y )P(Y )
3.Notions de probabilité
Hypothèse de Markov
Hypothèse de Markov
Théorème 1 Pearl (2009): Un noeud satisfait l’hypothèse de Markov si et
seulement s’il est indépendant de tous ses non descendants
conditionnellement à ses parents.
Par définition le Graphe Acyclique Dirigé (DAG) d’un réseau bayésien
représente un phénomène qui respecte nécessairement ce théorème.
L’hypothèse de Markov implique plusieurs conséquences. Pour un
ensemble de variables X = {X1, ..., Xn}, le Graphe Acyclique Dirigé (DAG)
d’un réseau bayésien associé à ces variables est aussi une représentation
graphique de la décomposition de la probabilité jointe de cet ensemble.
Hypothèse de Markov
En effet, en suivant l’hypothèse de Markov, on peut décomposer la
probabilité jointe de l’ensemble par :
Hypothèse de Markov
Exemple 1:
Soit un réseau bayésien à 5 variables:
X1 X2
X3
X4 X5
Hypothèse de Markov
Les nœuds sont les variables aléatoires et les arcs sont les relations
(si possibles) causales entre ces variables.
L’absence d’arc signifie une indépendance conditionnelle.
En utilisant le théorème de Bayes on a :
P(X1, X2, X3, X4, X5) = P(X5|X1, X2, X3, X4)P(X1, X2, X3, X4)
or d’après l’hypothèse de Markov le nœud X5 n’est dépendant que
de ses parents, donc :
P(X1, X2, X3, X4, X5) = P(X5|X3, X4)P(X1, X2, X3, X4)
Hypothèse de Markov
De proche en proche on arrive à la décomposition suivante :
P(X1, X2, X3, X4, X5) = P(X5|X3, X4)P(X4|X3)P(X3|X2, X1)P(X2)P(X1)
•Cambriolage
•Séisme
•Alarme
•Marie Appelle
•Jean Apelle
Hypothèse de Markov
La topologie du RB modélise la connaissance
causale.
Un arc d’un nœud X vers un nœud Y signifie
que la variable X influence la variable Y.
– Un cambriolage et le séisme peuvent
déclencher l’alarme.
– L’alarme peut inciter Jean et Marie à
appeler.
Pour chaque nœud, une table de probabilité
conditionnelle (TPC) donne la probabilité
pour chaque valeur du nœud étant donné les
combinaisons des valeurs des parents du
nœud.
Hypothèse de Markov
P(X1, … ,Xn) = i=1 P (XiParents(Xi))
P(j,m,a,¬c, ¬ s) = P(j|a) P(m|a) P(a| ¬ c, ¬ s)
P(¬ c) P(¬ s) = .90 × .70 × .001 ×
0.999 × . 998
= .00062
Hypothèse de Markov
Une autre conséquence est sur la D-séparation. Elle devient
équivalente à l’indépendance conditionnelle.
En effet, sous l’hypothèse de Markov, X est D-séparé de Y par Z est
équivalent à X ⊥ Y |Z.
Cela se traduit dans le cas 1 et 2 de la D-séparation par une
indépendance conditionnelle entre X et Y lorsqu’on conditionne par Z.
Dans le cas 3 conditionner par rapport à W donne une dépendance
conditionnelle entre X et , alors que le conditionnement par Z donne
une indépendance conditionnelle.
Hypothèse de Markov
Une dernière conséquence, allant de pair avec la D-séparation, est
que la couverture de Markov d’une variable est l’ensemble minimum
qui permet d’isoler totalement une variable des autres, c’est-à-dire:
∀X ∈ U, et ∀Z ∈ {U − MB(X)}, X ⊥ Z|MB(X)
• A true positive is a result where the • A false positive is a result where the
model correctly predicts the positive model incorrectly predicts the positive
class. class.
• A true negative is a result where the • A false negative is a result where the
model correctly predicts the negative model incorrectly predicts the negative
class. class.
General Efficiency
As he grazes the village herd, a young shepherd was bored. To have fun, he started
shouting "a wolf!" when there were no wolves around him. The villagers run to
protect the herd, then get angry when they understand that the young man has
played a trick on them.
One night, the young shepherd actually sees a wolf approaching his flock and
shouting "a wolf!". This time, the villagers refuse to be fooled and they stayed at
home. The hungry wolf was feasting on lamb's meat and the village was left without
food.
• "Wolf" is a positive class
• "No wolf" is a negative class
General Efficiency
We can summarize our wolf prediction model with a 2x2 matrix that
illustrates the four possible results:
True positive (TP): True negative (TN):
• Reality: wolf attack. • Reality: no wolf attack.
• The shepherd says: "Wolf". • The shepherd says: "No wolf".
• Result: the shepherd is a hero. • The result: everyone is safe.