Académique Documents
Professionnel Documents
Culture Documents
.
INSA Rouen -Département ASI
Laboratoire LITIS
150
200
250
50 100 150 200 250
0.6
0.015 0.5
0.4
0.01
0.3
0.005 0.2
0.1
0
0 50 100 150 200 250 0
0 50 100 150 200 250
Trouver une règle qui minimise un coût moyen, définissant quelle action effectuer
en fonction de l’entité observée
• Coût ℓjk = ℓ(aj , Ck ) associé à l’action aj sachant que l’observation est issue de
Ck .
X −→ A
D:
x 7−→ aj
K
X
R(aj |x) = ℓjk Pr(Ck /x)
k=1
• Risque moyen
Z
Rmoy = R(D(x)|x)pX (x)dx
En fait, la règle de Bayes est celle qui minimise les risques conditionnels :
K
X K
X
ℓrk Pr(Ck /x) < ℓjk Pr(Ck /x) ∀j (∀ action aj )
k=1 k=1
ℓ11 Pr(C1 /x) + ℓ12 Pr(C2 /x) < ℓ21 Pr(C1 /x) + ℓ22 Pr(C2 /x)
(ℓ11 − ℓ21 )p(x/C1 )Pr(C1 ) < (ℓ22 − ℓ12 )p(x/C2 )Pr(C2 )
soit : (
a1 si L(x) ≥ η
D(x) =
a2 si L(x) < η
p(x/C1 ) (ℓ12 −ℓ22 )Pr(C2 )
avec L(x) = p(x/C2 )
et η = (ℓ21 −ℓ11 )Pr(C1 )
et ℓ21 > ℓ11
• Remarque : il est normal que le coût ℓjk (j 6= k) lié à une erreur soit supérieur
au coût lié à une bonne décision ℓjj
K
X
R(aj |x) = ℓjk Pr(Ck /x)
k=1
X
= ℓjk Pr(Ck /x)
j6=k
K
X
= 1 − Pr(Ck /x) car Pr(Ck /x) = 1
k=1
En supposant que les classes sont codées en {0, 1} et que les lois a priori suivent
une loi de Bernouilli, la probabilité a posteriori d’une classe est r(x) = Pr(C1 /x),
alors la règle de Bayes devient :
(
1
0 si r(x) > 2
DBayes (x) :
1 si sinon
1
p(x|C1) La figure décrit les probabilités condi-
p(x|C )
0.9 2
p(C1|x)
p(C2|x)
tionnelles et les lois a posteriori pour
0.8
un coût 0-1.
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 50 100 150 200 250
Dans un cas à coût 0-1 et coût de rejet α, les risques et la règle de decision
deviennent :
1
Densité de probabilité et seuil de decision dans le cas de rejet
p(x|C1)
La figure décrit les probabilités condi-
0.9
p(x|C )
2
p(C1|x)
tionnelles et les lois a posteriori pour
0.8
p(C2|x)
un coût 0-1. Les droites vertes verti-
0.7 cales indiquent le seuil de luminance
0.6 pour les classes et les zones de rejet
0.5 Comportement du rejet :
0.4
0
0 50 100 150 200 250
ln[Pr(Cj )/Pr(Ck )]
avec w = Σ−1 (µj − µk ) et x0 = 21 (µj + µk ) − (µ
(µj −µk )⊤ Σ−1 (µj −µk ) j
− µk )
Exemple de 2 classes gaussiennes et la frontière de Décision Exemple de 2 classes gaussiennes et la frontière de Décision
8 8
6 6
4 4
2 2
0 0
−2 −2
−4 −4
−6 −6
−8 −8
−4 −3 −2 −1 0 1 2 3 4 5 6 −8 −6 −4 −2 0 2 4 6 8
avec Wj = 21 Σ−1
j , wj = Σ −1
j µj et wjo = 1 ⊤ −1
2 µj Σj µj −
1
2 ln |Σj | + ln Pr(Cj )
Exemple de 2 classes gaussiennes et la frontière de Décision Exemple de 2 classes gaussiennes et la frontière de Décision
6 6
4 4
2 2
0 0
−2 −2
−4 −4
−6 −6
−6 −4 −2 0 2 4 6 −6 −4 −2 0 2 4 6
PN
i∈Ck xi
µk = avec Nk = card(Ck )
Nk
Nk
Pr(Ck ) =
N
PK PN ⊤
k=1 i∈Ck (xi − µk )(xi − µk )
Σ =
N −K
PN
i∈Ck (xi − µk )(xi − µk )⊤
Σk =
N −1