Académique Documents
Professionnel Documents
Culture Documents
BAYESIENNES
• Classification:
– Basée sur la vraisemblance ou
densité de probabilité de x pour
chacune des classe
P ( wi , x) = P ( wi ) P ( x | wi ) = P ( x) P ( wi | x)
• D’où le théorème de Bayes:
p( wi ) p( x | wi )
p( wi | x) =
p( x)
• Classification: P( w2 ) P( x | w2 )
– Basée sur les probabilités a
posteriori p(wi|x)
– Calculées à partir des
vraisemblances p(x|wi) et des probabilités a priori P(wi)
– Choisir w1 si P(w1| x) > P(w2 | x) sinon w2 ou
– Choisir w1 si p(x|w1)P(w1) > p(x|w2)P(w2) sinon w2
• Erreur:
– Min[P(w1| x), P(w2 | x)]
ENSAT 2020-2021 Méthodes Bayesiennes
Probabilités a posteriori
p( wi ) p( x | wi )
p( wi | x) =
p( x)
P ( x) = P ( w1 ) P( x | w1 ) + P( w2 ) P( x | w2 )
• Par exemple:
•P(wi)
• p(x|wi)
• P(wi| x)
• -R(wi| x)
• x devient un vecteur x
plutôt qu’un scalaire
• 2 classes
• On teste:
g(x) = g1(x) – g2(x)
• Si g(x) > 0 alors w1
sinon w2
g i ( x) = ln[P( wi ) p ( x | wi )] = ln P ( wi )
1
e −
σ i 2π 2 σi
2
P ( wi ) 1 x − µi
= ln −
2 σ
σ i 2π i
2 2
P ( w1 ) P( w2 ) 1 x − µ1 1 x − µ 2
ln − ln
σ 2π
−
2 σ + 2 σ =0
σ 1 2π 2 1 2
2 2
P( w1 ) P( w2 ) 1 x − µ1 1 x − µ 2
ln − ln
σ 2π
−
2 σ + 2 σ =0
σ 1 2π 2 1 2
• Forme ax2 + bx + c = 0
0 = C + ( x − µ1 ) − ( x − µ 2 )
2 2
0 = C ' − 2(µ1 − µ 2 )x
x = C '' seuil unique
(x − µ1 )2 = (x − µ 2 )2
µ1 + µ 2
x=
2
ENSAT 2020-2021 Méthodes Bayesiennes
Frontières de décision d-D
• Si nous avons c classes et p
caractéristiques, nous pouvons
représenter les moyennes des • Les variances et covariances des
attributs de chaque classe wi par caractéristiques de chaque classe wi
un vecteur de moyenne sont représentées par une matrice de
covariance
µ1
σ 112 σ 122 σ 12p
µ2 2
σ 12 σ 22
2
σ2p
2
µi =
.
Σ i =
.
. 2 2
µ
p
σ 1 p σ pp
P ( wi ) −
1
( x − µi )T Σ i−1 ( x − µi )
P( wi ) p ( x | wi ) = e 2
Σ i (2π )
d
2 ln P ( wi ) − ln Σ i − d ln 2π − ( x − µi ) Σ −1
(x − µi )
T
i
2 ln P ( wi ) − ln Σ i − ( x − µi ) Σ −1
(x − µi )
T
i
= 2 ln P ( w j ) − ln Σ j − (x − µ j ) Σ −j1 (x − µ j )
T
• Sachant que:
(x − µ ) Σ (x − µ ) = x Σ
j
T −1
j j
T −1
j x − 2 µ Tj Σ −j1 x + µ Tj Σ −j1µ j
• On obtient la forme:
x Ax + b x + c = 0
T T
−1 −1
A = Σ −Σj i b = −2Σ −j 1µ j + 2Σ i−1µi
P ( wi ) Σj
c = 2 ln − ln + µ Tj Σ −j1µ j − µi Σ i−1µi
P( w j ) Σi
• Quadratique!
• Surfaces de décision sont des hyperquadriques
– hyperplans, paires d’hyperplans,
– hypershères, hyperellipsoïdes,
– hyperparaboloïdes, hyperhyperboloïdes
P (erreur | wi ) = ∫ p( x | w )dx
x∉Ri
i