Vous êtes sur la page 1sur 3

Clasificadores Bayesianos

Castaeda Ramrez Alan, Ortega Blancas Oscar


Procesamiento Digital de Imgenes Mdicas
Universidad Nacional Autnoma de Mxico
Facultad de ingeniera

castaneda.ram.alan@gmail.com, volkodlak300@gmail.com

Resumen
Los clasificadores bayesianos son un mtodo de segmentacin
que se fundamenta en principios probabilsticos. El clasificador
Bayesiano es uno de los algoritmos bsicos supervisados.
Tpicamente las tcnicas basadas en regiones y en bordes como
clasificadores bayesianos utilizan las similitudes dentro de
una regin y las diferencias entre regiones, respectivamente.

ndice de trminos
Probabilidad conjunta: Es la probabilidad de ocurrencia de
dos o ms eventos, o de que ocurran 2 o ms eventos .
Probabilidad condicional: Es la probabilidad de que ocurra un
evento A dado otro evento B que ya aconteci
Distribucin normal o gaussiana: tipo de distribucin de los
datos que se presenta en un gran nmero de variables
aleatorias asociadas a fenmenos naturales y cotidianos que
siguen, aproximadamente, esta distribucin
Voxel: Unidad cbica que compone un objeto tridimensional.
I. INTRODUCCIN
La segmentacin de imgenes se refiere a la particin de una
imagen en distintas regiones mediante la agrupacin de
pixeles vecinos basndose en criterios de similitud
predefinidos.
Es una de las etapas bsicas en el proceso de anlisis e
interpretacin de imgenes mdicas. La segmentacin puede
consistir en la deteccin de rganos como el corazn, el
hgado, o los pulmones en imgenes de RMN o TAC.

extraccin de caractersticas . Las tcnicas de clasificacin


pueden ser supervisadas o no-supervisadas
Hay dos tipos bsicos de clasificadores:
No supervisado: Para las tcnicas no-supervisadas se utiliza el
anlisis de clusters. En este caso las clases son
desconocidas, y el problema consiste en dividir un conjunto
de n objetos en k clases, de forma que a objetos similares se
les asigna la misma clase.
Supervisado: Se utiliza un conjunto de imgenes con las
clases de inters, las clases se conocen a priori, y el problema
consiste en encontrar una funcin que asigne a cada objeto
su clase correspondiente.
Algunos algoritmos bsicos de clasificacin (supervisada) y
clustering (no-supervisada) son:
Clustering: k-medias, ISODATA, fuzzy c-medias
Clasificadores supervisados: paraleleppedo, distancia
mnima, Bayes (o de mxima verosimilitud), k-vecinos
cercanos

II. Clasificador de Bayes (o mxima verosimilitud)


El teorema de Bayes proporciona un mtodo para combinar
las probabilidades a priori de una clase (de patrones), con
los valores de un patrn y as tomar una decisin sobre
probabilidad de que el patrn pertenezca a la clase.

Los diferentes mtodos de segmentacin se pueden clasificar


de acuerdo al tipo de caractersticas y al tipo de tcnica
utilizados.
En seguida se muestran las categoras ms empleadas para la
segmentacin de imgenes.
1)
2)
3)
4)
5)

Segmentacin basada en pixeles .


Segmentacin basada en bordes (Edge-Based) .
Segmentacin basada en regiones (Region-Based) .
Mtodos Estadsticos (Classifiers/ Clustering).
Segmentacin basada en Contornos Deformables
Formato y estilo.

Las tcnicas de clasificacin asignan cada pixel o voxel a una


clase de acuerdo a los valores de sus caractersticas. La
clasificacin se realiza usualmente utilizando vectores de 2 o
ms caractersticas. Tambin es muy comn la construccin
de vectores de varias componentes a partir de diferentes
caractersticas de la misma imagen, esto se conoce como

Tabla 1: Histogramas de dos clases

P(Ck) es la probabilidad a priori de que cualquier patrn


pertenezca a Ck
P(X|Ck) es la probabilidad condicional de la clase Ck y es la
probabilidad de que una muestra tenga un valor X dado que
pertenece a la clase Ck

Figura 2. Tabla que corresponde a la figura 1


Con la suma del nmero de ocurrencias en cada rengln de la
tabla (con respecto al total) se puede estimar la probabilidad a
priori de cada clase P(Ck). Las probabilidades solo son
exactas en el lmite de un nmero infinito de muestras.
La probabilidad conjunta P(Ck, X1) se define como la
probabilidad de que un patrn tenga el valor X1 y pertenezca
a Ck (i.e. la probabilidad de que se den al mismo tiempo Ck y
Xl). P(Ck,X1) se puede estimar como la fraccin de puntos
(con respecto al total) que caen en cada celda de la tabla.
Ejem: P(C1, 6)=2/38
La probabilidad condicional P(Xn|Ck) especifca la
probabilidad de que una observacin caiga en la columna Xn
de la tabla dado que pertenece a Ck y se puede estimar como
la fraccin de muestras del rengln Ck que caen en la celda
Xn.

P(X) es un trmino de normalizacin que asegura para todas


las clases sea igual a 1.
La probabilidad posterior nos permite hacer decisiones
ptimas sobre la clase a la que pertenece un patrn. Asignar
el patrn a la clase con ms alta probabilidad posterior
minimiza la probabilidad de equivocarse (aunque no puede
garantizar una decisin correcta para todos los patrones de
una muestra). En un problema de clasificacin de varias
clases (C1,C2, ....,Cj) podemos entonces asignar el patrn Xn
a la clase Ck si:
(P(X|Ck) P(Ck)) / P(X) > (P(X|Cj) P(Cj)) / P(X) jk
5)
Anlisis de imgenes mdicas. Fernando Armbula 2008
podemos descartar P(X) y entonces:
(P(X|Ck) P(Ck)) > (P(X|Cj) P(Cj)) jk

6)

Se define a las funciones discriminantes de Bayes como:


Ejem: P(4|C2)=1/20
Yk=(P(X|Ck) P(Ck))

7)

Yn=(P(X|Cj) P(Cj))

8)

Podemos observar en la tabla que la fraccin del nmero total


de muestras que cae en la celda (Ck, Xn), est determinada
por la fraccin del nmero de muestras en el rengln Ck que
caen en la celda (Ck, Xn) multiplicado por la fraccin del
nmero total de muestras que caen en el rengln Ck, esto es:
P(Ck, Xn) = P(Xn|Ck) P(Ck);
1)

Una manera simple de utilizar las funciones discriminantes de


Bayes es suponer que las probabilidades condicionales de
clase tienen un distribucin normal (o gaussiana) G(x) :

Sustituyendo valores de la tabla:

Si x es un escalar
9)

P(C1, 7) = P(7|C1) P(C1)


1/38 = 1/18) (18/38)
Si x es un vector N-dimensional

Y por el mismo argumento


P(Ck, Xn) = P(Ck|Xn) P(Xn)

2)
10)

Sustituyendo valores de la tabla:


Donde || es el determinante de la matriz de covarianza; si x es
un vector columna:

P(C1, 7) = P(C1|7) P(7)


1/38 = 1/7) (7/38)
Entonces tenemos que:

13)
P(Ck|Xn) = (P(Xn|Ck) P(Ck)) / P(Xn)

3)

Generalizando a cualquier valor especfico de X logramos


llegar a la ecuacin que describe el Teorema de Bayes
P(Ck|X) = (P(X|Ck) P(Ck)) / P(X) .

Si
sustituimos una distribucion normal N-dimensional (GN) en
las funciones discriminantes tenemos:
Yk=GN P(Ck)

4)

Donde:
P(Ck|X) es la probabilidad posterior de que dado un patrn X
pertenezca a Ck

12)

Tomando el ln :
ln Yk= ln GN + ln P(Ck)

13)

Sustituyendo la definicin de GN y descartando trminos


constantes, obtenemos la funcin discriminante de Bayes,
asumiendo una distribucin condicional normal Ndimensional:
14)
Donde descartamos el clculo del ln del lado izq. porque
afecta igual a todas las Yk para k=1,2,...,M
Como antes, asignamos un patrn x a la clase k si
Yk (x) > Yj (x) j k , j=1,2... ,M

15)

III. CONCLUSIONES
Castaeda Ramrez Alan
Con el mtodo de clasificacin bayesiana podemos procesar
imgenes mdicas con el fin de intuir mediante la estadstica
como se va ir o deberan de ir comportando nuestros pixeles
al tener datos a priori de los pixeles adyacentes, claro que esta
se va a ver afectada por el ruido pero sin duda podemos
combinar esta tcnica para generar cdigos ms complejos
que hasta se pueda lograr predecir patrones de forma certera y
as corregir errores en nuestra imagen, he identificar de qu
clase de rgano o con qu clase de anomala estamos
tratando por citar un ejemplo, de echo podramos predecir de
qu manera se va a ir creciendo un tumor al procesar varias
imgenes del tumor en distintos lapsos de su desarrollo, por lo
que si es as se tiene un sin fin de aplicaciones a las imgenes.
Ortega Blancas Oscar
La clasificacin bayesiana es un mtodo estadstico aplicado a
cada pixel para que de acuerdo a los valores sean clasificados.
Este mtodo presenta la misma desventaja expuesta para los
algoritmos como el de umbralizacin. Al ser tcnicas
puntuales presentan un desempeo pobre cuando las
imgenes tienen mucho ruido.

IV. REFERENCIAS
[1]

DOUGHERT Y, Geoff
Digital Image Processing for Medical Applications
p. 462, Cambridge University Pres

[2]

ARMBULA, Fernando
Anlisis de imgenes mdicas. 2008

[3]

DHAWAN, Atam P
Medical Image Analysis
Second Edition, 229