Académique Documents
Professionnel Documents
Culture Documents
RECONOCIMIENTO EN IMGENES
CLASIFICADORES EN IMGENES
UNIVERSO
EXTRACCIN
SEGMENTACIN X? X
DE
(Obtencin de objetos)
CARACTERSTICAS
X1XN
BASE DE DATOS
(Objetos del
Universo)
Bien?
Implementacin
g1
x2
g1 g2
+ -
3
+
g2
6 1 + +
1 -
4 2 + -
3 - +
6
9
10 4 - -
4 x1
-3
4 g1 ( X ) x1 7
-5 x1
2
g2(X ) x2
2
1
Neurona bsica
x1
w1
x2 w2 Net N
y
g(Net) y g( w x i i T ) g(W T X ) g ( Net )
wN i 1
xN
g(Net) g(Net) g(Net)
1 1 1
3 capas Clasificador
universal. A B
Complejidad
arbitraria A
limitadas por el B
nmero de B A
neuronas
Una clase i=(Xi1, Xi2, ,XiP) formada por P elementos vendr representada por
un nico vector prototipo que ser su media ponderada:
P
1
Zi
P X
j 1
ij
x2
i
x
x x xx x x Zi
x
x xx x x
x x
x1
3
X? d3
Z3
d1
d2
1
2
Z1
Z2
N
d E ( X , Z i ) || X Z i || X Z i T X Z i x
j 1
j zij 2
x2
2
x
1 x x xx x x
x
x xx x x
x x x
x x xx x x d2 x d3
x
x xx x x d1 X?
x x
x1
Luis M. Bergasa. Departamento de Electrnica (UAH)
13
Su uso est justificado cuando los centroides de las clases no son representativos
de todos los elementos de las clases. Por ejemplo cuando la desviacin tpica de
una de las caractersticas es mucho mayor que respecto a otras
x2
2
x1
Cuanto mayor sea K menor ser la tasa de error aunque el tiempo de clculo ser
mayor
Su principal virtud radica en que asume que las variables son aleatorias con lo
que tiene una mayor capacidad que los anteriores en clasificar clases solapadas
x2
1
x xx x 2 1: tuercas
x x x xx o o o
x x x x x xo o o o
x
x x x xx x xo o oo o o 2: tornillos
x o
x x x x oxxx o o o oo o o
o o
x xo o o oo
x x o oo o o o
o o o oo o
o o
x1
Luis M. Bergasa. Departamento de Electrnica (UAH)
15
Clasificador estadstico
Concepto
Representando nicamente la caracterstica x1 o x2 se observa que sigue una
distribucin normal o de Gauss. Esta curva viene caracterizada por su media
(m1, m2) y por sus desviaciones tpicas (1, 2)
1 2
1 2
m1 m2 x1
p(X/1)
p(2) g1
g2
mximo
p(X/1) X p(X/j) p(j) mximo
X?
p(N) gM
p(X/M)
Las fds para el caso de clases con distribucin normal vienen dadas por:
1
1 ( X mi )T Ci1 ( X mi )
p(Z j ) p ( X / Z j ) p (Zi ) e 2
Ci: es la matriz de covarianza
2S n / 2 Ci mi: es el vector de medias
i 1,2,..., N
Luis M. Bergasa. Departamento de Electrnica (UAH)
17
Clasificador estadstico
Clculo
Probabilidad de error
1 2
p (Z 1 / X ) si se clasifica como Z 2
p ( error / X ) 1 2
p (Z 2 / X ) si se clasifica como Z1 error
o
p ( error / X ) min > p (Z 1 / X ), p (Z 2 / X ) @
m1 m2 x1
f f
p ( error ) p (error , X ) dX p (error / X ) p ( X ) dX
f f
UT={B,8}
B 8
X=(x1, x2)
x1=grado de linealidad del tramo izquierdo
x2=rea parte superior/rea parte inferior
x2
x xx
1.5 x x x x x ooo
x x x x x xo o o
x
x x x xx xo xo o oo o x: 8
1 x
x x x x xxx o o o oo o o: B
o o
x x o o oo
0.5 x x o o oo o
oo o
o
0.5 1 x1
Luis M. Bergasa. Departamento de Electrnica (UAH)
19
Ejemplo de diseo
Hiptesis:
Ambas clases son equiprobables: p(B)=P(8)
x1 y x2 son estadsticamente independientes en ambas clases
Las matrices de covarianza son todas iguales: CB=C8=C
1
1 X mB T C 1 X mB
p( X / B ) e 2 ?
2SV 1V 2 V 12 0 X mB T C 1 X mB t X m8 T C 1 X m8
C 2
1
1
X m8 T C 1 X m8 0 V 2
p( X / 8 ) e 2 distancia de Mahalanobis
2SV 1V 2
x2 Distancia de Mahalanobis
x2
Bayesiano Distancia eucldea
x xx x xx
1.5 x x x xooxo ooo 1.5 x x x oxoxo ooo
x x x x x xo o o o x x x x x oo
x x x x x ox o o o
x x x xx xo xo o oo o x: 8
x x: 8
1 x x x o xoo o
x x x x xxx o o o oo o o: B 1 x
x x x x xxx o o o oo o o: B
o
x x o o o o oo x
o o
x o o o oo
x x o o o o
0.5 x x
o oo o 0.5
o oo o
0.5 1 x1 x1
0.5 1
Funciones discriminantes
p( X / Zi ) p(Zi )
gi ( X )
p( X )
gi ( X ) p ( X / Zi ) p (Zi )
gi ( X ) ln p( X / Zi ) ln p(Zi ) En la prctica
Como p ( X / Zi ) | N (mi , Ci )
1 n 1
gi ( X ) ( X mi )T Ci1 ( X mi ) ln 2S ln C i ln p (Zi )
2 2 2
wT X X 0 0 Hiperplano
w mi m j
1 V2 p(Zi )
X0 mi m j 2
ln mi m j
2 mi m j p(Z j )
Funciones discriminantes
Caractersticas:
Pasa por X0
1
gi ( X ) ( X mi )T C 1 ( X mi ) ln p (Zi ) Clusters: hiperelipsoides del mismo
2 tamao
Si p(Zi ) es el mismo para todas las clases:
1
gi ( X ) ( X mi )T C 1 ( X mi ) Distancia de Mahalanobis
2
Expandiendo la expresin anterior y eliminando el trmino constante (XTX):
1
gi ( X ) wiT X wi 0 ; wi C 1mi wi 0 miT C 1mi ln p(Zi ) Discriminante lineal
2
Borde de decisin: gi(X)=gj(X)
wT X X 0 0 Hiperplano
w C 1 mi m j
X0
1 >
mi m j ln p(ZTi ) /1p(Z j ) mi m j @
2 ( X mi ) C ( X mi )
Luis M. Bergasa. Departamento de Electrnica (UAH)
25
Funciones discriminantes
Caractersticas:
Pasa por X0
Si p(Zi ) z p (Z j ) X0 se aleja de la
media ms probable
gi ( X ) X T Wi X wi X wi 0
Clusters:diferentes formas y
1 1 1 tamaos
Wi Ci1 wi 1
C mi
i wi 0 miT C 1mi ln Ci ln p (Zi )
2 2 2
Mxima probabilidad
Asume que los parmetros del modelo son fijos
La mejor estimacin se calcula como aquella que maximiza la
probabilidad de obtener las muestras observadas
Gran dependencia del modelo (si el modelo es malo los resultados
sern pobres)
Estimacin Bayesiana
Asume que los parmetros del modelo son variables aleatorias con
una distribucin conocida a priori
La observacin de las muestras convierte a stas en una
probabilidad a posteriori que se usa para determinar el valor real
de los parmetros
Asume incertidumbre en el modelo
1 1
ln p( x / T ) ln 2ST 2 xk T1 2
2 2T 2
Computando T ln p ( xk / T )
w ln p ( xk / T ) 1
( x k T1 )
T1 T2
w ln p ( xk / T )1 ( x k T1 ) 2
T2 2T 2 2T 22
Igualando a cero: T ln p ( x / T ) 0
n
1
T
k 1 2
( x k T1 ) 0
n n
1 ( x k T1 ) 2
k 1
2T 2
k 1 2T 22
1 n
m xk
nk1
2 1 n
V ( xk m ) 2
nk1
En general para el caso multivariable (Xk=xk1, xk2, xkN) las soluciones son:
n
1
m
n X
k 1
k
n
1
C ( X k m )T ( X k m )
n k 1
p( X / T ) p (T ) p( X
k 1
k / T ) p (T )
p (T / X )
p( X ) p( X )
n
max imiza p (T / X ) o p( X k / T ) p (T )
k 1
Ejemplo: T m p ( m ) | N ( m0 , V m )
n
w
wm k 1
ln p ( X k / T ) ln p (T )
0
V m2 n
n
1 1
m0
V2 k 1
Xk
V 2
X k m
V m2
m m0 0 o m
V2
k 1
1 m2
V
n
V m2
Si 2 !! 1, entonces m |
V X k 1
k (igual que ML)
Modelos paramtricos
Asume que la funcin densidad a posteriori tiene una forma paramtrica
normalmente Gausiana
Es apropiado cuando el conocimiento del problema sugiere una forma funcional
especfica (por ejemplo Gausiana)
La estimacin por mxima probabilidad (ML) suele usarse para estimar los
parmetros del modelo
Estimacin Bayesiana
Modelos no paramtricos
No tiene en cuenta la forma de la funcin densidad
No funcionan muy bien a no ser que se utilice una gran cantidad de datos
Ventana de Parzen
La funcin densidad p(X) se calcula mediante la media de M funciones kernel
Las funciones kernel suelen ser simtricas y unimodales (Gaussianas de varianza fija)
2
1 M
1 X Xm
p( X )
M
2SV
m 1
2 N /2
exp (
2V 2
)
La desventaja de este mtodo es que el nmero de las funciones kernel y sus parmetros crece
con el tamao de los datos
Histograma
Cuantifica el espacio de datos en
acumuladores de igual volumen
La funcin de densidad se aproxima en
funcin de la fraccin de datos que caen en
cada acumulador
Al igual que las ventanas de Parzen la
aproximacin es pobre
Modelos semiparamtricos
tiles para estimar funciones de densidad de estructura desconocida con datos
limitados
El nmero de parmetros puede variarse en funcin de la naturaleza de la funcin de
densidad de probabilidad real
El nmero de parmetros no es funcin de la cantidad de datos
Est formado por una suma ponderada de K funciones de densidad paramtricas
K
p( X / T ) p( X / T ) S
k 1
k k
S
k 1
k 1
Algoritmo EM
Datos incompletos:
Muy a menudo no se puede emplear estimacin ML ya que no se pueden medir todas
las caractersticas o ciertos valores no se pueden conseguir
Datos incompletos:
y1 x1 x2 n objetos oscuros
Y y x
2 3 n objetos claros
Cuando ln p(Dx/ ) es una funcin lineal de las variables no observadas entonces este
paso es equivalente a encontrar E(x no observada/ Dy, t)
Eleccin inicial de
parmetros (0)
t=0
E-Step
Estima datos no
observados usando (t)
M-Step
Computa ML
Estima los parmetros (t+1)
usando los datos estimados
t=t+1
Converge?
1. Estimacin: computa E ln pDx / T / D y ,T t
n n
p D x / T i 1
p( X i / T ) ln pDx / T ln p( X
i 1
i /T )
n
n!
i
ln
x ! x ! x
1 i1 i 2 i 3
!
xi1 ln( 1 / 4 ) xi 2 ln( 1 / 4 T / 4 ) xi 3 ln( 1 / 2 T / 4 )
n
>
E ln p( Dx / T ) / D y ,T t
@ E ln x n!
> @
/ D y ,T t E xi1 / D y ,T t ln( 1 / 4 )
i 1 i 1 ! xi 2 ! xi 3 !
E >x i2 @
/ D y ,T t ln( 1 / 4 T / 4 ) xi 3 ln( 1 / 2 T / 4 )
d
>
E ln p D x / T / D y ,T t @ 0 T t 1
> @
2 E x i 2 / D y ,T t x i 3
dT > @
E x i 2 / D y ,T t x i 3
y 1
p( xi 2 / yi1 , yi 2 ) p( xi 2 / yi1 ) i1 1 / 4 xi 2 1 / 4 T / 4 yi 1 xi 2
yi 2 1 / 2 T / 4 yi1
1/ 4
>
E xi 2 / D y ,T t @ yi 1
1 / 2 T t / 4
Modelo de mezcla
Se define como una suma ponderada de K componentes donde cada una es una es una
funcin densidad paramtrica
K
p( X / T ) p( X / T ) S
k 1
k k
Selector
Submodelo Submodelo
1
Submodelo Submodelo K
2 3
Parmetros de la mezcla
Los parmetros a estimar son:
* los valores de S k
* los parametros T k de p( X / T k )
Si p( X i / T ) p( X
k 1
i /Tk )S k
n K
p( D / T ) p( X
i 1 k 1
i / T k )S k
wp( D / T )
No se puede resolver 0 explicitamente, por ello se recurre a mtodos
wT
iterativos como el algoritmo EM
Variables ocultas
Se desconoce qu instancia Xi es generada por cada componente (los datos ocultos son
las etiquetas de los submodelos que generan cada dato)
Yi X i , zi
donde zi z1i , z 2i ,..., z Ki
1 si X i es generado por la componente j
zij
0 para el resto
X i es observable y zi es no observable
Luis M. Bergasa. Departamento de Electrnica (UAH)
45
Q T ,T t
E zi ln pDx / T / D y ,T t
n
Como p( D y / T ) p( Y / T )
i 1
i
p( Yi / T ) p( X i , zi / T ) p( X i / zi ,T ) p( zi / T ) p( X i / T j )S j
( asumiendo que zij 1 y zik 0 para k z j )
Se puede rescribir la ecuacin anterior como:
K
p( Yi / T ) > p( X i / T k )S k @zik
k 1
n K
p( D y / T ) > p( X i / T k )S k @zik
i 1 k 1
i 1 k 1 i 1 k 1
p( X i / T kt )S kt
E( zik ) K
p( X i / T tj )S tj
j 1
n K n K K
t
Qc( T ;T ) E( z
i 1 k 1
ik ) ln p X i / T k
i 1 k 1
E( zik ) lnS k O 1
k 1
Sk
Donde es el multiplicador de Lagrange
n n
wQc 1 1
0 o E zik O 0 o S kt 1 E z ik
wS k k 1
Sk ni 1
K K n
( la restriccin S
k 1
k 1 hace que E( z
k 1 i 1
ik ) O)
n
wQ c 1
0 o mkt 1 E( z ik )X i
wmk nS kt 1 i 1
n
wQ c 1
E( z )X
T
0 o C kt 1 ik i mkt 1 X i mkt 1
wC k nS kt 1 i 1
p( X i / T tj )S tj
j 1
3. M-Step
n
1
S kt 1 E z ik
n i 1
n
1
mkt 1 E( z ik )X i
nS kt 1 i 1
n
1
E( z )X
T
C kt 1 ik i mkt 1 X i mkt 1
nS kt 1 i 1