Vous êtes sur la page 1sur 122

Universidad de Costa Rica

Facultad de Ingeniería
Escuela de Ingeniería Eléctrica

IE – 0502 Proyecto Eléctrico

NUEVO ALGORITMO DE ESTIMACIÓN DEL


UMBRAL LOCAL PARA LA SEGMENTACIÓN
DE AGLOMERACIONES CELULARES PARA
MICROSCOPÍA IN-SITU

Por:

KEVIN A. SOLÍS SALAZAR

Ciudad Universitaria Rodrigo Facio

Julio del 2011


NUEVO ALGORITMO DE ESTIMACIÓN DEL
UMBRAL LOCAL PARA LA SEGMENTACIÓN DE
AGLOMERACIONES CELULARES PARA MICROSCOPÍA
IN-SITU

Por:
KEVIN A. SOLÍS SALAZAR

Sometido a la Escuela de Ingeniería Eléctrica


de la Facultad de Ingeniería
de la Universidad de Costa Rica
como requisito parcial para optar por el grado de:

BACHILLER EN INGENIERÍA ELÉCTRICA

Aprobado por el Tribunal:


_________________________________
Dr.-Ing. Geovanni Martínez Castillo
Profesor Guía

_________________________________ ________________________________
Ing. Andrew Sheehy Protti Ing. Luis Diego Rojas Muñoz
Profesor lector Profesor lector

ii
DEDICATORIA

Este trabajo se lo dedico a Dios, la Virgen, a mi incondicional novia, a mi

maravillosa familia, a mis amigos. Por contribuir con lo que soy hoy día, por todo el apoyo

brindado, porque siempre me alientan a seguir adelante, a corregir mis errores, porque

siempre están presentes cuando los necesito, y por ser mi motivo de superación, muchas

gracias con todo amor y cariño.

iii
RECONOCIMIENTOS

Un especial agradecimiento al Prof. Geovanni Martínez Castillo, PhD., Director del

Laboratorio de Investigación en Procesamiento Digital de Imágenes y Visión por

Computador (IPCV-LAB) de la Universidad de Costa Rica, por su valioso apoyo, consejo

y guía, en el desarrollo de este trabajo.

iv
ÍNDICE GENERAL

1. CAPÍTULO 1: INTRODUCCIÓN .................................................... 1

1.1 Introducción al tema .......................................................................... 1

1.2 Objetivos ............................................................................................. 5

1.2.1 Objetivo general ............................................................................................ 5

1.2.2 Objetivos específicos ..................................................................................... 6

1.3 METODOLOGIA .............................................................................. 7

2. CAPÍTULO 2: DESARROLLO TEÓRICO ..................................... 9

2.1 Principios de procesamiento de imagen ............................................ 9

2.1.1 Captura de una imagen .................................................................................. 9

2.1.2 Cuantización y codificación ........................................................................ 12

2.1.3 Formación de una imagen digital a color .................................................... 14

2.2 Segmentación de Imágenes .............................................................. 18

2.2.1 Umbralización ............................................................................................. 20

v
2.3 Histograma y densidad de probabilidad ......................................... 22

2.4 Media y varianza local en una imagen de intensidad ..................... 23

2.5 Filtro de mediana ............................................................................. 29

2.6 Algoritmos de Máxima Verosimilitud ............................................. 31

2.6.1 Algoritmos de segmentación basados en umbralización por máxima

verosimilitud 31

2.7 Etiquetado Recursivo ....................................................................... 39

2.8 Algoritmo RANSAC ......................................................................... 40

2.8.1 Descripción del algoritmo ........................................................................... 41

2.9 Microscopio in-situ ........................................................................... 45

3. CAPÍTULO 3: ALGORITMO DE SEGMENTACIÓN BASADO

EN UMBRALIZACIÓN GLOBAL Y LOCAL SEGÚN ESPINOZA [5].49

3.1 Algoritmo de umbralización global de la varianza local ................ 49

3.1.1 Descripción .................................................................................................. 50

vi
3.1.2 Pasos posteriores a la umbralización global de la varianza local ................ 53

3.1.3 Ventajas y desventajas del algoritmo de umbralización global de la varianza54

3.2 Algoritmo de umbralización local de la intensidad ........................ 55

3.2.1 Descripción del algoritmo de umbralización local de la intensidad ............ 56

3.2.2 Pasos posteriores a la umbralización local de la intensidad ........................ 59

3.2.3 Ventajas y desventajas del algoritmo de umbralización local de la intensidad61

4. CAPÍTULO 4: ALGORITMO PROPUESTO DE

SEGMENTACIÓN DE BASADO EN UNA UMBRALIZACIÓN

GLOBAL Y LOCAL .................................................................................. 63

4.1.1 Descripción del algoritmo de umbralización local de la intensidad ............ 63

4.1.2 Pasos posteriores a la umbralización local de la imagen de intensidad....... 66

4.1.3 Ventajas y desventajas del algoritmo de umbralización local de la imagen

de intensidad 69

5. CAPÍTULO 5: ALGORITMO DE ERROR CUADRÁTICO

MEDIO (MSE) PARA EVALUAR LA PRECISIÓN .............................. 71

vii
5.1 Segmentación manual para medir la precisión de los algoritmos .. 71

5.2 Cálculo del error cuadrático medio ................................................. 73

5.2.1 Penalización ................................................................................................. 74

6. CAPÍTULO 6: RESULTADOS EXPERIMENTALES ................. 76

6.1 Resultados del MSE para la secuencia “Serie 550” ........................ 77

6.2 Ventajas del algoritmo propuesto .................................................... 93

7. CAPÍTULO 7: CONCLUSIONES Y RECOMENDACIONES..... 97

7.1 Conclusiones ..................................................................................... 97

7.2 Recomendaciones ............................................................................. 98

BIBLIOGRAFÍA ........................................................................................ 99

viii
ÍNDICE DE FIGURAS

Figura 2.1 Separación de componentes RGB en un prisma .................................................. 9

Figura 2.2 Sensor CCD ........................................................................................................ 10

Figura 2.3 Sensor CMOS..................................................................................................... 11

Figura 2.4 Funcionamiento del CCD y CMOS ................................................................... 11

Figura 2.5. Arreglo de sensores CCD para cámara digital a color ...................................... 12

Figura 2.6. a) Imagen original. b) Valores de Cuantización. c) Imagen Cuantizada .......... 14

Figura 2.7 Imagen digital en escala de grises [6] ................................................................ 15

Figura 2.8 Representación matricial de una imagen digital a color en el espacio RGB ..... 16

Figura 2.9 Comparación entre una imagen de intensidad y una imagen segmentada ......... 19

Figura 2.10. Imagen de Intensidad a umbralizar, con su histograma .................................. 21

Figura 2.11. Imagen binaria segmentada con distintos umbrales de la imagen 2.10 .......... 21

Figura 2.12 Ejemplo de un histograma ................................................................................ 22

Figura 2.13 Ventana para el cálculo de la media y varianza local ...................................... 23

Figura 2.14. Cálculo de la media ......................................................................................... 26

Figura 2.15. Imagen de Intensidad de prueba ...................................................................... 27

Figura 2.16. Imágenes de media resultantes de la imagen 2.15. A con W=1, B con W=3, C

con W=5 .............................................................................................................................. 27

Figura 2.17. Imágenes de varianza resultantes de la imagen 2.15. A con W=1, B con W=3,

C con W=5 ........................................................................................................................... 28

ix
Figura 2.18. Imagen segmentada binaria a partir de una umbralización manual de la

imagen de varianza local de la figura 2.17.A. ..................................................................... 29

Figura 2.19 Ventana 3x3 (W=1) para ejemplificar filtro de mediana ................................. 30

Figura 2.20 Ejemplo de valores ordenados para ejemplificar filtro de mediana ................. 30

Figura 2.21 Resultado de Filtro de Mediana ....................................................................... 31

Figura 2.22. Densidad de probabilidad p(I) de la componente de intensidad a umbralizar,

formada por la suma de dos densidades gaussianas p(I|C1) y p(I|C2), con medias m1 y m2 y

varianzas 21 y 22 respectivamente .................................................................................... 34

Figura 2.23. Ejemplo 1: A: Imagen Original. B: Imagen Umbralizada mediante Otsu. C:

Imagen Umbralizada mediante Kutira. D: Imagen Umbralizada mediante Kittler. ............ 37

Figura 2.24. Ejemplo 2: A: Imagen Original. B: Imagen Umbralizada mediante Otsu. C:

Imagen Umbralizada mediante Kutira. D: Imagen Umbralizada mediante Kittler. ............ 37

Figura 2.25. Ejemplo 3: Umbralización mediante el método de Kittler. B: resultado de la

umbralización de la imagen de intensidad en A. C: Histograma de la imagen de intensidad

en A. D: Acercamiento del histograma para apreciar que el valor de umbral seleccionado 

fue de 137. ........................................................................................................................... 38

Figura 2.26. a) Imagen binaria, b) Imagen etiquetada. ........................................................ 39

Figura 2.27. Ejemplo de Imagen Etiquetada ....................................................................... 40

Figura 2.28 Algoritmo RANSAC. (a) Conjunto de datos. (b) Recta definida por los datos A

y B. (c) Distancia de referencia o umbral para la recta de la imagen mostrada en (b), líneas

punteadas. (d) Recta definidita por los datos C y D, donde C es un dato atípico................ 42

x
Figura 2.29 Fotografía del microscopio in-situ [4].............................................................. 45

Figura 2.30 Partes del microscopio in-situ .......................................................................... 46

Figura 2.31. Microscopio In-Situ montado en un reactor biológico. .................................. 47

Figura 2.32 Imagen de intensidad obtenida con el microscopio in-situ. ............................. 48

Figura 3.1. Zona de traslape ................................................................................................ 50

Figura 3.2 (a) Imagen de intensidad capturada por el microscopio in-situ. (b) Imagen de

varianza local de la imagen mostrada en (a)........................................................................ 51

Figura 3.3 Resultado de aplicar una umbralización global por máxima verosimilitud a la

imagen de varianza local mostrada en la figura 3.1 (b). ...................................................... 52

Figura 3.4 Imagen binaria resultado del algoritmo de umbralización de la varianza local

descrito en [4] ...................................................................................................................... 54

Figura 3.5 Problema de sobresegmentación que resulta de aplicar el algoritmo descrito en

[4]......................................................................................................................................... 55

Figura 3.6 Resultado de aplicar el algoritmo de umbralización global de la varianza y

realizar luego la umbralización local descrita en [5] a la imagen mostrada en la figura

3.1(a) .................................................................................................................................... 59

Figura 3.7: Resultado final del algoritmo de umbralización local de la intensidad descrito

en [5] para la imagen mostrada en la figura 3.1 (a). ............................................................ 60

Figura 3.8: Resultado del algoritmo de umbralización local de la intensidad descrito en [5]

presentados sobre una parte de una imagen de intensidad .................................................. 61

Figura 3.9. Problemas del algoritmo de Espinoza ............................................................... 62

xi
Figura 4.1. Comparación entre densidad de probabilidad unimodal y bimodal .................. 64

Figura 4.2. Histograma de los bordes de una región específica, que se obtiene de la imagen

generada en [4] .................................................................................................................... 65

Figura 4.3 Resultado de aplicar una umbralización local a la imagen de la figura 3.1 (b). 66

Figura 4.4. Imagen mejorada con filtro de mediana, luego de la umbralización ................ 67

Figura 4.5 Imagen binaria resultante del algoritmo de umbralización local de la imagen de

intensidad ............................................................................................................................. 68

Figura 4.6. Comparación entre una imagen resultante del algoritmo de Espinoza, y una del

algoritmo propuesto ............................................................................................................. 69

Figura 4.7 Disminución de la clasificación errónea del fondo ............................................ 70

Figura 5.1. Imagen segmentada manualmente utilizada para evaluar la precisión de los

algoritmos. ........................................................................................................................... 72

Figura 5.2 Método para medir la distancia mínima al cuadrado entre píxeles de borde

manual y píxeles de borde del algoritmo. ............................................................................ 73

Figura 6.1. Comparación Imagen 550 ................................................................................. 78

Figura 6.2. Comparación Imagen 551 ................................................................................. 79

Figura 6.3. Comparación Imagen 552 ................................................................................. 80

Figura 6.4. Comparación imagen 553 ................................................................................. 81

Figura 6.5. Comparación imagen 554 ................................................................................. 82

Figura 6.6. Comparación imagen 555 ................................................................................. 83

Figura 6.7. Comparación imagen 556 ................................................................................. 84

xii
Figura 6.8. Comparación imagen 557 ................................................................................. 85

Figura 6.9. Comparación imagen 558 ................................................................................. 86

Figura 6.10. Comparación imagen 559 ............................................................................... 87

Figura 6.11. Comparación imagen 560 ............................................................................... 88

Figura 6.12. Histograma de los bordes de una región específica, muestra intensidades altas,

medias y pequeñas; que se obtiene de la imagen generada en [4] ....................................... 91

Figura 6.13. Resultados graficados de la Serie 550 ............................................................. 92

Figura 6.14 Resultados obtenidos, el color blanco es de la segmentación manual, el azul es

del algoritmo descrito en [4], el verde del [5] y el rojo del algoritmo propuesto ................ 92

Figura 6.15. Imágenes de datos atípicos para la imagen 550 .............................................. 95

Figura 6.16. Imagen de datos atípicos en una región específica ......................................... 96

xiii
ÍNDICE DE TABLAS

Tabla 6.1. Resultados de la Serie 550 para los 3 algoritmos de umbralización .................. 89

Tabla 6.2. Tabla comparativa de umbrales entre algoritmo de Espinoza y Propuesto ........ 94

xiv
NOMENCLATURA

IPCV-LAB Siglas de Laboratorio de Investigación en Procesamiento Digital de

Imágenes y Visión por Computador, en inglés: “Image Processing and Computer Vision

Research Laboratory”

RGB Modelo de color utilizado en las imágenes, en el que se representan todos

los colores como una combinación lineal de los colores siguientes: R-rojo, G-verde y B-

azul.

YI’Q Modelo de color utilizado en las imágenes, en el que se representan todos

los colores como una combinación lineal de los siguientes parámetros: Y- Luminancia, I’ y

Q- Crominancia.

I(x, y) Valor de intensidad en la posición dada por las coordenadas “x” y “y” en

una imagen estática.

h(I) Frecuencia de ocurrencia de un nivel de intensidad I.

N Número de columnas de una imagen.

xv
M Número de filas de una imagen.

W Parámetro para definir el tamaño de una ventana

p(I) Densidad de probabilidad del nivel de intensidad I.

m(x,y) Valor medio de los valores de intensidad de los píxeles en una vecindad

alrededor del píxel ubicado por las coordenadas “x” y “y” (media local).

 2 ( x, y) Varianza de los valores de intensidad de los píxeles en una vecindad

alrededor del píxel ubicado por las coordenadas “x” y “y” (varianza local).

f x   Función de densidad de probabilidad para la variable aleatoria “x”, la

cual pertenece a una familia de funciones de densidad de probabilidad parametrizadas.

 Parámetros de una función de densidad de probabilidad parametrizada.

p( xi ) Probabilidad de que la variable aleatoria “x” tome el valor “x i”.

* Parámetros de una función de densidad de probabilidad parametrizada

estimados mediante máxima verosimilitud.


xvi
L X   Función de verosimilitud.

C Clase en que se clasifican los píxeles.

k Umbral utilizado para separar las muestras en dos clases.

pi I Ci  Probabilidad condicional de obtener una muestra en particular dado

que se sabe a priori a que clase pertenece.

ci Peso de las muestras pertenecientes a la i-ésima clase.

mi Media de las muestras pertenecientes a la i-ésima clase.

σi Varianza de las muestras pertenecientes a la i-ésima clase.

 Vector de dos dimensiones con un solo cero y un solo uno.

L(k) Logaritmo de Función de máxima verosimilitud utilizada para estimar el

valor óptimo de un umbral k.

xvii
RANSAC Siglas para «Random Sample Consensus», que corresponde al

nombre de un algoritmo para encontrar un modelo matemático para un conjunto de datos

experimentales.

A Cantidad mínima de datos para iniciar los parámetros libres del modelo

seleccionado.

Si Subconjunto de A datos utilizado para encontrar un modelo inicial en la i-

ésima repetición.

Mi Modelo inicial obtenido durante la i-ésima repetición.

Si* Conjunto de datos llamado conjunto de consenso para la i-ésima repetición.

αA Probabilidad de que al menos uno de los subconjuntos de A datos que se

selecciona al azar no contenga datos atípicos.

ρ Probabilidad de que uno de los datos escogidos sea un valor válido.

η Cantidad mínima de veces que se debe repetir el algoritmo RANSAC.

xviii
 Probabilidad de que un valor atípico sea compatible con un modelo

incorrecto.

thr,l Umbral local que se determina para el algoritmo propuesto y el descrito en

[5]

CCD Siglas de dispositivo de carga acoplada en inglés: “Charge-Coupled

Device”.

LED Siglas de diodo emisor de luz en inglés: “Light Emitting Diode”.

di2 Distancia al cuadrado desde un píxel perteneciente a la frontera de una

aglomeración celular hasta el píxel más cercano marcado manualmente como frontera de

una aglomeración celular.

MSE Error cuadrático medio. Se calcula como el promedio de las distancias al

cuadrado desde cada píxel perteneciente al borde de una aglomeración celular segmentada

hasta el píxel más cercano marcado manualmente como borde de una aglomeración

celular.

xix
RESUMEN

En este proyecto se desarrolló y probó un nuevo algoritmo para determinar

(segmentar) las regiones de las aglomeraciones celulares dentro de una imagen estática

capturada por un microscopio in-situ, el cual podría ser utilizado como parte de un

estimador de la densidad celular de un cultivo celular.

El algoritmo consiste en una umbralización local de una imagen de intensidad, a

partir de modelar la densidad de probabilidad de los valores de intensidad alrededor de la

región, con un modelo de población mixta, el cual consiste en la suma de dos densidades

de probabilidad Gaussianas con diferentes pesos, medias y varianzas. Una densidad de

probabilidad corresponderá a la población de valores de intensidad del fondo y la otra

corresponderá a la población de los valores de intensidad atípicos. Los parámetros óptimos

de ese modelo, incluyendo el valor medio de los valores de intensidad de los píxeles del

fondo, serán estimados mediante la maximización de una función de verosimilitud de

acuerdo a [8].

El algoritmo se implementó en una PC utilizando el lenguaje de programación C,

bajo el sistema operativo Windows® XP y se hicieron pruebas con imágenes reales de

cultivos celulares capturadas por un microscopio in-situ disponibles en el IPCV-LAB. La

precisión de la segmentación se evaluó utilizando el valor cuadrático medio (MSE) de la

distancia entre las fronteras de las aglomeraciones celulares segmentadas con el algoritmo

y las fronteras de las aglomeraciones celulares segmentadas manualmente. Los resultados

obtenidos mostraron que el nuevo algoritmo es más preciso que los algoritmos descritos
xx
por Martínez y Espinoza (en [4] y [5], respectivamente). El MSE del nuevo algoritmo en

las once imágenes de la secuencia “Serie550” fue en promedio 56% y 29% más preciso

que los algoritmos descritos por Martínez y Espinoza respectivamente.

xxi
1. Capítulo 1: Introducción

1.1 Introducción al tema

Conocer el valor estimado de la densidad celular (número de células por unidad

de volumen) es importante para el control confiable de un cultivo celular dentro de un

reactor biológico. Actualmente, los instrumentos disponibles en el mercado

internacional la estiman a partir de mediciones de turbidez, conductividad, densidad

óptica o propiedades de fluorescencia. Sin embargo, dichos instrumentos requieren de

una constante calibración debido al desajuste de los sensores, cambios en el medio

físico o químico, etc.

Para calibrar los instrumentos, el valor estimado es comparado con aquel

obtenido analizando una muestra del cultivo celular fuera del reactor biológico,

haciendo uso de un hemocitómetro o un microscopio de luz convencional. Entonces, se

hace necesario que un operador extraiga y analice del reactor biológico una muestra del

cultivo celular; incrementándose así el riesgo de contaminación del cultivo celular y los

costos de operación. Con el propósito de evitar estos problemas se está desarrollando un

microscopio in-situ [1,2].

Un microscopio in-situ es un microscopio de luz convencional con una cámara

de video incorporada a su estructura, cuya zona de muestreo fue diseñada para ser

introducida dentro de un reactor biológico, y así poder tomar imágenes estáticas de

intensidad del cultivo celular, sin riesgo de contaminación ni intervención del operador.

1
Asumiendo que el volumen de la escena es conocido, la densidad celular dentro

del reactor biológico en un instante de tiempo arbitrario se puede estimar a partir del

análisis una imagen de intensidad capturada por el microscopio in-situ en ese mismo

instante de tiempo [3,4]. Para ello, el primer paso consiste en determinar (segmentar) las

regiones de las aglomeraciones celulares en la imagen. Una aglomeración celular se

define como un grupo de una o más células, donde la distancia entre células es

prácticamente nula. En este trabajo se desarrollará un nuevo algoritmo para la

segmentación de las aglomeraciones celulares.

En [4] se describe un algoritmo para segmentar aglomeraciones celulares a partir

de una imagen estática de intensidad capturada por un microscopio in-situ basado en

una umbralización global. En dicho algoritmo se realiza la segmentación clasificando

los píxeles de la imagen de intensidad en dos clases: fondo y aglomeraciones. Para

realizar la clasificación de un píxel arbitrario se compara el valor de la varianza local de

la intensidad con un valor de referencia denominado umbral. Aquellos píxeles cuya

característica es menor que el umbral, son clasificados como pertenecientes al fondo. A

este tipo de umbral se le suele denominar umbral global, porque se utiliza para clasificar

todos los píxeles de la imagen. El valor del umbral es estimado maximizando el

logaritmo de la probabilidad conjunta de los píxeles dadas sus respectivas clases,

suponiendo que los píxeles son estadísticamente independientes. Dicha probabilidad

conjunta es calculada describiendo la densidad de probabilidad de los valores locales de

varianza, por medio de un modelo mixto de población con distintas medias y varianzas

[10,11].

2
Desafortunadamente, durante el proceso de umbralización global se pueden

cometer errores de clasificación. Para corregir los errores de clasificación, en [5] se

reclasifican todos los píxeles de cada “región segmentada por umbralización global”

haciendo uso de un segundo umbral.

Dicho umbral es comúnmente denominado umbral local y puede ser diferente en

cada región. El valor del umbral local de una “región segmentada por umbralización

global” es estimado como el valor medio de los valores de intensidad de los píxeles del

fondo alrededor de la misma. Los píxeles dentro de la “región segmentada por

umbralización global” con un valor de intensidad mayor que el umbral local son

reclasificados como pertenecientes al fondo. Para estimar el valor medio de los valores

de intensidad de los píxeles del fondo alrededor de la “región segmentada por

umbralización global” se modela la densidad de probabilidad de esos valores de

intensidad como una función de densidad de probabilidad Gaussiana, descrita por dos

parámetros: el valor medio y la varianza de los valores de intensidad de esos píxeles.

Los parámetros óptimos de ese modelo son estimados maximizado una función de

verosimilitud. Para mejorar la precisión en la estimación del valor medio, los píxeles

con valores de intensidad atípicos son detectados y excluidos de la estimación mediante

un algoritmo basado en RANSAC [5].

En este trabajo se propone un nuevo algoritmo para la estimación del valor del

umbral local usado en [5] para reclasificar los píxeles de las regiones segmentadas

obtenidas mediante una umbralización global. De la misma forma que en [5], el valor

del umbral local de una “región segmentada por umbralización global” será definido

3
como el valor medio de los valores de intensidad de los píxeles del fondo alrededor de

la misma. Sin embargo, para estimar su valor, en vez de modelar la densidad de

probabilidad de los valores de intensidad alrededor de la región como una sola función

de densidad de probabilidad Gaussiana, esta se modelará mediante un modelo de

población mixta, el cual consiste en la suma de dos densidades de probabilidad

Gaussianas con diferentes pesos, medias y varianzas. Una densidad de probabilidad

corresponderá a la población de valores de intensidad del fondo y la otra corresponderá

a la población de los valores de intensidad atípicos. Los parámetros óptimos de ese

modelo, incluyendo el valor medio de los valores de intensidad de los píxeles del fondo,

serán estimados mediante la maximización de una función de verosimilitud de acuerdo a

[10].

El algoritmo se implementará en una PC utilizando el lenguaje de programación

C, bajo el sistema operativo Windows XP. Para evaluar el impacto del nuevo algoritmo,

se modificará el algoritmo original de segmentación basado en umbralización global y

local propuesto en [5], de tal modo que sea el algoritmo propuesto el que se use para

estimar el umbral local por cada región segmentada después de la umbralización global.

Posteriormente, se probará con imágenes reales de cultivos celulares capturadas por un

microscopio in-situ, disponibles en el Laboratorio de Investigación en Procesamiento

Digital de Imágenes y Visión por Computador (IPCV-LAB). Para evaluar el desempeño

del algoritmo de segmentación basado en umbralización global y local modificado se

compararán sus resultados con aquellos obtenidos con una segmentación basada

únicamente en una umbralización global según se describe en [4] y con aquellos

4
obtenidos con una segmentación basada en una umbralización global y local original

según se describe en [5].

Primero, se medirá el error cuadrático medio (MSE) entre el contorno de las

regiones segmentadas con los algoritmos descritos en [4] y [5], y el contorno de las

regiones obtenido al segmentar las aglomeraciones en forma manual. Luego, se medirá

el MSE entre el contorno de las regiones segmentadas con el algoritmo modificado, y el

contorno de las regiones obtenido al segmentar las aglomeraciones en forma manual.

Finalmente, se compararán los valores medidos anteriormente. Una disminución del

error cuadrático medio obtenido con el nuevo algoritmo respecto a aquel obtenido con

el algoritmo descrito en [5], será el indicador de que el nuevo algoritmo de estimación

del umbral local provoca un mejor desempeño de la segmentación basada en

umbralización global y local, específicamente una mejora de exactitud de la

segmentación de las regiones de las aglomeraciones celulares.

1.2 Objetivos

1.2.1 Objetivo general

Diseñar, implementar y probar un nuevo algoritmo para estimar el umbral local

para la segmentación de aglomeraciones celulares en una imagen estática de intensidad

capturada por un microscopio in-situ, el cual se basará en una estimación por máxima

verosimilitud de los parámetros de un modelo de población mixta de la densidad de

5
probabilidad de los valores de intensidad de los píxeles que rodean cada región

segmentada mediante una umbralización global.

1.2.2 Objetivos específicos

1. Realizar un estudio del estado de la cuestión sobre segmentación de aglomeraciones


celulares basadas en umbralización global y local para microscopía in-situ.

2. Diseñar un nuevo algoritmo para estimar el umbral local en la segmentación basada


en umbralización global y local propuesta en [5]. Este deberá basarse en una
estimación por máxima verosimilitud de los parámetros de un modelo de población
mixta de la densidad de probabilidad de los valores de intensidad de los píxeles que
rodean cada región segmentada previamente mediante la umbralización global.

3. Implementar el algoritmo propuesto haciendo uso del lenguaje de programación C


bajo el sistema operativo Windows XP.

4. Modificar el algoritmo original de segmentación basado en umbralización global y


local propuesto en [7], de tal modo que sea el algoritmo propuesto el que se use para
estimar el umbral local por cada región segmentada después de la umbralización
global.

5. Evaluar el impacto del algoritmo propuesto en la precisión de los resultados


segmentación basada en umbralización global y local.

6. Escribir el documento final.

7. Preparar la presentación oral y defender la tesis.

6
1.3 METODOLOGIA

Se aplicará el algoritmo de segmentación basado en una umbralización global

propuesto en [4] a la imagen de intensidad capturada por el microscopio in-situ. Luego,

se aplicará una umbralización local a cada región segmentada previamente con la

umbralización global. De la misma forma que en [5], el valor del umbral local de una

“región segmentada por umbralización global” será definido como el valor medio de los

valores de intensidad de los píxeles del fondo alrededor de la misma.

Sin embargo, para estimar su valor, en vez de modelar la densidad de

probabilidad de los valores de intensidad alrededor de la región como una sola función

de densidad de probabilidad Gaussiana, esta se modelará mediante un modelo de

población mixta, el cual consiste en la suma de dos densidades de probabilidad

Gaussianas con diferentes pesos, medias y varianzas. Una densidad de probabilidad

corresponderá a la población de valores de intensidad del fondo y la otra corresponderá

a la población de los valores de intensidad atípicos. Los parámetros óptimos de ese

modelo, incluyendo el valor medio de los valores de intensidad de los píxeles del fondo,

serán estimados mediante la maximización de una función de verosimilitud de acuerdo a

[10].

El algoritmo se implementará en una PC utilizando el lenguaje de programación

C, bajo el sistema operativo Windows XP. Para evaluar el impacto del nuevo algoritmo,

se modificará el algoritmo original de segmentación basado en umbralización global y

local propuesto en [5], de tal modo que sea el algoritmo propuesto el que se use para

estimar el umbral local por cada región segmentada después de la umbralización global.

7
Posteriormente, se probará con imágenes reales de cultivos celulares capturadas por un

microscopio in-situ, disponibles en el Laboratorio de Investigación en Procesamiento

Digital de Imágenes y Visión por Computador (IPCV-LAB). Para evaluar el desempeño

del algoritmo de segmentación basado en umbralización global y local modificado se

compararán sus resultados, con aquellos obtenidos con una segmentación basada

únicamente en una umbralización global según se describe en [4], y con aquellos

obtenidos con una segmentación basada en una umbralización global y local original

según se describe en [5].

Primero, se medirá el error cuadrático medio (MSE) entre el contorno de las

regiones segmentadas con los algoritmos descritos en [4] y [5], y el contorno de las

regiones obtenido al segmentar las aglomeraciones en forma manual. Luego, se medirá

el MSE entre el contorno de las regiones segmentadas con el algoritmo modificado, y el

contorno de las regiones obtenido al segmentar las aglomeraciones en forma manual.

Finalmente, se compararán los valores medidos anteriormente. Una disminución del

error cuadrático medio obtenido con el nuevo algoritmo respecto a aquel obtenido con

el algoritmo descrito en [5], será el indicador de que el nuevo algoritmo de estimación

del umbral local provoca un mejor desempeño de la segmentación basada en

umbralización global y local, específicamente una mejora de exactitud de la

segmentación de las regiones de las aglomeraciones celulares.

8
2. Capítulo 2: Desarrollo teórico

En este capítulo se presentan las bases teóricas para el desarrollo del proyecto.

Se inicia con una introducción a los principios de procesamiento digital de imágenes,

posteriormente se explican algunos algoritmos más complejos utilizados en el proyecto,

y finalmente se presenta una breve descripción del microscopio in-situ.

2.1 Principios de procesamiento de imagen

2.1.1 Captura de una imagen

La imagen que captura una cámara corresponde a la proyección de un objeto

tridimensional (3D) sobre un plano bidimensional (2D). Algunas cámaras digitales a

color emplean un arreglo de prismas para separar los componentes rojos (R), verdes (G)

y azules (B) del haz de luz (Ver figura 2.1). Una vez separados los componentes RGB se

logra describir una imagen a color tal como se describe en la sección 2.1.3.

Figura 2.1 Separación de componentes RGB en un prisma

9
Actualmente, existen dos tecnologías de sensores usadas para convertir la luz

capturada por las cámaras digitales en una imagen digital, la más utilizada está basada

en el uso del sensor CCD (Charged Couple Device) y la otra en CMOS

(Complementary Metal Oxide Semiconductor). Ambos tipos de sensores están

formados en su esencia por semiconductores de metal-óxido (MOS) y están distribuidos

en forma de matriz.

Tanto la tecnología CCD como CMOS utilizan el efecto fotoeléctrico para

convertir la luz recibida en una señal eléctrica, este efecto consiste en que la cantidad de

electrones es proporcional a la cantidad de fotones incidentes.

Todos los sensores CCD y CMOS realizan las mismas funciones básicas:

generar y almacenar carga eléctrica en cada celda (también llamada píxel), medirla y

convertirla en tensión o corriente, y dar una señal de salida. La diferencia está en las

estrategias y mecanismos desarrollados para llevar a cabo estas funciones.

Un sensor CCD tiene numerosas y diminutas celdas fotovoltaicas que se

organizan de forma matricial para las capturas bidimensionales. Cada célula

fotovoltaica contiene un condensador, el cual, bajo el control de un circuito interno,

puede transferir su carga eléctrica a uno o varios de los condensadores que estén a su

lado en el circuito impreso.

Figura 2.2 Sensor CCD

10
El sensor CMOS está formado por numerosos fotodiodos (uno para cada pixel),

que producen una corriente eléctrica la cual varía en función de la intensidad de luz

recibida.

Figura 2.3 Sensor CMOS

La diferencia principal es que en el CMOS la digitalización de los píxeles se

realiza internamente en unos transistores que lleva cada celda, por lo que todo el trabajo

se lleva a cabo dentro del sensor, mientras que el CCD necesita enviar la señal eléctrica

analógica a un chip externo encargado de digitalizarla, con esto, el CMOS consigue

reducir costos y equipos más pequeños. En la figura 2.1 se muestra el funcionamiento

de los sensores CCD y CMOS.

Figura 2.4 Funcionamiento del CCD y CMOS

Uno de los factores que complican la captura electrónica de las imágenes es que

los sensores son monocromáticos, es decir el silicio no distingue si el fotón que recibe

11
es un fotón rojo o es azul sin utilizar filtros de color, debido a que los electrones

generados son los mismos para todas las longitudes de onda de la luz. Por lo tanto, para

capturar colores se deben utilizar estrategias como usar un conjunto de filtros de color

en un único sensor, o dividir la luz con un prisma y utilizar un sensor para cada uno de

los componentes separados (ver figura 2.5).

Figura 2.5. Arreglo de sensores CCD para cámara digital a color

2.1.2 Cuantización y codificación

Una vez que se transforma la imagen óptica en una señal eléctrica se obtiene una

imagen digital. La cual, es una señal bidimensional discreta que tiene amplitudes

también discretas. Las distintas posiciones en una imagen y su correspondiente amplitud

obtienen también el nombre de píxel. Así, otra posible manera de definir una imagen

digital es como un arreglo bidimensional de píxeles.

En el caso más sencillo, que corresponde a las imágenes binarias, al arreglo se le

asigna para cada par ordenado (x, y) un valor binario (uno o cero), el cuál puede ser

almacenado en un bit. Así, en las imágenes binarias hay solamente dos niveles de

12
cuantización: blanco, en las posiciones en que se asignó un uno, y negro en las que se

asignó un cero. En orden de complejidad, después de la imagen binaria se encuentra la

imagen de intensidad, la cual requieren una cuantización de 256 niveles a partir del

arreglo.

La cuantización se utiliza para expresar la infinidad de valores posibles de una

variable continua en un número finito de valores, que suelen ser potencias de dos. En el

caso del sensor CCD la variable continua es la carga en las células fotoeléctricas. Se

asigna a cada pixel un valor de carga que es codificado con una palabra de código

binario de longitud constante e igual a un número fijo de bits. Al utilizar ξ bits para la

codificación, se tiene una cantidad L de posibles valores que el píxel puede tomar, en el

intervalo de [0, L-1], donde L se define por la siguiente ecuación:

(2.1-1)

Por ejemplo, si la carga en cada célula fotoeléctrica es cuantizada y codificada

con palabras de bits (un byte), hay posibles valores que puede

tomar, en el rango de [0, 255]. El rango de valores de la carga en cada célula

fotoeléctrica se divide en 256 niveles de cuantización con esparcimiento uniforme entre

los niveles. En este caso se encuentran los colores: negro (se asignó un cero), blanco (se

asignó un 255), y distintos tonos de grises (se asignan valores intermedios entre 0 y

255).

13
Figura 2.6. a) Imagen original. b) Valores de Cuantización. c) Imagen

Cuantizada

El valor de la carga se puede cuantizar y codificar con menos bits, pero si se

disminuye la cantidad de bits se incrementa el error de cuantización, y por lo tanto se

pierden detalles de la imagen, con la cual se pierde calidad y se distorsiona la imagen.

Por ejemplo si se utilizan palabras de 6 bits, entonces sólo hay 64 posibles valores para

asignar.

2.1.3 Formación de una imagen digital a color

Una imagen de intensidad I(x, y), donde x = 0, 1,…, N-1 y y = 0, 1,…, M-1 (N es

el alto de la imagen y M es el ancho), se representa por una serie de muestras

igualmente espaciadas y organizadas en forma de matriz HN x HM, como se presenta en

la ecuación 2.1-2, donde cada elemento de la matriz es una cantidad discreta:

14
( ) ( ) ( )
( ) ( ) ( ) ( )
[ ] (2.1-2)
( ) ( ) ( )

Cada término corresponde a un elemento de la imagen, es decir un píxel. Las

dimensiones de la matriz determinan las dimensiones de la imagen, es decir, la cantidad

de pixeles para el alto (HH) y ancho (HW) de la imagen. En la figura 2.7 se puede

observar una imagen digital con un acercamiento que muestra como la imagen continua

se aproxima por una cuadrícula, donde cada elemento posee un valor discreto y

representa un pixel.

Figura 2.7 Imagen digital en escala de grises [6]

Para una imagen de color de dimensiones HN x HM, se tienen tres arreglos

matriciales con la forma de la ecuación 2.1-2; donde cada matriz representa los tonos R,

G y B, cuantizados y codificados con palabras de código 8 bits por pixel, por lo tanto

cada componente de color se encuentra dentro del rango [0, 255]. En este sistema, los

15
colores se definen mediante vectores de la forma (R, G, B), entonces cualquier color C,

se define como:

( ) (2.1-3)

Por ejemplo el color negro corresponde al vector (0, 0, 0), el blanco a (255, 255,

255), el rojo a (255, 0, 0), el verde a (0, 255, 0), el azul a (0, 0, 255).

Figura 2.8 Representación matricial de una imagen digital a color en el

espacio RGB

Cuando se almacenan 24 bits por píxel se habla de color verdadero, debido a que

la policromía se acerca a lo que el ojo humano puede encontrar en el mundo real y que

si la diferencia entre un tono y otro se mantiene dentro de un rango mínimo, el ojo

humano se torna incapaz de notar la diferencia entre estos. Se usa un byte para

representar la intensidad de cada uno de los tres tonos primarios: rojo (R, red), verde (G,

green) y azul (B, blue); y por lo tanto cada píxel puede tomar

colores distintos.

16
Los colores también se pueden representar en otros modelos de color, como el

establecido por la NTSC (Comité Nacional de Sistemas de Televisión (de EEUU)), el

cual es el estándar utilizado para la transmisión de televisión análoga a colores en Norte

y Centro América, incluyendo México y Canadá, también en Corea, Japón, Canadá y

otros países.

Este modelo utiliza el espacio de color YI’Q, donde la señal de luminancia o

intensidad Y1 (porción de la señal que contiene información monocromática: brillo y

contraste) se obtiene combinando los tres colores RGB de la siguiente manera:

(2.1-4)

Los coeficientes de la ecuación anterior están relacionados con la sensibilidad

del ojo a los colores RGB. La intensidad se conoce también como “escala de grises”

(“gray scale” en inglés), porque está expresada en niveles o tonos de gris.

Las dos señales de color necesarias para obtener una imagen de color completa

son las llamadas diferencias de color: R-Y y B-Y. Si se transmite la señal “Y” y los dos

colores combinados R-Y y B-Y, es fácil extraer el color verde mediante restas sencillas

( – – ). En el formato NTSC estas señales de diferencias de colores son

posteriormente combinadas en dos señales de color llamadas I’ y Q:

( ) ( ) (2.1-5)

( ) ( ) (2.1-6)

Las señales I’ y Q se combinan en una sola señal llamada Crominancia (C).

1
Tanto la letra Y como I hacen referencia a la intensidad, y para la componente de Crominancia
se distingue así I’.
17
La relación entre los espacios RGB y YI’Q se muestra en forma matricial en la

ecuación 2.1-7. Donde se puede demostrar que si los componentes R, G y B son iguales,

entonces éstos serán iguales a la intensidad Y, y los componentes I’ y Q serán cero.

[ ] [ ] [ ] (2.1-7)

2.2 Segmentación de Imágenes

La segmentación de imágenes consiste en un proceso de separación

(segmentación) de uno o varios objetos de interés del resto de la imagen. Estos objetos

de interés deben ser separados del fondo de la imagen (llamado “background” en

inglés). Este proceso se realiza con base en características o propiedades de la imagen,

tales como: color, bordes, textura, movimiento, entre otros. La segmentación terminará

cuando se hayan detectado todos los objetos de interés para la aplicación.

Una vez terminada la separación de objetos de interés, se procede a describir,

reconocer e interpretar los objetos encontrados.

La segmentación se basa en tres características:

Similitud: Cada uno de los píxeles de un objeto comparte valores semejantes.

Discontinuidad: Los objetos destacan del fondo de la imagen, y tienen bordes o

contornos definidos.

Conectividad: Los píxeles pertenecientes al mismo objeto tienen que ser contiguos,

o sea, deben estar agrupados

18
De acuerdo con el problema de segmentación por resolver, éste se puede abordar

analizando una de las tres características mencionadas anteriormente o una combinación

de ellas. Entre las técnicas de segmentación se encuentran las contextuales y no

contextuales.

Figura 2.9 Comparación entre una imagen de intensidad y una imagen

segmentada

Las técnicas contextuales tienen en cuenta las relaciones que existen entre los

objetos de la imagen, consideran tanto las características del píxel como su vecindad

con otros. Los algoritmos contextuales están basados en los conceptos de:

discontinuidad y similitud. Las técnicas basadas en discontinuidad dividen la imagen

detectando cambios abruptos en los niveles de gris de la misma; mientras que las

técnicas orientadas a similitud intentan crear regiones uniformes agrupando píxeles que

satisfacen ciertos criterios de similitud. El resultado depende fuertemente del criterio y

de la definición de conectividad empleada. Ejemplos de estas técnicas son los

algoritmos de: similitud de regiones, crecimiento de regiones, entre otras.


19
Las técnicas no contextuales ignoran las relaciones que existen entre los objetos

que aparecen en la imagen. Los píxeles se agrupan de acuerdo a algún atributo común

como ser: intensidad, color. Un claro ejemplo es el algoritmo de umbralización o

binarización.

2.2.1 Umbralización

La umbralización es una técnica de segmentación ampliamente utilizada en la

industria. Se trata de definir un umbral, de forma que separe los objetos de interés

respecto del fondo. Para su aplicación se exige una clara diferencia entre los objetos y el

fondo de la escena. La técnica más utilizada es la segmentación por análisis del

histograma h(I) de una imagen de intensidad I(x, y). Cuando éste presenta dos picos y en

entre ambos hay un valle, el umbral quedará fijado por la posición del valle (Ver

sección 2.3), es decir, si se quiere solamente dos clases diferentes c0 y c1 (imagen

binaria), la clasificación se puede realizar con un solo umbral , entonces para convertir

una imagen de intensidad I(x, y) en una imagen binaria B(x, y), se clasifican aquellos

píxeles en la imagen I(x, y) con un nivel de gris menor o igual al umbral  en la clase

c0, el resto pasarán a ser la clase c1, según la ecuación 2.2-1, donde c0 y c1 contienen los

valores negros (píxeles del fondo) y blancos (píxeles de los objetos) respectivamente,

deseados en la imagen binaria B(x, y).

( )
( ) { (2.2-1)
( )

20
Por ejemplo, en la figura 2.10 se encuentra la imagen de intensidad a umbralizar

con el histograma correspondiente:

Figura 2.10. Imagen de Intensidad a umbralizar, con su histograma

En la figura 2.11 se muestra la umbralización de la imagen en la figura 2.10, con

valores de umbral de 50, 100, 200 y 230.

Figura 2.11. Imagen binaria segmentada con distintos umbrales de la

imagen 2.10
21
Como se muestra en la figura 2.11, el umbral puede tomar diferentes valores,
entonces su cálculo se puede hacer de manera manual o automática, maximizando una
función de verosimilitud (Ver sección 2.6).

También el umbral a utilizar se puede encontrar globalmente, o localmente. El


umbral es global, si el mismo valor crítico es usado a través de toda la imagen, y es
local si la imagen es dividida en varias subimágenes y es determinado un umbral para
cada una de estas subimágenes.

2.3 Histograma y densidad de probabilidad

La función I(x, y) muestra los valores discretos de intensidad de los píxeles x y y

en el intervalo [0, 255], a partir de esta se calcula la frecuencia de ocurrencia h(I) de

cada nivel de intensidad. La gráfica de h(I) en función del nivel de intensidad I se le

suele denominar histograma. En la figura siguiente se presenta un ejemplo de un

histograma, el cual muestra posibles frecuencias de ocurrencia desde el nivel de

intensidad igual a cero hasta el nivel de intensidad igual a 25, para este caso el umbral

es 12.

12
h(I)
10
Histograma
8

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 I

Figura 2.12 Ejemplo de un histograma


22
El histograma tiene la ventaja de que ordena información de la imagen en pocos

valores, por otro lado, cuenta con la desventaja de que no da información alguno sobre

la ubicación espacial de los píxeles, por lo que distintas imágenes puede tener el mismo

histograma.

El número de filas (M) y el número de columnas (N) definen la cantidad total de

píxeles en una imagen; cuando una imagen posee valores de N y M bastante grandes,

entonces se puede aproximar la densidad de probabilidad para cada nivel de intensidad

con la siguiente ecuación:

h( I )
p( I )  (2.3-1)
N M

2.4 Media y varianza local en una imagen de intensidad

A partir de una vecindad o ventana alrededor de un píxel (ver figura 2.13), se

puede calcular su media y varianza local.

Figura 2.13 Ventana para el cálculo de la media y varianza local

23
Para la ventana cuadrada de ancho 2W+1 mostrada, el píxel del centro

corresponde a la posición (x, y). Sea I(x, y) el valor de intensidad del píxel en la posición

(x,y) de una imagen arbitraria, y (2W+1)2 pel2, donde W = 1, 2, 3, …., el área en número

de píxeles de la vecindad o máscara usada, se tiene que media local m(x,y) y la varianza

 2 ( x, y) son:

Media:

W W
1
m( x, y ) 
(2W  1) 2
  I ( x  m, y  n)
m  W n  W
(2.4-1)

Como ejemplo del cálculo de la imagen de media (Figura 2.14), se muestran tres

imágenes de media con un W de 1, 3 y 5 respectivamente, a partir de la imagen de

intensidad en la figura 2.15. Dichas figuras se muestran en la figura 2.16. Como se

observa, al aumentar el valor de W (y por consiguiente las dimensiones de la ventana),

los bordes de los objetos tienden a suavizarse, además la imagen se homogeniza

gradualmente.

24
25
Figura 2.14. Cálculo de la media

26
Figura 2.15. Imagen de Intensidad de prueba

Figura 2.16. Imágenes de media resultantes de la imagen 2.15. A con W=1,

B con W=3, C con W=5

Varianza:

2W  1  1   I ( x  m, y  n)  m( x, y) 


W W
1
 2 ( x, y)  2
2 2
(2.4-2)
m  W n  W

27
Como ejemplo, al realizar un cálculo similar a la figura 2.14 pero considerando

la imagen de media, y de resultado la de varianza; se muestran tres imágenes de media

con un W de 1, 3 y 5 respectivamente, a partir de la imagen de intensidad en la figura

2.15. Dichas figuras se muestran en la figura 2.17. Se observa que la varianza tiende a

aumentar conforme se aumenta la dimensión de la máscara de cálculo (debido al

aumento de W), pues más puntos en la vecindad del píxel actual son considerados para

el cálculo.

Figura 2.17. Imágenes de varianza resultantes de la imagen 2.15. A con

W=1, B con W=3, C con W=5

La imagen creada, a partir de hacer el cálculo anterior para todos los píxeles de

la imagen de intensidad, recibe el nombre de imagen de media local o imagen de

varianza local según sea el caso.

La imagen de media local es útil cuando se necesita eliminar o atenuar los

detalles dentro de la imagen en análisis. Por otro lado, la imagen de varianza local se

emplea para destacar los cambios dentro de la imagen.

28
También se muestra como ejemplo, que si se umbraliza la imagen de la figura

2.17 A. con un umbral manual de τ = 5, se obtiene:

Figura 2.18. Imagen segmentada binaria a partir de una umbralización

manual de la imagen de varianza local de la figura 2.17.A.

2.5 Filtro de mediana

El filtro de mediana se aplica en imágenes binarias para suavizar los bordes y

eliminar puntos aislados, mientras que, en imágenes a escalas de grises, elimina ruido y

suaviza las transiciones en la imagen.

La mediana, consiste en el primer valor que deja por debajo de sí al 50% de los

datos de la vecindad que se analiza. En un conjunto con cantidad de datos impar, la

mediana es el valor central, en uno par, se calcula como el promedio de los dos valores

centrales.
29
Para implementar el filtro de mediana, primero se selecciona una ventana

(2W+1)2 pel2 sobre cada píxel de la imagen (ver figura 2.19).

Figura 2.19 Ventana 3x3 (W=1) para ejemplificar filtro de mediana

Luego, los valores de intensidad I(x+n, y+m) pertenecientes a todos los píxeles

dentro de esta ventana son ordenados en forma ascendente.

Finalmente, en una nueva imagen se almacena, en la posición central de la

ventana, el valor que corresponde a la posición intermedia de los valores ordenados.

Esta nueva imagen corresponde al resultado de aplicar el filtro de mediana en la imagen

original. Como ejemplo, los valores ordenados de forma ascendente para la ventana

presentada en la figura 2.19 podrían tener el siguiente orden:

Figura 2.20 Ejemplo de valores ordenados para ejemplificar filtro de

mediana

Entonces, en este ejemplo, la intensidad de p3 se almacenará en la nueva imagen

en la posición de p5.

Como resultado obtenido de una imagen binaria se muestra el siguiente ejemplo:


30
Figura 2.21 Resultado de Filtro de Mediana

2.6 Algoritmos de Máxima Verosimilitud

En esta sección se describe el concepto de máxima verosimilitud y su aplicación

a algoritmos de umbralización.

2.6.1 Algoritmos de segmentación basados en umbralización por máxima

verosimilitud

En los algoritmos de umbralización se supone que un conjunto de muestras

aleatorias pertenecen a dos o más clases diferentes y que se puede distinguir a que clase

pertenece una muestra, comparando su valor con uno o más valores de referencia o

umbrales.

31
Para describir los algoritmos de umbralización por máxima verosimilitud,

considérese una imagen de intensidad cuyos píxeles I(x, y), toman valores discretos de

intensidad en el intervalo [0, 255]. Luego, la distribución de los valores de intensidad en

la imagen se puede mostrar en la forma de un histograma h(I), con I = 1,.., 255, el cual

representa la frecuencia de ocurrencia de cada valor de intensidad de la imagen.

Entonces, la correspondiente función de densidad de probabilidad de los valores de

intensidad, se obtiene normalizando el histograma de los valores de intensidad de la

forma dada por la ecuación 2.6-1, donde N • M es el número total de píxeles de la

imagen N.

( )
( ) (2.6-1)
( )

Supongamos ahora que los píxeles solamente se clasifican en dos clases, C1 y C2

(fondo de la imagen y objetos, o viceversa), y que la pertenencia a cada clase se

determina mediante un umbral k. Donde C1 denota píxeles con valores de intensidad

[0,…, k] y C2 denota píxeles con valores de intensidad [k+1,…, 255]. Entonces sea p(I)

la función de densidad de probabilidad descrita mediante un modelo de población mixta

constituido por la suma de dos poblaciones con densidad de probabilidad condicional

gaussianas sopesadas, con medias m1 y m2, varianzas σ12 y σ22 y pesos c1 y c2, donde se

cumple que c1+c2 = 1.

p( I )  c1  p1 I C1   c2  p2 I C2  (2.6-2)

32

 I m
 j  2 
2 cj  2 2j 
p( I )   e   (2.6-3)
j 1 2   2
j

Los parámetros estadísticos de p1 I C1  y p 2 I C 2  dependen del umbral k y se

pueden ser estimados a partir de pI  , de la siguiente manera:

k
c1 (k )   p( I ) (2.6-4)
I 0

255
c2 (k )  
I  k 1
p( I ) (2.6-5)

1 k
m1 (k )    I  p( I ) 
c1 I 0
(2.6-6)

255
1
m2 (k ) 
c2
  I  p( I ) 
I  k 1
(2.6-7)

1 k 
 12 (k )    I  m1   p( I ) 
2
(2.6-8)
c1 I 0  

255
1
 22 (k )    I  m   p( I ) 
2
2  (2.6-9)
c2 I  k 1

33
Figura 2.22. Densidad de probabilidad p(I) de la componente de intensidad

a umbralizar, formada por la suma de dos densidades gaussianas p(I|C1) y p(I|C2),

con medias m1 y m2 y varianzas 21 y 22 respectivamente

Sea ( x, y)  ( x, y)1 , ( x, y) 2  un vector de dos dimensiones con un solo cero


T

y un solo uno, donde la posición del 1 indica a cual clase pertenece el píxel I(x, y).

Entonces la función de probabilidad de densidad condicional dada por ( x, y) es:

 
2
p( I ( x, y) ( x, y))    j ( x, y)  p I ( x, y ) C j (2.6-10)
j 1

 
2  j ( x, y )
p( I ( x, y ) ( x, y ))   p I ( x, y ) C j (2.6-11)
j 1

La función de densidad de probabilidad marginal de los vectores ( x, y) y la

función de densidad de probabilidad conjunta pueden ser escritas como:

34
2
p  ( x, y )    c j j
 ( x, y )
(2.6-12)
j 1

 j ( x, y )

 
2
p  I ( x, y ), ( x, y )   p  ( x, y )   p  I ( x, y ) ( x, y )    c j  p I ( x, y ) C j  (2.6-13)
j 1
 

Ahora supóngase que los pares ( ( ) ( )) son estadísticamente

independientes. La función de densidad de probabilidad condicional y la función de

densidad de probabilidad conjunta de los valores de I dados por los valores de θ están

dados por:

H w 1 H h 1 2

 
 j ( x, y )
p  I (0,0),..., I ( H w  1, H h  1) (0,0),..., ( H w  1, H h  1)      p I ( x, y) C j  (2.6-14)
x  0 y  0 j 1
 

H w 1 H h 1 2

 
 j ( x, y )
p  I (0,0),..., I ( H w  1, H h  1), (0,0),..., ( H w  1, H h  1)     c j  p I ( x, y) C j  (2.6-15)
x  0 y  0 j 1
 

La ecuación 2.6-14 contiene probabilidad condicional, mientras que la 2.6-15

contiene probabilidad conjunta.

Si las funciones de densidad de probabilidad gaussianas p1 ( I C1 ) y p 2 ( I C 2 )

tienen diferentes medias m1 (k ) y m2 (k ) , y una varianza común dada por 2.6-16;

entonces las funciones de verosimilitud 2.6-17 y 2.6-18 resultan de aplicar el logaritmo

a las ecuaciones 2.6-14 y a 2.6-15 respectivamente.

 w2 (k )  c1 (k )   12 (k )  c2 (k )   22 (k ) (2.6-16)

N M N M N M
L1 (k )    log(2 )  log  w2 (k )   (2.6-17)
2 2 2

35
L2 (k )  N  M   c j (k )  log  c j (k )   L1 (k )
2
(2.6-18)
j 1

En [9] se describe un algoritmo para umbralizar una imagen de intensidad

obteniendo el umbral k, considerado como umbral óptimo, con un criterio equivalente a

maximizar la función L1(k) (2.6-17). Por ello, el proceso de obtener un umbral con esta

ecuación y utilizarlo para umbralizar una imagen de intensidad se suele llamar

algoritmo de umbralización por máxima verosimilitud de Otsu.

Así mismo, en [10] se obtiene un umbral k óptimo con un criterio equivalente a

maximizar la función L2(k) (2.6-18). Por ello, el proceso de obtener un umbral con esta

ecuación y usarlo para umbralizar una imagen de intensidad se suele llamar algoritmo

de umbralización por máxima verosimilitud de Kurita.

Finalmente, si las funciones de densidad de probabilidad gaussianas p1(I|C1) y

p2(I|C2) tienen diferentes medias m1(k) y m2(k), y diferentes varianzas ( ) ( ),

entonces la función de verosimilitud L3 (k ) , resulta de aplicar el logaritmo a la ecuación

2.6-15.

N M N M 2 N M
L3 (k )  N  M   c j (k )  log  c j (k )  
2
log(2 )    c j (k )  log( 2j (k ))  (2.6-19)
j 1 2 2 j 1 2

En este tercer algoritmo de máxima verosimilitud L3(k) (2.6-19), aquel umbral k

que maximice esta función, es considerado umbral óptimo. Este algoritmo es

equivalente al algoritmo de Kittler & Illingworth descrito en [8].

A continuación se muestran algunos ejemplos con la aplicación de los

algoritmos anteriores:

36
Figura 2.23. Ejemplo 1: A: Imagen Original. B: Imagen Umbralizada

mediante Otsu. C: Imagen Umbralizada mediante Kutira. D: Imagen Umbralizada

mediante Kittler.

Figura 2.24. Ejemplo 2: A: Imagen Original. B: Imagen Umbralizada

mediante Otsu. C: Imagen Umbralizada mediante Kutira. D: Imagen Umbralizada

mediante Kittler.
37
En la figura 2.23, se observa que al umbralizar mediante el algoritmo de Kurita

dio mejor resultado, que los otros 2; sin embargo en la figura 2.24, se observa que los 3

algoritmos dan resultados muy similares, pero al aplicar el algoritmo de error descrito

en el capítulo 5, se obtiene como resultado que la imagen umbralizada mediante Kittler

da mejor resultado.

Figura 2.25. Ejemplo 3: Umbralización mediante el método de Kittler. B:

resultado de la umbralización de la imagen de intensidad en A. C: Histograma de

la imagen de intensidad en A. D: Acercamiento del histograma para apreciar que

el valor de umbral seleccionado  fue de 137.

38
2.7 Etiquetado Recursivo

El etiquetado consiste en asignar a cada región de píxeles contiguos de una

imagen binaria, una etiqueta diferente, para ello se utiliza un método recursivo (se llama

a sí mismo varias veces) que analiza por cada píxel de una imagen binaria sus vecinos, y

le asigna una etiqueta a los vecinos que tengan la misma intensidad, luego se observa al

vecino y se realiza lo mismo; si se termina la región, se busca otra región de píxeles

contiguos y se realiza el mismo procedimiento hasta analizar todos los píxeles de la

imagen. (Ver figura 2.26).

Figura 2.26. a) Imagen binaria, b) Imagen etiquetada.

Este método tiene la ventaja de que permite contabilizar las regiones con píxeles

contiguos, además, de que se muestran en forma distintiva, lo cual es muy útil, ya que

también se tiene información sobre su ubicación espacial en la imagen.

39
Figura 2.27. Ejemplo de Imagen Etiquetada

2.8 Algoritmo RANSAC

El algoritmo RANSAC (“RANdom SAmple Consensus”), o consenso de

muestras aleatorias en español, fue descrito por Fischler y Bolles en 1981 [15]. Este

algoritmo ofrece un método para estimar de parámetros de un modelo matemático a

partir de un conjunto de datos observados. Se asume que dentro del conjunto hay datos

típicos (datos que tienen coherencia con el modelo seleccionado) y datos atípicos (datos

que contienen errores significativos con el modelo). Este algoritmo tiene la habilidad de

estimar en forma robusta los parámetros del modelo matemático, es decir, estima con un

alto grado de exactitud los parámetros del modelo aunque existan datos atípicos en el

conjunto de datos.

40
2.8.1 Descripción del algoritmo

Los algoritmos tradicionales para ajustar un modelo matemático a una serie de

muestras aleatorias, utilizan la mayor cantidad de datos posibles para encontrar una

solución inicial, y luego, se intenta eliminar datos atípicos a partir de esa solución

inicial. Pero, se tiene el problema los parámetros del modelo inicial se afectan

considerablemente cuando existen datos atípicos entre las muestras.

A diferencia de este método, en el algoritmo RANSAC, se propone encontrar de

manera iterativa y aleatoria, un modelo inicial para los datos, utilizando un conjunto

inicial de datos con la menor cantidad de datos posibles, es decir, se selecciona un

subconjunto del conjunto original de datos. Luego, se evalúa que tan bien se ajustan

todos los otros datos del conjunto de datos original al modelo recién estimado. En caso

de haber suficientes datos del conjunto original que se ajustan satisfactoriamente al

modelo estimado, se dice que este último es suficientemente bueno para representar al

conjunto original de datos. Entonces los parámetros del modelo final son estimados

utilizando todos los datos que se ajustaron adecuadamente al modelo inicial. Por otro

lado, en caso de no haber suficientes datos del conjunto original que se ajustan

satisfactoriamente al modelo inicial, entonces se debe repetir el algoritmo con otro

conjunto de datos inicial para encontrar un nuevo modelo inicial. En [15] se establece

formalmente el enfoque de RANSAC como:

“Dado un modelo que requiere un mínimo de b datos para iniciar sus parámetros

libres y un conjunto de datos P, tal que el número de datos en P es mayor que b,

entonces seleccione un subconjunto S1 con b valores de P e inicie el modelo. Use el


41
modelo iniciado M1 para determinar el conjunto S1* de datos en P que están dentro de

una tolerancia de error con respecto al modelo M1. El conjunto S1* se denomina

conjunto de consenso de S1.

Si la cantidad de datos en S1* es mayor que un umbral t, el cual es una función

de una estimación de la cantidad de datos atípicos en P, use S1* para computar un nuevo

modelo de M1.

Si la cantidad de datos en S1* es menor que el umbral t, seleccione al azar otro

subconjunto S2 y repita el proceso. Si, luego de un número predeterminado de intentos

no se ha encontrado un conjunto de consenso con una cantidad de valores mayores o

iguales que el umbral t, utilice el conjunto de consenso más grande para encontrar los

parámetros del modelo o finalice el algoritmo en error.”

Para explicar lo mencionado anteriormente se muestran varias imágenes en la

figura 2.28.

Figura 2.28 Algoritmo RANSAC. (a) Conjunto de datos. (b) Recta definida

por los datos A y B. (c) Distancia de referencia o umbral para la recta de la imagen

mostrada en (b), líneas punteadas. (d) Recta definidita por los datos C y D, donde

C es un dato atípico.
42
Para aplicar el algoritmo RANSAC se debe primero establecer tres valores

importantes: la tolerancia de error aceptable, el número máximo intentos, y porcentaje

aceptable de conjunto consenso.

La tolerancia de error aceptable o también llamada distancia de referencia,

permite determinar la compatibilidad de los datos con el modelo, es decir, si un dato es

típico o atípico; puede ser estimado con base en los requerimientos específicos de la

aplicación o de los datos en particular. Se sabe que la desviación de un dato con

respecto a un modelo es una función del error asociado al dato en particular y del error

asociado al modelo. Así, en algunos casos es posible establecer de forma analítica los

límites razonables en cuanto a la tolerancia de error para determinar la compatibilidad

de los datos con el modelo. Sin embargo, encontrar analíticamente esta tolerancia no

siempre es viable y se debe recurrir entonces a otras formas más prácticas para

encontrar dicho valor.

La cantidad de posibles subconjuntos de datos con A valores diferentes puede

ser tan grande que se hace muchas veces improcedente o innecesario repetir el

algoritmo para cada subconjunto. En ese contexto es donde toma importancia el valor

que se escoge como número máximo de veces que se repetirá el algoritmo para

encontrar un conjunto de consenso suficientemente grande. El número máximo de

intentos debe establecerse suficientemente grande de modo que se asegure, con una

probabilidad ρ, que al menos uno de los intentos, los A elementos de datos escogidos

aleatoriamente sean solamente datos típicos.

43
Sea:

α: probabilidad de que un elemento cualquiera sea un dato típico.

1-α: probabilidad de que un elemento cualquiera sea un dato atípico.

αA: probabilidad de que un grupo (de A elementos) esté compuesto

sólo de datos típicos.

1-αA: probabilidad de que un grupo (de A elementos) incluya al menos

un dato atípicos.

(1-αA)η: probabilidad de que todos los η grupos (de A elementos cada uno)

incluya al menos un dato atípico.

ρ: Probabilidad de que al menos uno de los η grupos (de A

elementos cada uno) incluya sólo datos típicos.

1-ρ: probabilidad de que ninguno de los η grupos (de A elementos

cada uno) esté libre de datos atípicos.

 1   A   1  

(2.8-1)

log 1   A   log 1   

(2.8-2)

 log 1   A   log 1    (2.8-3)

log 1   

log 1   A 
(2.8-4)

El número máximo de intentos η se calcula de acuerdo con la ecuación 2.8-4. En

caso de que el número máximo de intentos no sea un número entero, η debe redondease

a la próxima unidad mayor.

44
El porcentaje aceptable de conjunto consenso es un valor importante para

ahorrar tiempo de procesamiento; indica que tan grande debe ser un conjunto de

consenso para considerarlo aceptable, y detener el algoritmo si se alcanza o sobrepasa

este valor.

Se considera que el porcentaje aceptable del tamaño del conjunto consenso con

respecto a la cantidad de datos total es similar al porcentaje de datos típicos que se cree

que existen en el conjunto de datos original.

2.9 Microscopio in-situ

El microscopio in-situ es un sistema desarrollado para adquirir imágenes

celulares directamente desde adentro de un reactor biológico (in-situ) durante un

proceso de fermentación. Su objetivo es controlar el proceso de fermentación sin

necesidad de que haya que interferir con él extrayendo muestras del reactor biológico.

Se logra así disminuir considerablemente el riesgo de contaminación. Se pretende

estimar a partir de las imágenes obtenidas la densidad celular y viabilidad de las células

dentro del reactor, dos de las variables más importantes en el control de un proceso de

fermentación.

Figura 2.29 Fotografía del microscopio in-situ [4]

45
El tubo de inmersión es parte del microscopio. Un orificio en las paredes del

tubo de inmersión permite el flujo del cultivo celular a través de la zona de muestreo, de

la manera mostrada en la figura 2.30 [14]. Este aparato también se compone de un tubo

interno, localizado dentro del tubo de inmersión y en el mismo eje que el tubo de

inmersión. Un extremo del tubo interno está orientado hacia la zona de muestreo, el otro

extremo del tubo interno del microscopio está conectado a una cámara CCD, para

capturar la imagen de la muestra contenida dentro de la zona de muestreo. Dicha cámara

está incorporada a la estructura del microscopio in-situ.

Figura 2.30 Partes del microscopio in-situ

El microscopio in-situ introduce su zona de muestreo dentro del reactor

biológico a través de un puerto lateral estándar de 25mm, así es posible tomar imágenes

del cultivo celular directamente dentro del medio en que se desarrolla el cultivo. (Ver

figura 2.31).

46
Figura 2.31. Microscopio In-Situ montado en un reactor biológico.

Para capturar las imágenes se utiliza una cámara digital tipo CCD con escaneo

progresivo y un tiempo de exposición de 0.5 ms. Se utiliza un objetivo acromático con

aumento de 4-veces y apertura numérica de 0.1. La iluminación dentro del reactor está a

cargo de un condensador compuesto por un LED y un lente condensador que pretenden

lograr una iluminación del fondo lo más homogénea posible.

Las imágenes obtenidas con el microscopio in-situ son imágenes de intensidad

que contienen regiones compuestas por aglomeraciones celulares y regiones donde se

observa el fondo. En la figura 2.32 se muestra un ejemplo de una imagen capturada por

el microscopio in-situ. Una vez obtenidas las secuencias de imágenes, es posible estimar

mediante técnicas de procesamiento de imagen y visión por computador, parámetros

biológicos como la densidad celular (cantidad de células por unidad de volumen),

permitiendo obtener información actualizada del estado del cultivo celular.

47
Figura 2.32 Imagen de intensidad obtenida con el microscopio in-situ.

48
3. Capítulo 3: Algoritmo de Segmentación basado en

umbralización global y local según Espinoza [5].

En este capítulo se describe el algoritmo de segmentación de aglomeraciones

celulares basado en una umbralización local de la imagen de intensidad propuesto por

Espinoza en [5], con la implementación del algoritmo de RANSAC; pero que, primero

toma la imagen binaria resultante del algoritmo de umbralización global de la varianza

local de la imagen de intensidad, descrito por Martínez en [4].

Estos algoritmos se describen en detalle aquí, ya que los resultados que se

obtendrán con el algoritmo propuesto en este trabajo serán comparados con los

resultados obtenidos con los algoritmos descritos en este capítulo.

3.1 Algoritmo de umbralización global de la varianza local

El algoritmo de umbralización global de la varianza local es el algoritmo

utilizado actualmente para segmentar las aglomeraciones celulares en las imágenes

obtenidas mediante el microscopio in-situ. A continuación se explican los pasos

principales de dicho algoritmo, así como algunas de las ventajas y desventajas que

presenta.

49
3.1.1 Descripción

El primer paso del algoritmo consiste en calcular a partir de la imagen de

intensidad (ver figura 2.32), la imagen de varianza local, esto se debe a que, primero se

considera como regla de clasificación la característica de intensidad, pero se observa

que es de bajo contraste, lo que no permite una buena y confiable segmentación, ya que

se incurre en un error grande de clasificación porque se consideran píxeles del fondo

como si fueran de la aglomeración, y viceversa, es decir se traslapan como se observa

en la figura 3.1.

Figura 3.1. Zona de traslape

Entonces, para mejorar el contraste, se observa que el valor de intensidad del

fondo es muy constante u homogéneo, es decir, posee una varianza local baja, mientras

que el valor de intensidad de las aglomeraciones difiere mucho, es decir, es poco

homogéneo, por lo tanto tiene varianza local alta; por ende, se utiliza una nueva regla de

clasificación que evalúa la varianza local de cada píxel. Para ello, se utiliza una ventana

cuadrada de tres píxeles de alto por tres píxeles de lado (W = 1) (ver sección 2.4).

50
En la figura 3.2 se muestra la imagen de varianza local que se obtiene a partir de

la imagen de intensidad mostrada también en esa figura. Se puede observar que

efectivamente la varianza es mayor en las regiones que son parte de las aglomeraciones

celulares, especialmente cerca de las fronteras de las aglomeraciones celulares, con lo

que se mejora el contraste y la confiabilidad de la regla.

Figura 3.2 (a) Imagen de intensidad capturada por el microscopio in-situ.


(b) Imagen de varianza local de la imagen mostrada en (a).

Una vez que se ha calculado la imagen de varianza local, se propone umbralizar

esta imagen con un solo umbral, es decir, se seleccionan como píxeles pertenecientes a

las aglomeraciones celulares todos los píxeles cuyo valor de varianza local sea mayor

que un valor de referencia denominado umbral, y se seleccionan como píxeles

pertenecientes al fondo todos los píxeles que tengan una varianza local menor que dicho

umbral.

51
En este caso, el umbral óptimo se estima mediante el algoritmo de estimación

por máxima verosimilitud propuesto por Kittler [8] y descrito en la sección 2.6 de este

trabajo. Como se puede observar en la ecuación de la varianza local 2.4-2, el valor

obtenido para cada píxel no es necesariamente un entero; por consiguiente, se deben

discretizar los valores de varianza local obtenidos antes de aplicar el algoritmo

mencionado para la determinación del umbral.

El resultado de la umbralización de la imagen de varianza local se presenta en la

figura 3.3. Se genera una imagen binaria, porque se define que para píxeles con valores

de varianza local mayor o igual del umbral, tengan un valor de intensidad de 255

(blanco) y los de menor, tengan un valor de intensidad 0 (negro).

Figura 3.3 Resultado de aplicar una umbralización global por máxima

verosimilitud a la imagen de varianza local mostrada en la figura 3.1 (b).

52
3.1.2 Pasos posteriores a la umbralización global de la varianza local

Como se observa en la figura anterior, al realizar la umbralización global de la

imagen de varianza local se cometen algunos errores de clasificación, es decir, algunas

pequeñas regiones del fondo se clasifican erróneamente como aglomeraciones celulares,

y también existen puntos aislados (para la figura mostrada son puntos blancos). Por

consiguiente, en [4] se propone realizar técnica de filtrado para conseguir un mejor

resultado. Así, el siguiente paso del algoritmo consiste en aplicar un filtro de mediana

con una ventana cuadrada de cinco píxeles de alto por cinco píxeles de lado (ver sección

2.5) para eliminar puntos aislados de la imagen binaria que resulta de la umbralización y

también suavizar los bordes de las regiones encontradas (ver figura 2.21). Sin embargo,

después de aplicar el filtro de mediana permanecen aún algunas regiones que por su

pequeño tamaño es poco probable que sean aglomeraciones celulares. Para eliminar

estas regiones se procede a etiquetar todas las regiones encontradas como

aglomeraciones celulares (ver sección 2.7), se calcula el área en píxeles de cada región y

se eliminan todas aquellas con un área menor al 0.05% del área total de la imagen.

Finalmente existen algunos pequeños huecos o vacíos en las regiones seleccionadas

como aglomeraciones celulares, los cuales deben ser también eliminados. El resultado

final del algoritmo después de aplicar estos pasos a la imagen mostrada en la figura 3.4

se presenta a continuación.

53
Figura 3.4 Imagen binaria resultado del algoritmo de umbralización de la

varianza local descrito en [4]

3.1.3 Ventajas y desventajas del algoritmo de umbralización global de la

varianza

La principal ventaja de este algoritmo es su sencillez. Dicho algoritmo involucra

muy pocos pasos, por lo que requiere de poco tiempo de procesamiento. Una de las

principales desventajas del algoritmo es que aunque corrige el problema de los errores

de clasificación, tiene errores de precisión, específicamente un problema de

sobresegmentación, es decir, las regiones segmentadas siempre son de mayor tamaño

que las aglomeraciones reales en la imagen (ver figura 3.5), lo que también conlleva a

que dos o más regiones celulares cercanas se consideren como una sólo región, es decir,

no se separan. Lo anterior ocurre dado que la varianza local en los píxeles del fondo
54
cercanos a las aglomeraciones celulares es también alta, y por consiguiente al realizar el

proceso de umbralización, estos píxeles son equivocadamente seleccionados como parte

de las aglomeraciones celulares. Este problema se puede medir por medio del error

cuadrático medio (MSE) que se explicará más adelante.

Figura 3.5 Problema de sobresegmentación que resulta de aplicar el

algoritmo descrito en [4].

3.2 Algoritmo de umbralización local de la intensidad

El algoritmo descrito en [5] es un esfuerzo por mejorar el resultado del

algoritmo anterior, utilizando un segundo umbral, mediante el cual, se realiza una

umbralización local de la imagen de intensidad. Por ende, se necesita una reclasificación

de los píxeles dentro de cada región, para ello se utiliza una regla de clasificación

basada en la media de los valores de intensidad de los píxeles alrededor de la región.

Su objetivo principal consiste en lograr que los límites de las regiones

encontradas estén más cerca de los límites reales de las aglomeraciones celulares en la

55
imagen, es decir reducir o eliminar el error de precisión (problema de la

sobresegmentación).

3.2.1 Descripción del algoritmo de umbralización local de la intensidad

Este algoritmo parte del proceso de umbralización global de la imagen de

varianza local descrito anteriormente. Para implementarlo, en [5] se asume que la

mayoría de los píxeles en el fondo que se encuentran alrededor de las aglomeraciones

celulares encontradas, tienen el valor de intensidad del fondo y, por consiguiente, es

posible encontrar un umbral local a partir del valor medio de dichos valores.

Entonces, para estimar el valor medio de los valores de intensidad de estos

píxeles del fondo se modela la densidad de probabilidad de esos valores de intensidad

como una función de densidad de probabilidad Gaussiana, descrita por dos parámetros:

el valor medio y la varianza de los valores de intensidad de esos píxeles. Los parámetros

óptimos de ese modelo son estimados maximizado la función de verosimilitud de Kittler

& Illingworth descrito en [8].

Sin embargo, se observa que se tienen errores de precisión, ya que algunos de

esos píxeles no cumplen con este modelo por diversas razones, como por ejemplo

debido a que se encuentran sobre otra aglomeración celular vecina. Entonces, para

encontrar el umbral local thr,l, donde r es la región, y l significa local; que umbraliza los

píxeles de cada región, es necesario encontrar el conjunto de valores de intensidad Iq

(donde q=1,…, Q; y Q corresponde al conjunto de píxeles seleccionados del fondo

56
alrededor de la región r), alrededor de la región correspondiente, que sí cumplen con el

modelo.

Dicho conjunto seleccionado de píxeles, usados para encontrar el umbral local se

le llama ‘Er,i’ o también llamados datos típicos. Y se define también ‘Er,o’ o datos

atípicos, como el conjunto de píxeles alrededor de la región que no cumplen con el

supuesto de intensidad similar y por ello deben ser detectados y excluidos del cálculo

del umbral local.

∑ (3.2-1)

Para detectar y excluir los píxeles atípicos se utiliza un algoritmo basado en el

algoritmo RANSAC («Random Sample Consensus») [15], descrito en la sección 2.8 de

este trabajo. Para aplicar este algoritmo, se describe cada píxel del conjunto Er, que

incluye el total de píxeles alrededor de la región r, con r = 1,…, R; mediante el par

ordenado (g, Ig), donde g es el número de píxel e Ig es su valor de intensidad. Se busca

ahora describir estos datos mediante un modelo matemático, en este caso mediante una

recta.

El algoritmo RANSAC establece que se debe seleccionar aleatoriamente dos

píxeles distintos e iniciar el modelo trazando la línea L definida por los correspondientes

pares ordenados para dichos píxeles (esta recta es lo que se describe en la sección 2.8.1

como el modelo inicial M1). Todos los píxeles cuyos pares ordenados estén a una

distancia de la línea L menor que un umbral δ son definidos como posibles datos típicos,

es decir son definidos como parte del conjunto de consenso para el modelo M1. El

57
umbral δ se define como la desviación estándar de la intensidad de todos los píxeles

alrededor de la región. Finalmente, a partir de la cantidad de píxeles que forman parte

del conjunto de consenso encontrado Q y la cantidad de píxeles iniciales G se calcula el

porcentaje de píxeles que forman parte del conjunto de consenso mediante la siguiente

expresión:

Q
Pr ,i  (3.2-2)
G

Si este porcentaje es mayor que un umbral Pt seleccionado heurísticamente en

Pt=95%, entonces el conjunto de píxeles Er,i que cumplen el criterio de intensidad

similar para esa región es el conjunto consenso encontrado. En caso contrario se repiten

los pasos anteriores hasta superar dicho umbral o hasta superar un número máximo de

repeticiones η. En el último caso, la repetición con el conjunto de consenso de mayor

tamaño es el que se selecciona como el conjunto Er,i. El valor máximo de repeticiones η

es escogido como se describe en la sección 2.8.1 mediante la ecuación 2.8-4. La

probabilidad p en esta ecuación, la cual corresponde a la probabilidad que al menos en

uno de los intentos los dos píxeles iniciales escogidos al azar eran buenos candidatos se

fija heurísticamente en p=0.99, mientras que la proporción de buenos candidatos se fija

también heurísticamente en α=0.5. Así, mediante la ecuación se obtiene que η=16.

Una vez seleccionado el conjunto de píxeles que cumplen el supuesto de

intensidad similar para todas las regiones tal como se describió anteriormente, se calcula

entonces el umbral local, con la ecuación 3.2-1.

58
Finalmente se procede a realizar la umbralización local, este proceso se repite

para cada una de la R aglomeraciones celulares de la imagen (ver figura 3.6). En este

caso, los píxeles con intensidad menor que el umbral son seleccionados como píxeles

pertenecientes a las aglomeraciones celulares y los píxeles con intensidad mayor que el

umbral son seleccionados como píxeles pertenecientes a la región del fondo.

Figura 3.6 Resultado de aplicar el algoritmo de umbralización global de la

varianza y realizar luego la umbralización local descrita en [5] a la imagen

mostrada en la figura 3.1(a)

3.2.2 Pasos posteriores a la umbralización local de la intensidad

Como se observa en la figura 3.6, se crean también en el proceso de

umbralización local algunos errores de clasificación, como son pequeñas regiones

aisladas, y vacíos en las regiones. Por ello, se aplican en este caso los mismos pasos
59
posteriores que se aplican en el algoritmo de umbralización global de la varianza. Estos

pasos consisten en aplicar un filtro de mediana con una ventana cuadrada de cinco

píxeles de alto por cinco píxeles de lado (ver sección 2.5) para eliminar puntos aislados

de la imagen resultante y suavizar los bordes de las regiones encontradas. Luego de

aplicar el filtro se etiquetan todas las regiones encontradas como aglomeraciones

celulares, se calcula el área en píxeles de cada región y se eliminan todas aquellas con

un área menor al 0.05% del área de la aglomeración celular segmentada de mayor

tamaño. El resultado final del algoritmo después de aplicar estos pasos a la imagen

mostrada en la figura 3.6 se presenta en la figura a continuación.

Figura 3.7: Resultado final del algoritmo de umbralización local de la

intensidad descrito en [5] para la imagen mostrada en la figura 3.1 (a).

60
3.2.3 Ventajas y desventajas del algoritmo de umbralización local de la

intensidad

Con este algoritmo, las fronteras de las regiones clasificadas como

aglomeraciones celulares son más cercanas a las reales que al utilizar el algoritmo

anterior, pero aún presentan en menor medida errores de precisión (ver figura 3.8).

Figura 3.8: Resultado del algoritmo de umbralización local de la intensidad

descrito en [5] presentados sobre una parte de una imagen de intensidad

Pero, como se observa en las zonas en rojo de la figura 3.9, algunas

aglomeraciones celulares contienen en su periferia áreas que son más claras que el

fondo, las cuales son clasificadas erróneamente como fondo.

61
Figura 3.9. Problemas del algoritmo de Espinoza

62
4. CAPÍTULO 4: Algoritmo propuesto de segmentación de

basado en una umbralización global y local

En este capítulo se describe en detalle el algoritmo propuesto, el cual consiste en

una umbralización global de la varianza local de intensidad, y una umbralización local

de intensidad para microscopía in-situ.

Mediante la implementación de este algoritmo, se busca mejorar el resultado del

algoritmo de Espinoza, descrito en [5], es decir, lograr que los límites de las regiones

encontradas estén más cerca de los límites reales de las aglomeraciones celulares en la

imagen, reduciendo o eliminando el error de precisión.

Al igual que en [5], se utiliza un segundo umbral, mediante el cual, se realiza

una umbralización local de la imagen de intensidad, esto porque se necesita una

reclasificación de los píxeles dentro de cada región, así que también se utiliza una regla

de clasificación basada en la media de los valores de intensidad.

En las secciones siguientes se describe la forma en que se parte del algoritmo

descrito en [4], la manera en que se selecciona el umbral local, los pasos posteriores a

esto, y demás detalles del algoritmo.

4.1.1 Descripción del algoritmo de umbralización local de la intensidad

En este algoritmo, así como el descrito en [5], se parte del proceso de

umbralización global de la imagen de varianza local descrito en [4]; entonces, de la


63
misma forma que en [5], el valor del umbral local thr,l de una “región segmentada por

umbralización global” será definido como el valor medio de los valores de intensidad de

los píxeles del fondo alrededor de la misma.

No obstante, para estimar su valor, en vez de modelar la densidad de

probabilidad de los valores de intensidad alrededor de la región como una sola función

de densidad de probabilidad Gaussiana, esta se modela mediante un modelo de

población mixta, el cual consiste en la suma de dos densidades de probabilidad

Gaussianas con diferentes pesos, medias y varianzas.

Figura 4.1. Comparación entre densidad de probabilidad unimodal y

bimodal

Por lo tanto, una densidad de probabilidad corresponde a la población de valores

de intensidad del fondo, y la otra corresponde a la población de los valores de

intensidad atípicos. Los parámetros óptimos de este nuevo modelo, incluyendo el valor

64
medio de los valores de intensidad de los píxeles del fondo, son estimados mediante la

maximización de una función de verosimilitud de acuerdo a [8].

Figura 4.2. Histograma de los bordes de una región específica, que se

obtiene de la imagen generada en [4]

Entonces, para estimar el umbral local thr,l, el cual se utiliza para umbralizar los

píxeles de cada región r, con r=1,…, R; se ubican los bordes de cada región, y se calcula

su umbral óptimo mediante el algoritmo de estimación por máxima verosimilitud

propuesto por Kittler [8] y descrito en la sección 2.6 de este trabajo.

Una vez que se obtiene el umbral óptimo de la región r se utiliza la ecuación

2.6-7, para estimar la media de la población del fondo, aplicada con el kóptimo

encontrado. Luego, se umbraliza esa región r con la media que se estimó anteriormente.

65
Finalmente, se repiten los pasos anteriores para el total de regiones R de la

imagen. Por ejemplo, para la región que se muestra en el histograma de la figura 4.2 se

obtiene el valor de 185 como umbral.

El resultado de la umbralización local de la imagen de intensidad se presenta en

la figura 4.3.

Figura 4.3 Resultado de aplicar una umbralización local a la imagen de la

figura 3.1 (b).

4.1.2 Pasos posteriores a la umbralización local de la imagen de intensidad

Como se observa en la figura anterior, al realizar una reclasificación de los

píxeles se cometen los errores de clasificación antes mencionados: algunas pequeñas

regiones y algunos puntos aislados.

66
Por consiguiente, al igual que en [4], se propone realizar una técnica de filtrado

para conseguir un mejor resultado. Así, el siguiente paso del algoritmo consiste en

aplicar un filtro de mediana con una ventana cuadrada de cinco píxeles de alto por cinco

píxeles de lado (ver sección 2.5) para eliminar puntos aislados de la imagen binaria que

resulta de la umbralización y también suavizar los bordes de las regiones encontradas

(ver figura 4.4).

Figura 4.4. Imagen mejorada con filtro de mediana, luego de la

umbralización

Luego, se procede a etiquetar todas las regiones encontradas como

aglomeraciones celulares (ver sección 2.7), se calcula el área en píxeles de cada región y

se eliminan todas aquellas con un área menor al 0.05% del área total de la imagen.

67
Finalmente existen algunos pequeños huecos o vacíos en las regiones

seleccionadas como aglomeraciones celulares, los cuales deben ser también eliminados.

El resultado final del algoritmo después de aplicar estos pasos a la imagen

mostrada en la figura 4.5 se presenta a continuación.

Figura 4.5 Imagen binaria resultante del algoritmo de umbralización local

de la imagen de intensidad

68
4.1.3 Ventajas y desventajas del algoritmo de umbralización local de la

imagen de intensidad

La principal ventaja de este algoritmo con respecto al mencionado en [5] es que

se obtiene un mejor resultado, es decir, reduce el error de precisión, porque las fronteras

de las regiones clasificadas como aglomeraciones celulares son más cercanas a las

fronteras reales.

Figura 4.6. Comparación entre una imagen resultante del algoritmo de

Espinoza, y una del algoritmo propuesto

El algoritmo propuesto posee la ventaja de que, reduce el error de clasificar

erróneamente como fondo, píxeles que pertenecen a una región o aglomeración celular,

tal y como se observa en la figura 4.7.

En la figura 4.6, se observan regiones segmentadas que el algoritmo propuesto

considera pero el de Espinoza no; esto se debe porque al eliminar pequeñas regiones,

Espinoza elimina las que contienen un área menor al 5% del área de la región de mayor

69
tamaño, y no las que poseen un área menor al 0,05% del área total de la imagen, tal y

como lo realiza el algoritmo de Martínez y el propuesto.

Figura 4.7 Disminución de la clasificación errónea del fondo

70
5. CAPÍTULO 5: Algoritmo de Error Cuadrático Medio

(MSE) para evaluar la precisión

La precisión de un algoritmo es un aspecto importante, dado que si se

seleccionan regiones de mayor tamaño que las regiones reales surge un problema

importante, ya que esta diferencia puede perjudicar el cálculo de la densidad celular u

otros parámetros importantes.

Para evaluar la precisión de los algoritmos, se comparan los resultados de

segmentación obtenidos mediante el algoritmo con una segmentación manual. Para tal

comparación se utiliza el error cuadrático medio de la posición de las fronteras

encontradas con el algoritmo y las fronteras marcadas manualmente, en una ventana de

11 por 11. A continuación se describe el proceso de segmentación manual para esta

medición, el procedimiento para calcular el error cuadrático medio y los resultados

obtenidos.

5.1 Segmentación manual para medir la precisión de los algoritmos

El proceso de segmentación de las aglomeraciones celulares en una imagen

resulta bastante sencillo para el ser humano, dado que es fácil decidir cuáles partes de la

imagen contienen aglomeraciones celulares y cuáles no; aunque la posición posible del

borde puede tener varios píxeles de grosor, esto en el sentido de que la célula tiene

regiones oscuras, y regiones claras similares al fondo, por lo resulta un tanto subjetivo

ubicar la posición del píxel.


71
Por consiguiente, la precisión o exactitud del resultado de un algoritmo de

segmentación se evalúa comparando la diferencia entre las fronteras de las

aglomeraciones celulares segmentadas mediante el algoritmo y las fronteras de las

aglomeraciones celulares segmentadas manualmente. En la figura a continuación se

muestra una imagen segmentada manualmente, en la cual las fronteras se marcan en

blanco.

Figura 5.1. Imagen segmentada manualmente utilizada para evaluar la

precisión de los algoritmos.

72
5.2 Cálculo del error cuadrático medio

Para evaluar la exactitud del algoritmo se comparan los bordes de las

aglomeraciones celulares segmentadas mediante el algoritmo y los bordes de las

aglomeraciones celulares segmentadas manualmente. Una vez obtenida la imagen

manual es posible obtener el error cuadrático medio de la segmentación del algoritmo,

para esto se obtiene la distancia al cuadrado que existe entre un píxel del borde de una

aglomeración celular en la segmentación del algoritmo y el píxel más cercano

seleccionado como borde de la misma aglomeración en la segmentación manual. En la

figura 5.2 se muestra lo explicado anteriormente.

Figura 5.2 Método para medir la distancia mínima al cuadrado entre

píxeles de borde manual y píxeles de borde del algoritmo.

De la figura 5.2 se observa que la distancia más pequeña es la diagonal del

triángulo, la cual se obtiene fácilmente por Pitágoras:

73
d i2  d x2  d y2 (5.2-1)

Donde el subíndice i identifica de forma consecutiva los píxeles seleccionados

como parte del borde de una aglomeración celular mediante el algoritmo, y los valores

dx y dy representan la distancia horizontal y vertical, respectivamente, desde el i-ésimo

píxel hasta el píxel más cercano seleccionado como borde en la segmentación manual.

Una vez obtenidos estos valores es posible calcular el error cuadrático medio

(MSE por sus siglas en inglés) de la segmentación obtenida mediante el algoritmo con

la siguiente expresión:

1  2
MSE   di
 i 1
(5.2-2)

Donde Λ corresponde en este caso, a la cantidad de píxeles que pertenecen a los

bordes de las regiones clasificadas como aglomeraciones celulares mediante el

algoritmo.

5.2.1 Penalización

Es importante que la distancia se calcule ubicándose en el píxel de borde de la

segmentación del algoritmo y buscando el correspondiente en la segmentación manual,

y no de la forma opuesta, porque la imagen manual contiene regiones pequeñas que no

se deben considerar, y además, si al abrir la ventana de búsqueda no se encontró el

correspondiente píxel manual, entonces se penaliza al algoritmo segmentado con el

tamaño de la ventana, por estar sobresegmentado o subsegmentado, es decir, que el

74
borde del algoritmo está demasiado afuera o adentro de la región con respecto a la

segmentación manual.

( ) ( ) ( ) ( ) (5.2-3)

Se debe restringir la ventana de búsqueda a un tamaño que permita penalizar

cierta sobresegmentación, pero sin llegar al extremo de considerar píxeles de otras

regiones que se encuentra cerca de la región que se está analizando. Por consiguiente, se

utiliza una ventana de 11 por 11 píxeles; hay que tener precaución de que la ventana no

se salga de la imagen porque se podría alterar los resultados.

75
6. CAPÍTULO 6: Resultados Experimentales

Se implementó el algoritmo de segmentación de aglomeraciones celulares

propuesto en el capítulo 4 de este documento, y se probó con éxito en imágenes reales

de cultivos celulares, con la finalidad de evaluar su exactitud para la segmentación de

aglomeraciones celulares. Los datos son imágenes reales de intensidad (512x510 pixel2)

capturadas por un microscopio in-situ, disponibles en el Laboratorio de Investigación en

Procesamiento Digital de Imágenes y Visión por Computador (IPCV-LAB).

Estas imágenes corresponden a aglomeraciones celulares de mamíferos,

específicamente de ovario de hámster chino (CHO) capturadas con una magnificación

de 20 veces (20X).

Las pruebas se realizaron con las 11 imágenes de la secuencia “Serie550”, la

numeración de las imágenes comprende de la “550” a la “560”.

El algoritmo fue implementado en una PC usando el lenguaje de programación

C, haciendo uso de la plataforma de programación Microsoft Visual Studio 6.0, bajo el

sistema operativo Windows© XP.

Una vez que se verificó que el nuevo algoritmo funcionaba correctamente, se

hicieron las pruebas de precisión, en donde se escogió como parámetro para medir la

exactitud, el error cuadrático medio (MSE), descrito en el capítulo 5.

76
6.1 Resultados del MSE para la secuencia “Serie 550”

Las mediciones del error cuadrático medio se realizaron para las once imágenes

utilizadas de la secuencia denominada “Serie550”, en la tabla 6.1 se muestran los

resultados, en donde se compara el desempeño del algoritmo propuesto, contra el

algoritmo de Espinoza (descrito en [5]), y contra el algoritmo de Martínez (descrito en

[4]).

A continuación se muestra en el resultado para las 11 imágenes de la serie:

77
Figura 6.1. Comparación Imagen 550

78
Figura 6.2. Comparación Imagen 551

79
Figura 6.3. Comparación Imagen 552

80
Figura 6.4. Comparación imagen 553

81
Figura 6.5. Comparación imagen 554

82
Figura 6.6. Comparación imagen 555

83
Figura 6.7. Comparación imagen 556

84
Figura 6.8. Comparación imagen 557

85
Figura 6.9. Comparación imagen 558

86
Figura 6.10. Comparación imagen 559

87
Figura 6.11. Comparación imagen 560

88
En las imágenes anteriores, se observa que visualmente el algoritmo propuesto

segmenta mejor la aglomeración celular; entonces para corroborar esa observación se

muestra la tabla 6.1:

Tabla 6.1. Resultados de la Serie 550 para los 3 algoritmos de

umbralización

MSE / pixel2
Imagen
Algoritmo de Martínez [4] Algoritmo de Espinoza [5] Algoritmo propuesto

550 4,902042 3,233452 2,235836

551 9,030929 4,708092 4,128817

552 6,568849 4,191803 2,907878

553 7,342747 4,162311 3,602960

554 5,847554 4,175098 2,044800

555 6,002612 3,251643 2,143808

556 4,497014 3,206596 2,281074

557 6,015054 3,323177 2,47476

558 5,234868 3,787187 2,622865

559 5,292085 3,230517 1,946274

560 5,778593 3,794666 2,486156

Promedios 6,046577 3,733140 2,625021

89
En esta tabla es evidente que existe una mejora al utilizar el algoritmo nuevo con

respecto a los otros dos algoritmos anteriores basados en umbralización. Para esta

secuencia de imágenes, el error cuadrático medio en píxeles2 del algoritmo propuesto es

en promedio un 56.59% menor que el error cuadrático medio obtenido con el algoritmo

de umbralización global de Martínez descrito en [4] y un 29.68% menor que el error

cuadrático medio obtenido con el algoritmo de umbralización local de Espinoza descrito

en [5].

Estos resultados, corroboran lo expresado por Espinoza en [5], al mostrar que un

algoritmo de umbralización local es más preciso que uno de umbralización global, como

se explicó en los capítulos anteriores.

No obstante, se observa que umbralizar localmente partiendo de un modelo

población mixta, con densidades de probabilidad Gaussianas de los valores de

intensidad alrededor de la región, en lugar de una sola función de densidad de

probabilidad Gaussiana; da mejor resultado. Esto se debe a que el algoritmo de

Espinoza, elimina datos atípicos a partir de una distancia de referencia (definida como la

desviación estándar de los píxeles del borde de la aglomeración); al eliminar estos datos,

no sólo elimina de la estimación del umbral píxeles con valores de intensidades

pequeñas (pertenecientes a la aglomeración), sino que también los de intensidades altas

(pertenecientes al fondo), y por lo tanto, no se consideran ciertos valores del fondo

importantes en la estimación.

En cambio, el algoritmo propuesto, separa los valores de intensidades pequeñas,

de la estimación del umbral, al sólo considerar la clase denominada fondo, y sí

90
considera los píxeles de intensidades mayores. Esta consideración se relaciona

directamente con la estimación de la media de intensidad de los valores del fondo.

Como ejemplo de los píxeles con intensidades pequeñas y altas, se muestra el

histograma de una región segmentada con el algoritmo de Martínez.

Figura 6.12. Histograma de los bordes de una región específica, muestra

intensidades altas, medias y pequeñas; que se obtiene de la imagen generada en [4]

A continuación se muestran, los resultados tabulados de la serie 550 en un

gráfico:

91
Figura 6.13. Resultados graficados de la Serie 550

En la figura 6.14 se muestran los bordes de las aglomeraciones celulares que se

obtienen con cada algoritmo sobre una sección de una de las imágenes de intensidad

utilizadas en la imagen 550.

Figura 6.14 Resultados obtenidos, el color blanco es de la segmentación

manual, el azul es del algoritmo descrito en [4], el verde del [5] y el rojo del

algoritmo propuesto
92
De la figura anterior se observa que los bordes obtenidos mediante el algoritmo

de umbralización global descrito en [4] (azules) son bastante lejanos a las fronteras

manuales de las aglomeraciones celulares (blancos). Mientras, tanto las fronteras

obtenidas con el algoritmo de umbralización local descrito en [5] (verdes) son más

cercanas, pero también presentan sobresegmentación. Los píxeles con color verde agua

se obtienen cuando los bordes del algoritmo descrito en [4] coinciden con los del

descrito en [5].

Finalmente, las fronteras obtenidas con el algoritmo propuesto son las más

similares a las fronteras marcadas manualmente, lo cual justifica que se haya encontrado

valores de MSE menores con este algoritmo.

6.2 Ventajas del algoritmo propuesto

A partir de los resultados se observa que el algoritmo propuesto tiene la ventaja

de que, al umbralizar localmente partiendo de un modelo población mixta, explicado

con anterioridad, es más preciso en todas las imágenes de la serie 550, y en general es

mejor en un 29%, lo cual se confirma visualmente cuando los bordes segmentados con

el algoritmo propuesto, se encuentran más cerca del borde manual, que los del algoritmo

descrito en [5].

Como ejemplo, a continuación se muestra una tabla de comparación entre los

umbrales que se obtienen con los algoritmos de Espinoza, y el propuesto; esto para 31

regiones de la imagen 550.

93
Tabla 6.2. Tabla comparativa de umbrales entre algoritmo de Espinoza y

Propuesto

Umbral Algoritmo

Región Umbral Espinoza propuesto Diferencia Abs Desv. Std kóptimo

1 189,41 188,44 0,97 3,06 181


2 177,68 180,05 2,37 2,97 173
3 188,24 188,08 0,17 2,24 182
4 187,55 188,00 0,45 2,44 181
5 186,54 186,71 0,17 2,47 181
6 162,48 171,13 8,64 7,83 149
7 183,22 183,38 0,16 2,67 176
8 186,64 186,63 0,01 2,3 181
9 175,97 176,52 0,56 2,29 172
10 187,55 192,07 4,52 0,26 191
11 185,36 186,89 1,53 1,72 183
12 178,53 179,06 0,54 4,53 169
13 185,97 186,22 0,24 1,65 182
14 185,96 186,17 0,21 2,88 179
15 179,08 179,35 0,27 2,99 171
16 180,69 181,24 0,55 2,78 174
17 183,06 183,07 0,01 2,65 176
18 185,27 185,04 0,23 3,05 178
19 181,65 182,2 0,55 2,36 177
20 182,92 182,25 0,67 2,93 175
21 184,13 182,91 1,22 2,49 177
22 181,93 181,77 0,16 2,96 174
23 177,12 179,18 2,06 1,7 175
24 179,32 178,63 0,7 3,6 167
25 180,06 180,54 0,48 2,94 172
26 180,91 180,42 0,48 4,65 165
27 179,13 185,27 6,13 1,06 183
28 175,25 174,67 0,58 3,61 165
29 168,68 168,92 0,24 2,96 160
30 178,05 186,44 8,39 0,68 185
31 175,68 175,47 0,21 2,3 170

94
De la tabla anterior se observa que en su mayoría para las regiones con

desviaciones estándar menores a 3 (por ejemplo la región 10, 27, 30) el umbral del

algoritmo propuesto es mayor que el umbral del algoritmo de Espinoza, y por lo tanto

los datos atípicos que se eliminan son distintos (un umbral mayor implica que más

píxeles del fondo se consideran, y no de la aglomeración, lo que resuelve el problema

del Algoritmo de Espinoza); mientras que las regiones con desviaciones estándar

mayores o iguales a 3, los umbrales son muy parecidos, lo que implica que los datos

atípicos que se eliminan son aproximadamente los mismos.

Para visualizar mejor el contenido de la tabla, se muestra también una

comparación con las imágenes de datos atípicos.

Figura 6.15. Imágenes de datos atípicos para la imagen 550

95
Al realizar un acercamiento se observa que el algoritmo propuesto considera

más píxeles del borde, es decir más alejados de la aglomeración, para la estimación del

umbral, mientras que el algoritmo de Espinoza sólo elimina algunos puntos al momento

de realizar la estimación.

Figura 6.16. Imagen de datos atípicos en una región específica

Con las figuras 6.15 y 6.16 se muestra que la forma de eliminar los datos

atípicos que se encuentran el borde de cada región, varía según se modele la densidad de

probabilidad de esos valores de intensidad, ya sea como una sola función de densidad de

probabilidad Gaussiana, o, mediante un modelo de población mixta, el cual consiste en

la suma de dos densidades de probabilidad Gaussianas con diferentes pesos, medias y

varianzas.

Esta diferencia influye en la estimación del umbral, por lo tanto, aunque hay

regiones con umbrales muy similares, las que poseen umbrales distintos hacen la

diferencia en la reclasificación de píxeles, y por ende en el cálculo del MSE.

96
7. CAPÍTULO 7: Conclusiones y recomendaciones

7.1 Conclusiones

Los algoritmos de segmentación de aglomeraciones celulares descritos en este

trabajo se clasifican en el grupo de algoritmos de segmentación basados en

umbralización. En particular, para microscopía in-situ, se han propuesto dos algoritmos

de segmentación que pertenecen a este grupo, los descritos en [4,5]. Sin embargo, estos

algoritmos de segmentación tienen un error de precisión, esto en cuanto al problema de

sobresegmentación, por lo que en este trabajo se diseñó, implementó y probó un nuevo

algoritmo de segmentación basado en umbralización con el objetivo de obtener mejores

resultados.

Dicho algoritmo consistió en tomar una imagen RGB de un microscopio in-situ,

obtener la imagen de intensidad, luego umbralizarla globalmente a partir de la varianza

local y corregir los errores de clasificación (mediante la eliminación de pequeñas, del

filtro de mediana regiones, y del rellenar los “vacíos”). A partir de esta imagen

segmentada binaria, se realiza una umbralización local de la imagen de intensidad, pero

a diferencia del algoritmo descrito en [5], se modela la densidad de probabilidad de los

valores de intensidad alrededor de la región como una mediante un modelo de población

mixta (utilizando el algoritmo de máxima verosimilitud descrito en [8]), y no como una

sola función de densidad de probabilidad Gaussiana. Finalmente, se corrige los errores

de clasificación para mejorar la precisión.

97
Para comprobar el correcto funcionamiento del algoritmo de segmentación

propuesto, así como para comparar la precisión del nuevo algoritmo, se realizaron

pruebas con imágenes reales de cultivos celulares capturadas por un microscopio in-situ

disponibles en el Laboratorio de Investigación en Procesamiento de Imagen y Visión

por Computador (IPCV-LAB). En particular, las pruebas se realizaron con imágenes de

la “Serie550”. Los resultados mostraron que el algoritmo funcionó correctamente y que

además, es más preciso en un 56,59% que el algoritmo descrito en [4], y en un 29,68%

que el descrito en [5].

Esta precisión de los algoritmos se evaluó comparando el error cuadrático medio

de la posición de los bordes obtenidos con los algoritmos con respecto a la posición de

los bordes hechos en una segmentación manual.

7.2 Recomendaciones

Se recomienda que para futuros trabajos en segmentación de aglomeraciones

celulares, se implemente el algoritmo propuesto debido a sus mejores resultados, pero

con la mejora de utilizar como estimador del umbral no sólo la media, sino que también,

la desviación estándar de cada región de la población del fondo, ya que esta se puede

utilizar para aumentar o disminuir el umbral obtenido, y con esto mejorar aún más la

precisión del algoritmo.

98
BIBLIOGRAFÍA

[1] G. Rudolph, P. Lindner, A. Bluma, K. Joeris, G. Martinez, B. Hitzmann and

T. Scheper, “Optical Inline Measurement Procedures for Counting and Sizing Cells in

Bioprocess Technology”, Optical Sensor Systems in Biotechnology, Book Series:

Advances in Biochemical Engineering Biotechnology, Vol. 116, Springer, ISBN: 978-

3-642-03469-5, pp. 125-142, 2010.

[2] K. Joeris, J.-G. Frerichs, K. Konstantinov, and T. Scheper, “In-Situ

microscopy: Online process monitoring of mammalias cell cultures“,

Cytotechnology, vol. 32, pp. 129-134, 2002

[3] G. Martinez, J.-G. Frerichs, G. Rudolph, T. Scheper, "Three-Dimensional

Cell Counting for In-Situ Microscopy", IAPR 19th International Conference on Pattern

Recognition 2008 (IAPR ICPR-2008), Tampa, Florida, USA, December 8-11, 2008.

[4] G. Martínez, J.-G Frerichs, K. Joeris, K. Kostantinov, T. Sheper, “Cell

density estimation from a Still Image for in-situ microscopy”, In Proceedings of IEEE

International Conference on Acoustics, Speech, and Signal Processing 2005 (ICASSP-

2005), Pennsylvania, Philadelphia, PA, USA, 2005.

[5] E. Espinoza, G. Martínez, J.-G. Frerichs, T. Scheper, “Cell cluster

segmentation based on global and local thresholding for In-Situ Microscopy”, In


99
Proceedings of IEEE International Symposium on Biomedical Imaging: from Nano to

Macro (ISBI-2006), Arlington, Virginia, USA, 6-9 April, 2006.

[6] Sheehy, A., Algoritmo de segmentación de aglomeraciones celulares para

microscopía in-situ basado en contornos y regiones, Proyecto de Bachillerato,

Universidad de Costa Rica, Julio 2006.

[7] Sheehy, A., Desarrollo de un algoritmo para la segmentación de

aglomeraciones celulares basado en una umbralización global de las diferencias de

intensidad entre la imagen capturada por un microscopio in-situ y una estimación de la

imagen del fondo, Tesis de Licenciatura, Universidad de Costa Rica, Enero 2009.

[8] J. Kittler & J. Illingworth, “Minimum error thresholding”, Pattern

Recognition, vol. 19, no. 1, pp. 41-47, 1998.

[9] N. Otsu, “A threshold selection method from gray level histograms”, In

Proceedings of IEEE Transactions Systems, Man and Cybernetics, vol. SMC-9, no.1,

pp.62-66, 1979.

[10] T. Kurita, N. Otsu & N. Abdelmalek, “Maximum likelihood thresholding

based on population mixture models”, Pattern Recognition, vol.25, no. 10, pp. 1231-

1240, 1992.

100
[11] G. Martínez, “Criterion for automatic selection of the most suitable

maximum-likelihood thresholding algorithm for extracting object from their

background in a still image”, In Proceedings of IAPR Conference on Machine Vision

Applications, Tsukuba, Japan, May 16-18, 2005.

[12] G. Martinez, J.-G. Frerichs, K. Joeris, K. Kostantinov, T. Scheper, "Three-

Dimensional Shape Estimation of BHK Cell Clusters from a Still Image Based on

Shape from Shading for In-Situ Microscopy", IEEE International Conference on

Acoustics, Speech, and Signal Processing 2006 (ICASSP-2006), 2006.

[13] Siles, F., “Estimación de la forma y textura celular para microscopía in-

situ”, Tesis de Licenciatura, Laboratorio de Investigación en Procesamiento de Imagen

y Visión por Computador, Escuela de Ingeniería Eléctrica, Universidad de Costa Rica,

San Pedro, Costa Rica, 2004.

[14] I. Cseke, “A fase segmentation scheme for white blood cells images”, In

Proceedings of IAPR International Conference on Pattern Recognition, Image, Speech

and Signal Analysis, pp. 530-533, 1992.

[15] M.A. Fischler and R.C. Bolles, “Random sample consensus: A paradigm
for model fitting with applications to image análisis and automated cartography”,
Comunications of the ACM, vol. 24, no. 6, pp.381-395, 1981.

101

Vous aimerez peut-être aussi