Vous êtes sur la page 1sur 17

Capitulo vi procesamiento digital de una imagen

1. 1. PROCESAMIENTO DIGITAL DE IMÁGENES6.1.

- INTRODUCCION.

El Tratamiento Digital de Imágenes contempla el procesamiento y el análisis de


imágenes. El procesamiento está referido a la realización de transformaciones y a
la restauración y mejoramiento de las imágenes. El análisis consiste en la
extracción de propiedades y características de las imágenes, así como la
clasificación e identificación y el reconocimiento de patrones. La importancia del
procesamiento y análisis digital de imágenes se encuentra en: ·
Medicina· Biología· Astronomía· Historia· Geología· Criminalística· Fotografía

Estas aplicaciones tienen un gran valor científico técnico pero quizás su


importancia social, desde el punto de vista de su repercusión sobre la sociedad en
general y el hombre en particular sea su característica más importante.

En el procesamiento digital de imágenes deben tomarse en cuenta varios aspectos


como la percepción psicovisual del ser humano. Éste es un factor importante
porque independientemente del tratamiento que se le aplique a una imagen, el
observador será quien, según su percepción, decidirá si dicha imagen le agrada o
no.

El desarrollo de los métodos de procesamiento digital de imágenes tiene su origen


en dos áreas principales de aplicación: el mejoramiento de la información pictórica
para la interpretación humana, y el procesamiento de datos de la imagen para la
percepción de máquina autónoma en el que se incluyen etapas de transmisión y/o
almacenamiento de estos datos.

La herramienta usada en el tratamiento digital de las imágenes son las


matemáticas; los conceptos que se verán son básicos. La computadora y los
algoritmos que se implementan sobre éstas también tienen un papel muy
importante en la manipulación de las imágenes.

El procesamiento digital de imágenes aparece tardíamente en la historia de la


computación, ya que antes de pensar en ello, había que desarrollar el hardware y
los sistemas operativos gráficos que permitieran hacerlo. Por otro lado, los
algoritmos y las técnicas de optimización que han tenido que desarrollarse para el
procesamiento digital de imágenes son muy sofisticados y elaborados. En la
actualidad existen muchas aplicaciones de software que permiten el procesamiento
digital de imágenes, mucho de este utiliza técnicas o algoritmos que son bien
conocidos por la comunidad que trabaja en ello, pero otros utilizan sus propias
variantes o técnicas nuevas que están poco documentadas.

Hay diferentes técnicas que existen para procesar imágenes, estas técnicas
podemos agruparlas en tres grandes grupos:
• Modificación de Color
• Modificación de Imagen
• Generación de efectos.

6.2.- OBJETIVOS.

Extraer información de imágenes digitales


• Utilizar herramientas informáticas para la extracción de información
.• Capturar, realzar, segmentar, medir, identificar y visualizar objetos de interés en
las imágenes.
• Aplicaciones en diversas áreas: medicina, medioambiente, industria, seguridad,
gestión.

¿Qué es una imagen digital?

Una imagen digital es una representación bidimensional de una imagen a partir de


una matriz numérica, frecuentemente en binario (unos y ceros). Dependiendo de si
la resolución de la imagen es estática o dinámica, puede tratarse de una imagen
matricial (o mapa de bits) o de un gráfico vectorial. El mapa de bits es el formato
más utilizado, aunque los gráficos vectoriales tienen uso amplio en la autoedición y
en las artes gráficas Un tipo de imagen que puede ser manipulada por un equipo
informático La transformación de una imagen analógica en una digital es lo que
conocemos como digitalización, y éste es el primer paso para el tratamiento digital
de imágenes.

Formación y tipos de imágenes Desde un punto de vista físico, una imagen puede
considerarse como un objeto plano cuya intensidad luminosa y color puede variar
de un punto a otro. Si se trata de imágenes monocromas (blanco y negro), se
pueden representar como una función continua f(x, y) donde (x, y) son sus
coordenadas y el valor de f es proporcional a la intensidad luminosa (nivel de gris)
en ese punto. Las imágenes son representaciones de objetos los cuales son
censados a través de su energía radiante, por ejemplo, la luz. Por tanto, por
definición la formación de una imagen requiere de una fuente de radiación, un
objeto y un sistema de formación. Las fuentes de formación pueden ser de varios
tipos (fuente de luz blanca, sistemas con láser, tubos de rayos X, fuentes térmicas
y también fuentes de ondas acústicas).

OBTENCIÓN
Las imágenes digitales se pueden obtener de varias formas:
• Por medio de dispositivos de conversión analógica-digital como los escáneres y
las cámaras digitales.
• Directamente mediante programas informáticos, como por ejemplo realizando
dibujos con el ratón (informática) o mediante un programa de renderización 2D.Las
imágenes digitales se pueden modificar mediante filtros, añadir o suprimir
elementos, modificar su tamaño, etc. y almacenarse en un dispositivo de grabación
de datos como por ejemplo un disco duro.

ESTRUCTURA
La mayoría de formatos de imágenes digitales están compuestos por una
cabecera que contiene atributos (dimensiones de la imagen, tipo de codificación,
etc.), seguida de los datos de la imagen en sí misma.
La estructura de los atributos y de los datos de las imágenes distintas en cada
formato. Además, los formatos actuales añaden a menudo una zona de metadatos
("metadata" en fotografía (Escala de sensibilidad, flash, etc.)
Estos metadatos se utilizan muy a menudo en el formato extensión cámaras
digitales y videocámaras.

EDICIÓN DE IMÁGENES
Si una imagen representada en dominio espacial la pasamos a dominio
frecuencial, podemos modificar los valores de la luminosidad (que en dominio
frecuencial se ven representados como componente de frecuencia f) de tal manera
que podemos ampliar, decrementar o eliminar su amplitud y de esta forma
modificamos la imagen.
Por ejemplo, si en el dominio frecuencial modificamos la componente 0, lo que
estaremos haciendo es modificar la tonalidad de luz de la imagen. Esto ha dado
como resultado un gran número de aplicaciones, des de óptica, hasta la
visualización de imágenes con rayos X para fines médicos

.6.3 OPERACIONES DE PROCESAMIENTO DE IMÁGENES

 Puede ser empleada por métodos ópticos, fotográficos y digitales


 El sistema de computación grafica es el método eficaz que dio origen a la
técnica de procesamiento de imágenes
. Las imágenes impresas en papel fotográfico, no permite la utilización plena de
toda la información contenida en ellas.
 Para procesamiento de imágenes (multiespectrales) geo-referenciados
(topográficos, geoquímica, geofísica, etc.) son utilizados imágenes estructurales
digitalmente en una malla o grid regular para efectos de visualización en un
monitor de video

TRATAMIENTO DE IMÁGENES:

El tratamiento de imágenes por computadora surgió inicialmente como aplicación


de procedimientos matemáticos tendientes a corregir las fotografías y mejorar su
interpretación.
Posteriormente, con el desarrollo de la tecnología y la aparición de nuevos
sensores de imágenes, procedimientos computacionales y algoritmos matemáticos
o estadísticos, los procesos se fueron sofisticando y masificando por los menores
costos de hardware y software y hoy en día permiten, no sólo la mejora de
imágenes para interpretación visual humana, sino también su interpretación por
una máquina, en campos tales como: teledetección, robots industriales para
montaje e inspección, reconocimiento de objetivos militares, procesamiento de
huellas dactilares, análisis de muestras de sangre y radiografías, predicción del
tiempo atmosférico y de las cosechas, microscopía, reconocimiento de caracteres,
etc.

6.3.1 EL PROCESAMIENTO DIGITAL DE IMÁGENES

Consiste entonces en la manipulación, mejoramiento y extracción de información


de las imágenes naturales con el uso de computadoras digitales.
En este resumen mencionaremos procesos generales aplicados en imágenes
digitales y otros específicos que se utilizan en imágenes de sensores remotos. Los
procesos que se describen son algunos de los más comunes que se utilizan.

SENSORES REMOTOS. DEFINICIÓN:


El término “sensores remotos” (o también “teledetección”) se refiere a la
observación a distancia (“remota”) de la superficie terrestre.
Las plataformas sobre las cuales van montados los sensores, son aviones o
satélites.
Los sensores que “observan” desde esas plataformas pueden ser pasivos
(ópticos) (cámaras fotográficas, barredores multiespectrales, detectores CCD), los
cuales captan la luz solar que refleja la superficie terrestre, en diversas bandas
espectrales, o bien activos, tales como el radar de apertura sintética, el cual emite
una señal y capta los ecos reflejados por los elementos de la superficie.
Las imágenes obtenidas con estos sensores tienen un formato digital (o si no lo
tienen pueden ser digitalizadas, como en el caso de las fotografías aéreas) y
pueden ser procesadas por computadora.

6.3.2 CLASIFICACIÓN DE LAS TÉCNICAS DE PROCESAMIENTO DE


IMÁGENES:
1- Digitalización y cuantificación: pasaje de imágenes continúas a discretas.
Esto es inherente al sistema sensor o en el caso de fotos se puede realizar
posteriormente con unescáner
2- Pre procesamiento: normalización de los datos de entrada.
3- Mejora o realce: operaciones tendientes a mejorar la apariencia de los datos
de entrada.
4- Restauración: recuperación de la imagen original, en el supuesto de que los
datos de entrada se encuentren afectados a algún tipo de degradación, como
por ejemplo ruidos, turbulencia atmosférica, movimientos indeseados de la
plataforma, etc.
5- Codificación: consiste en la compresión de información con el objeto de
reducir el costo de transmisión de las imágenes, un almacenamiento más
eficiente y su tratamiento numérico.
6- Análisis: consiste en la obtención de descripciones numéricas o simbólicas de
la imagen de partida, es decir se extrae información significativa de la imagen.
7- Reconstrucción: obtención de información de un objeto en base a sus
proyecciones, como por ej. tomografía o resonancia en medicina. En el campo
de la teledetección, podríamos encuadrar aquí a la obtención de imágenes
terrestres en perspectiva a partir de una imagen satelital y su modelo digital
(elevación) de terreno.
8- Transformaciones: como por ejemplo georreferenciación de imágenes
satelitales utilizando datos cartográficos, combinación de imágenes de distintos
sensores, combinaciones multitemporales, etc.

6.3.3 REPRESENTACIÓN DIGITAL DE UNA IMAGEN

Una imagen de un objeto real (imagen analógica) es continua tanto en la variación


espacial como en la variación de sus niveles de gris o brillo. Ahora bien, una
computadora digital maneja datos numéricos, de manera que para poder manipular
una imagen es necesario expresar a la misma como un arreglo de datos
numéricos, por lo cual es necesario discretizar la imagen tanto en el espacio
(geometría) como en la amplitud de grises (radiometría) y representarla como una
matriz numérica.
La desratización: en el espacio se denomina muestreo, pues se toman muestras
de la imagen a intervalos regulares.
La desratización: en amplitud se llama cubanización, y consiste en la asignación
de niveles de gris discretos al brillo o gris promedio dentro de cada muestra o pixel.

La asignación de valores numéricos a los distintos niveles de gris se denomina


codificación, pues se relaciona la información visual de los distintos tonos de gris
con un código numérico arbitrario.

El proceso muestreo – cuantificación – codificación se denomina digitalización.

IMAGEN DIGITAL O DISCRETA:


Una imagen digital o discreta queda entonces representada por una grilla o matriz
de elementos (pixeles), donde cada elemento está ubicado en una determinada
línea y columna de la matriz y tiene un valor entero correspondiente al brillo medio
en el sector que comprende. Esta disposición de pixeles en una grilla se denomina
formato raster, en contraposición con el formato vectorial usado en computación
gráfica. El término pixel proviene del inglés: “picture element”.

La resolución geométrica o espacial de una imagen está dada por el tamaño de


la muestra - o pixel, en este caso, que está relacionado con el tamaño del mínimo
elemento discernible en la imagen, o bien la mínima distancia en que dos objetos
próximos se distinguen como diferentes. Se hace la salvedad de que a veces
pueden verse objetos más pequeños que el tamaño correspondiente a la
resolución espacial debido a que tienen una alta respuesta (alta reflectancia en
sensor óptico o retro dispersión en radar), y al ser tan brillantes saturan el
promedio de respuesta en un cierto radio de acción.

La resolución radiométrica de una imagen está dada por los distintos tonos de
gris (la cantidad de éstos), con que se puede representar a los pixeles.

En la siguiente figura se representan los conceptos de resolución enunciados, para


el caso de una señal unidimensional, por ejemplo una línea de imagen.

Si el tamaño del pixel disminuye y la diversidad de tonos de gris es mayor, es


decir, si las resoluciones espacial y radiométrica mejoran, entonces la imagen
digital “se parece” más a la imagen analógica original y pueden llegar a confundirse
visualmente.

Las resoluciones geométrica y radiométrica dependen del dispositivo sensor que


capta y digitaliza una imagen. Las imágenes se almacenan en distintos formatos
de archivos, y en el caso de imágenes satelitales, existen registros y archivos
auxiliares en donde se guarda una cantidad de información asociada con las
características de obtención de la imagen, tales como fecha, datos de la
plataforma, ángulo de toma, etc.
PROCESAMIENTO DIGITAL DE IMÁGENES SATELITALES DE TODO TIPO DE
SENSOR AEROESPACIAL

Geomatica es completamente compatible con ArcGIS ya que PCI Geomatics de


Canadá es BusinessPartner de ESRI Inc. de los EE.UU

MATLAB es uno de los mejores y más completos entornos interactivos que existen.
MATLAB está especializado en la realización de cálculos complejos, la
implementación de nuevos algoritmos.

Sistemas de Información Geográfica (SIG) permiten volcar la información en mapas


temáticos que posibilitan el control y la evaluación del área estudiada.
TIPOS DE IMÁGENES

 Imágenes de reflexión: censan la radiación que ha sido reflejada por las


superficies de los objetos (información obtenida: forma, textura, color).
 Imágenes de emisión: los objetos que se transforman en imágenes son
originalmente luminosos (focos, estrellas).
 Imágenes de absorción: proporcionan información sobre la estructura
interna del objeto (la radiación pasa a través de él).

CARACTERÍSTICAS DE LAS IMÁGENES DE SENSORES REMOTOS

Las imágenes colectadas por sensores remotos, poseen algunas características


que diferencian de otras imágenes digitales, esas características son:

ESTRUCTURA DE LA IMÁGENES DE SENSORES REMOTOS

 Las imágenes están constituidas por una disposición de elementos en


forma de una malla.
 Cada celda de grid de elementos tienen una localización definida en un
sistema de coordenadas X; Y
 Cada celda posee un atributo numérico “z” (nivel de gris, que varía de
blanco al negro) = DN
 DN de una celda representa la intensidad de la energía electromagnética
(reflejada o emitida por los diferentes materiales presentes en el pixel)
medida por el sensor.

 Una imagen LANSAT está compuesto de 6.550 x 65550 elementos = 42


millones de pixeles para cada banda,

IMAGEN DE UNA CRUZ COMPUESTA POR DOS ÁREAS

 Áreas blancas o
 Áreas negras o
 Cada pixel con matriz numérica
 DN varia: 0 (negro) a 255 (blanco)

OBSERVACIÓN

Una imagen no digital (fotografía aérea) puede ser transformada en imagen digital
a través de un proceso conocido “digitalización” con la ayuda de un equipo
periférico denominado “escáner “, que trasforma en una imagen análoga
(fotografías, mapas, etc.). compuesto por líneas y columnas, con cada celda
predefinido y con un valor de DN la nueva matriz convertida en formato digital
gráfico, puede ser leída y manipulada por sistemas de procesamiento digital.

FORMATO DIGITAL GRAFICORESOLUCIONES DE LAS IMÁGENES DE


SENSORES REMOTOS:

Si los sensores son pasivos u ópticos, la resolución geométrica está relacionada


con las características del sistema óptico. En el caso de barredores montados en
aviones o satélites, donde hay un espejo oscilante, está dada por el ángulo
instantáneo de visión (IFOV), por ejemplo el antiguo MSS scanner de la serie
LANDSAT. Si se trata de arreglos CCD (Charged Coupled Device), tales como el
sensor dela serie SPOT, la resolución geométrica está dada por el sistema óptico y
por las características de este arreglo CCD. Las resoluciones radiométricas de los
sistemas están relacionada con las características del sistema opto-electrónico que
transforma la información visual en señales eléctricas, y con el proceso de
digitalización de estas señales.

Otra característica de los sensores pasivos, es que captan las imágenes en


distintas bandas del espectro electromagnético (bandas del visible, infrarrojo
cercano, medio y térmico), lo que puede lograrse colocando filtros para cada banda
entre el sensor y la imagen a captar. Eneste caso se obtiene una imagen
multiespectral, es decir una imagen compuesta por tantas imágenes o planos como
bandas son captadas. Cada plano o canal es una imagen en tonos de gris que
representan la reflectancia del terreno en esa banda espectral. Estos planos
pueden considerarse como “versiones distintas de una misma cosa”. Si a tres
cualquiera de estos planos se les asignan los colores azules, verde y rojo (en un
monitor color, por ej.), se obtiene lo que se denomina una imagen en “falso color”

Si se dispone de las bandas espectrales azul, verde y roja correspondientes al


visible (ejemplo: bandas1, 2 y 3 de Landsat TM) y se les asignan los colores
correspondientes azul, verde y rojo, se obtiene una imagen en “color natural”.

Dado que cada elemento de la superficie terrestre refleja la luz solar en distintas
proporciones encada banda del espectro (esto conforma su firma espectral), el
hecho de contar con un juego de datos multiespectrales es muy importante ya que
permite que se identifiquen mejor los elementos presentes en la escena.

Cuantas más bandas espectrales tenga una imagen y más finas éstas sean, mejor
será su resolución espectral. Ejemplo: el sensor LANDSAT Thematic Mapper tiene
30 m de resolución espacial y 7 bandas espectrales. El sensor SPOT HRV tiene
mejor resolución espacial (20 m) pero peor información espectral (3 bandas).

Con respecto a los sensores activos, tales como el radar de apertura real (SLAR) o
sintética (SAR), proveen imágenes de una sola banda y en el nivel de gris del pixel
intervienen diversos factores, tales como la rugosidad del suelo, humedad del
mismo, tipo de elemento, pendiente del terreno, longitud de onda de la señal
incidente, etc. La principal ventaja de este tipo de imágenes es que son “todo
tiempo”, resultando una fuente de información muy importante en zonas donde la
cobertura de nubes es muy frecuente e impide a los sensores ópticos obtener
buenas imágenes. Como desventaja se menciona el hecho de que poseen una
sola banda y que deben ser sometidas aun filtrado previo para reducción de ruido
“speckle”, que es inherente a este tipo de imágenes. Asimismo, en zonas
montañosas, el efecto topográfico del relieve introduce distorsiones que deben ser
minimizadas con la aplicación de software de corrección específico.

Para los sensores activos, la resolución geométrica en azimut (dirección del vuelo)
está relacionada con las características de la antena, y en alcance (perpendicular a
la línea de vuelo) depende del ancho del pulso transmitido y el ángulo de
depresión. Cabe aclarar que como este ángulo es variable transversalmente a la
escena, la resolución también lo es, por lo tanto se realizan re muestreo de los
pixeles para que representen la misma área, y así resulta que la resolución dela
imagen puede no coincidir con el tamaño del pixel.
Se observa además en la figura anterior que la ubicación de un elemento sobre la
línea de imagen está relacionada con el tiempo de retorno del eco (se relaciona
tiempo con distancia), por eso en zonas con relieve existirán errores en los
posicionamiento de los puntos dentro de la imagen

(efectos de “overlay”, “forshortening”, “sombras”).

Las laderas parecen “recostarse” hacia el sensor porque los picos de montaña, al
devolver antesala señal, son ubicados erróneamente más cerca del sensor en la
línea de imagen.
Otra característica de las imágenes satelitales en general, tanto ópticas como
radar, es que se obtienen con una frecuencia regular, dependiendo de la órbita del
satélite (período de “revisita”). Esto define el concepto de multitemporalidad de las
imágenes. Al contar con imágenes de una zona tomadas en distintas fechas, se
pueden realizar estudios multitemporales para observar cómo han variado ciertas
características.

Resumiendo, podemos hablar de cuatro tipos de resoluciones para una imagen


digital: resolución geométrica o espacial, resolución radiométrica, resolución
multiespectral y resolución multitemporal.

Según el campo de aplicación, se requieren sensores que enfaticen alguna de


estas características, por ejemplo en imágenes meteorológicas se requiere cubrir
grandes áreas con baja resolución espacial pero alta revisita (multitemporalidad),
en uso catastral son necesarios sensores con buena resolución geométrica, para
evaluación de recursos naturales se deberá contar con imágenes de varias bandas
espectrales a fin de poder discriminar elementos envase a su firma espectral.

Se incluye a continuación una tabla comparativa de características de sensores


pasivos (visible, infrarrojo e infrarrojo térmico) y activos (SAR) y de las imágenes
que proporcionan:

Composición color de imágenes:

Utilizando un mismo sensor óptico, se pueden combinar tres bandas espectrales


distintas, como ya mencionamos anteriormente. Cada banda de una imagen
multiespectral destaca aspectos distintos de la información presente en una
escena (por ej. vegetación, infraestructuras, rocas, penetración en agua, etc.), de
manera que la combinación color más conveniente dependerá de la aplicación.
Para sensores SAR, como hay una sola banda, pueden combinarse en color
imágenes de una zona tomadas en tres fechas distintas. También pueden
mezclarse bandas de distintos sensores. La fotointerpretación posterior debe tener
en cuenta cómo se hizo la asignación decolores.

Bandas espectrales y resolución espacial de algunos sensores ópticos:

ALGORITMOS PARA PROCESAMIENTO DE IMÁGENES

Existen dos grandes clases de transformaciones de imágenes:

 Transformaciones radiométricas: los valores de nivel de gris de los pixeles


son alterados sin modificar la geometría de la imagen (contrastes, filtrados,
clasificación, texturas, cocientes).
 Transformaciones geométricas: se altera la geometría de la imagen, es
decir, la ubicación delos pixeles dentro de la misma (registración,
georreferenciación, remuestreos).

Dentro de las transformaciones radiométricas, pueden distinguirse dos grandes


grupos de algoritmos de procesamiento: puntual y espacial.

Transformaciones radiométricas

Algoritmos de procesamiento puntual:

La operación sobre un pixel de la imagen se realiza sin tener en cuenta los pixeles
vecinos. Ejemplo: ensanche de contraste, umbralización, pseudocolor, operaciones
algebraicas entre imágenes (sustracción, cociente).

Estos algoritmos son de fácil implementación en las computadoras convencionales,


por ejemplo en los casos de ensanche de contraste, umbralización, y pseudocolor
se utilizan “look-up tables” (tablas de consulta), en donde entrando con un nivel de
gris se obtiene el de salida.

Ejemplo de transformación puntual: manipulación de histogramas (ensanche de


contraste, segmentación, etc.)

Algoritmos de procesamiento espacial o regional:

La operación para obtener un pixel en la imagen de salida tiene en cuenta tanto el


pixel correspondiente en la imagen de entrada como una cantidad arbitraria de
vecinos de este. Ejemplo: operaciones de filtrado, gradientes, realces de bordes,
etc.

Estos algoritmos requieren una implementación con un mayor grado de


complejidad que los de procesamiento puntual.

Manipulación de bandas o canales en distintos procesos

Hay procesos que actúan sobre cada banda por separado y otros en donde se
procesan todas las bandas simultáneamente

HISTOGRAMA DE UNA IMAGEN DIGITAL


El histograma de una imagen es una tabla o gráfico que indica la cantidad de
píxeles en la imagen que corresponden a cada valor de gris. El concepto es
análogo al de densidad de probabilidad que se utiliza en estadística.

 El histograma de una imagen sólo especifica el número total de pixeles


correspondientes a cada nivel de gris y no proporciona información acerca
de la distribución espacial de los mismos.
 El análisis del histograma de una imagen constituye un paso previo para
lograr una eficiente manipulación del contraste o algún proceso de
umbralización.
 En la figura se grafican, como ejemplo, las envolventes de diversos
histogramas, observándose que si la imagen es oscura el histograma se
encuentra corrido hacia la izquierda, si en cambio los niveles de gris son
altos está corrido hacia la derecha. Si la imagen tiene poco contraste
(diferenciación de niveles de gris), el histograma es estrecho, si hay más
contraste se encuentra más expandido, dado que hay más riqueza en los
tonos de gris.

ENSANCHE DE CONTRASTE

El ensanche de contraste es una transformación radiométrica puntual (pixel a


pixel) muy simple, cuyo objetivo es lograr una mejor discriminación de imágenes
con bajo contraste. Cada nivel de gris de la imagen se modifica sin considerar los
niveles de gris de los píxeles adyacentes. Se aumenta el rango de niveles de gris a
fin de mejorar la interpretabilidad de las imágenes y para aprovechar toda la
capacidad del sistema de display.

La curva de transformación o función de transferencia puede ser o no lineal, y el


proceso consiste en ingresar a esta función con un nivel de gris en la imagen de
entrada y obtener un nuevo valor a ser grabado en la imagen de salida, o
visualizado en un monitor.

Los ensanches de contraste quemas se aplican son los lineales y por nivelación de
histograma (este último es no lineal).

Ensanche de contraste lineal:


La función de transferencia es una recta. Se elige un límite inferior y otro superior
de la curva y allí se traza una recta de transferencia:

Ensanche de contraste no lineal:

La función de transferencia no es una recta. Por ejemplo, en el ensanche por


nivelación de histograma, se asigna una mayor diferenciación de grises en
aquellos lugares más poblados de la curva del histograma. De esta manera el
histograma resultante se “nivela”, es decir, los valores de gris quedan repartidos en
forma más pareja entre los pixeles. No es un ensanche tan “suave” como el
anterior, y se utiliza en imágenes en donde es necesario resaltar una subimagen
(se nivela el histograma de ésta).

DETECCION DE UMBRAL (THRESHOLDING)

Entre los tipos de operaciones de manipulación de contraste se encuentra la


denominada “detección de umbral”. Consiste en segmentar la imagen en dos
clases bien diferenciadas: objeto y fondo, mediante la simple aplicación de un
umbral en el rango de los niveles de gris.

El histograma de la figura es característico de las imágenes que contienen objetos


grises sobre un fondo oscuro. Se fija un determinado umbral T, a los pixeles con
valor de gris menor a T se les asigna color negro, y a los que están por encima
color blanco, resultando una imagen binaria (sólo 2 tonos de gris).

SEGMENTACIÓN (DENSITY SLICING)


Se toman varios umbrales, y a los niveles de gris comprendidos entre dos
umbrales consecutivos, se les asigna un único tono de gris. Los niveles quedan
entonces reducidos a una cantidad menor y la imagen resulta “segmentada”.
Ejemplo:

PSEUDOCOLOR (COLOR MAPPING)

Consiste en asignar un color distinto a cada nivel de gris de una imagen en blanco
y negro, es decir, colorear la imagen de acuerdo a sus determinadas tonalidades
de gris, con una asignación de colores arbitraria. Esto enriquece la capacidad del
ojo en distinguir tonalidades. También pueden tomarse rangos de niveles de gris
(como en la segmentación) y darles distintos colores.

Se utiliza, por ejemplo, para foto interpretar imágenes en blanco y negro, o para
colorear una imagen clasificada, en donde los niveles de gris representan una
clase de elementos determinada.

El pseudocolor es un coloreado artificial de un sólo canal.

FILTRADOS POR CONVOLUCIÓN DE MÁSCARAS

Este es un proceso de tipo regional (el pixel de salida depende de una ventana en
el entorno del pixel original).

Es una operación en el dominio espacial que equivale a un filtrado en el dominio de


las frecuencias de la señal. Está implementada por medio de una máscara o
ventana con determinados coeficientes, que puede ser diseñada por el operador,
quien define el tamaño de la máscara (3x3, 5x5,7x7, 11x11, etc.)Los sucesivos
pixeles de la imagen se van multiplicando por la máscara, la cual va recorriendo la
imagen de entrada y generando una imagen de salida filtrada. Cada canal de la
imagen se filtra en forma independiente.

Según los valores que se elijan para los coeficientes de la máscara, se obtendrán
distintas transformaciones sobre la imagen, tales como: suavizado (filtrado pasa-
bajas), detección de bordes (filtrada pasa-alta), realce de bordes, gradientes
direccionales, etc. Hay máscaras estándar que son utilizadas con frecuencia.

Filtro Pasa-Bajas (filtro media): Está dentro de las operaciones de suavizado, que
son operaciones que se realizan para reducir ruido y otros efectos espurios que
pueden estar presentes en una imagen

REFERENCIAS BIBLIOGRÁFICAS

 Universidad Nacional del Centro de la Prov. de Bs. As.Facultad de Ciencias


Exactas.
 UNIVERSIDAD SIMON BOLÍVAR – BOLIVIA Juan Reyes Profesor
Investigador del Departamento de Ingeniería Electrónica Centro Nacional
de Investigación y Desarrollo Tecnológico.
 UNESCO RAPCA

CONCLUSIONES

o El procesamiento digital de imágenes y la visión por computadora, son


tópicos que se utilizan cada vez más en diversas áreas, tales como
publicidad, cinematografía, meteorología, medicina, etc.
o El aprovechar el alto desempeño del MATLAB para procesar matrices y
vectores así como el alto desempeño en graficación permite implementar
sistemas de procesamiento digital de imágenes o bien visión por
computadora.
o Hoy día se estudia cómo mejorar la complejidad en la codificación de los
vectores de movimiento y esquemas de cuantización multicapa para una
óptima ordenación de los bits
o La optimización de imágenes para diseños de pantalla se deberá tener en
cuenta la calidad de la imagen en relación con el menor peso posible.

Vous aimerez peut-être aussi