Académique Documents
Professionnel Documents
Culture Documents
En los sensores analógicos: Nos encontraremos con una señal de barrido o escaneo
En los sensores digitales: Nos encontraremos con un muestreo y posteriormente una
conversión numérica de los valores que se tengan de luminosidad.
Tras finalizar el proceso de almacenamiento (de la señal ya convertida), viene el
proceso de representación, esto se lleva acabo mediante un patrón el cual intenta
reconstruir la imagen tomada inicialmente, en las cámaras fotográficas que poseen una
pantalla se puede ver como la imagen es reconstruida y mostrada, la pantalla funciona
como una matriz constituida de pixeles, cada pixel muestra un patrón de color diferente
para intentar igualar la imagen original (en realidad lo que intentan igualar los pixeles
es la luz que insidio en el sensor).
En el caso de los sensores ópticos utilizados para detectar señales luminosas (fibras
ópticas, láseres, etc), el procedimiento es parecido, sin embargo las señales no se
reconstruyen como una imagen y su único fin es el de detectar fallas en el proceso de
recepción o transmisión de datos.
Funcionamiento
El sensor de imágenes funciona con el mismo principio que la película fotográfica, transforma
la luz en imagen. El sensor está constituido por células fotovoltaicas que miden la
intensidad de la luz y su color. Esta intensidad luminosa luego se transforma en
corriente eléctrica. Cada punto del sensor, que compone una parte de un píxel, registra
la intensidad luminosa para producir una imagen.
El sensor de imágenes está compuesto por dos elementos superpuestos: el primero está
compuesto por células fotosensibles, el segundo es el dispositivo de transferencia de carga.
Para restituir el color, cada célula fotosensible posee 3 filtros: un rojo, un azul y un verde.
Cada filtro sólo es receptivo a un color.
Esto quiere decir que la resistencia disminuye de acuerdo con la intensidad de la luz
incidente, formándose patrones de cargas positivas sobre el lado de exploración del
blanco. Las áreas mas positivas corresponden a las áreas mas brillantes de la escena
que se filma. La imagen de carga que aparece sobre el blanco se explora entonces por
el haz electrónico de baja velocidad, de la manera usual; y los electrones del haz
neutralizan las cargas positivas que tocan, siempre que esto sucede, los potenciales
positivos variables de la imagen de carga se elevan rápidamente a potenciales de tierra.
Figura 6.11: Neutralización de cargas por el haz
Los electrones que no se necesitan para neutralizacion se regresan hacia el cátodo y
no juegan ningún papel en la acción, cuando los electrones del haz encuentran grandes
áreas densas de carga sobre el lado de exploración del blanco, se requerirán mas de
estos electrones para neutralización, de lo que se requerirá en el otro caso. Sin embargo
cualquiera que sea su número, estos electrones neutralizadores fluyen en una poderosa
corriente hacia el blanco, y a través de la placa de señal y del electrodo anular que lo
rodea y de ahí pasa por el resistor de carga de señal, estableciéndose una corriente
cuya dirección se indica en la figura 6.12.
Figura 6.12:
Corriente de electrones no útiles en la neutralización
El vidcon fue simple, muy pequeño y barato, lo que le permitio tener una amplia
aceptacion por mucho tiempo. Una desventaja del tubo VIDICON es su lentitud de
respuesta a cambios repentinos en la iluminacion. Esto se debe en parte al tiempo
que se requiere para una imagen de carga sobre el blanco para volver a su estado de
aislamiento completo despues de que la luz que ha reducido su resistividad se ha
removido.
Dispositivos de imagen de estado Sólido: Existen varias propuestas de dispositivos
de estado sólido para la conversión de luz incidente en imágenes manipulables
electrónicamente, los más importantes de estos tipos son:
1. Arreglo de Fotodiodos.
2. Dispositivos de inyección de carga. (CIDs)
3. Dispositivo de acoplamiento de transferencia de carga (CCDs)
1. Generar cargas
2. Recolectar cargas
3. Transferir cargas
4. Detectar cargas
La primera tarea se basa en el efecto fotoeléctrico: los fotones al chocar con los diodos
liberan electrones. En la segunda tarea, los fotoelectrones son recogidos en el punto de
recogida o píxel más cercano. Los puntos de recogida están definidos por un conjunto
de electrodos, llamados puertas. La tercera operación, transferencia de cargas, se logra
manipulando el voltaje en las puertas de manera sistemática de forma que la señal de
electrones se mueva verticalmente de un píxel al siguiente como si fuera una cinta
transportadora. Al final de cada columna hay un registro horizontal de píxeles. Este
registro recoge una línea cada vez y entonces transporta los paquetes de carga en serie
a un chip amplificador. El paso final, detectar cargas, se realiza cuando los paquetes
individuales de carga son convertidos en señales de voltaje de salida. El voltaje de cada
píxel puede ser amplificado fuera del chip, codificado digitalmente y almacenado en un
ordenador para ser reconstruido y visualizado.
Para que esta imagen electrónica formada se mueva, se requiere de una adecuada
polarización secuencial de los electrodos de las celdas unitarias que conforman el área
sensible. Como se mencionó, la lectura se lleva a cabo mediante la transferencia de
paquetes de carga adyacentes, entonces es posible conectar cada detector del área
sensible con un reloj de pulso por separado y sincronizado para lograr la transferencia,
sin embargo en la practica, los electrodos se agrupan en conjuntos de 3 o 4, a dichos
conjuntos se les conoce como fase (figura 6.15) de igual forma, casa fase se conecta a
un voltaje sincronizado por separado. Un sistema de sincronización trifásico permite
que la carga sea movida por completo a través del dispositivo como se muestra en la
figura 6.15, para la transferencia en línea, son posibles velocidades de reloj hasta 10
MHz.
Figura
6.16: Arreglo de CCD de transferencia de cuadros a dos fases con entrelace
El principio básico de operación es que toda el área sensible es expuesta a la luz y
luego la carga desarrollada es transferida al área de almacenamiento para su lectura.
Al final del periodo de integración toda la imagen foto convertida se transfiere muy
rápidamente hacia el área de almacenamiento, la cual es idéntica al área de imagen
pero protegida de la luz. Durante el siguiente periodo de integración, la imagen es leída
por el registro horizontal secuencialmente hacia la señal de video. Esto es necesario
para las altas velocidades de lectura requeridas en los sistemas de T.V y solo entonces
debido al tiempo necesario para la lectura y no para la transferencia de datos.
Figura 6.17:
CCD de arreglo por interlinea
Sensores de imagen CMOS: Los sensores de imagen se manufacturan en la industrial
en forma de fundición de obleas o fabs en hornos cerrados que contienen un producto
químico y gaseoso, la elevada temperatura hace que los átomos de gas se difundan y
penetren en la oblea de silicio , cambiando las características eléctricas del mismo ,
donde luego usando técnicas de fotograbado y mediante exposición a los rayos
ultravioleta se graban los circuitos diminutos y dispositivos sobre chips de silicio . El
problema más grande con los CCDs es que no hay suficiente economía de escala. Los
mismos se crean fundiciones usando procesos caros y especializados que sólo pueden
usarse para hacer otros CCDs. Entretanto, más y mayores fundiciones en otras
industrias están usando un proceso diferente llamado Metal-Oxido-Semiconductor con
transistores complementarios (CMOS) para hacer millones de chips para los
procesadores de computadoras y memorias. El CMOS es por mucho el proceso más
común y de más alto rendimiento productivo en el proceso de fabricación de chips en
el mundo. Los últimos procesadores de CMOS, como el Pentium II, contienen casi 10
millones de elementos activos. Usando este mismo proceso y el mismo equipo para
fabricar los sensores de imagen CMOS se reduce dramáticamente los costos , porque
se extienden los costos fijos de la planta sobre un número mucho más grande de
dispositivos. Como resultado de estas economías de escala, el costo de fabricar una
oblea de CMOS es un tercio del el costo de fabricar una oblea similar que usa un
proceso de CCD especializado. Se bajan aun mas los costos porque los sensores de
imagen CMOS pueden tener circuitos de proceso creados en el mismo chip. Cuando
se usan CCDs, estos circuitos de proceso deben estar en chips separados.
Mientras que en el CCD toda la información es transmitida a través de las mismas
celdas vecinas hacia sus bordes, donde la información es recolectada, el CMOS tiene
capacidad de transmisión en cada una de las celdas. Esto evita el afecto de “blooming”
o de contaminación entre pixeles vecinos cuando hay situaciones de sobre exposición
y, además, permite mejores opciones de interpolación de la imagen.
Figura 6.18:
Componentes principales de una cámara digital
Figura 6.19:
Imagen con pequeñas piedras que son denominadas píxeles
De modo que el tamaño del sensor es tan importante como la tecnología usada para la
interpolación de la imagen. En algunas cámaras, este procesado de la imagen puede
ser programado -en parte- por el propio usuario, especificando diferentes parámetros
de nitidez, tono, contraste, y calidad final.
Profundidad de color: La resolución no es el único factor que determina la calidad de
las imágenes. Igualmente importante es el color, cuando usted observa una escena
natural, o una impresión de color fotográfica bien hecha, se pueden distinguir millones
de colores. Las imágenes digitales pueden aproximar este realismo de color, pero si las
mismas pueden hacerlo en su sistema depende de sus capacidades y sus funciones.
El número de colores en una imagen se identifica como su profundidad de
color, profundidad de píxeles, o profundidad de bit.
La PCs más viejas estaban limitadas a monitores que mostraban sólo 16 o 256 colores.
Sin embargo, casi todos los nuevos sistemas pueden mostrar lo que se llama Color
Verdadero de 32-bits (32-bit True Color). Se llama Color Verdadero porque estos
sistemas muestran 16 millones de colores, casi el número que el ojo humano puede
distinguir. ¿Por qué se necesitan 24 bits para conseguir 16 millones de colores? Es
aritmética simple. Para calcular cuántos colores diferentes pueden capturarse o
pueden ser vistos, simplemente eleve el número 2 a la potencia del número de bits
usados para grabar o visualizar la imagen. Por ejemplo, 8-bits le da 256 colores porque
28=256. Vea la tabla 6.1 y observe las posibilidades.
Algunas cámaras digitales (y escáneres) usan a menudo 30 o más bits por pixel y las
aplicaciones profesionales requieren 36-bit de profundidad de color, un nivel sólo
logrado por cámaras digitales profesional elevadas. (La Canon Pro70 fue la primera
cámara del consumo de 30-bit.) Estos bits extras no se usan para generar colores que
sean luego visualizados. Son usados para mejorar el color en la imagen cuando se
procesa hasta su forma final de 24-bits y luego son descartados.
Sensibilidad: Un número ISO (International Organization for Standardization u
Organización Internacional para la Estandarización) que aparece en el paquete de la
película especifica la velocidad, o sensibilidad, de una película basada en proceso de
plata. Cuanto más alto sea el número, “más rápida” o más sensible es la película a la
luz. Al igual que en las películas fotográficas se clasifican en velocidades como 100,
200, o 400. Cada duplicado del número ISO indica un duplicado en la velocidad de la
película de manera que cada una de estas películas es el doble de rápida que la
anterior.
Los sensores de imagen también usan números ISO equivalentes. Así como con una
película, un sensor de imagen con un ISO más bajo necesita más luz para una
exposición buena que uno con un ISO más alto. Para capturar mas luz necesita un
tiempo de exposición más largo que puede llevar a imágenes difusas o una abertura
mayor que le dará menos profundidad de campo. Por lo tanto, es mejor un sensor de
imagen con un ISO más alto porque reforzará el congelamiento de imágenes en
movimiento disparando con poca luz. Típicamente, los ISOs van de 100 (bastante lento)
a 3200 o más alto (muy rápido).
Calidad de la imagen: El tamaño de un archivo de imagen depende en parte de la
resolución de la imagen. Cuanto más alta sea la resolución, existen más píxeles para
almacenar de manera que más grande se vuelve el archivo de la imagen. Para hacer
archivos grandes de imagen más pequeños y más manejables la mayoría de las
cámaras los almacenan en un formato llamado JPEG nombre que deriva de su
diseñador, el Joint Photographic Experts Group o Agrupación de Expertos Fotográficos
Asociados. Este formato de archivo no sólo comprime imágenes, también le permite
especificar el grado de compresión de las mismas. Esta es una característica útil porque
hay un compromiso entre la compresión y calidad de la imagen. Menos compresión le
da mejores imágenes para que usted pueda hacer impresiones más grandes, pero
usted no puede guardar tantas imágenes. Más compresión le permite guardar más
imágenes y hace las imágenes mejores para publicarlas una página Web o enviarlas
como archivo adjunto de e-mail. El único problema es que sus impresiones no serán
tan buenas.
Una imagen muy comprimida mostrará un aspecto cuadriculado cuando se agranda
más allá de un cierto punto. Una imagen con menos compresión retiene un aspecto
definido. En lugar de usar compresión, algunas cámaras le permiten cambiar la
resolución como una manera de controlar el tamaño de los archivos de la imagen.
Debido a que usted puede almacenar más imágenes de 640 x 480 en un dispositivo de
almacenamiento que imágenes de 1024 x 768, puede haber ocasiones en que será
preferible cambiar a una resolución más baja y sacrificar la calidad por cantidad.