Vous êtes sur la page 1sur 23

Sensor de imagen

El sensor de imagen es el elemento de una cámara electrónica, tanto de vídeo como


de fotografía estática, que detecta y captura la información que compone la imagen. Esto se
logra al convertir la atenuación de las ondas de luz (cuando estas atraviesan o son reflejadas
por cuerpos) en señales eléctricas. Las ondas capturadas por el sensor pueden ser luz u otro
tipo de radiación electromagnética. Se trata de un chip formado por millones de componentes
sensibles a la luz (fotodiodos o fototransistores) que al ser expuestos capturan las ondas
proyectadas de un objetivo, que compone la imagen. Los sensores de imagen son utilizados
en diversos dispositivos, tales como cámaras digitales, equipos médicos y equipos de visión
nocturna.

Un sensor de imagen comúnmente se asocia a las cámaras fotográficas que tenemos


hoy en día, esta asociación no está muy lejos de la realidad puesto que qué es la
principal característica de estos sensores es detectar o plasmar una imagen o momento
(alguna corriente eléctrica, la emisión de un diodo láser, etc).
Principios de operación de los sensores de imagen
Podemos definir al sensor de imagen como una matriz de elementos fotosensibles, este
es capaz de convertir la luz que capta en señales eléctricas que posteriormente pasaran
por un proceso de análisis, reconversión, representación y almacenamiento, en el
apartado de representación se tomara en cuenta si hablamos de un sensor analogico o
digital ya que el patrón puede camboiar dependiendo del tipo de entrada y salida que
posea el sensor.

En los sensores analógicos: Nos encontraremos con una señal de barrido o escaneo
En los sensores digitales: Nos encontraremos con un muestreo y posteriormente una
conversión numérica de los valores que se tengan de luminosidad.
Tras finalizar el proceso de almacenamiento (de la señal ya convertida), viene el
proceso de representación, esto se lleva acabo mediante un patrón el cual intenta
reconstruir la imagen tomada inicialmente, en las cámaras fotográficas que poseen una
pantalla se puede ver como la imagen es reconstruida y mostrada, la pantalla funciona
como una matriz constituida de pixeles, cada pixel muestra un patrón de color diferente
para intentar igualar la imagen original (en realidad lo que intentan igualar los pixeles
es la luz que insidio en el sensor).

En el caso de los sensores ópticos utilizados para detectar señales luminosas (fibras
ópticas, láseres, etc), el procedimiento es parecido, sin embargo las señales no se
reconstruyen como una imagen y su único fin es el de detectar fallas en el proceso de
recepción o transmisión de datos.

Funcionamiento

El sensor de imágenes funciona con el mismo principio que la película fotográfica, transforma
la luz en imagen. El sensor está constituido por células fotovoltaicas que miden la
intensidad de la luz y su color. Esta intensidad luminosa luego se transforma en
corriente eléctrica. Cada punto del sensor, que compone una parte de un píxel, registra
la intensidad luminosa para producir una imagen.
El sensor de imágenes está compuesto por dos elementos superpuestos: el primero está
compuesto por células fotosensibles, el segundo es el dispositivo de transferencia de carga.
Para restituir el color, cada célula fotosensible posee 3 filtros: un rojo, un azul y un verde.
Cada filtro sólo es receptivo a un color.

Clasificación de los sensores ópticos o de


imagen

por Luis 21 agosto, 2017 Optoelectrónica

Los detectores analizados tienen una característica en común; integran en el espacio y


en el tiempo la cantidad de luz que incide en ellos. Por ejemplo, si un haz luminoso de
flujo radiante dado incide en una pequeña área de la superficie de fotodiodo 6.8 (a)
entonces producirá la misma respuesta que el haz de igual flujo que cubre toda el área
del diodo 6.8 (B).

Figura 6.8: Acoplamiento


de luz en el detector.
Sin embargo, al saturar con luz el detector, producirá una respuesta proporcional al flujo
radiante por unidad de área del detector. Al mover el detector a través del campo
luminoso se produce una respuesta que varia con la irradiación de punto a punto de
punto incidente.

Detectores por formación de imagen: En las aplicaciones de la optoelectrónica es


imprescindible preservar cualquier carácter espacial que pudiera tener la onda de luz.
Los de detectores con la que se logra lo anterior se denominan detectores por formación
de imagen, de tales detectores, quizás el más conocido, de mayor uso y más devaluado
sea el de la emulsión fotográfica común, donde cada grupo de granos de aluros de
Planta que integran la emulsión responderá por separado a la integración de la luz
incidente. La característica mas importante de esta película fotográfica es esta
permanencia de registro, otras características son sus altas capacidades de resolución
sobre un amplio intervalo espectral, así como su bajo costo, en contra de lo anterior es
necesario ponderar su bajo intervalo dinámico, no linealidad y el requisito del
procesamiento húmedo.
Tubos de cámara: Desde los principios de la exploración electrónica se han diseñado
muchos tubos de cámaras como sensores de imagen , algunos mas adecuados que
otros para una aplicación particular, tal como su uso en el estudio
transmisión exteriores , etc., pero de ellos los mas ampliamente usados en nuestros
años son el iconoscopio , el orthicon de imagen y el vidicon, básicamente la televisión
usa sensores de imagen como los anteriores, para convertir imágenes fotónicas, las
cuales han sido enfocadas por lentes hacia una superficie fotosensible, dicha superficie
puede ser de tipo fotoemisivas, fotovoltaicas o fotoconductivas. (Las superficies
fotoemisivas desprenden electrones, las fotovoltaicas muestran diferencias de
potencial, y las fotoconductivas varían su resistencia) Estas imágenes electrónicas se
reconvierten a imágenes luminosas visibles que un observador mira en forma directa o
remota. Mientras que las imágenes transmitidas están en la región visible, las imágenes
de entrada pueden estar formadas en cualquier banda espectral del ultravioleta lejano
al infrarrojo. En sentido más amplio, estos sensores de imagen deben ser
llamados convertidores de imagen. Uno de los primeros tubos para cámaras con un
blanco de ganancia de almacenamiento fue el ORTHICON de imagen, mas sus tubos
para transmisión en estudio bajo condiciones de iluminación, entre sus características
se mencionan:

 Utiliza superficies fotoconductiva


 Sensibilidad moderadamente alta
 Mecanismo de ganancia de prealmacenamiento de imagen electrónica
 Muy baja perdida de preamplificación
 Elimina perdidas de escena a bajos niveles de iluminación.

El ISOCON de imagen fue otro tubo basado en el IO.


 Alta ganancia de prealmacenamiento.
 Elimina las perdidas de escena a bajos niveles de iluminación.
 Mejor sensibilidad.
 Enfocan la imagen dando como resultado imágenes de alta fidelidad geométrica y
uniformidad.

El VIDICON: Es simple, con ganancia de prealmacenamiento de imagen, la mayoría de


los VIDICON emplea superficie, fotoconductiva o fotovoltaica consistiendo de una
materia tal como trisulfuro de antimonio, oxido de Plomo o Silicón. La eficiencia cuántica
de tales materiales pueden ser muy altos pero no mayores que la unidad cuando se
usan en aplicaciones de imagen. El VIDICON fue de baja sensitividad debido a pérdidas
generadas en el proceso de lectura y retardo de movimiento, por lo tanto sus
aplicaciones se han restringido para niveles de luz de día. En la figura 6.9 se indican
las partes principales de un tubo VIDICON para cámaras cuyo funcionamiento es el
siguiente:
Figura 6.9 Construcción de un tubo vidicon
La envolvente del tubo de cámara de vidicon esta cerrada en un extremo por una
ventana óptica plana, transparente, hecha de vidrio, que esta recubierta en su superficie
inferior con una película igualmente transparente de material conductor, esta película
forma la placa de señal, que esta conectada eléctricamente a un electrodo de tipo anular
que la circunda y que se proyecta de manera ligera alrededor del exterior del tubo. La
superficie interna de esta placa de señal (la que ve hacia el cañón) esta recubierta de
una película delgada de material fotoconductor (trisulfuro de antimonio) que forma el
blanco sensible a la luz sobre el cual se va a crear la imagen de carga.

La malla del blanco fotoconductivo tiene dos funciones: La primera es proteger al


blanco fotoconductivo del bombardeo por iones negativos producidos en el cañón
electrónico, la segunda función es cuando no hay luz en la escena incidiendo en el
blanco fotoconductivo, vea la figura 6.10, en estas condiciones se explora con un haz
electrónico, el blanco fotoconductivo que es acelerado en el ánodo de pared (200-300
v) y que al llegar a la malla se desaceleran por encontrarse con un voltaje positivo
mucho menor (+35v) sobre el blanco y llevarla a cero. En estas condiciones la placa de
señal y el blanco fotoconductivo se comportan como un aislante.
Figura
3.10: Exploración del blanco fotoconductivo sin luz incidente
Cuando la luz de la escena que se va a televisar se enfoca sobre la ventana optica del
tubo e incide en el blanco mas próximo a la escena. Este efecto de la luz incidente
disminuye la resistencia del recubrimiento fotoconductivo del blanco en cantidades
correspondientes a la cantidad tonal de la escena, como se indica en la figura 6.11.

Esto quiere decir que la resistencia disminuye de acuerdo con la intensidad de la luz
incidente, formándose patrones de cargas positivas sobre el lado de exploración del
blanco. Las áreas mas positivas corresponden a las áreas mas brillantes de la escena
que se filma. La imagen de carga que aparece sobre el blanco se explora entonces por
el haz electrónico de baja velocidad, de la manera usual; y los electrones del haz
neutralizan las cargas positivas que tocan, siempre que esto sucede, los potenciales
positivos variables de la imagen de carga se elevan rápidamente a potenciales de tierra.
Figura 6.11: Neutralización de cargas por el haz
Los electrones que no se necesitan para neutralizacion se regresan hacia el cátodo y
no juegan ningún papel en la acción, cuando los electrones del haz encuentran grandes
áreas densas de carga sobre el lado de exploración del blanco, se requerirán mas de
estos electrones para neutralización, de lo que se requerirá en el otro caso. Sin embargo
cualquiera que sea su número, estos electrones neutralizadores fluyen en una poderosa
corriente hacia el blanco, y a través de la placa de señal y del electrodo anular que lo
rodea y de ahí pasa por el resistor de carga de señal, estableciéndose una corriente
cuya dirección se indica en la figura 6.12.

Figura 6.12:
Corriente de electrones no útiles en la neutralización
El vidcon fue simple, muy pequeño y barato, lo que le permitio tener una amplia
aceptacion por mucho tiempo. Una desventaja del tubo VIDICON es su lentitud de
respuesta a cambios repentinos en la iluminacion. Esto se debe en parte al tiempo
que se requiere para una imagen de carga sobre el blanco para volver a su estado de
aislamiento completo despues de que la luz que ha reducido su resistividad se ha
removido.
Dispositivos de imagen de estado Sólido: Existen varias propuestas de dispositivos
de estado sólido para la conversión de luz incidente en imágenes manipulables
electrónicamente, los más importantes de estos tipos son:
1. Arreglo de Fotodiodos.
2. Dispositivos de inyección de carga. (CIDs)
3. Dispositivo de acoplamiento de transferencia de carga (CCDs)

El futuro de la detección por formación de imágenes en tiempo real radica en la


formación actual de estos formadores de imagen de estado sólido que están
comenzando a dominar el mercado industrial. Las cámaras basadas en tales
formadores ofrecen alta resolución, alta sensibilidad, tamaño pequeño, bajo consumo
de energía y fácil vinculación para el control por computadora y manejo de datos. Tales
cámaras están siendo favorecidas rápidamente en cuanto al procesamiento de
imágenes, visión a través de maquinas, supervisión y control industrial.

Arreglo de fotodiododos: Un método para la formación de imágenes de estado solidó


es fabricar muchos fotodiodos delgados juntos en una disposición lineal o
bidimensional. La luz captada por el objetivo de una cámara digital, se proyecta sobre
un detector o sensor sólido de imagen, constituido por cientos de miles de receptores
fotosensibles (fotodiodos). La luz incidente produce en cada fotodiodo una débil señal
eléctrica que es amplificada y convertida en información digital (ADC) como cadenas
de dígitos binarios que se representan finalmente como cuadraditos de color
individualizados llamados píxeles. Si embargo, las dificultades de fabricación y las bajas
densidades de encapsulamiento han conducido al desarrollo de otros dispositivos que
cumplen la misma función.
CID (Dispositivos de inyección de carga): En este tipo de sensor cada pixel tiene dos
electrodos cubriendo substrato de silicona. Un electrodo es conectado a una línea
común para las filas y el otro electrodo es conectado a la línea común de las columnas.
Si los dos electrodos se mantienen con carga positiva, entonces los electrones van a
acumular durante la exposición de la silicona a la luz, su tiempo de integración. Cuando
un electrodo es llevado a carga negativa, entonces todos los electrones acumulados en
la silicona por debajo de ello se migran al electrodo todavía positivo. Este movimiento
de electrones provoca un pulso de corriente en los circuitos conectados al segundo
electrodo. Los electrones pueden redistribuirse por debajo de los dos electrodos sin
perder su carga, por lo que este proceso es una lectura no destructiva. Cuando los dos
electrodos son llevados negativos los electrones son vaciados o inyectados al substrato,
nuevamente produciendo un pulso de corriente en los circuitos anexos, y así
preparando el sensor para una nueva integración.
Anuncio
El CID es mucho menos sensible que el CCD, pero tiene otras ventajas importantes.
Los CID’s son menos susceptibles a floración y daños por radiación de lo que son los
CCD’s. Una ventaja particular es poder evaluar el grado de exposición de la imagen
mientras se está realizando su integración. Un pixel dañado de un CID no va a afectar
toda una línea tal como puede en un CCD.

CCD (Dispositivo de acoplamiento de transferencia de carga): Como su nombre


lo indica el CCD conduce su información mediante la transferencia eficiente de
paquetes de carga eléctrica a través del dispositivo. Las ventajas ofrecidas por la
tecnología CCD son el incremento en la densidad de encapsulamiento con respecto a
la del arreglo del fotodiodo, la libertad en cuanto al retrazo y a la fluorescencia y la
sensibilidad a bajos niveles de luz. Tal vez mas significativa sea la libertad de
distorsión geométrica de la imagen, que es una seria limitación de las cámaras
VIDICON. Gran parte del futuro de la formación de imágenes de estado sólido
depende de este dispositivo y, por consiguiente, se analizará con más detalle.
Un dispositivo de carga acoplada (CCD) recibe su nombre por la manera en que las
cargas son leídas en sus píxeles después de una exposición, las cargas en la primera
fila se transfieren a un lugar en el sensor llamado registro de lectura. De allí, las
señales se alimentan a un amplificador y luego a un conversor analógico-digital. Una
vez que la fila se ha leído, sus cargas en la fila de registro de lectura se borran, la fila
entera entra, y todas las filas por encima se mueven abajo una fila. Las cargas en
cada fila son “acopladas” a aquéllas en la fila de arriba para que cuando una baje, la
próxima se mueva abajo para llenar su viejo espacio. De esta manera, cada fila puede
ser una fila de lectura por vez. El CCD cambia una fila entera por vez al registro de
lectura. El registro de lectura luego envía sólo un píxel por vez al amplificador de
salida observe la figura 6.13.

Figura 6.13: Lectura


en un de un dispositivo de transferencia de carga
El CCD debe acometer cuatro tareas para generar una imagen:

1. Generar cargas
2. Recolectar cargas
3. Transferir cargas
4. Detectar cargas

La primera tarea se basa en el efecto fotoeléctrico: los fotones al chocar con los diodos
liberan electrones. En la segunda tarea, los fotoelectrones son recogidos en el punto de
recogida o píxel más cercano. Los puntos de recogida están definidos por un conjunto
de electrodos, llamados puertas. La tercera operación, transferencia de cargas, se logra
manipulando el voltaje en las puertas de manera sistemática de forma que la señal de
electrones se mueva verticalmente de un píxel al siguiente como si fuera una cinta
transportadora. Al final de cada columna hay un registro horizontal de píxeles. Este
registro recoge una línea cada vez y entonces transporta los paquetes de carga en serie
a un chip amplificador. El paso final, detectar cargas, se realiza cuando los paquetes
individuales de carga son convertidos en señales de voltaje de salida. El voltaje de cada
píxel puede ser amplificado fuera del chip, codificado digitalmente y almacenado en un
ordenador para ser reconstruido y visualizado.

Dispositivo Básico de Transferencia de Carga (CCD): La celda básica es un


mejoramiento al modelo MOS que se comporta como un capacitor. El dispositivo esta
formado por difusión de impurezas (del grupo III o V) en el Silicio puro (del grupo IV)
esto crea un dispositivo semiconductor sobre el cual un aislador (típicamente Óxido de
Silicio) se coloca, como se indica en la figura 6.14. Bajo estas condiciones los electrones
(portadores minoritarios) se depositan debajo del aislador, puesto que en este puesto
se encuentra el electrodo con polaridad positiva, creando paquetes o posos de carga.

Figura 6.14: Elemento


básico de un sensor CCD
Cuando a este dispositivo se le hace incidir luz se crean paquetes o pozos de carga
que dependerán de la intensidad luminosa. Como podemos observar cuando incide luz
en material fotosensible se generan pares de electrones. Merece la pena señalar que
la carga acumulada puede almacenarse durante varias horas sin desintegración
apreciable. La eficiencia del proceso de transferencia de carga tiene un valor
extraordinario de 99.999 %.

Para que esta imagen electrónica formada se mueva, se requiere de una adecuada
polarización secuencial de los electrodos de las celdas unitarias que conforman el área
sensible. Como se mencionó, la lectura se lleva a cabo mediante la transferencia de
paquetes de carga adyacentes, entonces es posible conectar cada detector del área
sensible con un reloj de pulso por separado y sincronizado para lograr la transferencia,
sin embargo en la practica, los electrodos se agrupan en conjuntos de 3 o 4, a dichos
conjuntos se les conoce como fase (figura 6.15) de igual forma, casa fase se conecta a
un voltaje sincronizado por separado. Un sistema de sincronización trifásico permite
que la carga sea movida por completo a través del dispositivo como se muestra en la
figura 6.15, para la transferencia en línea, son posibles velocidades de reloj hasta 10
MHz.

La sencilla disposición de formación de imágenes en línea , según se acaba de


presentar, no es idónea para los detectores por área, debido al tiempo requerido para
transferir la carga a través del dispositivo. Para los detectores por área los píxeles
individuales están dispuestos en una matriz de M x N elementos. Los paquetes de carga
son conmutados a una serie de almacenes y lecturas secuenciales mientras se graba
una segunda imagen. Los formadores por área deben ser capaces de transferir datos
a velocidades compatibles con los sistemas convencionales.

Figura 6.15: Arreglo de un sistema de sincronización trifásico


Existen dos formas principales en las que es posible organizar información en una
pastilla CCD.

1. CCD de transferencia de cuadros.


2. CCD de transferencia de interlineas.
CCD de transferencia de cuadros. En la transferencia de cuadros, el arreglo se divide
en columnas verticales entre las cuales hay detecciones de canal. Los electrodos están
colocados en el arreglo perpendicular a las columnas. El arreglo es dividido en dos
secciones, una región de almacenamiento protegida contra la luz y una región
ópticamente sensible, como se ve en la figura 6.16.

Figura
6.16: Arreglo de CCD de transferencia de cuadros a dos fases con entrelace
El principio básico de operación es que toda el área sensible es expuesta a la luz y
luego la carga desarrollada es transferida al área de almacenamiento para su lectura.
Al final del periodo de integración toda la imagen foto convertida se transfiere muy
rápidamente hacia el área de almacenamiento, la cual es idéntica al área de imagen
pero protegida de la luz. Durante el siguiente periodo de integración, la imagen es leída
por el registro horizontal secuencialmente hacia la señal de video. Esto es necesario
para las altas velocidades de lectura requeridas en los sistemas de T.V y solo entonces
debido al tiempo necesario para la lectura y no para la transferencia de datos.

CCD de transferencia de interlineas: Un CCD de transferencia de interlineas típico es


un arreglo donde cada una de las columnas verticales consisten de un arreglo en línea
a dos fases de celdas de imagen y entre columnas están las salidas analógicas o
registros de transporte de carga, los cuales están protegidos de la luz figura 6.17. Ya
que el área protegida de la luz es aproximadamente igual al área sensible a la luz, el
área de la fotosuperficie efectiva es aproximadamente la mitad del área tomada o
filmada. Suponiendo un tiempo de cuadro de 1/30 s, se ha encontrado que el tiempo de
integración para ambos campos 1 y 2 es de 1/30 s. En el primer campo, los
fotoelectrones son recolectados en 1/30 s y rápidamente transferidos hacia el registro
de transporte protegido de la luz. Esta se imagen se transporta luego, una línea a la
vez, hacia el registro de transporte de carga horizontal. La parte de la imagen en el
registro de transporte vertical es completamente leída hacia el registro horizontal en un
tiempo de cuadro de 1/60 s. Después de que el primer campo es leído, el segundo
campo, el cual ha estado integrando la imagen en 1/30 s, se transfiere hacia el registro
de transporte vertical y leída en 1/60 s. Como resultado, el tiempo de integración para
ambos campos es igual a un tiempo de cuadro de 1/30 s. Ya que solamente la mitad
de la imagen de escena se convierte en carga electrónica, es común en
muchas aplicaciones usar dos arreglos con la imagen de escena desfasado por un
espejo medio plateado a 45 grados para que el segundo arreglo llene el espacio del
primer arreglo.

Figura 6.17:
CCD de arreglo por interlinea
Sensores de imagen CMOS: Los sensores de imagen se manufacturan en la industrial
en forma de fundición de obleas o fabs en hornos cerrados que contienen un producto
químico y gaseoso, la elevada temperatura hace que los átomos de gas se difundan y
penetren en la oblea de silicio , cambiando las características eléctricas del mismo ,
donde luego usando técnicas de fotograbado y mediante exposición a los rayos
ultravioleta se graban los circuitos diminutos y dispositivos sobre chips de silicio . El
problema más grande con los CCDs es que no hay suficiente economía de escala. Los
mismos se crean fundiciones usando procesos caros y especializados que sólo pueden
usarse para hacer otros CCDs. Entretanto, más y mayores fundiciones en otras
industrias están usando un proceso diferente llamado Metal-Oxido-Semiconductor con
transistores complementarios (CMOS) para hacer millones de chips para los
procesadores de computadoras y memorias. El CMOS es por mucho el proceso más
común y de más alto rendimiento productivo en el proceso de fabricación de chips en
el mundo. Los últimos procesadores de CMOS, como el Pentium II, contienen casi 10
millones de elementos activos. Usando este mismo proceso y el mismo equipo para
fabricar los sensores de imagen CMOS se reduce dramáticamente los costos , porque
se extienden los costos fijos de la planta sobre un número mucho más grande de
dispositivos. Como resultado de estas economías de escala, el costo de fabricar una
oblea de CMOS es un tercio del el costo de fabricar una oblea similar que usa un
proceso de CCD especializado. Se bajan aun mas los costos porque los sensores de
imagen CMOS pueden tener circuitos de proceso creados en el mismo chip. Cuando
se usan CCDs, estos circuitos de proceso deben estar en chips separados.
Mientras que en el CCD toda la información es transmitida a través de las mismas
celdas vecinas hacia sus bordes, donde la información es recolectada, el CMOS tiene
capacidad de transmisión en cada una de las celdas. Esto evita el afecto de “blooming”
o de contaminación entre pixeles vecinos cuando hay situaciones de sobre exposición
y, además, permite mejores opciones de interpolación de la imagen.

El interés en el CMOS por parte de la industria radica en que, a diferencia de la


fabricación de CCDs, que debe hacerse en plantas especializadas a partir de materias
primas no comunes, los CMOS pueden ser fabricados en las líneas de producción
normales de semiconductores a partir de materias primas muy baratas y de uso
generalizado.

Teniendo en cuenta entonces que la tecnología de fabricación del CMOS es la misma


que la de los microprocesadores, tendrá que haber una baja de precios en cuanto la
tecnología CMOS se adapte de manera eficiente a las cámaras digitales. Por las
características de su fabricación, los CMOS son también más fáciles de interconectar a
nuevos sistemas que los CCD. Porque en realidad podemos considerar al CMOS como
un microprocesador. Esto quiere decir que los CMOS son una alternativa flexible para
los fabricantes, y les permitirán nuevos desarrollos. Las versiones iniciales de sensores
de imagen CMOS estaban plagadas con problemas ruido, y eran usadas principalmente
en cámaras económicas. Sin embargo, están haciéndose grandes adelantos y los
sensores de imagen CMOS están alcanzando una calidad comparable a los CCDs .

Aplicaciones de los sensores ópticos o de


imagen

por Luis 28 agosto, 2017 Optoelectrónica

Nota: En este artículo también se toca el tema “Funcionamiento de una cámara de


exploración“.
Todas las cámaras de película son simplemente cajas oscuras en las que usted puede
insertar el tipo de película que quiera. Es la película que usted escoge la que da colores
distintivos, tonos, granulado a las fotografías. Si usted piensa que una película da
imágenes que son demasiado azules o rojas, usted puede cambiar a otra película. Con
las cámaras digitales, la “película” es permanentemente parte de la cámara, por lo tanto
comprar una cámara digital es en parte como seleccionar una película que se va a usar,
como la película, sensores de imagen diferentes dan colores diferentes.
La fotografía digital se basa en la captura de una imagen, su almacenamiento en un
fichero que se mantendrá inmutable a lo largo del tiempo, con lo que la calidad de la
imagen no disminuirá nunca. La reproducción de esa imagen almacenada en un soporte
digital puede ser duplicada tantas veces como se desee, produciendo siempre una
copia con la misma calidad que la imagen original.
Para su reproducción en otros soportes, se utilizan las impresoras convencionales de
computación, u otros mecanismos de reproducción más sofisticados, dependiendo la
calidad final alcanzada, de la característica de impresión del dispositivo empleado.
El elemento básico que determina las características de una cámara fotográfica digital
es el sensor, dispositivo electrónico-digital que reemplaza a la película, es una matriz
de pequeñas celdas perfectamente alineadas en filas y/o columnas. Cada una de
esas celdas es un elemento fotosensible microscópico, con la capacidad de producir
impulsos eléctricos de distinta intensidad en función de la cantidad de luz que recibe.
Cada celda es, entonces, como un pequeño “fotómetro” que producirá un flujo eléctrico
variable sobre la base de cantidad de luz que incida en su superficie (figura 6.18).

Figura 6.18:
Componentes principales de una cámara digital

La información que entrega el sensor consiste en diferentes niveles de corriente


eléctrica para cada celda. Esta información es procesada por un DAC (Digital-Analog
Converter o Conversor Analógico-Digital), donde la señal eléctrica es convertida en
datos digitales. Aquí es donde tiene lugar la interpolación. Luego esos datos digitales
son archivados en la memoria de la cámara o enviados a la computadora, finalmente
son representados como cuadraditos de color individualizados llamados píxeles.
Píxel: Podemos definir el píxel (del inglés “picture element”) como el elemento más
pequeño que forma la imagen. Para hacerse una idea visual de su naturaleza, la
comparación con los mosaicos formados por pequeñas piedras de colores que
conforman una imagen es siempre un ejemplo muy recurrente, vea la figura 6.19. Así,
a diferencia de las imágenes vectoriales, las imágenes “rasterizadas” o mapas de bits
(generadas a través de un dispositivo digital, como una cámara) están formadas por
píxeles. El hecho de que no los percibamos como unidades independientes sino como
un conjunto se debe a una limitación de nuestra visión que nos da esa sensación de
continuidad. Sólo es cuestión de aproximarse lo suficiente o ampliar la imagen para que
podamos llegar a percibir cada uno de estos elementos cuadrados.

Figura 6.19:
Imagen con pequeñas piedras que son denominadas píxeles

Resolución del sensor de imagen: Como usted ha visto, la resolución de la imagen


es una manera de expresar cuan definida o detallada las imágenes son. Las cámaras
de menor tecnología tienen resoluciones actualmente alrededor de 640 x 480 píxeles
(a veces llamada resolución VGA), aunque este número constantemente se mueve
hacia arriba. Cámaras mejores, aquéllas con 1 millón o más de píxeles se llaman
cámaras megapíixel y aquéllas cámaras con más de 2 millones se llaman cámaras
multi-megapíxel.
Las cámaras digitales profesionales más caras le dan aproximadamente 6 millones de
píxeles. Aunque impresionante, incluso estas resoluciones no igualan los estimados 20
millones o más de píxeles en la cámara tradicional de película de 35 mm y los 120
millones en la resolución del ojo humano.

El término “resolución” se introdujo en el mundo de las computadoras como una


manera de describir monitores o pantallas. En los primeros días, una pantalla tendría
una resolución CGA o VGA. Más tarde se introdujeron otros nombres para describir
pantallas con mayor definición. Los términos fueron usados para describir el número de
píxeles en la pantalla. Por ejemplo, la pantalla VGA tenía 640 píxeles a lo ancho de la
pantalla y 480 hacia abajo (640 x 480). Nadie se preocupaba por el uso del término en
el momento que fue introducido.
Sólo cuando la fotografía se volvió digital fue que otro grupo de personas entró en
escena con un uso totalmente diferente del término. A los fotógrafos, o cualquiera en la
actividad óptica, la resolución describe la habilidad de un dispositivo para discernir
líneas como aquéllas encontradas en una carta de prueba. Como usted podría esperar,
igual que con todas las otras cosas, los costos se elevan con la resolución de una
cámara. La mayor resolución también crea otros problemas, por ejemplo, más píxeles
significa archivos de imagen más grandes. No sólo los archivos más grandes son más
difíciles de guardar, sino que también son más difíciles de editar, enviar por e-mail, y
publicar en la Web.

Resolución óptica e interpolada: se debe tener en cuenta las demandas sobre la


resolución de las cámaras y escáneres porque hay dos tipos de resolución : óptica e
interpolada. La resolución óptica de una cámara o escáner es un número absoluto
porque los píxeles de un sensor de imagen o fotoelementos son dispositivos físicos
que pueden contarse. Para mejorar la resolución en ciertos límites respetados, la
resolución óptica puede aumentarse usando software. Este proceso, llamado resolución
interpolada, agrega píxeles a la imagen para aumentar el número total de los mismos.
Para hacer esto, el software evalúa aquellos píxeles que rodean cada nuevo píxel para
determinar de qué color debería ser el mismo. Por ejemplo, si todos los píxeles
alrededor de un píxel recientemente insertados son rojos, los nuevos píxeles se harán
rojos. Lo que es importante tener presente es que la resolución interpolada no agrega
nueva información a la imagen, sólo agrega píxeles y hace el archivo más grande. Esta
misma cosa puede hacerse en un programa de edición de fotografía como Photoshop
al hacer un nuevo muestro de la imagen.
Anuncio

De modo que el tamaño del sensor es tan importante como la tecnología usada para la
interpolación de la imagen. En algunas cámaras, este procesado de la imagen puede
ser programado -en parte- por el propio usuario, especificando diferentes parámetros
de nitidez, tono, contraste, y calidad final.
Profundidad de color: La resolución no es el único factor que determina la calidad de
las imágenes. Igualmente importante es el color, cuando usted observa una escena
natural, o una impresión de color fotográfica bien hecha, se pueden distinguir millones
de colores. Las imágenes digitales pueden aproximar este realismo de color, pero si las
mismas pueden hacerlo en su sistema depende de sus capacidades y sus funciones.
El número de colores en una imagen se identifica como su profundidad de
color, profundidad de píxeles, o profundidad de bit.
La PCs más viejas estaban limitadas a monitores que mostraban sólo 16 o 256 colores.
Sin embargo, casi todos los nuevos sistemas pueden mostrar lo que se llama Color
Verdadero de 32-bits (32-bit True Color). Se llama Color Verdadero porque estos
sistemas muestran 16 millones de colores, casi el número que el ojo humano puede
distinguir. ¿Por qué se necesitan 24 bits para conseguir 16 millones de colores? Es
aritmética simple. Para calcular cuántos colores diferentes pueden capturarse o
pueden ser vistos, simplemente eleve el número 2 a la potencia del número de bits
usados para grabar o visualizar la imagen. Por ejemplo, 8-bits le da 256 colores porque
28=256. Vea la tabla 6.1 y observe las posibilidades.

Algunas cámaras digitales (y escáneres) usan a menudo 30 o más bits por pixel y las
aplicaciones profesionales requieren 36-bit de profundidad de color, un nivel sólo
logrado por cámaras digitales profesional elevadas. (La Canon Pro70 fue la primera
cámara del consumo de 30-bit.) Estos bits extras no se usan para generar colores que
sean luego visualizados. Son usados para mejorar el color en la imagen cuando se
procesa hasta su forma final de 24-bits y luego son descartados.
Sensibilidad: Un número ISO (International Organization for Standardization u
Organización Internacional para la Estandarización) que aparece en el paquete de la
película especifica la velocidad, o sensibilidad, de una película basada en proceso de
plata. Cuanto más alto sea el número, “más rápida” o más sensible es la película a la
luz. Al igual que en las películas fotográficas se clasifican en velocidades como 100,
200, o 400. Cada duplicado del número ISO indica un duplicado en la velocidad de la
película de manera que cada una de estas películas es el doble de rápida que la
anterior.
Los sensores de imagen también usan números ISO equivalentes. Así como con una
película, un sensor de imagen con un ISO más bajo necesita más luz para una
exposición buena que uno con un ISO más alto. Para capturar mas luz necesita un
tiempo de exposición más largo que puede llevar a imágenes difusas o una abertura
mayor que le dará menos profundidad de campo. Por lo tanto, es mejor un sensor de
imagen con un ISO más alto porque reforzará el congelamiento de imágenes en
movimiento disparando con poca luz. Típicamente, los ISOs van de 100 (bastante lento)
a 3200 o más alto (muy rápido).
Calidad de la imagen: El tamaño de un archivo de imagen depende en parte de la
resolución de la imagen. Cuanto más alta sea la resolución, existen más píxeles para
almacenar de manera que más grande se vuelve el archivo de la imagen. Para hacer
archivos grandes de imagen más pequeños y más manejables la mayoría de las
cámaras los almacenan en un formato llamado JPEG nombre que deriva de su
diseñador, el Joint Photographic Experts Group o Agrupación de Expertos Fotográficos
Asociados. Este formato de archivo no sólo comprime imágenes, también le permite
especificar el grado de compresión de las mismas. Esta es una característica útil porque
hay un compromiso entre la compresión y calidad de la imagen. Menos compresión le
da mejores imágenes para que usted pueda hacer impresiones más grandes, pero
usted no puede guardar tantas imágenes. Más compresión le permite guardar más
imágenes y hace las imágenes mejores para publicarlas una página Web o enviarlas
como archivo adjunto de e-mail. El único problema es que sus impresiones no serán
tan buenas.
Una imagen muy comprimida mostrará un aspecto cuadriculado cuando se agranda
más allá de un cierto punto. Una imagen con menos compresión retiene un aspecto
definido. En lugar de usar compresión, algunas cámaras le permiten cambiar la
resolución como una manera de controlar el tamaño de los archivos de la imagen.
Debido a que usted puede almacenar más imágenes de 640 x 480 en un dispositivo de
almacenamiento que imágenes de 1024 x 768, puede haber ocasiones en que será
preferible cambiar a una resolución más baja y sacrificar la calidad por cantidad.

Vous aimerez peut-être aussi