Académique Documents
Professionnel Documents
Culture Documents
Parte 1
Las cámaras duales están de moda. Los fabricantes de smartphones se apoyan
en ellas para ofrecer nuevos argumentos con lo que convencer a sus
compradores. El Huawei P9 con su doble óptica firmada por Leica o el más
reciente iPhone 7 Plus con dos focales distintas –que permiten acercar la
fotografía de “retrato” a la fotografía móvil– son dos de las apuestas más
persuasivas, pero no son las únicas, ni las primeras.
El iPhone 7 Plus ha supuesto el despegue definitivo de las cámaras duales en los smartphones © Apple
CAMARAS DUALES
El declive de las cámaras compactas –al menos las más sencillas– es un claro
indicador del uso de las cámaras en los smartphones. A pesar de ello, los
fabricantes de teléfonos móviles deben lidiar con las limitaciones de
espacio inherentes a sus dispositivos. Mientras en las cámaras convencionales –
incluso en una compacta– hay espacio para un sensor de generosas
dimensiones o un objetivo con un esquema óptico considerable,
los smartphones se encuentran ante una disyuntiva: conseguir una cámara de
calidad sin aumentar las dimensiones físicas del teléfono.
Los problemas de espacio no juegan a favor de las limitaciones físicas inherentes a la óptica ©
Huawei
Un poco de historia
A pesar del reciente interés por las cámaras duales, su historia no es tan
nueva. Smartphones como el LG Optimus 3D o el HTC Evo 3D ya incorporaron
dos cámaras en sus paneles posteriores, pero con otro propósito al usado hoy
en día, tal como deja entrever claramente su nombre. Ambos modelos,
de principios de 2011, disponían de dos sensores de 5 Mpx para realizar fotos y
vídeos 3D, que luego podían reproducir en sus pantallas 3D estereoscópicas, sin
la ayuda de lentes especiales.
El HTC Evo 3D intentó seguir la senda abierta con el LG pero sin cosechar el éxito esperado © HTC
Dos años más tarde, el HTC One se convertía en el teléfono móvil más
fotográfico del MWC 2013. Disponía solo de una única cámara, pero una muy
especial, dotada de un sensor con unos autodenominados ultrapíxeles. Mientras
que los demás fabricantes optaban por sensores de mayor resolución, HTC
proponía un sensor de apenas 4 Mpx. pero con unos píxeles –fotodiodos–
mucho más grandes –4 µm– lo que, sumado a una abertura máxima más
luminosa,prometía redundar en una cámara de mayor calidad.
Ultrapíxel © HTC
Ultrapíxel © HTC
Sin embargo, la cámara dual llegaría a principios de 2014 con el HTC One M8,
que incorporaba una cámara ultrapíxel de 4 Mpx como la del primer HTC One
(M7), pero esta vez apoyada por una cámara secundaria con un sensor de 2
Mpx encargada de capturar datos extra que sirvieran para trabajar con el
control de la profundidad de campo.
El HTC One M8 incorporaba dos cámaras para jugar con la profundidad de campo © HTC
Sin embargo, los HTC One con sensores de ultrapíxeles, de excelente diseño y
construcción, no llegaron a triunfar. Los 4 Mpx de la cámara principal fueron
percibidos como insuficientes, al no aportar –desde el punto de vista de los
consumidores– una diferencia sustancial respecto los competidores, y ello a
pesar de sus fotocélulas más grandes y su mayor luminosidad.
A pesar de su interesante concepción, los 4 Mpx de la cámara principal del HTC One M8 supusieron un
lastre © HTC
Parte 2
Si bien en sus orígenes, los primeros terminales móviles con cámaras duales se
centraron en el 3D, en la actualidad, los últimos dispositivos anunciados por los
más grandes fabricantes de smartphones se centran en incorporar ópticas con
distintas distancias focales, ya sea de tipo ultra gran angular como el LG G5 o
de tipo teleobjetivo como en el caso del iPhone 7 Plus.
Actualidad
A principios de año, la compañía coreana sorprende con el LG G5 y su concepto
de smartphone modular –no es nuevo–, que incluye además una interesante
cámara dual y que, en este caso, permite escoger entre dos focales distintas.
Se trata de un enfoque diferente al planteado casi dos años atrás, a principios
de 2014, con la cámara dual del HTC M8, que se centraba en utilizar los dos
sensores para jugar con la profundidad de campo y el desenfoque.
El LG G5 permite jugar con dos focales distintas, una de ellas ultra gran angular © LG
Dos meses más tarde, en abril de 2016, Huawei contraataca con su Huawei
P9 y su cámara dual con óptica firmada por Leica; una apuesta seria dentro del
mercado de los smartphones con orientaciones fotográficas pues, en esta
ocasión, se trataba de utilizar ambos módulos de forma conjunta para mejorar
la calidad de imagen.
Más allá de la real participación de Leica –un aspecto que ambas marcas
prefieren no aclarar en exceso en su propio beneficio–, lo más interesante –
siempre desde el punto de vista fotográfico– del Huawei P9 es, a nuestro
entender, la posibilidad de utilizar el modo monocromo, el cual hace un uso
exclusivo del sensor del mismo nombre.
Como ya hizo LG con su G5, el iPhone 7 Plus ofrece dos focales diferentes para
cada uno de sus objetivos. Pero a diferencia de este primero –que añade una
óptica de cobertura extrema– el iPhone incorpora, además de la
óptica angular de 28 mm, un tele-objetivo –muy corto– de 56 mm, para poder
realizar mejorar uno de los aspectos donde los teléfonos móviles suelen ofrecer
peores resultados: el de la fotografía de retrato.
Esta cámara dual no ofrece, sin embargo, ningún “zoom óptico 2x”, como se ha
denominado –incorrectamente– en muchos medios. Se trata de dos objetivos
con dos distancias focales distintas y, por lo tanto, no existe zoom óptico como
tal; el recorrido entre ambas focales se realiza de forma puramente digital. Eso
sí, lo interesante de esta doble óptica de Apple es, como siempre,
su implementación con del software de la compañía, que se centra en la
simplicidad de operación y en su integración con el resto de su funcionalidad.
Imagen tomada con el iPhone 7 Plus; de momento solo es una muestra, pues este “modo retrato” aún no
está disponible para los usuarios © Apple
Parte 3
Lo que empezó como implementaciones propias de cada fabricante –como
el iPhone 7 Plus o el Huawei P9–, parece empezar a democratizarse gracias a la
aparición de soluciones integradas, como el último Qualcomm Clear Sight, que
incorpora un sistema de cámara dual en un módulo independiente. La clave
para ofrecer nuevas funciones –mayor capacidad de desenfoque, mejor calidad
de imagen, “zoom óptico”– es la diversidad aportada por estos dos o más
sensores.
El Clear Sight es una solución “todo en uno” para poder facilitar el acceso a las cámaras duales a
cualquier fabricante de smartphones © Qualcomm
Los sensores monocromáticos –como el del Huawei P9– permiten obtener una imagen con mejor relación
señal a ruido en situaciones de luz escasa
Se trata de una clara apuesta para aportar una solución “todo en uno” con el
objetivo de llevar esta tecnología a un mayor número de fabricantes, del mismo
modo que otras compañías menos conocidas como Core Photonics, dos años
atrás, lo hacía con sus módulos de cámaras duales. En este caso, hablamos de
Qualcomm, un actor de peso en el sector de la fotografía móvil, con lo que
podemos augurar un incremento del uso de este tipo de módulos en los
futuros smartphones.
El Lenovo Hasselblad True Zoom es otra forma de acerca el zoom óptico a los smartphones
Diversidad de información
Efectivamente, usar dos sensores –de idénticas dimensiones, se entiende–
permite tener el doble de superficie fotosensible sin tener que aumentar el
tamaño de las ópticas; usar un único sensor de mayores dimensiones implicaría
un sistema óptico más grande y, por ende, una mayor protuberancia física del
módulo de cámara. Sea como fuere, usar una mayor superficie implica
normalmente más cantidad de información disponible, lo que suele redundar en
Parte 4
Si la clave de las cámaras duales es la diversidad de información aportada por
estas ópticas/sensores extra ¿por qué restringirse solo a dos? En efecto, cuanto
mayor sea el número de ópticas y sensores que dispongamos, más datos
podremos comparar y procesar, y mejor será el resultado final. Pero, además,
abrimos la puerta a campos como la interpretación 3D o la realidad virtual (VR),
gracias a estas cámaras múltiples.
Cámaras múltiples y 3D
Dos es el número mínimo para poder trabajar con diversidad de datos; dos
objetivos y dos sensores permiten explotar la redundancia de información y
mejorar aspectos como la relación señal a ruido, el control de la profundidad de
campo o el rango dinámico. Pero, por supuesto, a mayor número de módulos
implantados, mayor será el (potencial) beneficio.
Las cámaras múltiples son el siguiente paso © Pelican Imaging
Del mismo modo que, años atrás, los primeros smartphones con cámaras
duales –LG Optimus 3D y el HTC Evo 3D– jugaban con la visión estereoscópica,
una de las grandes ventajas de las cámaras múltiples es la posibilidad de
“entender” la profundidad de la imagen de forma inherente. En efecto,
un array de cámaras puede interpretar, mediante el
correspondiente software, el “volumen” de la escena y crear un mapa de
profundidad completo, todo ello gracias a la información aportada por cada una
de las cámaras, distintas y diverssa –esta es la clave– entre sí. Así pues, con las
cámaras múltiples se abren las puertas de la interpretación 3D de forma
natural.
La cámara Lytro Illum permite jugar con la profundidad de campo gracias al “campo de luz”
Es cierto que el éxito de Lytro y sus cámaras “light field” ha sido relativamente
mitigado, en parte por la especificidad de su producto, en parte por
la implementación no demasiado eficiente de esta tecnología –que debe
procesar ingentes cantidades de datos–. Pero gracias a las cámaras duales –y
múltiples– que empiezan a proliferar en los smartphones, la fotografía de
“campo de luz” está recibiendo un nuevo impulso, de gran peso para que la
fotografía computacional avance tanto en el terreno de la fotografía móvil como
en el de la convencional.
Por supuesto, otro asunto muy diferente es la cuestión del coste –y del precio–
pues, como en toda nueva tecnología que irrumpe en el mercado, es necesario
valorar la relación entre estos costes y los beneficios reales que puede aportar.
En parte, dependerá de la madurez del mercado para asimilar los nuevos
productos basados en cámaras múltiples, pero también en la capacidad de las
compañías en ofrecer una solución que sepa aportar un real valor añadido y
que sepa implementarlo de forma transparente y coherente para los usuarios
finales. No se trata tampoco de llegar el primero, sino de hacerlo bien –o, al
menos, mejor que los demás–.
Parte 5
Una de las mayores ventajas aportadas por las cámaras duales con dos
sensores y dos ópticas es la posibilidad de obtener un zoom de mejor calidad
que el digital. Es el caso del iPhone 7 Plus o del Huawei P10, que
ofrecen soluciones equivalentes a un “zoom óptico 2x”. Sin embargo, para
poder alcanzar ampliaciones más grandes, es necesario optar por otro tipo de
alternativas que no impliquen aumentar el grosor del terminal, como la que
encontramos en la presentada recientemente por Oppo y su cámara dual
con zoom 5x.
Oppo mostró, en el pasado MWC 2017, una tecnología de cámara dual con ‘zoom óptico’ © Oppo
Fundada en China, pero con sede en Estados Unidos, Oppo ha crecido a ritmos
inesperados en el mercado chino –el mayor del mundo en cuanto a usuarios– y
si bien aún no se codea con otros fabricantes como Huawei o Samsung en
nuestro país, parece estar dispuesta a no quedarse atrás en cuanto a
innovaciones se refiere. En esta línea, ha decidido recuperar una idea ya
aplicada en cámaras fotográficas e introducirla ahora en el campo de la
fotografía móvil.
Zoom óptico de estilo “periscopio” de la Lumix DMC TZ1 © Panasonic
Cámara dual con ‘zoom óptico’ de tipo periscopio del Oppo 5x © Oppo
Según este sistema, tanto el prisma como las lentes de la óptica “tele”
compensarían las vibraciones de forma dinámica, con incrementos de 0,0025º y
que, según Oppo, representarían un aumento de las prestaciones de un 40%
respecto a generaciones anteriores. No obstante, se recupera –una vez más– el
mismo principio que ya utilizó Panasonic en su sistema de estabilización
óptica Mega O.I.S. de la anteriormente citada Lumix TZ1, 11 años atrás.
Cámara dual con ‘zoom óptico’ de tipo periscopio del Oppo 5x © Oppo
Cuestión de fotones
Los fotodiodos actúan como cavidades que recolectan los fotones incidentes
Cuestión de bits
Una vez dentro del dominio digital, hablamos de bits. Y aquí empezamos con
los primeros problemas, pues la relación entre estos bits y los fotones captados
por los fotodiodos del sensor no es tan directa como pudiera parecer en un
principio.
Sensor de imagen digital
La segunda limitación viene dada por las propias características del conversor
A/D, que tiene una gran influencia en la imagen final. Uno de sus parámetros
principales –común a todo conversor digital binario– es el número de bits que
se utiliza para cuantificar la señal a su entrada. A más bits, mayor será el
número de niveles de señal que podremos distinguir, y mayor será la precisión
de nuestra señal digital a su salida; esto tiene una relación directa con el rango
dinámico de la imagen resultante.
Luces y colores
Hasta ahora hemos hablado de cómo los fotodiodos del sensor recogían los
fotones pertinentes y transformaban las señales analógicas correspondientes en
valores digitales. La intensidad lumínica depende pues de la cantidad de
fotones recolectados, pero sin otro proceso suplementario a lo aquí expuesto, la
imagen resultante sería representada solo en los que llamamos una “escala de
grises”.
Para poder obtener una imagen final con información de color, debemos
introducir algún elemento en el sensor de imagen que sea capaz de distinguir
las diferentes longitudes de onda que conforman nuestro espectro visible. En
efecto, las ondas electromagnéticas pueden identificarse bien por su
frecuencia, bien por su longitud de onda, siendo ambos parámetros
inversamente proporcionales entre sí.
Partiendo de los colores primarios del patrón RGB –rojo, verde y azul–,
el método de Bayer utiliza filtros para cada uno de estos colores en una pauta
de 2×2, repitiendo el verde pues el ojo humano extrae la información de
luminancia básicamente de este color.
Pauta de Bayer
Por supuesto, este método presenta sus inconvenientes, y es que cada uno de
los fotodiodos descarta prácticamente dos tercios de los fotones que en él
inciden, lo que equivaldría a aumentar el nivel de señal a ruido resultante. A
pesar de ello, sigue siendo hoy en día el sistema más utilizado debido a su
simplicidad de implementación.
PROCESADORES DE IMAGEN
Canon Digic, Nikon Expeed, Sony Bionz… nombres que a veces no son bien
conocidos por todo el mundo en el ámbito fotográfico –más allá de unas
palabras en una hoja de especificaciones– pero que hoy en día juegan un papel
primordial en una cámara. Son los procesadores de imagen, responsables de
obtener la imagen digital a partir del sensor, y de cuyas capacidades
depende, en gran medida, el resultado final.
Diseñando el procesador
Físicamente, los procesadores de imagen se suelen presentar en formar de SOC
(System On a Chip), donde se incluyen todos los componentes en un solo chip
o circuito integrado, lo que permite un mayor nivel de integración y una
reducción de espacio considerable.
De forma idéntica a los procesadores de uso general (CPUs), el rendimiento de
los procesadores de imagen depende –en gran medida– del número de
transistores que incluyen que, siguiendo la conocida como la Ley de Moore se
duplica cada aproximadamente dos años. Hoy en día, los procesadores de
imagen disponen en su interior de una potencia de cálculo enorme,
inimaginable hace apenas unos años.
Evolución de la memoria NAND – La Ley de Moore también puede aplicarse a los dispositivos de memoria,
cuya miniaturización sigue la misma estela que las de los procesadores © Guiding light at English
Wikipedia
Proceso de formación de la imagen a partir de los datos recolectados por el sensor © Sony
Así pues, el algoritmo debe lidiar con diferentes factores para poder reconstruir
una imagen satisfactoria, evitando la aparición de artefactos como el aliasing
cromático, las aberraciones cromáticas o los cambios abruptos de intensidad
entre píxeles colindantes, y todo ello conservando al máximo la nitidez de la
imagen.
Eliminando el ruido
De hecho, los propios algoritmos de interpolación cromática están diseñados
para maximizar su compatibilidad con los algoritmos de análisis de ruido, que es
la siguiente función básica que los procesadores de imagen suelen implementar.
Una de las fuentes de ruido que se debe tratar es el propio ruido electrónico del
sensor, como ocurre con todo dispositivo o elemento con una temperatura
superior al cero absoluto. La cantidad de ruido es, de hecho, directamente
proporcional a la temperatura: a más temperatura, mayor el ruido electrónico.
Típicamente, el modelo matemático más utilizado supone que este ruido es de
naturaleza aleatoria y sigue una distribución denominada normal o Gaussiana.
Este ruido se hace más patente cuanto más se aumenta el nivel de ISO, pues al
incrementar este índice no hacemos otra cosa que aumentar artificialmente
la sensibilidad del sensor, con la consiguiente reducción del nivel de señal a ruido
o SNR (Signal to Noise Ratio).
Para intentar reducir –puesto que eliminarlo por completo es imposible– este
efecto indeseable, la opción más simple pasa por aplicar un filtrado paso bajo, lo
que equivale a realizar un promediado de las muestras o píxeles; dada la
naturaleza aleatoria del ruido, se consigue disminuir el ruido, pero a costa por
supuesto de perder nitidez en la imagen, sobre todo en zonas con texturas finas.
Existen también otras fuentes de ruido que se añaden a la imagen, como ruido
de “patrón fijo”, que da lugar a los conocidos como “hot píxels“. Este tipo de
ruido aumenta cuanto más tiempo permanezca el sensor expuesto, motivo por el
cual en ciertas cámaras existe la opción de reducir el ruido para exposiciones
largas. Pero también el ruido de bandas o banding noise, que viene normalmente
fijado por la propia circuitería de los dispositivos electrónicos.
Corrigiendo la nitidez
Debido tanto a la propia interpolación cromática como a la reducción de ruido
posterior, la imagen resultante puede verse afectada de falta de nitidez, por lo
que se impone una etapa de image sharpening o corrección de nitidez.
Para ello, los algoritmos responsables han de ser capaces de detectar los bordes
y contornos de la imagen, pues suelen ser las zonas más afectadas por dicha
falta de nitidez.
El procesador de imagen Bionz X es uno de los más potentes del mercado, y sus algoritmos, unos de los
que mejor resultado obtienen © Sony
CCD - CMOS
La tecnología de fabricación de los sensores de imagen es un aspecto
fundamental para entender su funcionamiento intrínseco. Aunque existen
diferentes tecnologías, las dos más empleadas son el CCD y el CMOS. Cada una
de ellas presenta sus ventajase inconvenientes, aunque uno de ellas está
claramente ganando la batalla.
La principal diferencia con el diseño CCD es que en el CMOS los píxeles son
tratados de forma individual; no existe transferencia de la carga eléctrica, como
en el CCD. En cambio, en este último la lectura es simultánea en toda la matriz
de píxeles durante la exposición.
¿CMOS o CCD?
Pese a que la creación del CMOS es anterior al del CCD –fue patentado en 1963–
, su alta variabilidad en sus resultados hizo que los sensores de imagen se
decantaran al principio por esta última tecnología, más estable y predecible. No
fue hasta finales de los 80 y principios de los 90 que el proceso de fabricación de
sensores CMOS empezó a estabilizarse y su uso comercial a expandirse. Y es
que la tecnología CMOS presentaba grandes ventajas sobre el papel. Una
latencia mucho menor que en los CCD –no había transferencia de carga–, un
menor consumo de potencia y un proceso de fabricación más sencillo, lo que
resultaba en un menor costo de producción.
Sin embargo, no todo son ventajas para el CMOS. Un problema común a este
tipo de sensores es que son sensibles al conocido efecto de “rolling
shutter” 1, que depende de la velocidad de refresco del circuito. En cambio, en
un CCD, la lectura es simultánea en toda la matriz de condensadores durante la
exposición, por lo que no existe el mismo problema. Además, en un CMOS no
toda la superficie del sensor es fotosensible, lo que reduce su eficiencia.
(1En función del tamaño del sensor, es posible hoy en día implementar un “global
shutter” añadiendo transistores extras al diseño del sensor CMOS y evitar así este
efecto.)
Hoy en día es difícil determinar claramente cuál de las dos tecnologías ofrecer las
mejores prestaciones en cuanto a calidad de imagen se refiere.
Por otro lado, pese a que generalmente el CCD ha sido el proceso escogido para
las aplicaciones donde la calidad de imagen era el factor principal –gracias a su
proceso de lectura simultánea separada–, el CMOS y sus recientes variantes –
como el BSI-CMOS– han recortado esta distancia, y hoy en día es
difícil determinar claramente cuál de las dos tecnologías ofrecer las mejores
prestaciones en cuanto a calidad de imagen se refiere.
El omnipresente Bayer
La gran ventaja del filtro de Bayer es su facilidad de implementación, además de
tratarse de una solución más que probada, industrialmente hablando. Es por este
motivo que la gran mayoría de fabricantes de cámaras utilizan sensores basados
en el filtro de Bayer. Sin embargo, presentan un importante inconveniente: la
inherente pérdida de resolución. En efecto, no es posible obtener un píxel con
toda la información de color a partir de un único fotodiodo, pues cada uno de
estos últimos solo “recibe” una determinada información de color. Es necesario
formar pautas de 2×2 fotodiodos para extraer toda la información de color
necesaria. Como consecuencia, en el peor de los escenarios, la imagen
resultante tendría una resolución –en píxeles– un 50% menor que la
teóricamente posible si contáramos todos los fotodiodos del sensor. No obstante,
existen formas de aumentar la resolución equivalente, solapando, por
ejemplo, estos bloques de 2×2 fotodiodos en ambas direcciones.
Gracias a esta arquitectura tricapa –en oposición a la monocapa utilizada por los
sensores de Bayer–, los sensores Foveon son capaces pues de extraer toda la
información de color en un mismo píxel. Técnicamente hablando, el sustrato de
silicio utilizado por el Foveon absorbe los fotones a diferentes
profundidades dependiendo de su longitud de onda. La ventaja más obvia de
este planteamiento es la de evitar el uso de los algoritmos de interpolación de la
arquitectura de Bayer que da lugar a artefactos molestos.
Pero más allá del aferrado debate existente entre simpatizantes y detractores de
los sensores Foveon, existen otro tipo de soluciones que buscan abarcar el
tratamiento del color de otra perspectiva. Es el caso del sistema 3-CCD utilizado
en muchas videocámaras, y que consiste en la utilización de tres sensores
diferentes, cada uno de ellos dedicado a tratar uno de los tres colores primarios
en exclusiva. Evidentemente, para que cada uno de estos sensores reciba los
fotones con la longitud de onda deseada, es necesario el uso de un prisma
separador –como un filtro óptico tricoico– capaz de separar la luz incidente en
tres haces diferentes. El mismo efecto se puede conseguir haciendo uso de
múltiples filtros dicroicos.
Por otro lado, la mayoría de estos sistemas basados en tres sensores solo se
utilizan en videocámaras, y no en cámaras de fotografía convencionales. La razón
principal la encontramos en el tamaño de los sensores empleados en cada uno
de estos sectores. Mientras que las videocámaras utilizan sensores relativamente
pequeños, las cámaras –no compactas– usan sensores cuyo tamaño es bastante
más grande. Y siendo justamente el sensor uno de los elementos más costosos
de la cámara, el uso de sistemas trisensor incrementa notablemente los costes
de la cámara, además de su tamaño, al tener que albergar todo el sistema
formado por el prisma más los tres sensores. Hoy en día, de hecho, solo se usan
en aplicaciones específicas de alto rendimiento y donde el coste no es el principal
factor a tener en cuenta.
FILTROS Y COLORES
Una de las mayores dificultades con las que se enfrenta un fabricante de sensores
de imagen es la interpretación del color a partir de la luz incidente, pues
normalmente los fotodiodos que componen su estructura solo son capaces de
captar la cantidad de fotones independientemente de su longitud de onda que
determina su información cromática.
Sin embargo, la gran mayoría de sensores opta por emplear los llamados CFAs
(Color Filter Arrays) para interpolar la información de color. De estas matrices o
mosaicos de filtros de color el de Bayer es sin duda el más
conocido. Efectivamente, a principios de 1970, el doctor Bryce Bayer –que
trabajaba para Kodak– descubrió que se podía obtener una imagen en color
usando estos filtros a base de tres colores primarios (RGB o CMA) –hasta
entonces, las imágenes en color se obtenían superponiendo tres imágenes
idénticas obtenidas, cada una de ellas, con un filtro de color diferente–.
Otro intento similar fue el de Sony con su filtro RGBE –RGB + “esmeralda”–, que
busca una reproducción del color más afinada que la que podía conseguirse con
el filtro de Bayer clásico. Pese a que se llegó a incorporar en modelos comerciales
–Sony F-828–, no tuvo continuación, debido seguramente a los problemas
derivados de su procesado particular que no daban los resultados esperados en
cuanto a la representación del color.
EXR, combinando píxeles
Uno de los filtros de color que cosecharon gran éxito en cuanto a sus resultados
fueron los basados en el esquema EXR de Fujifilm. Esta tecnología fue introducida
en la gama de sensores Súper CCD de la firma, durante la Photokina 2008. Su
particular disposición –con una rotación de 45º– permitía que hubiera siempre
dos fotodiodos adyacentes que captasen el mismo color, pero su gran ventaja
era la capacidad de procesar la mitad de sus píxeles por separado.
El sensor X-Trans CMOS apareció por primera vez en 2012 en la cámara X-Pro1
de Fujifilm, que inauguraba una nueva gama de cámaras mirrorless de la
compañía, la serie X. Una familia que ha ido creciendo hasta la actualidad, y
cuyos resultados más que satisfactorios hacen de esta tecnología una alternativa
convincente a las cámaras basadas en los clásicos filtros de Bayer, sobre todo en
cuanto a resolución se refiere.
La X-Pro1 introdujo por primera vez el sensor X-Trans CMOS © Fujifilm
Con el sensor X-Trans se democratizó también la eliminación del filtro paso bajo o
de “anti-aliasing” que “nublaba” la capacidad resolutiva de los sensores, y
permitió obtener imágenes de una gran calidad de imagen a pesar de utilizar un
tamaño relativamente pequeño –APS-C– respecto a los estándares
“profesionales”, que optan en su mayoría por sensores de formato 24×36 mm.
SENSOR RETROILUMINADO
Si bien la tecnología CCD fue la primera en despegar en cuanto a sensores de
imagen se refiere, en los últimos años son los sensores CMOS los que llevan la
voz cantante. Ello no significa que estos últimos sean superiores técnicamente
en todos los aspectos, pero su mayor capacidad de integración y su menor
consumo les otorgan una ventaja prácticamente decisiva en el mercado actual.
Sensores retroiluminados
No obstante, como vimos en CMOS contra CCD, los sensores basados en una
arquitectura CCD suelen mostrar cierta superioridad en cuanto a calidad de
imagen se refiere, sobre todo en términos de ruido. Por este motivo, los
sensores CMOS no han dejado de evolucionar para poder reducir este gap con
los sensores CCD. Y es que, ganadas las batallas por la mayor integración y
menor consumo, la pugna por una mejor calidad de imagen era la siguiente meta
a conquistar. Es en este punto donde entra en juego un importante avance: el
de la retroiluminación y los sensores BSI-CMOS.
Comparación de la estructura de un sensor ‘stacked’ (izquierda) con un sensor sin la circuitería ‘apilada’
(derecha) © Sony
Fue Sony también, en 2012, quién dio una vuelta de tuerca más a los sensores
retroiluminados con los BSI Stacked CMOS, bajo el nombre comercial
de EXMOR RS, y con los que se mejoraba aún más la captura efectiva de fotones
por parte del sensor. Los sensores stacked apilan la capa correspondiente a los
píxeles por encima de la capa de circuitería digital –donde se realiza el procesado
de imagen–, en vez de utilizar la típica estructura de los sensores
retroiluminados que hace uso de los sustratos de soporte convencionales. De
hecho, esta es la tecnología en la cual la multinacional japonesa está
enfocando sus recursos, tal como demostraba, en febrero de 2015, su
predisposición a aumentar la capacidad de producción de sensores stacked,
pasando de los 60.000 wafers –obleas– de silicio mensuales hasta las
80.000 durante el presente año 2016 –una predisposición que, por otro lado, se
ha visto alterada por el recién terremoto de Kumamoto, que ha mermado las
cadenas de producción de la compañía–.
Sony A7R II
Una vez más, son los sensores de pequeñas dimensiones –que equipan la
mayoría de smartphones y compactas más sencillas– los que sacan mayor
provecho de esta tecnología, pues son los más afectados por la relación señal a
ruido y la sensibilidad que se deriva. Aun así, Sony –actual líder indiscutible en
cuestión de sensores de imagen– también ha implementado los sensores
retroiluminados en cámaras con sensores de mayores dimensiones, como es el
caso del captor de 24×36 mm que encontramos en la Sony A7R II, con
resultados muy satisfactorios.
Kodak fue un pionero en la fotografía analógica pero también en la digital; su prototipo de 1975 –del tamaño
de una tostadora– fue la primera cámara fotográfica en usar un sensor digital © Kodak
Los avances se sucedieron con relativa celeridad, y en 1991, Kodak una vez más,
lanzaría un respaldo con un sensor digital montando sobre una Nikon F3, lo que
daría lugar al primer sistema “réflex” digital, el Kodak DCS – Kodak
Professional Digital Camera System– que, como indica su nombre, estaba
orientado al mercado profesional. Se trataba de un sensor de 1,3 Mpx con un
tamaño de 20,5 × 16,4 mm.
La Kodak DCS 100 permitía “transformar” la
fílmica Nikon F3 en digital respaldo mediante
La Apple QuickTake 100 –fabricada por Kodak– es considerada por algunos como la primera cámara digital
para gran consumo
Apenas un año más tarde, en 2000, el que sería su gran competidor lanzaba su
primera DSLR enteramente fabricada por el mismo: la Canon EOS-D30. Era la
primera EOS digital de la marca, e incorporaba un sensor APS-C de 3,1
Mpx con un tamaño de 22,7 x 15,1 mm, apenas inferior al formato DX de
Nikon, y daba lugar a un factor de recorte de 1,6x. Sin embargo, no se trataba
de un sensor CCD, sino de un sensor CMOS, una tecnología que permitiría en lo
sucesivo reducir los costes de producción de los sensores digitales. La Canon
EOS-D30 estaba por entonces enfocada al sector “entusiasta” o prosumer.
No habría que esperar mucho para ello. A principios de 2002, salía a la venta la
japonesa Contax N, con un sensor CCD Philips FTF3020-C de 6 Mpx de
resolución y cuyo tamaño era equivalente al del famoso negativo de 35 mm,
sensor que, de hecho, ya había sido utilizado anteriormente en un respaldo
digital. La Contax N fue así la primera DSLR con sensor 24 x 36 mm en
comercializarse –el prototipo Pentax MZ-D, anterior a la Contax, nunca vio la luz–
, aunque su éxito no fue el esperado.
La Canon EOS-1Ds fue la primera DSLR con
sensor 24 x 36 mm en cosechar un real éxito en el mercado
Así pues, la Olympus E-1 fue concebida como la primera DSLR “puramente
digital“, con un diseño óptico telecéntrico que buscaba encontrar el equilibrio
óptimo entre tamaño de sensor, peso del equipo y calidad óptica. Así pues, la E-
1 incorporaba un sensor CCD Kodak KAF-5101C que medía exactamente 17,8 x
13,4 mm, y que ofrecía una resolución de 5,1 Mpx. El factor de recorte
resultante era, por tanto, de aproximadamente 2,0. Su tamaño de pixel de 6,8
µm era algo más pequeño que el de la Canon EOS-1Ds, que era de 8,8 µm.
Pero antes de hablar de cámaras de formato medio como tales, hay que
remontarse primero a los respaldos digitales. En efecto, en 1991, la compañía
americana Leaf –ahora parte de Phase One– sacaba al mercado el primer
respaldo digital de formato medio, el Leaf DCB1, que incluía un sensor cuadrado
de 40 x 40 mm con una resolución de 4 Mpx. Los sistemas basados en respaldos
digitales se sucedieron, como las Hasselblad H o las Mamiya 645, pero a finales
de septiembre de 2004 , este último fabricante lanzaba la Mamiya ZD, que con
un sensor CCD de 36 x 48 mm –es decir, dos veces la superficie de un 24 x 36
mm– y una resolución de 21,3 Mpx. se convertía en la primera DSLR de
formato medio. El tamaño de pixel era de aproximadamente 9 µm, similar pues
al de las primeras DSLR 24 x 36 mm lanzadas dos años antes.
Los smartphones se han convertido en los dispositivos más usados para capturar imágenes © Apple
Compactas premium
A pesar de ello, los fabricantes de cámaras compactas tuvieron que dar el salto
a sensores de mayores dimensiones para poder diferenciarse aún más de los
dispositivos móviles. La Canon PowerShot G1 X, presentada a principios
de 2012, incorporaba nada menos que un sensor de 1,5″, pero su peso
sobrepasaba alegremente los 500 g, demasiado para una “compacta” como tal.
Llegaría entonces Sony, apenas unos meses más tarde, con la CyberShot
RX100 y su afamado sensor de 1″ de 13,2 x 8,8 mm. Su peso era de apenas
240 g; toda una proeza de miniaturización. Otros fabricantes no tardarían en
sumarse a la moda de las “compactas con sensor grande”, muchos de ellos
incorporando el mismo sensor de 1″ fabricado por Sony. Hoy en día, estas
compactas incluyen sensores retroiluminados con una resolución de nada menos
que 20 Mpx, todo un reto si nos atenemos al tamaño de estos captores. Y es
que estamos hablando de un tamaño de píxel de apenas 2,4 µm, algo
impensable no hace tanto tiempo.
La RX100 IV es la última compacta “premium” de Sony que incorpora el afamado sensor de 1″ de la firma
© Sony
Sensores y sistemas
Tradicionalmente, el tamaño del sensor ha sido uno de los elementos que
permitía trazar líneas divisoras entre los distintos tipos de cámaras: formato
2/3″, formato 1/1,7″, formato de 1″, formato (Micro) Cuatro Tercios, formato
APS-C, formato APS-H, formato 24 x 36 mm, formato medio, gran
formato… Algunas de estas líneas vienen heredadas del tamaño de la película,
rollo o placa de las cámaras analógicas; otras, de los innovaciones de la era
digital. Sin embargo, la variedad actual de formatos y sistemas de cámaras
digitales hace difícil establecer, hoy en día, una clara diferenciación entre unas y
otras. Sea como fuere, el tamaño de la superficie fotosensible ha servido y sirve
para dividir y clasificar los distintos tipos de cámaras. ¿Pero servirá en el futuro?
No solo en
fotografía existen multitud de formatos de sensores; en la imagen, una comparativa de tamaños de
sensores usados para grabación de vídeo © Zeiss
Por otro lado, eso no significa que reducir el tamaño del sensor –para facilitar
así el diseño del subsistema óptico– sea una solución, pues entonces toparemos
con conocidas limitaciones físicas tales como la difracción, uno de los mayores
problemas con lo que deben lidiar las cámaras con sensores más pequeños.
El equilibrio de los ambos subsistemas –captura y óptico– es, pues, unos de
los factores más importantes que deben tenerse en cuenta a la hora de evaluar
la calidad de imagen final.
Las compactas RX100 de Sony ofrecen notables resultados a pesar de su sensor de (apenas) 1″ de
tamaño, gracias en parte a la tecnología empleada por el fabricante © Sony
Por otro lado, a diferencia de los procesos fotoquímicos, los procesos digitales
han multiplicado las variables a tener en cuenta, pues las señales digitales
permiten ser manipuladas en tiempo real por los correspondientes algoritmos
digitales que hacen uso de estas. Estos algoritmos y los procesadores de
imagen que los ejecutan son piezas clave en la determinación de la calidad de
imagen. Así pues, en la era digital no se puede hablar solo de tamaño de sensor
o de sensor a secas, sino del conjunto formato por sensor y procesador, lo que
venimos llamando subsistema de captura.