Vous êtes sur la page 1sur 80

Smartphones

Parte 1
Las cámaras duales están de moda. Los fabricantes de smartphones se apoyan
en ellas para ofrecer nuevos argumentos con lo que convencer a sus
compradores. El Huawei P9 con su doble óptica firmada por Leica o el más
reciente iPhone 7 Plus con dos focales distintas –que permiten acercar la
fotografía de “retrato” a la fotografía móvil– son dos de las apuestas más
persuasivas, pero no son las únicas, ni las primeras.

El iPhone 7 Plus ha supuesto el despegue definitivo de las cámaras duales en los smartphones © Apple

CAMARAS DUALES
El declive de las cámaras compactas –al menos las más sencillas– es un claro
indicador del uso de las cámaras en los smartphones. A pesar de ello, los
fabricantes de teléfonos móviles deben lidiar con las limitaciones de
espacio inherentes a sus dispositivos. Mientras en las cámaras convencionales –
incluso en una compacta– hay espacio para un sensor de generosas
dimensiones o un objetivo con un esquema óptico considerable,
los smartphones se encuentran ante una disyuntiva: conseguir una cámara de
calidad sin aumentar las dimensiones físicas del teléfono.

Los problemas de espacio no juegan a favor de las limitaciones físicas inherentes a la óptica ©
Huawei

Por supuesto, los módulos de cámara han ido evolucionando, ofreciendo


sensores con resoluciones mayores o algoritmos cada vez más sofisticados para
el control de ruido, pero existen límites infranqueables, como los problemas
derivados de la difracción. Por este motivo, era necesario explorar nuevas
soluciones y las cámaras duales parecen ser una de ellas. Duplicar módulos de
cámara permite añadir “redundancia” –de ópticas/sensores– sin tener que
aumentar forzosamente el grosor del teléfono, y la redundancia de información,
bien utilizada, permite mejorar la calidad de imagen final.

Un poco de historia
A pesar del reciente interés por las cámaras duales, su historia no es tan
nueva. Smartphones como el LG Optimus 3D o el HTC Evo 3D ya incorporaron
dos cámaras en sus paneles posteriores, pero con otro propósito al usado hoy
en día, tal como deja entrever claramente su nombre. Ambos modelos,
de principios de 2011, disponían de dos sensores de 5 Mpx para realizar fotos y
vídeos 3D, que luego podían reproducir en sus pantallas 3D estereoscópicas, sin
la ayuda de lentes especiales.

El LG Optimus 3D disponía de dos cámaras para crear contenido 3D estereoscópico © LG

El impacto de estos teléfonos fue mitigado, en parte por la falta de soporte y


las deficiencias del software, pero sobre todo porque el 3D nunca acabó de
cosechar el éxito que se esperaba de él. Sin embargo, supusieron un
primer intento en la implantación de las cámaras duales.

El HTC Evo 3D intentó seguir la senda abierta con el LG pero sin cosechar el éxito esperado © HTC

Dos años más tarde, el HTC One se convertía en el teléfono móvil más
fotográfico del MWC 2013. Disponía solo de una única cámara, pero una muy
especial, dotada de un sensor con unos autodenominados ultrapíxeles. Mientras
que los demás fabricantes optaban por sensores de mayor resolución, HTC
proponía un sensor de apenas 4 Mpx. pero con unos píxeles –fotodiodos–
mucho más grandes –4 µm– lo que, sumado a una abertura máxima más
luminosa,prometía redundar en una cámara de mayor calidad.
Ultrapíxel © HTC

Ultrapíxel © HTC

Sin embargo, la cámara dual llegaría a principios de 2014 con el HTC One M8,
que incorporaba una cámara ultrapíxel de 4 Mpx como la del primer HTC One
(M7), pero esta vez apoyada por una cámara secundaria con un sensor de 2
Mpx encargada de capturar datos extra que sirvieran para trabajar con el
control de la profundidad de campo.
El HTC One M8 incorporaba dos cámaras para jugar con la profundidad de campo © HTC

Gracias a esta cámara dual, pues, se podía crear un mapa de profundidad y


jugar así con el bokeh, los fondos desenfocados –que permitían crear esos
“efectos” que normalmente solo estaban al abasto de cámaras convencionales
con mayores sensores– o incluso con el “refocus”, es decir, la capacidad de
poder enfocar después de la toma.

Sin embargo, los HTC One con sensores de ultrapíxeles, de excelente diseño y
construcción, no llegaron a triunfar. Los 4 Mpx de la cámara principal fueron
percibidos como insuficientes, al no aportar –desde el punto de vista de los
consumidores– una diferencia sustancial respecto los competidores, y ello a
pesar de sus fotocélulas más grandes y su mayor luminosidad.

A pesar de su interesante concepción, los 4 Mpx de la cámara principal del HTC One M8 supusieron un
lastre © HTC

HTC sucumbiría finalmente a la presión de los megapíxeles y, en 2015, para


desconsuelo de muchos, abandonaría su sensor ultrapíxel para su cámara
principal. Así pues, el HTC One M9+ vendría equipado con una cámara
dual pero esta vez con sensores de 20 Mpx y, por tanto, con fotodiodos mucho
más pequeños; el sensor ultrapíxel quedaría relegado a la cámara frontal
secundaria. La Duo Camera del One M9+ estaba orientada –como en el
One M8– en jugar con la profundidad de campo y sus efectos derivados.
El HTC One M9+ retomaría el concepto de cámara dual pero abandonaría el sensor ultrapíxel © HTC

Entre tanto, una pequeña compañía conocida con el nombre de Core


Photonics se hacía eco de su tecnología Dual Camera Optics y sus módulos de
cámaras duales que ya despertaron interés durante MWC 2014. Su objetivo era
facilitar a los fabricantes de smartphones la implementación de estos módulos,
gracias a la integración conjunta del hardware y software, y popularizar así las
soluciones de cámaras duales.

Y, efectivamente, las cámaras duales se iban a poner de moda, en distintas


formas y con diferentes funciones, pero lamentablemente para Core Photonics,
no se iba a hacer solo mediante el uso de módulos de terceros. Se había
abierto una veda muy fructífera –sobre todo desde un punto de vista
comercial–, y algunos fabricantes estaban dispuestos a implantar sus propias
soluciones que les permitieran destacar entre el resto.

Parte 2
Si bien en sus orígenes, los primeros terminales móviles con cámaras duales se
centraron en el 3D, en la actualidad, los últimos dispositivos anunciados por los
más grandes fabricantes de smartphones se centran en incorporar ópticas con
distintas distancias focales, ya sea de tipo ultra gran angular como el LG G5 o
de tipo teleobjetivo como en el caso del iPhone 7 Plus.

Actualidad
A principios de año, la compañía coreana sorprende con el LG G5 y su concepto
de smartphone modular –no es nuevo–, que incluye además una interesante
cámara dual y que, en este caso, permite escoger entre dos focales distintas.
Se trata de un enfoque diferente al planteado casi dos años atrás, a principios
de 2014, con la cámara dual del HTC M8, que se centraba en utilizar los dos
sensores para jugar con la profundidad de campo y el desenfoque.
El LG G5 permite jugar con dos focales distintas, una de ellas ultra gran angular © LG

Con un sensor principal de 16 Mpx y otro sensor secundario de 8 Mpx, este


último está acoplado a una óptica de cobertura extrema con un ángulo de
visión de 135º. Esta doble óptica da lugar a una gran versatilidad.

Imagen tomada con el LG G5 con la óptica de cobertura extrema de 135º

Además, para disfrutar de una experiencia más “fotográfica”, el LG G5 puede


ser acompañado del módulo de cámara opcional LG Cam Plus, que añade una
empuñadura y mejora la ergonomía general del smartphone.

El versátil LG G5 con el módulo opcional LG Cam Plus

Dos meses más tarde, en abril de 2016, Huawei contraataca con su Huawei
P9 y su cámara dual con óptica firmada por Leica; una apuesta seria dentro del
mercado de los smartphones con orientaciones fotográficas pues, en esta
ocasión, se trataba de utilizar ambos módulos de forma conjunta para mejorar
la calidad de imagen.

El Huawei P9 y su doble óptica firmada por Leica


En este caso, uno de los sensores es monocromático, por lo que es capaz de
aprovechar mejor la luz incidente que un sensor RGB clásico basado en
una pauta de Bayer, pues no debe realizar ningún tipo de interpolación para
generar la información de color. El otro sensor –que sí es un RGB– utiliza la
información del monocromático para obtener una fotografía de mayor calidad.
Además, todo ello coronado por una óptica –dual– con el sello de la prestigiosa
firma alemana: el Summarit H 27 mm f/2,2 ASPH.

Detalle del módulo óptico del P9 © Huawei

Más allá de la real participación de Leica –un aspecto que ambas marcas
prefieren no aclarar en exceso en su propio beneficio–, lo más interesante –
siempre desde el punto de vista fotográfico– del Huawei P9 es, a nuestro
entender, la posibilidad de utilizar el modo monocromo, el cual hace un uso
exclusivo del sensor del mismo nombre.

Imagen tomada con el modo monocromo del Huawei P9

En Huawei parecen convencidos de su cámara dual, y solo ha habido que


esperar tres meses para que, en julio de 2016, se lanzara el Huawei Honor 8,
también con doble óptica pero esta vez no certificada por Leica, lo cual ha
redundado muy positivamente en el precio, sensiblemente inferior al del
Huawei P9. Otra muestra de esta convicción es la reciente fundación de
un centro de I+D específico entre Leica y Huawei, el Max Bereck Innovation
Lab, que se dedicará a potenciar la colaboración entre ambas compañías en el
mundo de la fotografía móvil.

Huawei y Leica han abierto un


nuevo centro de I+D para potenciar su colaboración en el mundo de la fotografía móvil © Huawei

No todos los fabricantes, sin embargo, parecen decididos a incorporar cámaras


duales como tal en sus smartphones, al menos no bajo el mismo esquema. Es
el caso del Sony Xperia XZ, presentado en la IFA 2016, que no integraba una
cámara dual pero sí un doble sensor de imagen: un sensor principal clásico con
matriz RGB de 23 Mpx y un sensor secundario con un sensor –ya mucho menos
convencional– de tipo RGBC-IR, mediante el cual se mejora la calidad de
imagen gracias a la información extra aportada por este último.

El Sony Xperia XZ no incluye una


cámara dual, pero utiliza dos sensores para mejorar la calidad de imagen © Sony

Pero si alguien parece no tener dudas al respecto es Apple. Y así lo demostró


cuando presentó –tal como los rumores ya presagiaban– su iPhone 7, hace
apenas un mes; para ser más exactos, su versión iPhone 7 Plus, pues solo este
último dispone de una cámara dual.
El iPhone 7 Plus, el primer smartphone de Apple con cámara dual © Apple

Como ya hizo LG con su G5, el iPhone 7 Plus ofrece dos focales diferentes para
cada uno de sus objetivos. Pero a diferencia de este primero –que añade una
óptica de cobertura extrema– el iPhone incorpora, además de la
óptica angular de 28 mm, un tele-objetivo –muy corto– de 56 mm, para poder
realizar mejorar uno de los aspectos donde los teléfonos móviles suelen ofrecer
peores resultados: el de la fotografía de retrato.

El iPhone 7 Plus incluye un objetivo angular de 28 mm y un “tele-objetivo” de 56 mm © Apple

Esta cámara dual no ofrece, sin embargo, ningún “zoom óptico 2x”, como se ha
denominado –incorrectamente– en muchos medios. Se trata de dos objetivos
con dos distancias focales distintas y, por lo tanto, no existe zoom óptico como
tal; el recorrido entre ambas focales se realiza de forma puramente digital. Eso
sí, lo interesante de esta doble óptica de Apple es, como siempre,
su implementación con del software de la compañía, que se centra en la
simplicidad de operación y en su integración con el resto de su funcionalidad.

Imagen tomada con el iPhone 7 Plus; de momento solo es una muestra, pues este “modo retrato” aún no
está disponible para los usuarios © Apple

La clave está, pues, en el funcionamiento armónico entre


el hardware y software de este módulo de cámara dual. Tal como se anunció
durante la keynote de Apple, una próxima actualización no muy lejana añadirá,
a la app nativa de cámara del iPhone 7 Plus, un nuevo modo retrato que
permitirá –mediante algoritmos específicos que harán uso de la
información aportada por ambas cámaras– “desenfocar” el fondo y conseguir ese
“ansiado” efecto para retratos con poca profundidad de campo.

Parte 3
Lo que empezó como implementaciones propias de cada fabricante –como
el iPhone 7 Plus o el Huawei P9–, parece empezar a democratizarse gracias a la
aparición de soluciones integradas, como el último Qualcomm Clear Sight, que
incorpora un sistema de cámara dual en un módulo independiente. La clave
para ofrecer nuevas funciones –mayor capacidad de desenfoque, mejor calidad
de imagen, “zoom óptico”– es la diversidad aportada por estos dos o más
sensores.

Una mirada al futuro


La multinacional americana Qualcomm, especializada en tecnología de
semiconductores –y conocida, entre otros, por sus procesadores Snapdragon–
lanzaba al mercado su tecnología Clear Sight. Se trata de una solución
integrada de cámaras duales para el mercado de la fotografía móvil, que
incluye dos módulos –óptica más sensor de imagen– conectados a sus
correspondientes ISP o procesadores de imagen, de nombre Spectra.

El Clear Sight es una solución “todo en uno” para poder facilitar el acceso a las cámaras duales a
cualquier fabricante de smartphones © Qualcomm

La estructura recuerda a la ya utilizada por Huawei en su P9 o en su Honor 8:


un sensor clásico de tipo RGB para procesar el color y otro monocromático para
captar una mayor cantidad de luz. Tal como explica Qualcomm, se trata de
emular el comportamiento del ojo humano, formado de conos y bastones (los
primeros sensibles a diferentes longitudes de onda –que serán interpretados
como distintos colores por el cerebro humano– y los segundos sensibles
exclusivamente a la intensidad lumínica). Gracias a estos dos sensores, es
posible, pues, conseguir una mejor calidad de imagen y un mejor control del
ruido en escenas con poca luz.

Los sensores monocromáticos –como el del Huawei P9– permiten obtener una imagen con mejor relación
señal a ruido en situaciones de luz escasa

Se trata de una clara apuesta para aportar una solución “todo en uno” con el
objetivo de llevar esta tecnología a un mayor número de fabricantes, del mismo
modo que otras compañías menos conocidas como Core Photonics, dos años
atrás, lo hacía con sus módulos de cámaras duales. En este caso, hablamos de
Qualcomm, un actor de peso en el sector de la fotografía móvil, con lo que
podemos augurar un incremento del uso de este tipo de módulos en los
futuros smartphones.

El Xiaomi Mi 5s Plus es el primer


smartphone en incorporar la tecnología Clear Sight de Qualcomm © Xiaomi
¿Es el futuro, pues, centrarse solo en obtener una imagen
de mayor calidad gracias a las cámaras duales? Ciertamente, no es la única
opción, pues otra de las características más demandadas por los usuarios
de smartphones es la posibilidad de disponer de un zoom, como el que
encontramos actualmente en los objetivos de las cámaras fotográficas
convencionales. Y es que, hoy en día, el zoom óptico aporta una calidad con la
que el zoom digital no puede rivalizar.

El Hasselblad True Zoom de Lenovo incorpora un zoom óptico 10x en un módulo


accesorio opcional que se acopla magnéticamente a
los smartphones compatibles –Moto Z–, y añade una empuñadura opcional para
mejorar la ergonomía. Sin embargo, el conjunto no deja de parecerse a
una cámara compacta convencional, pues hablamos de un objetivo
prominente de considerables dimensiones. Y a pesar de que algunos usuarios
encontrarán esta solución atractiva y adecuada a sus necesidades, el peso y
volumen añadidos por este accesorio no convencen al público que quiere
disponer de las ventajas del zoom óptico con las dimensiones de su teléfono
habitual.

El Lenovo Hasselblad True Zoom es otra forma de acerca el zoom óptico a los smartphones

Un claro ejemplo de este último enfoque es el iPhone 7 Plus,


que ofrece diferentes distancias focales para cada una de sus dos ópticas, de
modo a poder disponer de un pequeño tele-objetivo que permite emular el
equivalente de un zoom óptico 2x –en realidad, no hay tal zoom, pues el paso de
una focal a otra se realiza digitalmente–. La finalidad es obtener una imagen con
un ángulo de visión menor –más “tele”– con la misma calidad que la
proporcionada por el objetivo más angular, utilizado en la mayoría de las
situaciones.
El iPhone 7 Plus dispone un pequeño tele-objetivo que
permite “ampliar” la imagen sin pérdida de calidad © Apple

Este tipo de soluciones ya era preconizado por una pequeña compañía


llamada LinX Computational Imaging, que fabricaba –entre otros– módulos de
cámaras duales, y que justamente fue comprada hace dos años por Apple, para
usar su savoir-faire en este tipo de tecnología. De hecho, tanto la anteriormente
mencionada Core Photonics como LinX, parecían tener muy claro cuáles eran las
ventajas de utilizar más de un sensor en un smartphone.

Diversidad de información
Efectivamente, usar dos sensores –de idénticas dimensiones, se entiende–
permite tener el doble de superficie fotosensible sin tener que aumentar el
tamaño de las ópticas; usar un único sensor de mayores dimensiones implicaría
un sistema óptico más grande y, por ende, una mayor protuberancia física del
módulo de cámara. Sea como fuere, usar una mayor superficie implica
normalmente más cantidad de información disponible, lo que suele redundar en

una mayor calidad de imagen.


Usar dos sensores independientes permite aumentar la superficie fotosensible disponible sin tener que
incrementar el grosor del sistema de cámara © Core Photonics

De hecho, desde un punto de vista meramente físico, por el simple hecho de


duplicar sensores, obtenemos más diversidad, es decir, obtenemos la misma
información –la escena visualizada– desde dos captores distintos.
Esta redundancia permite combinar el exceso de información para obtener
mejores resultados. Técnicas similares se utilizan, por ejemplo, en
radiocomunicaciones móviles, mediante el uso de múltiples antenas (Wi-Fi
MIMO).

Por supuesto, la clave radica en el aprovechamiento de esta información extra.


Disponer de ella es una cosa, saber utilizarla es otra. Hoy en día, en un estado
que podríamos calificar de “infancia” en cuanto al uso de cámaras duales se
refiere, este punto marca diferencias importantes entre una solución y otra.
Fijarse solo en las características técnicas de estos módulos no es, pues,
condición suficiente –aunque si necesaria– para obtener resultados satisfactorios.

No solo de especificaciones vive un smartphone; su implementación es clave © Apple

Ya sea implementando dos focales distintas –como el iPhone 7 Plus o el LG G5–


o dos iguales pero con sensores diferentes –Huawei P9 o Honor 8–, usar
cámaras duales permite también jugar con otro aspecto muy buscado entre los
usuarios de la fotografía móvil: el de la profundidad de campo. En efecto, usar
sensores pequeños –como los que encontramos en los teléfonos móviles por
una limitación de espacio– implica disponer de grandes profundidades de
campo, y limita, por tanto, las posibilidades de obtener imágenes con fondos
desenfocados y un bokeh armonioso.

Pero la diversidad de información de las cámaras duales permite justamente


crear mapas de profundidad de campo, lo cual posibilita –mediante la aplicación
de los correspondientes algoritmos– no solo desenfocar el fondo, sino incluso
re-enfocar, al estilo Lytro con sus cámaras ligth field. Más aún, se pueden
también mejorar las prestaciones del sistema de enfoque, gracias a estos
mapas de profundidad que permiten “entender” de distancias. Parece claro
pues que, a mayor diversidad, mejores prestaciones en todos estos sentidos.
¿Cómo conseguir entonces más diversidad?

¿Por qué conformarse solo con dos sensores? © Linx Imaging

Cuando dos es poco


¿Por qué utilizar solo cámaras duales cuando podemos replicarlas en mayor
cantidad sin aumentar el grosor del teléfono móvil? Ciertamente, a más
cámaras –ópticas y sensores– más diversidad y redundancia y, por tanto, más
información disponible con la que jugar. Todo ello nos conduce, pues, a la
siguiente etapa: la de las cámaras múltiples.
L16 © Light

En el terreno de las compactas, un claro ejemplo de esta aproximación de


cámaras múltiples es la Light L16 Camera que, como su nombre indica,
incorpora nada menos que 16 módulos, cada uno con un sensor de 13 Mpx, y
con ópticas a diferentes focales –5 a 28 mm, 5 a 70 mm y 6 a 150 mm, siempre
hablando de equivalentes en 35mm–, con imágenes de hasta 52 Mpx y un
zoom óptico 5x. A priori, se trata de impresionantes prestaciones, pero
implementar algo parecido en un smartphone implicaría aumentar
considerablemente el tamaño, pues aquí no solo hablamos de no incrementar el
grosor, sino que tantos módulos ocuparían mucho espacio del teléfono.

No obstante, a medida que los fabricantes de smartphones van reduciendo el


tamaño de sus componentes –mediante mayor integración y chips con procesos
de fabricación más sofisticados–, es posible que se decanten por añadir
un mayor de número de módulos de cámara pues hay que tener en cuenta que
la cámara es, a fecha de hoy, uno de los principales argumentos de venta de
los teléfonos móviles.

Parte 4
Si la clave de las cámaras duales es la diversidad de información aportada por
estas ópticas/sensores extra ¿por qué restringirse solo a dos? En efecto, cuanto
mayor sea el número de ópticas y sensores que dispongamos, más datos
podremos comparar y procesar, y mejor será el resultado final. Pero, además,
abrimos la puerta a campos como la interpretación 3D o la realidad virtual (VR),
gracias a estas cámaras múltiples.

Cámaras múltiples y 3D
Dos es el número mínimo para poder trabajar con diversidad de datos; dos
objetivos y dos sensores permiten explotar la redundancia de información y
mejorar aspectos como la relación señal a ruido, el control de la profundidad de
campo o el rango dinámico. Pero, por supuesto, a mayor número de módulos
implantados, mayor será el (potencial) beneficio.
Las cámaras múltiples son el siguiente paso © Pelican Imaging

Del mismo modo que, años atrás, los primeros smartphones con cámaras
duales –LG Optimus 3D y el HTC Evo 3D– jugaban con la visión estereoscópica,
una de las grandes ventajas de las cámaras múltiples es la posibilidad de
“entender” la profundidad de la imagen de forma inherente. En efecto,
un array de cámaras puede interpretar, mediante el
correspondiente software, el “volumen” de la escena y crear un mapa de
profundidad completo, todo ello gracias a la información aportada por cada una
de las cámaras, distintas y diverssa –esta es la clave– entre sí. Así pues, con las
cámaras múltiples se abren las puertas de la interpretación 3D de forma
natural.

Para los fabricantes de smartphones, una de las ventajas de trabajar con


cámaras múltiples es la posibilidad de prescindir de un sistema de enfoque con
partes móviles, lo que reduce el grosor del módulo de cámara. Efectivamente,
gracias a este array de cámaras, se puede obtener el punto de enfoque
deseado combinando la información de cada uno de estos elementos distintos.
Es el ejemplo de la compañía Pelican Imaging, que dispone de un módulo de 16
cámaras –al estilo de la Light L16– pero en una disposición de retícula 4×4.

Módulo con 16 cámaras


desarrollado para smartphones © Pelican Imaging
Fotografía computacional
Esta compañía californiana trabaja en lo que se denomina cámaras
computacionales, donde el procesado de datos –mediante los correspondientes
algoritmos– prima sobre los procesos ópticos. La fotografía computacional ya se
utiliza de hecho al crear imágenes HDR a partir de la combinación
de imágenes individuales, pero el uso de múltiples cámaras incrementa
todavía más la importancia de estos algoritmos de computación. De hecho,
Pelican Imaging es una compañía especializada en software, más que
en hardware, lo que indica claramente que la clave está en la interpretación
y procesado de las imágenes.

Disponer de un mapa de profundidad de la imagen –como ya lo hacen, en


cierta medida, Apple con su iPhone 7 o Huawei con su P9– no solo
permite prescindir de un sistema de AF como tal sino también de poder elegir
en punto de enfoque a posteriori, al estilo “refocus” que ya encontramos en
las cámaras plenópticas Lytro.

La cámara Lytro Illum permite jugar con la profundidad de campo gracias al “campo de luz”

Las cámaras “light field” –donde Lytro es el máximo exponente


visible– son capaces de jugar con la profundidad de campo, gracias a la
capacidad de trabajar con todo el campo de luz en, creado a partir de las ondas
electromagnéticas obtenidas en múltiples direcciones de incidencia. De hecho,
las cámaras de Lytro utilizan el mismo principio que encontramos en las cámaras
múltiples, pues internamente trabajan con un array de microlentes. Una vez más,
la diversidad de fuentes es la clave para obtener la información que se necesita
para crear el mapa de profundidad o “depth of field”.
Las cámaras plenópticas hace uso de un array de microlentes © Lytro

Es cierto que el éxito de Lytro y sus cámaras “light field” ha sido relativamente
mitigado, en parte por la especificidad de su producto, en parte por
la implementación no demasiado eficiente de esta tecnología –que debe
procesar ingentes cantidades de datos–. Pero gracias a las cámaras duales –y
múltiples– que empiezan a proliferar en los smartphones, la fotografía de
“campo de luz” está recibiendo un nuevo impulso, de gran peso para que la
fotografía computacional avance tanto en el terreno de la fotografía móvil como
en el de la convencional.

Modelos 3D, realidad aumentada y realidad virtual


Llegados a este punto, y tal como comentábamos más arriba, se abre un nuevo
conjunto de posibilidades relacionado con la imagen 3D. Gracias a la creación
de imágenes con profundidad, las cámaras computacionales basadas
en arrays son capaces de crear modelos de los objetos que “ven” en tres
dimensiones. Y ello abre un nuevo campo de aplicaciones y modelos de
negocio, ya que desde el propio móvil se puede, por ejemplo, simular como un
objeto “3D-fotografiado” interactúa con su entorno real.

El uso de múltiples cámaras permite crear objetos


3D © Pelican Imaging
Hablamos de lo que se conoce como realidad aumentada (AR), donde una
imagen generada por computadora interacciona con las imágenes del entorno
real para crear una composición en la que el usuario puede interactuar y
obtener así una experiencia “más completa”. Por supuesto, también el mundo
de la realidad virtual (VR) está en el punto de mira de esta tecnología de
cámaras múltiples –y las compañías que están detrás–; en este caso, y a
diferencia de la AR, todo el escenario está generado por computación.

Lentes de realidad aumentada con un array de sensores incorporados © Pelican Imaging

Por supuesto, otro asunto muy diferente es la cuestión del coste –y del precio–
pues, como en toda nueva tecnología que irrumpe en el mercado, es necesario
valorar la relación entre estos costes y los beneficios reales que puede aportar.
En parte, dependerá de la madurez del mercado para asimilar los nuevos
productos basados en cámaras múltiples, pero también en la capacidad de las
compañías en ofrecer una solución que sepa aportar un real valor añadido y
que sepa implementarlo de forma transparente y coherente para los usuarios
finales. No se trata tampoco de llegar el primero, sino de hacerlo bien –o, al
menos, mejor que los demás–.

Parte 5
Una de las mayores ventajas aportadas por las cámaras duales con dos
sensores y dos ópticas es la posibilidad de obtener un zoom de mejor calidad
que el digital. Es el caso del iPhone 7 Plus o del Huawei P10, que
ofrecen soluciones equivalentes a un “zoom óptico 2x”. Sin embargo, para
poder alcanzar ampliaciones más grandes, es necesario optar por otro tipo de
alternativas que no impliquen aumentar el grosor del terminal, como la que
encontramos en la presentada recientemente por Oppo y su cámara dual
con zoom 5x.

Zoom para retratos, la nueva panacea


Nadie duda que la actual apuesta por las cámaras duales es una
clara tendencia en la fotografía móvil, pues permite ofrecer nuevas funciones
de la cámara sin aumentar el grosor del terminal –un punto determinante en el
diseño actual de los smartphones–, como los ahora tan de moda “modos de
retrato” o “efectos bokeh” –con fondos desenfocados mediante
algoritmos software– que ofrecen los últimos Huawei Mate 9 o P10 mediante
su zoom híbrido 2x o el iPhone 7 Plus, con su –mal llamado– “zoom óptico 2x” .

La cámara dual del último Huawei P10 sigue


apostando por un zoom híbrido 2x © Huawei

Sin embargo, estos fabricantes se conforman de momento con un factor de


ampliación 2x. Teniendo en cuenta que la focal típica de la cámara principal de
tipo angular de un terminal móvil se sitúa en torno a los 26-28 mm, estamos
hablando de una focal “tele” de poco más de 50 mm –56 mm en el caso del
iPhone 7 Plus para ser exactos–, siempre hablando de sus equivalentes en 35
mm. Se trata, pues, de una focal que en fotografía calificaríamos de “estándar”,
y no de “tele”.

El “retrato” es la nueva panacea de los fabricantes de smartphones © Huawei

No sería tampoco la focal que utilizaríamos normalmente para hablar


de fotografía de retrato, a pesar de que Huawei o Apple insisten en “vender”
estas focales como las más naturales para ello. Las ópticas clásicas para estos
menesteres no bajan normalmente de los 70 mm, siendo las de 90 o 135 mm
algunas de las más habituales. Traducido a factores de aumento en el terreno
móvil, estaríamos hablando de un “zoom óptico 3x” al menos. No obstante,
estamos seguros que los fabricantes de terminales móviles no son ajenos a
estas nociones y si de momento no ofrecen más aumentos es porque aún no
han dado con la tecla clave. O quizá sí…

Más aumentos, menos grosor


El fabricante de dispositivos electrónicos Oppo no ocupó las portadas del
pasado Mobile World Congress 2017, pero es actualmente el mayor fabricante
de smartphonesde China, por delante de otros gigantes como Huawei, Apple o
Xiaomi. Fue precisamente en la mencionada feria dónde anunció una
“novedosa” tecnología de cámara dual con “zoom 5x”.

Oppo mostró, en el pasado MWC 2017, una tecnología de cámara dual con ‘zoom óptico’ © Oppo

Fundada en China, pero con sede en Estados Unidos, Oppo ha crecido a ritmos
inesperados en el mercado chino –el mayor del mundo en cuanto a usuarios– y
si bien aún no se codea con otros fabricantes como Huawei o Samsung en
nuestro país, parece estar dispuesta a no quedarse atrás en cuanto a
innovaciones se refiere. En esta línea, ha decidido recuperar una idea ya
aplicada en cámaras fotográficas e introducirla ahora en el campo de la
fotografía móvil.
Zoom óptico de estilo “periscopio” de la Lumix DMC TZ1 © Panasonic

Se trata de implementar un zoom mediante el uso de un sistema óptico estilo


“periscopio” –el mismo principio que encontramos en un submarino–, para
intentar resolver uno de los problemas inherentes a los zooms ópticos: a mayor
aumento, mayor longitud. Algo con lo que había que lidiar hace muchos años,
cuando disponer de grandes zooms implicaba equiparse de voluminosas
cámaras. Hasta la aparición, en 2006, de la Panasonic Lumix TZ1, que fue la
primera cámara de su clase en introducir este tipo de mecanismo, con la
consiguiente reducción de tamaño. Teniendo en cuenta la mencionada
limitación en las dimensiones de los terminales móviles, Oppo ha aplicado esta
idea en un smartphone. Para ello, ha dispuesto el sensor asociado a la óptica
“tele” en un plano perpendicular al sensor asociado a la óptica angular, de
modo que esa longitud extra del zoom no se traduzca en un aumento de grosor
en el smartphone.

Cámara dual con ‘zoom óptico’ de tipo periscopio del Oppo 5x © Oppo

Tal como detalla el fabricante, esta disposición del esquema óptico de su


cámara dual permite ofrecer un zoom de hasta 5 aumentos sin pérdidas, lo que
supondría un avance significativo respecto los aumentos 2x que ofrecen sus
competidores. Sin embargo, en realidad se trata “solo” de un zoom óptico
3x que, acoplado con un zoom digital de cosecha propia permite llegar hasta
este aumento de 5x. Asimismo, otro interesante añadido de la solución de Oppo
es la implementación del sistema de estabilización óptica OIS. En vez de
conformarse con una estabilización solo de la óptica angular –como ocurre con
el actual iPhone 7 Plus–, Oppo la ha implementado directamente en la óptica
“tele”, que es la que más se beneficia de dicha estabilización.
Sistema de estabilización
óptica OIS del Oppo 5x © Oppo

Según este sistema, tanto el prisma como las lentes de la óptica “tele”
compensarían las vibraciones de forma dinámica, con incrementos de 0,0025º y
que, según Oppo, representarían un aumento de las prestaciones de un 40%
respecto a generaciones anteriores. No obstante, se recupera –una vez más– el
mismo principio que ya utilizó Panasonic en su sistema de estabilización
óptica Mega O.I.S. de la anteriormente citada Lumix TZ1, 11 años atrás.

Sistema de estabilización óptico de la Lumix DMC TZ1 © Panasonic

Aun así, la adaptación de Oppo de este mecanismo de zoom “periscopio”


parece estar bastante bien implementada. Según las especificaciones de
fabricante, todo el conjunto mide apenas 5,7 mm, un 10% menos que
soluciones similares empleadas por otros fabricantes para “zooms 2x”.
Recalcamos, por otro lado, el hecho de usar entrecomillado para este tipo de
soluciones, pues en la mayoría de los casos no se trata de zooms ópticos como
tal, sino de objetivos con diferentes focales longitudes focales –angular y
“tele”– sin pasos intermedios, y donde la ampliación entre diferentes aumentos
se realiza normalmente mediante algoritmos digitales.

Cámara dual con ‘zoom óptico’ de tipo periscopio del Oppo 5x © Oppo

Sistema de estabilización óptica OIS del Oppo 5x © Oppo

A pesar de ello, es interesante observar cómo los fabricantes


de smartphones buscan todo tipo de soluciones para acomodar funciones hasta
ahora disponibles solo en cámara fotográficas convencionales al terreno de
la fotografía móvil. Fabricantes que, por otro lado, insisten en utilizar la “última
y más avanzada tecnología” del mercado, pero que, como ya hemos visto, se
remontan a más de una década…
SENSORES DE IMAGEN INTRODUCCION
Los sensores de imagen permitieron la eclosión de la fotografía digital y el
nacimiento de un nuevo universo de dispositivos y aplicaciones inimaginables
hasta entonces. Hoy en día, se producen cientos de millones de sensores y su
tecnología es cada vez más compleja.

Sony es actualmente el mayor fabricante


de sensores del mundo

Cuestión de fotones

Los fotodiodos actúan como cavidades que recolectan los fotones incidentes

En primera aproximación, un sensor de imagen podría definirse como aquel


dispositivo que permite captar las ondas electromagnéticas que inciden en su
superficie y transmitir la información necesaria para la constitución de
una imagen. El caso más común es cuando tratamos con luz, que puede ser
representada –debido a su dualidad onda-partícula– (*NATURALEZA
ONDULATORIA Y CUANTICA) como una cantidad finita de fotones. La superficie
del sensor está formada por miles o millones de pequeñas cavidades
o fotodiodos que se encargan de “recoger” la máxima cantidad de fotones
posibles y obtener, mediante el uso de la circuitería interna del sensor, una
señal eléctrica proporcional a esta cantidad.
De lo analógico a lo digital
Nótese que hasta aquí no hemos introducido en ningún momento el concepto
“digital”. Efectivamente, el proceso de captación de fotones descrito hasta el
momento es un proceso intrínsecamente analógico, pues estamos tratando con
señales continuas; de hecho, los primeros sensores fueron de tipo analógico, e
implicaban trabajar normalmente con tubos de vacío como los conocidos CRT –
tubos de rayos catódicos–.

Para poder hablar de “digital” ha de existir primero un proceso de conversión


de estas señales continuas –el valor de la señal puede cambiar en cualquier
momento temporal– a unas señales discretas –solo hay cambios en momentos
temporales determinados– mediante lo que se denomina un proceso de
muestreo, que precede a la siguiente etapa, el proceso de cuantificación, por el
cual se asigna un valor predeterminado a cada una de las muestras de la señal
discreta. Todo ello corre a cargo de unos dispositivos denominados conversores
A/D (Analógico/Digital). La conversión digital más común es la binaria, que
viene determinada por dos valores lógicos –típicamente “0” y “1”, o sea, bits–
que corresponden a valores de voltaje eléctrico específicos –por ejemplo, +3,3
y -3,3 V–.

Proceso de conversión analógico-digital

Así pues, un sensor digital se encarga de recoger los fotones incidentes,


obtener una señal eléctrica proporcional a la cantidad recogida y luego convertir
esta señal a unos valores lógicos digitales que luego podrán ser tratados por
los procesadores de imagen correspondientes.

Cuestión de bits
Una vez dentro del dominio digital, hablamos de bits. Y aquí empezamos con
los primeros problemas, pues la relación entre estos bits y los fotones captados
por los fotodiodos del sensor no es tan directa como pudiera parecer en un
principio.
Sensor de imagen digital

La primera limitación la encontramos en el proceso de captación de fotones por


parte de los fotodiodos, que depende tanto del tamaño de estos últimos como
de la cantidad de luz que incida en el sensor. Si inciden demasiados fotones –
debido a una exposición demasiado larga, por ejemplo– podría ocurrir que el
fotodiodo en cuestión quedase desbordado, y la señal resultante no sería
proporcional a la cantidad de fotones que realmente incidió –pues se perderán
algunos o incluso muchos–. Algo parecido puede ocurrir en el caso opuesto, si
en un fotodiodo dado no cayera ningún fotón; a pesar de esto supuesto valor
nulo, el sensor produciría una señal equivalente a un mínimo de señal, debido
al ruido térmico intrínseco a todo dispositivo electrónico en funcionamiento.
Cuanto menor sea el tamaño del fotodiodo, mayores serán las repercusiones de
estos extremos, que hacen que el sensor trabaje en una zona “no lineal” –es
decir, que no se mantiene una proporción lineal entre la cantidad de fotones
recibida y la señal eléctrica transmitida–.
Relación entre voltaje y resolución en la conversión A/D (para 3 bits)

La segunda limitación viene dada por las propias características del conversor
A/D, que tiene una gran influencia en la imagen final. Uno de sus parámetros
principales –común a todo conversor digital binario– es el número de bits que
se utiliza para cuantificar la señal a su entrada. A más bits, mayor será el
número de niveles de señal que podremos distinguir, y mayor será la precisión
de nuestra señal digital a su salida; esto tiene una relación directa con el rango
dinámico de la imagen resultante.

Proceso de cuantificación (3 bits, 8 niveles)

Por ejemplo, si colocamos un conversor A/D de 8 bits de precisión a la salida de


cada uno de los fotodiodos del sensor, podremos discernir hasta 28=256 niveles
diferentes. Utilizar un número de bits menor significaría perder precisión y no
ser capaces de distinguir entre los diferentes niveles de grises; en el peor de los
casos, si utilizásemos un conversor A/D de solo 1 bit, solo seríamos capaces de
distinguir entre el blanco y el negro. Por otro lado, utilizar un número de bits
muy grande, implica no solo un mayor coste del dispositivo en sí, si no
aumentar el tamaño de los ficheros digitales resultantes. Como ocurre
prácticamente siempre en el mundo digital, se trata de buscar el compromiso
adecuado.

Luces y colores
Hasta ahora hemos hablado de cómo los fotodiodos del sensor recogían los
fotones pertinentes y transformaban las señales analógicas correspondientes en
valores digitales. La intensidad lumínica depende pues de la cantidad de
fotones recolectados, pero sin otro proceso suplementario a lo aquí expuesto, la
imagen resultante sería representada solo en los que llamamos una “escala de
grises”.

Para poder obtener una imagen final con información de color, debemos
introducir algún elemento en el sensor de imagen que sea capaz de distinguir
las diferentes longitudes de onda que conforman nuestro espectro visible. En
efecto, las ondas electromagnéticas pueden identificarse bien por su
frecuencia, bien por su longitud de onda, siendo ambos parámetros
inversamente proporcionales entre sí.

Espectro visible para el ojo humano

Uno de los métodos más utilizados en los sensores digitales actuales es la


colocación de un filtro en cada uno de los fotodiodos, sensible a un rango de
longitudes de onda determinado. Estos filtros “selectivos al color” dejarían
pasar a través de ellos todos los fotones de una frecuencia determinada, y
descartarían el resto, de modo que la señal resultante a la salida de este
fotodiodo contendría la información de un único color.
Filtros en fotodiodos para separar los fotones según su longitud de onda

Partiendo de los colores primarios del patrón RGB –rojo, verde y azul–,
el método de Bayer utiliza filtros para cada uno de estos colores en una pauta
de 2×2, repitiendo el verde pues el ojo humano extrae la información de
luminancia básicamente de este color.

Pauta de Bayer

Por supuesto, este método presenta sus inconvenientes, y es que cada uno de
los fotodiodos descarta prácticamente dos tercios de los fotones que en él
inciden, lo que equivaldría a aumentar el nivel de señal a ruido resultante. A
pesar de ello, sigue siendo hoy en día el sistema más utilizado debido a su
simplicidad de implementación.

PROCESADORES DE IMAGEN

Canon Digic, Nikon Expeed, Sony Bionz… nombres que a veces no son bien
conocidos por todo el mundo en el ámbito fotográfico –más allá de unas
palabras en una hoja de especificaciones– pero que hoy en día juegan un papel
primordial en una cámara. Son los procesadores de imagen, responsables de
obtener la imagen digital a partir del sensor, y de cuyas capacidades
depende, en gran medida, el resultado final.

Procesador de imagen Digic 5+, un circuito


integrado con toda la electrónica necesaria en su interior © Canon

El procesador de imagen es, de hecho, un procesador digital de señal o DSP


(Digital Image Processor) especializado en tratar las imágenes obtenidas
mediante cámaras digitales, teléfonos móviles o cualquier otro dispositivo
similar. Se trata de una pieza clave en la fotografía digital, pues en él se llevan
a cabo las distintas transformaciones digitales de los datos obtenidos por
el sensor. Estas operaciones o funciones son realizadas por distintos algoritmos,
que al tratarse de software/firmware pueden ser actualizados
convenientemente por el fabricante.

Diseñando el procesador
Físicamente, los procesadores de imagen se suelen presentar en formar de SOC
(System On a Chip), donde se incluyen todos los componentes en un solo chip
o circuito integrado, lo que permite un mayor nivel de integración y una
reducción de espacio considerable.
De forma idéntica a los procesadores de uso general (CPUs), el rendimiento de
los procesadores de imagen depende –en gran medida– del número de
transistores que incluyen que, siguiendo la conocida como la Ley de Moore se
duplica cada aproximadamente dos años. Hoy en día, los procesadores de
imagen disponen en su interior de una potencia de cálculo enorme,
inimaginable hace apenas unos años.

Evolución de la memoria NAND – La Ley de Moore también puede aplicarse a los dispositivos de memoria,
cuya miniaturización sigue la misma estela que las de los procesadores © Guiding light at English
Wikipedia

Hasta principios de la década pasada, los fabricantes estaban de hecho


inmersos una carrera, equivalente a la carrera de los megapíxeles del ámbito
fotográfico, pero aplicado a la frecuencia a la cual funcionaban los
procesadores. A más frecuencia, mayor número de instrucciones u operaciones
que se podían realizar por segundo. El problema –aparte de algunas
limitaciones físicas del silicio– era el sobrecalentamiento del procesador
generado por un consumo de potencia demasiado elevado, uno de los motivos
por los cuales Intel, principal fabricante de CPUs, decidió cancelar el desarrollo
de su última arquitectura basada en el aumento de frecuencia en 2004.
La arquitectura de
procesador de imagen dual Digic 5+; la tendencia actual es incrementar la potencia de cálculo mediante el
uso de más núcleos o cores © Canon

Poco más tarde, la industria adoptó exhaustivamente el uso de procesadores


con múltiples núcleos o cores –el Intel Core es uno de los ejemplos más
conocidos–, un movimiento que también se trasladó a los procesadores de
imagen, que hoy en día utilizan normalmente dos cores en las cámaras más
avanzadas. Esta estrategia permite acrecentar el uso de la computación
paralela a diferentes niveles, lo que aumenta el rendimiento del procesador sin
incrementar la frecuencia.

Este paralelismo suele acompañarse de la tecnología SIMD (Single Instruction


Multiple Data), “una instrucción, múltiples datos”, una técnica empleada para
conseguir paralelismo a nivel de datos, es decir, aplicar una operación (por
ejemplo, contraste) a un conjunto de datos a la vez en una misma instrucción.

Creando la imagen digital


Abandonamos el hardware para adentrarnos en el software, es decir,
los algoritmos que “corren” dentro de los procesadores de imagen. Estos
algoritmos ejecutan un conjunto de funciones digitales básicas para la formación
de la imagen a partir de los datos que se obtienen del sensor. De hecho, para
que el sensor –un dispositivo eléctrico que “recoge” luz en sus fotodiodos– se
entienda con el procesador –que funciona con tecnología binaria–, es necesaria
una etapa de conversión analógica-digital.

Proceso de formación de la imagen a partir de los datos recolectados por el sensor © Sony

Para el coloreado de la imagen, normalmente es necesario realizar una


transformación de Bayer, por la cual se obtiene el color a partir del filtro de
Bayer del sensor de imagen, siguiendo un patrón determinado a partir de los tres
colores primarios (RGB). Existen, por supuesto, otros tipos de transformaciones,
como las derivadas de los sensores tricapa –como el Foveon-, donde la operación
es aún más complicada.

Pauta de Bayer en sensor de imagen

La interpolación cromática es la que se encarga pues de reconstruir la imagen en


color a partir de las muestras obtenidas por el sensor. Los resultados dependen
de la capacidad de estos algoritmos para gestionar la información RAW del
sensor, motivo por el cual pueden existir diferencias significativas entre las
soluciones de distintos fabricantes. Aquí también podemos incluir la corrección
de gama, una operación no lineal para la codificación de los valores de luminancia
que también da lugar a resultados distintos.

Así pues, el algoritmo debe lidiar con diferentes factores para poder reconstruir
una imagen satisfactoria, evitando la aparición de artefactos como el aliasing
cromático, las aberraciones cromáticas o los cambios abruptos de intensidad
entre píxeles colindantes, y todo ello conservando al máximo la nitidez de la
imagen.

Cada fabricante implementa su


propia solución, que da lugar a resultados diferentes a partir de un mismo archivo RAW © Sony

Es muy importante que estos procesos se realicen con el menor coste


computacional posible, es decir, haciendo el menor uso del procesador, pues de
este modo se evita un consumo excesivo de energía, que redunda en una
prolongación de la autonomía.

Eliminando el ruido
De hecho, los propios algoritmos de interpolación cromática están diseñados
para maximizar su compatibilidad con los algoritmos de análisis de ruido, que es
la siguiente función básica que los procesadores de imagen suelen implementar.

Ruido Gaussiano aleatorio para una imagen de 3 canales © Stanford University

Una de las fuentes de ruido que se debe tratar es el propio ruido electrónico del
sensor, como ocurre con todo dispositivo o elemento con una temperatura
superior al cero absoluto. La cantidad de ruido es, de hecho, directamente
proporcional a la temperatura: a más temperatura, mayor el ruido electrónico.
Típicamente, el modelo matemático más utilizado supone que este ruido es de
naturaleza aleatoria y sigue una distribución denominada normal o Gaussiana.

Este ruido se hace más patente cuanto más se aumenta el nivel de ISO, pues al
incrementar este índice no hacemos otra cosa que aumentar artificialmente
la sensibilidad del sensor, con la consiguiente reducción del nivel de señal a ruido
o SNR (Signal to Noise Ratio).

La relación señal a ruido (SNR)


disminuye a medida que aumentamos el nivel de ISO

Para intentar reducir –puesto que eliminarlo por completo es imposible– este
efecto indeseable, la opción más simple pasa por aplicar un filtrado paso bajo, lo
que equivale a realizar un promediado de las muestras o píxeles; dada la
naturaleza aleatoria del ruido, se consigue disminuir el ruido, pero a costa por
supuesto de perder nitidez en la imagen, sobre todo en zonas con texturas finas.

La clave de los algoritmos de reducción de ruido o NR (Noise Reduction) radica


pues en cómo tratar este ruido de forma “inteligente”, intentando separar, en la
medida de lo posible, la información útil de la imagen del ruido en sí.
Normalmente, estos algoritmos permiten el control por separado del ruido de
luminancia y de crominancia.
Comparativa de reducción de ruido (OFF/ON) en Canon 5Ds

Existen también otras fuentes de ruido que se añaden a la imagen, como ruido
de “patrón fijo”, que da lugar a los conocidos como “hot píxels“. Este tipo de
ruido aumenta cuanto más tiempo permanezca el sensor expuesto, motivo por el
cual en ciertas cámaras existe la opción de reducir el ruido para exposiciones
largas. Pero también el ruido de bandas o banding noise, que viene normalmente
fijado por la propia circuitería de los dispositivos electrónicos.

Así pues, la eficacia de los sistemas de reducción de ruido dependerá en gran


medida de la implementación de estos algoritmos por parte de cada uno de los
fabricantes, así como de la potencia de cálculo del procesador de imagen
utilizado.

Corrigiendo la nitidez
Debido tanto a la propia interpolación cromática como a la reducción de ruido
posterior, la imagen resultante puede verse afectada de falta de nitidez, por lo
que se impone una etapa de image sharpening o corrección de nitidez.

Para ello, los algoritmos responsables han de ser capaces de detectar los bordes
y contornos de la imagen, pues suelen ser las zonas más afectadas por dicha
falta de nitidez.

El procesador de imagen Bionz X es uno de los más potentes del mercado, y sus algoritmos, unos de los
que mejor resultado obtienen © Sony

Usando la potencia del procesador


La interpolación cromática, la reducción de ruido y la corrección de nitidez son
típicamente las funciones básicas realizadas por cualquier procesador de imagen,
pero no son ni mucho menos la únicas. El sistema de medida de la exposición, la
compresión de la imagen (JPEG) –y vídeo– o la conversión del espacio de color,
son otras de las funciones que son gestionadas por el procesador.

Pero a medida que la potencia de cálculo se incrementa, se van adoptando


más funciones avanzadas como el reconocimiento de sujetos en la imagen –
caras–, el procesamiento RAW en la propia cámara, las capturas multi-exposición
–HDR– o la gestión de imágenes panorámicas.

Procesador de imagen Expeed 4 en


placa base, utilizado para la Nikon D3s © Nikon

La lista de variantes de procesadores de imagen es tan diversa como


los fabricantes de cámaras; prácticamente cada uno dispone del suyo propio:
Canon DIGIC, Nikon EXPEED, Sony BIONZ, Leica MAESTRO, Fujifilm EXR, Pentax
PRIME, Olympus TruePic, Panasonic VENUS Engine, Sigma TRUE, Casio EXILIM…

Pero todo ellos se enfrentan en general a los mismos problemas, como es


el incremento del número de píxeles de las imágenes a tratar, lo que aumenta el
tiempo de aplicación de cada uno de los algoritmos, del mismo modo afecta tratar
con mayor cantidad de datos por imagen –como los RAW de 14-bit–. Si a ello le
sumamos estructuras más complejas –sensores Foveon o, por qué no, sensores
de campo de luz como el de la Lytro Illum–, está claro que los fabricantes no
pueden dejar de innovar para hacer frente a una demanda de potencia de cálculo
cada vez mayor.

CCD - CMOS
La tecnología de fabricación de los sensores de imagen es un aspecto
fundamental para entender su funcionamiento intrínseco. Aunque existen
diferentes tecnologías, las dos más empleadas son el CCD y el CMOS. Cada una
de ellas presenta sus ventajase inconvenientes, aunque uno de ellas está
claramente ganando la batalla.

Arriba, la primera cámara en emplear un CCD (Kodak,

1975). Abajo, la última cámara digital de Kodak.


El principio para todas estas tecnologías sigue siendo, sin embargo, el mismo:
capturar la máxima cantidad de luz incidente al sensor y transformarla en una
señal eléctrica proporcional a esta cantidad que pueda ser convertida luego en
una señal digital

El CCD y la transferencia de cargas


El CCD (Charge-Coupled Devices) fue inventado en los laboratorios de AT&T Bell
en 1969, por W. Boyle y G. E. Smith –40 años más tarde serían galardonados con
el premio Nobel de Física por la invención del concepto del CCD–. La primera
cámara fotográfica digital en usar un CCD fue creada por un ingeniero
de Kodak en 1975, y empleaba un sensor de 100 x 100 píxeles –o sea, el
equivalente a 0,01 Mpx–. El prototipo de Steven Sasson solo capturaba imágenes
en blanco y negro, y pesaba casi 4 Kg. Aunque Texas Instruments había diseñado
tres años atrás la primera cámara en no utilizar carrete, la de Sasson era la
primera en utilizar un sensor puramente digital.

En un sensor CCD, la carga proporcional a la intensidad de luz es transmitida sucesivamente de un


condensador a otro

En un sensor CCD, los condensadores de la región fotosensible se encargan de


acumular una carga eléctrica proporcional a los fotones incidentes; una vez
finalizada la exposición propiamente dicha, la carga de los condensadores es
transmitida a sus vecinos mediante un circuito de control, y así sucesivamente
hasta llegar al último condensador que transmite esta carga a un amplificador
que a su vez la transforma en un voltaje proporcional. En un sensor digital, este
voltaje será convertido a una señal digital mediante el
correspondiente conversor A/D . El funcionamiento de transferencia de carga
es, pues, similar al de un shift register (registro de desplazamiento).

El CMOS y los transistores


El CMOS (Complementary Metal-Oxid-Semiconductor) es una tecnología
utilizada para la fabricación de circuitos integrados, basada en transistores MOS
o MOSFET (Metal–Oxid–Semiconductor Field-Effect Transistor). El CMOS es
una variante que integra típicamente dos transistores para obtener un diseño
simétrico para generar todo tipo de funciones lógicas. El elemento básico es
el fotodiodo, formado por diferentes transistores, y que permite obtener
directamente un voltaje proporcional a los fotones incidentes. Este voltaje, al
igual que en los sensores digitales basados en CCD, será convertido a una
señal digital a partir de la cual se obtendrá la imagen correspondiente. La
principal diferencia con el diseño CCD es que en el CMOS los píxeles son
tratados de forma individual; no existe transferencia de la carga eléctrica entre
condensadores, como en el CCD.

La principal diferencia con el diseño CCD es que en el CMOS los píxeles son
tratados de forma individual; no existe transferencia de la carga eléctrica, como
en el CCD. En cambio, en este último la lectura es simultánea en toda la matriz
de píxeles durante la exposición.

Diseño de un sensor activo basado en 3 transistores

El diseño de sensores con esta tecnología CMOS permite además combinar el


propio sensor de imagen con las funciones de procesado de imagen en el
mismo circuito integrado. En el diseño basado en la tecnología CCD, el sensor de
imagen es un elemento totalmente diferenciado, y por tanto no puede ser
integrado como el CMOS. Sin embargo, gracias a ello, los sensores CCD
tienen menos ruido que los CMOS.

¿CMOS o CCD?
Pese a que la creación del CMOS es anterior al del CCD –fue patentado en 1963–
, su alta variabilidad en sus resultados hizo que los sensores de imagen se
decantaran al principio por esta última tecnología, más estable y predecible. No
fue hasta finales de los 80 y principios de los 90 que el proceso de fabricación de
sensores CMOS empezó a estabilizarse y su uso comercial a expandirse. Y es
que la tecnología CMOS presentaba grandes ventajas sobre el papel. Una
latencia mucho menor que en los CCD –no había transferencia de carga–, un
menor consumo de potencia y un proceso de fabricación más sencillo, lo que
resultaba en un menor costo de producción.

Sensor de imagen basado en la tecnología CMOS

Sin embargo, no todo son ventajas para el CMOS. Un problema común a este
tipo de sensores es que son sensibles al conocido efecto de “rolling
shutter” 1, que depende de la velocidad de refresco del circuito. En cambio, en
un CCD, la lectura es simultánea en toda la matriz de condensadores durante la
exposición, por lo que no existe el mismo problema. Además, en un CMOS no
toda la superficie del sensor es fotosensible, lo que reduce su eficiencia.
(1En función del tamaño del sensor, es posible hoy en día implementar un “global
shutter” añadiendo transistores extras al diseño del sensor CMOS y evitar así este
efecto.)

Los sensores CMOS tienen un menor coste de producción y un consumo más


reducido que los CCD, pero estos últimos tienen menos ruido y una mayor
eficiencia lumínica.
Hoy en día, sin embargo, el CMOS parece haber ganado claramente la batalla al
CCD, al menos en lo que a cámaras de consumo de refiere. La mayor integración
del CMOS junto con su menor coste son, sin duda, unos factores
determinantes. Sin embargo, la tecnología CCD aún tiene gran presencia allí
donde la tecnología CMOS presenta sus mayores inconvenientes, como los
sensores de grandes dimensiones. De hecho, dependiendo de la aplicación, una
u otra tecnología puede hacer prevalecer sus ventajas respecto a la otra.

Hoy en día es difícil determinar claramente cuál de las dos tecnologías ofrecer las
mejores prestaciones en cuanto a calidad de imagen se refiere.

Por otro lado, pese a que generalmente el CCD ha sido el proceso escogido para
las aplicaciones donde la calidad de imagen era el factor principal –gracias a su
proceso de lectura simultánea separada–, el CMOS y sus recientes variantes –
como el BSI-CMOS– han recortado esta distancia, y hoy en día es
difícil determinar claramente cuál de las dos tecnologías ofrecer las mejores
prestaciones en cuanto a calidad de imagen se refiere.

EL COLOR EN EL SENSOR DE IMAGEN

Cómo obtener e interpretar la información de color a partir de la luz incidente es


una de las tareas más complejas que debe tratar un sensor de imagen. Existen
diversas soluciones, cada una de ellas con sus pros y sus contras.

La solución más conocida consiste en utilizar un determinado “filtro de color” para


cada fotodiodo –el “recipiente” responsable de captar la luz incidente en el
sensor–, de modo que cada uno de ellos pueda procesar la información relativa
a un determinado color. Utilizando un filtro para cada color primario RGB –Rojo,
Verde y Azul– se puede finalmente reconstruir una imagen en color mediante un
proceso de interpolación cromática que se llevará a cabo en el Procesador de
imagen. Es lo que se conoce como la pauta de Bayer.
El sistema del filtro de Bayer

El omnipresente Bayer
La gran ventaja del filtro de Bayer es su facilidad de implementación, además de
tratarse de una solución más que probada, industrialmente hablando. Es por este
motivo que la gran mayoría de fabricantes de cámaras utilizan sensores basados
en el filtro de Bayer. Sin embargo, presentan un importante inconveniente: la
inherente pérdida de resolución. En efecto, no es posible obtener un píxel con
toda la información de color a partir de un único fotodiodo, pues cada uno de
estos últimos solo “recibe” una determinada información de color. Es necesario
formar pautas de 2×2 fotodiodos para extraer toda la información de color
necesaria. Como consecuencia, en el peor de los escenarios, la imagen
resultante tendría una resolución –en píxeles– un 50% menor que la
teóricamente posible si contáramos todos los fotodiodos del sensor. No obstante,
existen formas de aumentar la resolución equivalente, solapando, por
ejemplo, estos bloques de 2×2 fotodiodos en ambas direcciones.

El Foveon ¿es la solución?

Parece claro que el gran hándicap de la solución de Bayer es la utilización de


estos filtros de color en cada uno de los fotodiodos del sensor. Introducida en
2002 con la Sigma SD9, la tecnología utilizada en los sensores Foveon intenta
dar respuesta a este problema. Así pues, emulando lo que ya se venía haciendo
en los negativos de película de color, el Foveon apila tres capas diferentes de
fotodiodos –el equivalente a las tres capas de emulsión–, cada una de ellas
sensibles a un rango de longitudes de onda determinado, que corresponde a cada
uno de los tres colores primarios.
Comparación del sensor Foveon con el de Bayer

Gracias a esta arquitectura tricapa –en oposición a la monocapa utilizada por los
sensores de Bayer–, los sensores Foveon son capaces pues de extraer toda la
información de color en un mismo píxel. Técnicamente hablando, el sustrato de
silicio utilizado por el Foveon absorbe los fotones a diferentes
profundidades dependiendo de su longitud de onda. La ventaja más obvia de
este planteamiento es la de evitar el uso de los algoritmos de interpolación de la
arquitectura de Bayer que da lugar a artefactos molestos.

Estructura del sustrato de silicio


del sensor Foveon

Pero, evidentemente, no todo son ventajas. El primer problema es


su complejidad, sobre todo comparado con los sensores de Bayer, pues es
necesario leer mucha más cantidad de datos para la obtención de una imagen
equivalente en píxeles. Además, en cuestión de fabricación, actualmente solo
Sigma –su impulsor– hace uso de la arquitectura Foveon. Y aunque si bien es
cierto que los avances tecnológicos han permitido mitigar en cierto modo este
problema de complejidad, existe otro inconveniente ligado a su modo inherente
de funcionamiento: la propia estructura tricapa.
El sensor Foveon X3

En efecto, no todos los fotones se absorben a la misma profundidad, y esto


acarrea importantes consecuencias. Mientras que el azul se capta muy cerca de
la superficie del sustrato de silicio, el verde y el rojo se absorben a profundidades
mayores. Pero sobre todo el rojo, que es la capa más profunda de todas, y por
tanto, donde los fotones llegan con menos intensidad. Aquí radica uno de los
principales problemas de los sensores Foveon: su dificultad para captar suficiente
cantidad de “luz roja”, lo que se relaciona directamente con la dificultad que
muestran estos sensores al aumentar la sensibilidad o ISO, sobre todo cuando
se comparan con los sensores de Bayer. A pesar de ello, es innegable que la
tecnología Foveon presenta ventajas sobre la arquitectura de Bayer cuando se
trabaja con sensibilidades bajas.

La reciente Sigma dp Quattro H incorpora el sensor


Foveon X3 más grande hasta la fecha

Tres sensores para tres colores


El filtro óptico tricoico se encarga de separar el haz de luz incidente en los tres colores primarios RGB

Pero más allá del aferrado debate existente entre simpatizantes y detractores de
los sensores Foveon, existen otro tipo de soluciones que buscan abarcar el
tratamiento del color de otra perspectiva. Es el caso del sistema 3-CCD utilizado
en muchas videocámaras, y que consiste en la utilización de tres sensores
diferentes, cada uno de ellos dedicado a tratar uno de los tres colores primarios
en exclusiva. Evidentemente, para que cada uno de estos sensores reciba los
fotones con la longitud de onda deseada, es necesario el uso de un prisma
separador –como un filtro óptico tricoico– capaz de separar la luz incidente en
tres haces diferentes. El mismo efecto se puede conseguir haciendo uso de
múltiples filtros dicroicos.

Uso de filtros dicroicos en la tecnología 3MOS

Panasonic introdujo en 2008 un sistema equivalente al 3-CCD pero con sensores


MOS, con lo que esta arquitectura es extensible al uso de tres sensores cualquiera
que sea su tecnología; por ello, es más exacto referirnos a sistema 3-Chip.
Las ventajas de estos sistemas es que cada uno de los tres sensores puede tratar
cada uno de los tres colores de la forma más eficiente posible, haciendo
innecesario el uso de interpolaciones –Bayer– o evitando los problemas de
absorción de los fotones –Foveon–. Por supuesto, al pasar de la teoría a la
práctica, surgen varios inconvenientes con lo que se debe lidiar, siendo uno de
ellos los problemas derivados del alineamiento del prisma(s).
Cámara fotográfica 3CCD para alto rendimiento

Por otro lado, la mayoría de estos sistemas basados en tres sensores solo se
utilizan en videocámaras, y no en cámaras de fotografía convencionales. La razón
principal la encontramos en el tamaño de los sensores empleados en cada uno
de estos sectores. Mientras que las videocámaras utilizan sensores relativamente
pequeños, las cámaras –no compactas– usan sensores cuyo tamaño es bastante
más grande. Y siendo justamente el sensor uno de los elementos más costosos
de la cámara, el uso de sistemas trisensor incrementa notablemente los costes
de la cámara, además de su tamaño, al tener que albergar todo el sistema
formado por el prisma más los tres sensores. Hoy en día, de hecho, solo se usan
en aplicaciones específicas de alto rendimiento y donde el coste no es el principal
factor a tener en cuenta.

FILTROS Y COLORES
Una de las mayores dificultades con las que se enfrenta un fabricante de sensores
de imagen es la interpretación del color a partir de la luz incidente, pues
normalmente los fotodiodos que componen su estructura solo son capaces de
captar la cantidad de fotones independientemente de su longitud de onda que
determina su información cromática.

Existen soluciones que permiten discernir esta información de color utilizando,


por ejemplo, filtros ópticos separadores, o bien haciendo uso de “filtros
verticales”, como en el caso de los sensores Foveon, que apilan hasta 3 capas de
sustratos diferentes cada una de ellas sensibles a un rango de longitudes de onda
específico.
Respuesta espectral de un sensor CMOS con filtro de colores RGB © Kodak

Sin embargo, la gran mayoría de sensores opta por emplear los llamados CFAs
(Color Filter Arrays) para interpolar la información de color. De estas matrices o
mosaicos de filtros de color el de Bayer es sin duda el más
conocido. Efectivamente, a principios de 1970, el doctor Bryce Bayer –que
trabajaba para Kodak– descubrió que se podía obtener una imagen en color
usando estos filtros a base de tres colores primarios (RGB o CMA) –hasta
entonces, las imágenes en color se obtenían superponiendo tres imágenes
idénticas obtenidas, cada una de ellas, con un filtro de color diferente–.

Pautas de Bayer para colores primarios RGB o CMY © Kodak


La matriz de Bayer más común está formada por mosaicos 2×2 que siguen
un esquema RGBG –el verde, que aporta mayor información de luminancia, se
repite dos veces–. A partir de aquí, para construir la imagen final es necesario
aplicar un algoritmo de interpolación específico –del que se encarga
el procesador de imagen– que minimice la aparición de artefactos de color; los
resultados dependen mucho del método de interpolación utilizado, motivo por el
cual la mayoría no dan a conocer los algoritmos que emplean.

Filtro de color pancromático según pauta RGBW © Kodak

Si bien es la más común, la pauta de Bayer no es el único de los filtros de color


que podríamos llamar “horizontales” –en contraposición con los “verticales” como
la estructura Foveon–. Por ejemplo, la propia Kodak introdujo en 2007 una nueva
pauta que utilizaba células pancromáticas que seguía un mosaico RGBW –RGB
más “blanco”– en una disposición típica de 4×4. La idea era mejorar la respuesta
en situaciones de escasa luz –gracias a la aportación de las células
pancromáticas–, pero la resolución después de interpolación no se veía mejorada.
El Filtro RGBE, un intento de Sony © CC

Otro intento similar fue el de Sony con su filtro RGBE –RGB + “esmeralda”–, que
busca una reproducción del color más afinada que la que podía conseguirse con
el filtro de Bayer clásico. Pese a que se llegó a incorporar en modelos comerciales
–Sony F-828–, no tuvo continuación, debido seguramente a los problemas
derivados de su procesado particular que no daban los resultados esperados en
cuanto a la representación del color.
EXR, combinando píxeles

Disposición del sensor Fujifilm EXR © CC

Uno de los filtros de color que cosecharon gran éxito en cuanto a sus resultados
fueron los basados en el esquema EXR de Fujifilm. Esta tecnología fue introducida
en la gama de sensores Súper CCD de la firma, durante la Photokina 2008. Su
particular disposición –con una rotación de 45º– permitía que hubiera siempre
dos fotodiodos adyacentes que captasen el mismo color, pero su gran ventaja
era la capacidad de procesar la mitad de sus píxeles por separado.

Gracias a esta nueva arquitectura EXR se podía así mejorar la contribución


del “píxel binning” y obtener una mejor sensibilidad mezclando la información de
dos células adyacentes, lo que en la nomenclatura de Fujifilm se conoce como
“High Sensitivity & Low Noise” o SN mode. Los sensores basados en este
esquema permitían también realizar dos exposiciones distintas y mezclarlas con
el fin de obtener una imagen final con mayor rango dinámico, mediante el uso
del modo DR o “High Dynamic Range”. Por supuesto, la contrapartida era la
obtención de una imagen final con menor resolución. Lamentablemente,
los Super CCD EXR llegaron su fin en 2011.
Modo SN del Super CCD EXR ©
Fujifilm

X-Trans, la matriz “aleatoria”


Pero, sin lugar a dudas, uno de los filtros de color que mejor acogida está
teniendo en el mercado es el filtro X-Trans, también creación de Fujifilm. Con el
objetivo de minimizar el efecto muaré y los colores falsos con los que debía lidiar
la pauta clásica de Bayer, el X-Trans introdujo una nueva pauta con un arreglo
de 6×6 píxeles, lo que daba lugar a una disposición más aleatoria, inspirada en
cierto modo en la naturaleza aleatoria natural de los cristales de haluro de plata
de la película.

El sensor X-Trans intenta simular con su disposición la naturaleza aleatoria de la película

El sensor X-Trans CMOS apareció por primera vez en 2012 en la cámara X-Pro1
de Fujifilm, que inauguraba una nueva gama de cámaras mirrorless de la
compañía, la serie X. Una familia que ha ido creciendo hasta la actualidad, y
cuyos resultados más que satisfactorios hacen de esta tecnología una alternativa
convincente a las cámaras basadas en los clásicos filtros de Bayer, sobre todo en
cuanto a resolución se refiere.
La X-Pro1 introdujo por primera vez el sensor X-Trans CMOS © Fujifilm

El gran inconveniente de las cámaras basadas en esta arquitectura es


la complejidad del procesado de datos que se deriva de esta matriz 6×6, mucho
más complicada que la convencional de 2×2. Ello depende en gran medida de la
capacidad de cálculo del procesador de imagen EXR que se encarga de la
interpolación cromática correspondiente.

Comparación del sensor X-Trans y la pauta de Bayer © Fujifilm

Con el sensor X-Trans se democratizó también la eliminación del filtro paso bajo o
de “anti-aliasing” que “nublaba” la capacidad resolutiva de los sensores, y
permitió obtener imágenes de una gran calidad de imagen a pesar de utilizar un
tamaño relativamente pequeño –APS-C– respecto a los estándares
“profesionales”, que optan en su mayoría por sensores de formato 24×36 mm.

SENSOR RETROILUMINADO
Si bien la tecnología CCD fue la primera en despegar en cuanto a sensores de
imagen se refiere, en los últimos años son los sensores CMOS los que llevan la
voz cantante. Ello no significa que estos últimos sean superiores técnicamente
en todos los aspectos, pero su mayor capacidad de integración y su menor
consumo les otorgan una ventaja prácticamente decisiva en el mercado actual.
Sensores retroiluminados

No obstante, como vimos en CMOS contra CCD, los sensores basados en una
arquitectura CCD suelen mostrar cierta superioridad en cuanto a calidad de
imagen se refiere, sobre todo en términos de ruido. Por este motivo, los
sensores CMOS no han dejado de evolucionar para poder reducir este gap con
los sensores CCD. Y es que, ganadas las batallas por la mayor integración y
menor consumo, la pugna por una mejor calidad de imagen era la siguiente meta
a conquistar. Es en este punto donde entra en juego un importante avance: el
de la retroiluminación y los sensores BSI-CMOS.

La historia del sensor BSI (de Back-Side Illuminated) –o simplemente BI


(de Back Illuminated)– o sensor retroiluminado empezó con OmniVision,
uno de los principales fabricantes de sensores de imagen, pero fue Sony quien
tomó la delantera y anunció, en junio de 2008, el primer modelo basado en esta
tecnología para su comercialización en masa. La multinacional japonesa había
dado con la clave para reducir los costes de fabricación de esta nueva tecnología,
cuya compleja estructura requería hasta entonces de un costoso proceso.

Sección transversal de un sensor BSI-CMOS © Sony


¿Qué aportaba el BSI-CMOS al CMOS convencional? Dos aspectos clave en la
determinación de la calidad de imagen: una mayor sensibilidad y un
menor ruido. En efecto, uno de los principales problemas de los sensores CMOS
respecto los CCDs era que, debido a la circuitería de estos primeros que
integraban en el propio chip, la superficie total del sensor sensible a la luz se veía
reducida, motivo por el cual los sensores CCD aprovechaban mejor la luz
incidente.

Tal como relataba Sony en su anuncio de 2008, el nuevo sensor retroiluminado


permitía cuadruplicar la sensibilidad, gracias a la iluminación de la parte trasera
del sustrato de silicio. En un arquitectura CMOS convencional –”front-
illuminated”– tanto el cableado metálico como los transistores de la
superficie del sustrato de silicio impedían que parte de los fotones que incidían
en el sensor pudieran ser absorbidos por las microlentes. En cambio, en una
arquitectura retroiluminada –”back-illuminated”–, estos obstáculos –cableado y
transistores– eran trasladados en el reverso del sustrato de silicio, aumentando
así la cantidad de fotones absorbidos.

Comparación de la estructura de un sensor CMOS convencional (izquierda) con un sensor retroiluminado


BSI-CMOS (derecha) © Sony

La comercialización del primer sensor BSI-CMOS de Sony –bajo el nombre


comercial de EXMOR R– supuso una importante mejora en cuanto a
prestaciones en condiciones de luz escasa, y los demás fabricantes de
cámaras no tardarían en abrazar esta nueva tecnología. Sin embargo, fueron los
fabricantes de smartphones los primeros en aprovechar claramente las ventajas
de sensores BSI-CMOS en sus teléfonos móviles, pues era precisamente el hecho
de poder ofrecer mejores resultados en condiciones de luz escasa lo que más
ansiaban sus pequeños captores; el sensor del iPhone 4s, fabricado por Sony,
fue uno de los primeros ejemplos.

Comparación de la estructura de un sensor ‘stacked’ (izquierda) con un sensor sin la circuitería ‘apilada’
(derecha) © Sony

Fue Sony también, en 2012, quién dio una vuelta de tuerca más a los sensores
retroiluminados con los BSI Stacked CMOS, bajo el nombre comercial
de EXMOR RS, y con los que se mejoraba aún más la captura efectiva de fotones
por parte del sensor. Los sensores stacked apilan la capa correspondiente a los
píxeles por encima de la capa de circuitería digital –donde se realiza el procesado
de imagen–, en vez de utilizar la típica estructura de los sensores
retroiluminados que hace uso de los sustratos de soporte convencionales. De
hecho, esta es la tecnología en la cual la multinacional japonesa está
enfocando sus recursos, tal como demostraba, en febrero de 2015, su
predisposición a aumentar la capacidad de producción de sensores stacked,
pasando de los 60.000 wafers –obleas– de silicio mensuales hasta las
80.000 durante el presente año 2016 –una predisposición que, por otro lado, se
ha visto alterada por el recién terremoto de Kumamoto, que ha mermado las
cadenas de producción de la compañía–.

Sony A7R II
Una vez más, son los sensores de pequeñas dimensiones –que equipan la
mayoría de smartphones y compactas más sencillas– los que sacan mayor
provecho de esta tecnología, pues son los más afectados por la relación señal a
ruido y la sensibilidad que se deriva. Aun así, Sony –actual líder indiscutible en
cuestión de sensores de imagen– también ha implementado los sensores
retroiluminados en cámaras con sensores de mayores dimensiones, como es el
caso del captor de 24×36 mm que encontramos en la Sony A7R II, con
resultados muy satisfactorios.

LOS PRIMEROS SENSORES DIGITALES


Los primeros sensores digitales en fotografía llegarían de la mano de Kodak
en 1975 –los laboratorios Bell ya habían empezado a usarlos en cámaras de
vídeo en 1970–, con la introducción de los primeros sensores CCD, que
paulatinamente fueron perdiendo terreno en favor de los menos
costosos sensores con tecnología. Estos primeros sensores tenían muy poca
resolución –apenas 0,01 Mpx–, y estaban destinados a usos claramente
científicos.

Kodak fue un pionero en la fotografía analógica pero también en la digital; su prototipo de 1975 –del tamaño
de una tostadora– fue la primera cámara fotográfica en usar un sensor digital © Kodak

Los avances se sucedieron con relativa celeridad, y en 1991, Kodak una vez más,
lanzaría un respaldo con un sensor digital montando sobre una Nikon F3, lo que
daría lugar al primer sistema “réflex” digital, el Kodak DCS – Kodak
Professional Digital Camera System– que, como indica su nombre, estaba
orientado al mercado profesional. Se trataba de un sensor de 1,3 Mpx con un
tamaño de 20,5 × 16,4 mm.
La Kodak DCS 100 permitía “transformar” la
fílmica Nikon F3 en digital respaldo mediante

Pero las consideradas como las primeras cámaras digitales orientadas


al consumo masivo fueran las Kodak DC. Sin embargo, una de las más
representativas fue la Apple QuickTake 100, lanzada en 1994 por un precio
inferior a la barrera psicológica de los mil dólares. Estaba construida por Kodak
–bajo el diseño de la Kodak DC 40–, y disponía de un sensor digital de solo 0,3
Mpx y que apenas medía 5,8 x 3,8 mm. Fabricar sensores digitales era un reto
tecnológico, y su tamaño era uno de los puntos más críticos.

La Apple QuickTake 100 –fabricada por Kodak– es considerada por algunos como la primera cámara digital
para gran consumo

El formato APS-C, en digital


Mientras tanto, en el sector profesional, se lanzaba, después de más de tres años
de desarrollo, la Nikon D1, que incorporaba un sensor CCD de 2,7 Mpx con un
tamaño de exactamente 23,7 x 15,6 mm. Era 1999 y acababa de
nacer el formato DX, muy similar al tamaño de una película APS-C. Respecto
la película clásica de 35 mm, este formato presentaba un factor de
recorte de 1,5x. De hecho, fue muy difícil para Nikon encontrar una fábrica que
se decidiera a producir estos complejos sensores, que presentaban importantes
problemas de consumo y limitaciones de velocidad de lectura debido a su
tamaño.

La Nikon D1 fue la primera DSLR con sensor DX de formato APS-C

Apenas un año más tarde, en 2000, el que sería su gran competidor lanzaba su
primera DSLR enteramente fabricada por el mismo: la Canon EOS-D30. Era la
primera EOS digital de la marca, e incorporaba un sensor APS-C de 3,1
Mpx con un tamaño de 22,7 x 15,1 mm, apenas inferior al formato DX de
Nikon, y daba lugar a un factor de recorte de 1,6x. Sin embargo, no se trataba
de un sensor CCD, sino de un sensor CMOS, una tecnología que permitiría en lo
sucesivo reducir los costes de producción de los sensores digitales. La Canon
EOS-D30 estaba por entonces enfocada al sector “entusiasta” o prosumer.

Los primeros sensores digitales de formato APS-C llegaron de la mano de la Nikon


D1 en 1999; un año más tarde, Canon se subía al carro con la EOS-D30 y, en
2001, con la Canon EOS-1D, se presentaba el primer sensor APS-H

Canon se animaría con un sensor de mayores dimensiones un año más tarde, en


2001, con su Canon EOS-1D y su sensor APS-H de 4,2 Mpx y 28,7 x 19,1
mm, un nombre y dimensiones que recordaban también en este caso al formato
de película APS, que contemplaba una variante H de “High Definition”. El APS-H
presentaba un factor de recorte de 1,3x y se aproximaba un poco más al tamaño
de 24 x 36 mm de la película de 35 mm, una meta que los fabricantes buscaban
alcanzar para poder disponer así de sus ópticas diseñadas para película analógica
sin recorte alguno. Curiosamente, el sensor de la EOS-1D no estaba fabricado
por Canon, sino por Panasonic, y era de tipo CCD. Su fabricación y precio estaban
claramente orientados al mercado profesional.
En busca del sensor 24 x 36 mm digital

Comparativa de sensores de la Canon EOS-1D, Nikon D1 y Canon EOS-D30

Si comparamos las resoluciones y tamaños de los sensores de las Nikon D1,


Canon EOS-D30 y Canon EOS-1D, observamos un punto en común: en todas
ellas el tamaño de píxeles de aproximadamente 10 µm. Al parecer, la
tecnología de entonces no permitía reducir este tamaño –y por tanto aumentar
la resolución– sin derivar en complicaciones ya fueran de fabricación, ya fuesen
de prestaciones. Para aumentar la resolución, solo quedaba seguir aumentando
el tamaño del sensor… y llegar así al ansiado formato de 24 x 36 mm.

No habría que esperar mucho para ello. A principios de 2002, salía a la venta la
japonesa Contax N, con un sensor CCD Philips FTF3020-C de 6 Mpx de
resolución y cuyo tamaño era equivalente al del famoso negativo de 35 mm,
sensor que, de hecho, ya había sido utilizado anteriormente en un respaldo
digital. La Contax N fue así la primera DSLR con sensor 24 x 36 mm en
comercializarse –el prototipo Pentax MZ-D, anterior a la Contax, nunca vio la luz–
, aunque su éxito no fue el esperado.
La Canon EOS-1Ds fue la primera DSLR con
sensor 24 x 36 mm en cosechar un real éxito en el mercado

Si lo fue en cambio el de la Canon EOS-1Ds, lanzada a finales del mismo año


2002, que también incorporaba un sensor equivalente al negativo de 35 mm, de
exactamente 35,8 x 23,8 mm. Esta vez se volvía a la tecnología CMOS, y Canon
se atrevía entonces con una resolución de 11,1 Mpx. Sin embargo, su inmediato
competidor tardaría cinco años más en presentar su primera DSLR en formato 24
x 36 mm, la Nikon D3. Era 2007, y la nueva réflex digital de Nikon albergaba un
sensor CMOS de 12 Mpx de exactamente 36 mm × 23,9 mm, que inauguraba
el formato FX de la compañía.

El sensor digital sin “herencias”


Pero retrocedamos unos años atrás, a 2003 exactamente. Mientras Canon y
Kodak avanzaban con sus modelos de DSLR con sensores digitales de 24 x 36
mm –Kodak lanzaba por entonces su sistema Kodak DCS Pro–, herederos de la
“antigua” película de 35 mm, Olympus lanzaba al mercado un concepto
completamente nuevo; nacía, con la Olympus E-1, el Formato Cuatro
Tercios. En vez de seguir las directrices marcadas por el negativo de 35 mm –
que recordemos proviene de la “casual” unión de dos fotogramas de cine de 18
x 24 mm, hace casi 100 años–, la compañía japonesa se proponía diseñar un
sistema digital partiendo de cero, sin restricciones que provinieran de la era
fílmica.
La Olympus E-1 fue diseñada de forma “puramente digital”, sin herencias fílmicas © Olympus

Así pues, la Olympus E-1 fue concebida como la primera DSLR “puramente
digital“, con un diseño óptico telecéntrico que buscaba encontrar el equilibrio
óptimo entre tamaño de sensor, peso del equipo y calidad óptica. Así pues, la E-
1 incorporaba un sensor CCD Kodak KAF-5101C que medía exactamente 17,8 x
13,4 mm, y que ofrecía una resolución de 5,1 Mpx. El factor de recorte
resultante era, por tanto, de aproximadamente 2,0. Su tamaño de pixel de 6,8
µm era algo más pequeño que el de la Canon EOS-1Ds, que era de 8,8 µm.

La apuesta de Olympus con su E-1 de formato Cuatro Tercios planteaba un nuevo


concepto en fotografía digital, pues había sido diseñado sin las “herencias”
fílmicas del pasado

Otra novedad interesante era que, al no heredar el formato del negativo de 35


mm con relación 3:2, se había diseñado bajo una relación de aspecto de 4:3,
lo que permitía aprovechar mejor el círculo de imagen y la luz que entraba a
través de sus ópticas. Y es que el peso del cuerpo de la E-1 era de apenas 660
g, cuando para la EOS-1Ds era de 1265 g, casi el doble. Y ello, sin contar con los
objetivos. El sistema de Olympus plantearía un importante dilema en un
mercado obsesionado por ofrecer mayores resoluciones y sensores de mayores
dimensiones…

Nacen las mirrorless


El formato Cuatro Tercios seguiría evolucionando, aportando muchas
innovaciones que muchos competidores adaptarían en sus cámaras –como el
famoso sistema de limpieza del sensor de Olympus–, y sumando adeptos como
Sigma o Panasonic. A finales de 2008, este último fabricante lanzaba al mercado
la Panasonic Lumix DMC-G1, que introducía el formato Micro Cuatro
Tercios, una adaptación del original que inauguraba una nueva categoría:
las cámaras mirrorless o “sin espejo” con objetivos intercambiables. La G1
disponía de un sensor Live MOS de 12 Mpx con unas dimensiones de 17,3 x 13
mm, lo que seguía dando lugar a un factor de recorte de 2,0x –en comparación
con el negativo de 35 mm–. Un sensor de tamaño equivalente al de la Olympus
E-1 pero en un cuerpo aún más reducido, con un peso de apenas 385 g.

La Panasonic Lumix G1 fue la primera mirrorless de objetivos intercambiables © Panasonic

Así pues, mientras Canon y Nikon consolidaban poco a poco el mercado


profesional con sus DSLR con sensores de 24 x 36 mm –relegando los de formato
APS-C para los usuarios “entusiastas”–, las mirrorless intentaban acaparar el
resto del mercado con una aproximación más “digital” a la vez que buscaban
acercarse al usuario novel, que tradicionalmente se orientaba a las cámaras
compactas de menor peso y precio.

La X-Pro1 introdujo por primera vez el sensor X-Trans CMOS © Fujifilm

Pero, a pesar de sus orígenes, el concepto “ mirrorless” se extendió más allá de


formato Micro Cuatro Tercios; fabricantes como Fujifilm o Sony, rezagados en la
lucha que Canon y Nikon mantenían en el segmento de las DSLR, fueron también
partidarios de eliminar el “espejo” de sus cámaras para entrar en el emergente
segmento de las mirrorless. Así pues, a mediados de 2010, Sony inauguraba su
serie de cámaras sin espejo con objetivos intercambiables NEX, dotadas
de sensores APS-C. A principios de 2012 la X-Pro1 de Fujifilm hacía su
aparición, con un sensor APS-C de 16 Mpx. de tecnología X-Trans CMOS, una
alternativa a la tradicional pauta de Bayer que permitía obtener a Fujifilm
resultados comparables a los de cámaras con sensores de mayores dimensiones.
Y apenas un año y medio más tarde, en 2013, Sony volvía a la palestra con
la Alpha 7 de 24 Mpx, primera mirrorless de objetivos intercambiables en
incorporar un sensor de 24 x 36 mm, un segmento hasta entonces reservado a
las DSLR. Su tamaño de píxel era de solo 6 µm.

La Sony Alpha 7 fue la primera “mirrorless de


sistema” con un sensor 24 x 36 mm © Sony

Los sensores digitales, aún más grandes


Pese a todo, algunos fabricantes seguían inmersos en la cada vez más difícil
tarea de elaborar un sensor aún más grande. Después de haber conseguido
integrar los primeros sensores digitales de 24 x 36 mm en 2002 –Contax N y
Canon EOS-1Ds–, el siguiente paso era, evidentemente, el formato medio.
Por supuesto, este mercado estaba claramente orientado al segmento
profesional –teniendo en cuenta los altos costes de producción asociados–, por
lo que se trataba más bien de una batalla de unos pocos, algunos de los cuales
ya disponían de una larga tradición en el formato medio fílmico.
El primer respaldo digital de formato medio, el Leaf DCB1, también conocido como “The Brick” (“El
Ladrillo”), por razones obvias… © Sinar component

Pero antes de hablar de cámaras de formato medio como tales, hay que
remontarse primero a los respaldos digitales. En efecto, en 1991, la compañía
americana Leaf –ahora parte de Phase One– sacaba al mercado el primer
respaldo digital de formato medio, el Leaf DCB1, que incluía un sensor cuadrado
de 40 x 40 mm con una resolución de 4 Mpx. Los sistemas basados en respaldos
digitales se sucedieron, como las Hasselblad H o las Mamiya 645, pero a finales
de septiembre de 2004 , este último fabricante lanzaba la Mamiya ZD, que con
un sensor CCD de 36 x 48 mm –es decir, dos veces la superficie de un 24 x 36
mm– y una resolución de 21,3 Mpx. se convertía en la primera DSLR de
formato medio. El tamaño de pixel era de aproximadamente 9 µm, similar pues
al de las primeras DSLR 24 x 36 mm lanzadas dos años antes.

La Mamiya ZD podría considerarse la primera DSLR


de formato medio digital “todo-en-uno” © Mamiya

Desde entonces, la resolución de los sensores digitales de formato medio ha ido


aumentando paulatinamente a medida que la tecnología ha ido evolucionando.
Hace pocos meses, Hasselblad presentaba su DSLR de formato medio H6D-
100c, con un sensor CMOS de 40 x 53,4 mm con una resolución de nada menos
que 100 Mpx, al igual que Phase One con su XF 100Mp. En el
segmento mirrorless, la misma compañía lanzaba hace pocos días la Hasselblad
X1D, la primera digital de formato medio “sin espejo”, con un sensor CMOS
de 43,8 x 32,9 mm y una resolución de 50 Mpx. En este último caso hablamos
de un tamaño de píxel de aproximadamente 5 µm.

Las compactas luchan por sobrevivir

Por supuesto, las cámaras compactas también seguían su camino, pero


empezaban a encontrarse acechadas por el emergente mercado de
los smartphones, impulsado sobre todo por el lanzamiento del iPhone a finales
de 2007. Nadie hubiera adivinado por entonces, que pocos años más tarde, se
convertiría en el dispositivo más utilizado para capturar imágenes.

Los smartphones se han convertido en los dispositivos más usados para capturar imágenes © Apple

En efecto, los relativamente diminutos sensores de las compactas –en


comparación con las mirrorless o las DLSR–, con sensores generalmente de entre
1/2,3″ y 1/1,7″, no aportaban una clara ventaja respecto los smartphones que,
con sensores de similares dimensiones, tenían la batalla ganada de antemano,
pues estos últimos se llevaban siempre a mano. Por este motivo, fabricantes
como Canon con las PowerShot G o como Panasonic con su serie LX intentaban
aferrarse a un sector más avanzado, de compactas premium, gracias a una
ergonomía más completa y ópticas más luminosas y de mayor calidad.

Compactas premium
A pesar de ello, los fabricantes de cámaras compactas tuvieron que dar el salto
a sensores de mayores dimensiones para poder diferenciarse aún más de los
dispositivos móviles. La Canon PowerShot G1 X, presentada a principios
de 2012, incorporaba nada menos que un sensor de 1,5″, pero su peso
sobrepasaba alegremente los 500 g, demasiado para una “compacta” como tal.
Llegaría entonces Sony, apenas unos meses más tarde, con la CyberShot
RX100 y su afamado sensor de 1″ de 13,2 x 8,8 mm. Su peso era de apenas
240 g; toda una proeza de miniaturización. Otros fabricantes no tardarían en
sumarse a la moda de las “compactas con sensor grande”, muchos de ellos
incorporando el mismo sensor de 1″ fabricado por Sony. Hoy en día, estas
compactas incluyen sensores retroiluminados con una resolución de nada menos
que 20 Mpx, todo un reto si nos atenemos al tamaño de estos captores. Y es
que estamos hablando de un tamaño de píxel de apenas 2,4 µm, algo
impensable no hace tanto tiempo.
La RX100 IV es la última compacta “premium” de Sony que incorpora el afamado sensor de 1″ de la firma
© Sony

Así pues, mientras algunos fabricantes asimilan mayor calidad de imagen a


sensores más grandes, otros optan por sensores de tamaño medio que les
permita elaborar cámaras más compactas, sin tener que sacrificar en exceso
esta calidad de imagen tan ansiada

Sensores y sistemas
Tradicionalmente, el tamaño del sensor ha sido uno de los elementos que
permitía trazar líneas divisoras entre los distintos tipos de cámaras: formato
2/3″, formato 1/1,7″, formato de 1″, formato (Micro) Cuatro Tercios, formato
APS-C, formato APS-H, formato 24 x 36 mm, formato medio, gran
formato… Algunas de estas líneas vienen heredadas del tamaño de la película,
rollo o placa de las cámaras analógicas; otras, de los innovaciones de la era
digital. Sin embargo, la variedad actual de formatos y sistemas de cámaras
digitales hace difícil establecer, hoy en día, una clara diferenciación entre unas y
otras. Sea como fuere, el tamaño de la superficie fotosensible ha servido y sirve
para dividir y clasificar los distintos tipos de cámaras. ¿Pero servirá en el futuro?
No solo en
fotografía existen multitud de formatos de sensores; en la imagen, una comparativa de tamaños de
sensores usados para grabación de vídeo © Zeiss

Se suele asumir que, a condiciones iguales, un sensor –o superficie


fotosensible– de mayor tamaño suele implicar una mejor calidad de imagen,
pero esta afirmación requiere de importantes matices. El primero lo
encontramos, claro está, en la propia definición de “condiciones iguales”; es
prácticamente imposible comparar dos sistemas equivalentes con diferentes
tamaños de sensores, pues cada uno de ellos suele aplicar diferentes
soluciones al resto de aspectos y elementos que completan el sistema. Y aquí
entramos en el que es seguramente el aspecto clave en la evaluación de la calidad
de imagen de una cámara en función del tamaño del sensor: hoy en día no
podemos hablar solo de sensores, sino del sistema completo que conforma la
cámara.
Hoy en día no tiene sentido hablar del sensor Foveon X3 de Sigma sin tener en cuenta el procesador que
gestiona e interpreta los complejos datos de su arquitectura tricapa, por ejemplo, en la Sigma sd Quattro
H; se trata de un sistema indisociable, cuyo rendimiento conjunto determina la calidad de imagen
resultante © Sigma

Por sistema entendemos el conjunto del subsistema de captura, formado por


el sensor y el procesador, más el subsistema óptico formado por los
elementos ópticos –objetivos principalmente–. Así pues, de poco sirve tener
un sensor de grandes dimensiones si los objetivos diseñados para tal sensor no
aprovechan al máximo el potencial del mismo; de hecho, puede ocurrir que
una cámara con un sensor de menores dimensiones tenga una calidad de
imagen global superior a una cámara con sensor más grande, debido a un
mejor equilibrio de sus objetivos que, por otro lado, serán más fáciles de
diseñar, pues cuanto mayores sean las dimensiones del sensor, más complicado
será fabricar una óptica de calidad acorde al potencial de dichos sensores.

El tamaño de los sensores –y más extensamente, la superficie sensible– ha


servido y sirve para clasificar los distintos tipos de cámaras; sin embargo, la
fotografía digital ha introducido numerosas variables que hacen difícil continuar
con dicha división; es necesario referirse al concepto de sistema formado por
sensor, procesador y óptica, todo ellos relacionados por procesos digitales

Por otro lado, eso no significa que reducir el tamaño del sensor –para facilitar
así el diseño del subsistema óptico– sea una solución, pues entonces toparemos
con conocidas limitaciones físicas tales como la difracción, uno de los mayores
problemas con lo que deben lidiar las cámaras con sensores más pequeños.
El equilibrio de los ambos subsistemas –captura y óptico– es, pues, unos de
los factores más importantes que deben tenerse en cuenta a la hora de evaluar
la calidad de imagen final.

Algunos fabricantes, como por ejemplo Fujifilm, usan algoritmos


especiales para mitigar los problemas de la difracción, algo especialmente sensible en sensores de cámaras
compactas, como la X30; una cámara que de hecho responde a un claro equilibrio entre sensor y óptica ©
Fujifilm
Las reglas del juego digital
Si en los inicios de la fotografía fotoquímica ya era de por sí difícil evaluar la
calidad de imagen en función de la superficie fotosensible utilizada, la incursión
de los sistemas digitales no ha hecho más que complicar aún más dicha
evaluación. En efecto, en la fotografía digital, el tamaño del sensor es solo un
factor más a tener en cuenta, y seguramente, a día de hoy, ya no sea, siquiera,
el principal.

La tecnología del sensor, el proceso de fabricación o las correcciones digitales


son algunos de los aspectos que deben tenerse en cuenta para evaluar la calidad
de imagen final, además del tamaño del sensor en sí

En este sentido, la propia tecnología del sensor es –de hecho– un factor de


gran importancia, y que trasciende más allá del tamaño del sensor. Fabricantes
tales como Fujifilm han mostrado que sus sensores X-Trans CMOS de formato
APS-C pueden llegar a obtener resultados similares a los obtenidos con sensores
de mayores dimensiones. Igualmente, Sony, cuya tecnología de fabricación
permite obtener sobresalientes resultados en cuanto a relación señal a ruido se
refiere, hasta tal punto que hoy en día es uno de los líderes indiscutibles del
mercado de sensores digitales. Ciertamente, el tamaño de pixel suele ser
determinante en la evaluación de la calidad de imagen –existen limitaciones
físicas que no pueden ser obviadas–, pero la tecnología utilizada –como
la retroiluminación– condiciona enormemente los resultados. Y es que una cosa
es el tamaño del sensor, y otra muy diferente es cuánto y cómo se aprovecha
esa superficie.

Las compactas RX100 de Sony ofrecen notables resultados a pesar de su sensor de (apenas) 1″ de
tamaño, gracias en parte a la tecnología empleada por el fabricante © Sony

Por otro lado, a diferencia de los procesos fotoquímicos, los procesos digitales
han multiplicado las variables a tener en cuenta, pues las señales digitales
permiten ser manipuladas en tiempo real por los correspondientes algoritmos
digitales que hacen uso de estas. Estos algoritmos y los procesadores de
imagen que los ejecutan son piezas clave en la determinación de la calidad de
imagen. Así pues, en la era digital no se puede hablar solo de tamaño de sensor
o de sensor a secas, sino del conjunto formato por sensor y procesador, lo que
venimos llamando subsistema de captura.

Detrás de un gran sensor hay siempre un gran


procesador © Fujifilm

Un ejemplo de ello son los algoritmos de reducción de ruido: una mejor


implementación de los mismos puede hacer que un sensor de menor tamaño
obtenga mejores resultados que uno mayor. Es verdad que hoy en día las mejoras
que se pueden obtener mediante estos algoritmos está limitada, en parte por
la capacidad de cálculo de los procesadores, en parte por la autonomía de los
dispositivos. Pero en tecnología digital, los avances se suceden a ritmos mucho
más acelerados que los tempos marcados tradicionalmente por la fotografía. Sin
ir más lejos, ¿cuánto falta para que los sistemas de reconocimiento de
formas sean capaces de identificar inequívocamente los objetos contenidos en
una imagen? ¿Cómo podremos evaluar entonces la calidad de imagen a partir
solo del sensor si el procesador es capaz de reconocer objetos y aplicar algoritmos
con resultados hoy impensables?

Los algoritmos digitales que “corren” los procesadores de imagen


son capaces de mejorar el resultado final gracias a su potencia de cálculo; en la imagen, procesadores
Dual DIGIC © Canon Inc.

Si además tenemos en cuenta que, hoy en día, son justamente


los smartphones –con sus “diminutos” sensores– los dispositivos de captura
más utilizados, y que las grandes empresas que están detrás –Apple, Samsung,
Huawei, LG…– disponen de muchos recursos, podemos predecir un auge
de innovaciones tecnológicas y digitales que permitirán seguir
incrementando el rendimiento de sus sensores y procesadores que harán de sus
dispositivos móviles rivales de cámaras fotográficas mucho más grandes.
Los fabricantes de smartphones no solo buscan incrementar el rendimiento de
sus sensores y procesadores, sino que optan por todo tipo de soluciones con tal
de minimizar la influencia de los pequeños sensores de sus teléfonos; en la
imagen, la óptica dual de Huawei P9 © Huawei

Por supuesto, estas innovaciones se están llevando también a cabo en


el subsistema óptico, gracias no solo al empleo de nuevos materiales sino a
los diseños ópticos computarizados donde la tecnología digital es en gran parte
culpable, hasta tal punto que actualmente es difícil evaluar el rendimiento
óptico puro sin tener en cuenta las correcciones digitales que se cuecen en
los procesadores digitales.

Los procesos digitales se inmiscuyen incluso en el terreno de las ópticas, no solo


para mejorar el rendimiento global del equipo, sino para abaratar los costes de
los objetivos, pues es más rentable corregir por “software” que por diseño óptico;
una vez más, no tiene sentido hablar de elementos por separado, sino de sistema
completo

¿Una cuestión de tamaño?


Por último, y no menos importante para la gran mayoría de usuarios, está la
cuestión del precio. Si en nuestro análisis sobre tamaños de sensores y calidad
de imagen introducimos este factor, entonces podemos asentir que el sistema
que ofrecerá la mejor calidad de imagen para un precio determinado no será
aquel con el sensor de mayores dimensiones, pues, como en la mayoría de los
sistemas –más allá del fotográfico– el punto óptimo suele encontrarse
generalmente en aquel punto intermedio en el que los subsistemas se
mantienen balanceados entre sí. Dicho en otras palabras, para un precio
determinado, si el sensor es demasiado grande –y, por tanto, caro–, no quedará
margen para que las ópticas que lo acompañen exploten su potencial. Será
necesario entonces escoger una cámara con sensor de menores dimensiones que
permita así invertir en ópticas acordes y obtener así un equipo equilibrado. Una
cuestión de tamaño que es, en el fondo, una cuestión de equilibrio.

Vous aimerez peut-être aussi