Vous êtes sur la page 1sur 32

seguramente, en más de una oportunidad hemos oído el término Píxel, y a pesar

de tratarse de una de las palabras más frecuentemente utilizadas desde que ha


comenzado la era digital, lo cierto es que muchos usuarios desconocen a qué se
refiere en profundidad dicho concepto.

La palabra píxel surgió hace años como acrónimo del concepto en inglés "Picture
Element", que en castellano significa elemento de imagen, y consiste básicamente
en la más pequeña unidad homogénea en color que compone la imagen digital.

Es por ello, que el píxel es uno de los elementos fundamentales para que sea
posible la existencia de imágenes digitales de diversas categorías, ya que esta
imagen puede corresponder a un formato de fotografía, un fotograma de video, o
incluso un gráfico.

Para poder visualizar un píxel individual en una imagen digital determinada, lo que
debemos hacer es ampliar lo suficiente dicha imagen en la pantalla de nuestra
computadora, y allí podremos observar que se dibujan diminutos rectángulos de
diferentes colores, los cuales son precisamente los pixeles que conforman la
imagen en cuestión.

Cabe destacar que esto es posible debido a que todas las imágenes digitales
están formadas como una matriz rectangular de píxeles. Allí, cada uno de los
pixeles individuales que conforman la imagen crean el conjunto de diversas áreas
pequeñas, que son parte de la imagen completa.

Profundidad del color por pixeles

Cuando se habla de profundidad de color, el concepto se refiere puntualmente


a la forma de codificación de cada uno de los pixeles que conforman una
imagen, y que en definitiva brinda la posibilidad de lograr una completa gama de
tonalidades.

Para ello, en las imágenes de mapa de bits cada uno de los pixeles es codificado
individualmente por intermedio de un conjunto de bits de longitud determinada.

Por lo general, en el terreno de la fotografía digital suelen emplearse tres bytes


para definir un color, por lo que es posible representar 224 colores en total, los
cuales logran sumar 16.777.216 opciones de color, consiguiendo de esta forma
que las imágenes alcancen un color verdadero.

El popular RGB

Cuando trabajamos sobre una imagen digital, y necesitamos transformar la


información numérica que almacena un píxel en un color, no sólo debemos
conocer la profundidad del color, sino también el brillo y el modelo de dicho
color. Para ello, es imprescindible conocer el tamaño en bits de cada píxel.

Uno de los modelos de color más utilizados en la actualidad suele ser el


denominado RGB, que toma su nombre de las palabras en inglés Red-Green-
Blue, es decir rojo, verde y azul, ya que se refiere a los tres colores básicos que
permiten componer las diferentes tonalidades de la paleta de colores.

De acuerdo a la cantidad de pixeles en los cuales aparezca uno de los colores


mencionados, podremos lograr diferentes resultados, al igual que sucede cuando
mezclamos acuarelas en la paleta de pintura.

De la misma manera que en la disciplina de artes plásticas, cuando mezclamos


pixeles de color rojo y verde, obtendremos como resultado una zona de la
imagen en color amarillo, y así sucesivamente para crear diversas tonalidades.

Debido a su composición, en la actualidad la mayoría de los dispositivos


informáticos y digitales, tales como los monitores, los escaners, las cámaras
fotográficas y demás, suelen utilizar el modelo RGB para la representación de las
imágenes.

Para conocer más información al respecto, te recomendamos la lectura de los


artículos titulados "Megapixel, Texel y Voxel" y "Qué son los pixeles muertos?".
Dentro del universo referido a las imágenes digitales también existen otros
términos que se emplean para definir determinados elementos que componen
dicha imagen, entre los cuales se encuentran los megapixeles, el texel y el voxel.

No obstante, a pesar de que seguramente en reiteradas oportunidades hemos


oído mencionar estas palabras, lo cierto es que la mayoría de los usuarios
desconocen cuál es el concepto fundamental que encierra cada uno de estos
términos.

En el presente artículo, repasamos algunas de las características esenciales de


cada uno de estos componentes.

Megapixel

En principio, es importante destacar que al referirnos a los megapixeles de una


imagen digital, nos encontramos hablando de una medida que corresponde a
dicha imagen. En este sentido, un megapixel, que por lo general se expresa con la
abreviatura Mpx, equivale a 1 millón de pixeles.

Por lo general, seguramente todos sabemos que el término megapixel se utiliza


con frecuencia para definir la cantidad de resolución de imagen que poseen los
distintos modelos de cámaras fotográficas digitales, lo cual resulta de una fórmula
matemática que nos permite conocer cantidad de pixeles y por ende resolución.

Fundamentalmente, en el caso de las cámaras digitales, la cantidad de


megapíxeles expresará el tamaño resultante de las fotografías que se tomen con
dicho equipo. Por ello, a mayor cantidad de megapixeles, mayor será la calidad
que podremos obtener de la imagen y lo mismo sucede con el tamaño de la
misma.

Texel

El término texel ha surgido de la unión del concepto en inglés texture element o


texture pixel, y básicamente se trata de la mínima unidad de textura que es
aplicada a una superficie de la imagen digital.
Como todos sabemos, el caso de una imagen digital la misma se encuentra
representada por un conjunto de pixeles, mientras que en el caso de una textura,
ésta se halla representada a través un grupo de texels. Es por ello, que este
término suele utilizarse casi exclusivamente para los gráficos de computadoras.

Cabe destacar que si bien el texel puede corresponder a varios pixeles, también
puede ser inferior a un píxel, por lo que en general no son visibles al ojo humano.

Por lo general, los texeles se asignan a los pixeles para conformar la imagen
definitiva de un cuadro en el que se ha incorporado una textura en una superficie
de gráfico 3D,lo cual comúnmente se denomina mapeado de texturas.

Voxel

En líneas generales, el voxel, término surgido del inglés volumetric píxel, se


refiere a la unidad cúbica que forma parte de un objeto tridimensional, y se
constituye la más mínima unidad de un conjunto tridimensional que puede ser
procesada. Por este motivo, el voxel se refiere básicamente al equivalente del
píxel en un objeto 2D.

Por lo general, los gráficos e imágenes que utilizan voxeles suelen utilizarse en el
ámbito de la medicina, en estudios complejos realizados con computadoras, tales
como la tomografía axial computarizada, las resonancias magnéticas, y demás.

A través de este método, los profesionales de la salud pueden acceder a una


imagen completa en tres dimensiones del cuerpo de su paciente.

En la actualidad, el uso del voxel también suele aplicarse a otros campos, tales
como la ingeniería, la industria cinematográfica y el desarrollo de videojuegos,
entre otros.

Dimensión de vídeo, de aspecto y DVD

En este artículo se describe cómo puede utilizar Video Edit Magic para manejar diferentes clips de
vídeo al hacer un DVD. También se analizan las técnicas de cambio de tamaño de vídeo que puede
utilizar para corregir los problemas que surgen debido a la mezcla de videos con diferentes
dimensiones de video y relaciones de aspecto en la misma línea de tiempo.
Comprensión de vídeo Dimensiones
Una de las más importantes características visuales de cualquier vídeo es su anchura y altura. La
anchura y la altura de los vídeos se suele medirse en píxeles y se denominan colectivamente como
la " dimensiones "Del vídeo. Así, si un vídeo es de 320 píxeles de ancho y 240 píxeles de altura, se
dice que tiene dimensiones de 320 x 240 píxeles.

Las dimensiones seleccionadas para un vídeo a menudo dependen de la forma en que se


distribuye. Vídeos que están destinados a desempeñar a través de Internet suelen tener menor
dimensión como 320 x 240 píxeles. Por otro lado, los vídeos que están destinados a jugar en el
escritorio, como tienen una mayor dimensión de 640 x 480 píxeles. Televisión de Alta Definición
(HDTV) vídeos con un número aún mayor dimensiones tan altas como 1920x 1080 píxeles.

Comprensión de aspecto
El relación de aspecto de un vídeo es la relación entre la anchura del vídeo a la altura del vídeo. Un
video con dimensiones de 320 x 240 píxeles tiene una relación de aspecto de 4:3. Es decir, la
anchura es 1,33 veces mayor que la altura. El vídeo que es de 640 x 480 también tiene una relación
de aspecto de 4:3. Observe que dos clips de vídeo pueden tener totalmente diferentes tamaños,
pero la misma relación de aspecto.

Relaciones de aspecto estándar se han adoptado para los monitores de ordenador y televisores. El
siguiente cuadro resume los más importantes:

Tipo de vídeo Relación de Aspecto

Normal de televisión y monitores de PC 4:3


Televisión de alta definición y monitores de pantalla ancha 16:9
Cinemascope Películas 2.21:1

Normas de imágenes de televisión


Hay tres normas de imagen de TV, que se utilizan en diferentes países. Las normas definen un
vídeo de dimensiones y su velocidad de cuadro (el número de veces que la imagen se actualiza
cada segundo).
En esta tabla se incluyen las normas:

Imagen estándar Seguido de

NTSC América y el Japón


PAL La mayor parte de Europa y Asia
SECAM Francia

DVD Vídeo
DVD de vídeos son ahora el principal medio de películas y programas de televisión. Para crear un
DVD que se reproducirán en cualquier reproductor de DVD, debe contener vídeo codificados
mediante el sistema de compresión MPEG 2, con las dimensiones específicas dictadas por la imagen
estándar. Por ejemplo, reproducir un DVD en los Estados Unidos contiene video MPEG 2 con las
dimensiones especificadas por el estándar NTSC Imagen.

Las dimensiones según la definición de normas para la imagen de DVD de videos son los siguientes:

Imagen estándar DVD-Video Dimensión

NTSC 720 x 480 píxeles


PAL 720 x 576 píxeles

DVD-Video y Display Ratio


NTSC y PAL vídeos tienen relaciones de aspecto que no se corresponden con la relación de aspecto
de televisión, televisión de alta definición o películas Cinemascope. Entonces, ¿cómo se puede
reproducir un DVD y ver el video en la relación de aspecto correcta? Cada DVD de vídeo tiene una
pantalla de aspecto, que instruye el reproductor (el reproductor de DVD o programa de software) lo
que la relación de aspecto de utilizar al reproducir el vídeo.

DVD de vídeo si está destinado a ser jugado en la norma de televisión, tiene una pantalla de
aspecto de 4:3. A pesar de las dimensiones de los DVD de vídeo son de 720 x 480 píxeles o 720 x
576 píxeles, se muestra con una relación de aspecto de 4:3. Este DVD permite ser jugado con la
relación de aspecto correcta, a pesar de todos sus vídeos se almacenan con las dimensiones.

Cambiar el tamaño de vídeos


En Video Edit Magic, al crear un video de DVD de vídeo significaba entonces usted debe seleccionar
720 x 480 píxeles (NTSC) o 720 x 576 píxeles (PAL), como la película de dimensiones. Los videoclips
e imágenes que se añaden a la línea de tiempo no será necesariamente en la misma relación de
aspecto o aspectos como la última película. Para ajustar estos clips de vídeo en las dimensiones
especificadas para el final de la película, Video Edit Magic redimensiona el vídeo.

Hay muchas cosas a considerar cuando el tamaño de un vídeo. Para demostrar, vamos a usar una
imagen fija en lugar de un vídeo. Esto le ayudará a entender los cambios que se producen en las
formas cuando el tamaño de los videos son.

Antes de cambiar el Después de cambiar el tamaño de


tamaño de
1.

160 x 120 píxeles (4:3)

320 x 240 píxeles (4:3)


2.

160 x 90 pixels (16:9)

160 x 120 píxeles (4:3)


3.

221 x 100 píxeles (2.21:1)

160 x 120 píxeles (4:3)


4.

160 x 90 pixels (16:9)


160 x 120 píxeles (4:3)
Como se ilustra en ejemplo 1 , Supra, el tamaño de vídeo a una mayor dimensión causado cierta
pixelación. Sin embargo, la calabaza es todavía la forma de un círculo, porque la relación de
aspecto no ha cambiado (4:3 en ambos casos). En todos los demás ejemplos, el cambio de tamaño
implica cambiar la relación de aspecto. Debido a esto, los círculos se han convertido o elíptico
oblonga.
Cambio de la relación de aspecto de un video puede hacer que las personas aparecen
distorsionados, ya sea demasiado estrecho o demasiado ancho. Esto no es aceptable (a menos que
lo hace a propósito para un efecto humorístico).

La fijación de los problemas de cambio de tamaño


En Video Edit Magic, puede utilizar el videoclip del Modo estirar propiedad de cambiar la forma de
un vídeo redimensiona. Dejar us tratar de fijación de los problemas que hemos demostrado el uso
de las imágenes más arriba. Usted puede fijar los vídeos de la misma manera.

Primero, ejemplo, número 3 : Después de añadir el video clip de vídeo a la pista 1 de la línea de
tiempo, haga clic derecho y seleccione el clip Modo estirar .

La tabla siguiente muestra el efecto de diferentes modos han tramo en el camino Video Edit Magic
redimensiona el vídeo (e imágenes). La imagen original es el que se ilustra en la ejemplo 3.
Modo estirar Después de cambiar el tamaño de Comentarios
Estirar Usted ha visto esto antes. El círculo se
vuelve elíptica. En las películas, la gente
parece realmente grasa.
Mantenga la Círculos siguen siendo circulares. La
dimensión dimensión original del video se mantiene y el
original vídeo se centra horizontal y
verticalmente. En nuestro ejemplo, la
anchura del vídeo es más pequeño que el
ancho de la última película. Un fondo negro
aparece en uno de los extremos de vídeo,
llenando el espacio que el original no
cubre. La altura del vídeo original es
ligeramente más grande que la altura del
proyecto. Por lo tanto, algunos de la parte
superior e inferior se recortan.

Preservar la Círculos siguen siendo circulares. El vídeo


Relación de original es de tamaño para que sea el ancho
Aspecto o la altura coincide con el proyecto de
dimensiones exactamente. En este caso, la
altura y el vídeo se ajuste a los centros de
forma horizontal dentro de la anchura del
proyecto. Este tramo se inscribe en el modo
de siempre toda la imagen original en la
última película sin cultivo, y preserva la
relación de aspecto original.
Tramo, Este tramo es un modo de extensión de la
mientras que "Preservación de Relación de Aspecto". El
la vídeo original es de tamaño para que no
preservación "carta de boxeo" (zonas de negro) es
de Relación de visible. Si la relación de aspecto del vídeo
Aspecto no coincide con el final de la película, esto
dará como resultado la cosecha, es decir,
fuera de algunos de recortar los bordes de la
imagen, ya sea en la parte superior e inferior
o en los lados. Círculos círculos siguen
siendo, sin embargo.

Ahora, us considerar ejemplo 4 . Este es el caso inverso de ejemplo 3. En el ejemplo 3, la imagen


fue redimensionada para que sea más amplio. En el ejemplo 4, es de tamaño a ser más
limitada. Vea lo que sucede cuando se aplican los diferentes modos de estiramiento:

Modo estirar Después de cambiar el tamaño de


Estirar
Mantenga la
dimensión original

Preservar la
Relación de
Aspecto

Tramo, mientras
que la preservación
de Relación de
Aspecto

El tipo de uso a modo de estiramiento depende totalmente de la película proyecto. La


"Preservación de aspecto" es por lejos el más utilizado tramo modo.

La memoria dinámica de acceso aleatorio (DRAM) es una forma simple de guardas datos
en una computadora por un periodo corto de tiempo. La memoria sincrónica de acceso
aleatorio (SDRAM) es igual a la DRAM con la excepción de que la DRAM es asincrónica.
La memoria sincrónica de acceso aleatorio se mantiene sincronizada con el reloj de la
computadora, lo que permite una mayor eficiencia para guardar y acceder a información
en comparación con la memoria asincrónica DRAM.

framerate, o fotogramas por segundo (fps) es la frecuencia de


imagenes que es necesaria para engañar al cerebro y dar la
sensación de pasar una imagen estatica a una en movimiento.

para que te hagas una idea, en las peliculas se usan unos 24 fps, aun
asi, a mayor frecuencia, el juego se vera mucho mas fluido.

seguro que te sonara eso de los 60 frames por segundo, la verdad


que un juego a 30 y otro a 60 se nota la diferencia bastante, pero
claro, siempre dependera de la potencia del hardware y lo
optimizado que este el software.
en el mundo del pc es muy conocido porque al ser una plataforma
abierta con miles de configuraciones posibles, lo que se pretende es
que se alcance el mayor numero de fps posibles, por lo menos para
que se pueda jugar con fluidez, si no se experimenta ese
desagradable efecto de juego que va a "tirones"

Hoy toca tema relacionado con vídeo, hablamos de la frecuencia de


imagen, también llamada frame rate o fotogramas por cuadro o por
segundo.
Un fotograma o frame es cada una de las imágenes que forman un vídeo.
Se expresan con las siglas fps y en hercios (Hz).
La expresión se utiliza en los campos del vídeo, el cine o gráficos por
ordenador. Podemos hacer una grabación en diferentes fotogramas por
segundo, dependiendo del tipo de vídeo que sea, lo que vayamos a
grabar o a dónde se va a reproducir.
Progresivo Vs entrelazado
Una imagen en movimiento puede formarse de diferentes maneras en
función de si utilizamos los fotogramas de manera progresiva o
entrelazada. ¿Cuál es la diferencia?

 En progresivo cada fotograma muestra todas las líneas que forman la


imagen. El formato progresivo se expresa con una p (1080p).
 En entrelazado cada fotograma sólo muestra la mitad de las líneas de una
imagen, por lo tanto se necesitan dos fotogramas para mostrar la imagen
completa. En imágenes estáticas la calidad está bien, pero si las imágenes
contienen un movimiento rápido producen unas líneas como si fueran
persianas. El formato entrelazado se expresa con una i (1080i).
Cómo era antes
En los comienzos del cine no había una velocidad de proyección base
porque, al utilizar cámaras con manivela manual, era imposible mantener
la misma velocidad todo el tiempo. Fue con la llegada del sonido
sincronizado cuando se establecieron los 24 fotogramas por segundo como
velocidad estándar.
El taumatropo, en inglés wonderturner, es uno de los juguetes
precursores al cine. Es un disco con dos imágenes diferentes en ambos
lados y un trozo de cuerda a cada lado del disco, cuando giramos los
discos rápidamente con la cuerda produce la ilusión de que ambas
imágenes están juntas. En el vídeo podéis verlo en acción.
Cómo es ahora
Vamos con los tipos de frame rate que existen ahora, y cómo y cuándo
utilizarlos. Para simplificar, nombraremos solo los más conocidos que
serían 24 fps en cine, 25 fps en sistema PAL de la televisión europea y
30 fps para el sistema NTSC de la televisión estadounidense.

24 fps
Cuando queráis que vuestro vídeo tenga una apariencia cinematográfica,
como por ejemplo un cortometraje, grabad a 24fps. Es el frame rate más
habitual, al que está más acostumbrado nuestro cerebro, pero eso no
significa que no podáis utilizar otras velocidades.
El único inconveniente de este formato es que las imágenes en
movimiento pierden nitidez. Si alguna de las escenas es a cámara lenta y
el movimiento es muy rápido, tened en cuenta que la imagen no os
quedará del todo fluida.

Actualmente hay directores que han empezado a experimentar y graban


sus películas por encima de los 24 fps, como por ejemplo Peter Jackson
en El Hobbit, que lo hizo a 48 fps.

De hecho, es motivo de debate entre los espectadores. Los que están a


favor, piensan que es una manera de sacarle aún más realismo y detalle
a la imagen. Los detractores, en cambio, opinan que grabar a una mayor
velocidad de fotogramas provoca que se pierda la textura característica
del cine y les recuerda al look televisivo.
25 fps y 30 fps
Los 25 fps se utilizan en la televisión europea con el sistema PAL, en las
pantallas LCD, los monitores de ordenador o los proyectores.
En cambio, en la televisión estadounidense, al tener sistema NTSC se
utilizan los 30fps.
Y más fps
Hay algunas cámaras que también permiten grabar a 50 fps y 60 fps. Se
utiliza en las televisiones de alta definición, pero de momento no se ha
estandarizado.
A partir de los 60 fps, como por ejemplo pueden ser los 100 fps o más, se
utilizan para grabar cámaras lentas con una nitidez incomparable con las
cámaras lentas de 24 fps o 25 fps. Cuántos más fotogramas compongan
vuestra imagen, más fluida y nítida será vuestra imagen y la cámara
lenta. Esto os puede ser muy útil para grabar deportes o movimientos
muy rápidos.
¿Hasta cuántos fotogramas podéis
grabar con vuestra cámara?
Normalmente las cámaras configuradas en sistema PAL permiten grabar
a 24 fps, 25 fps y 50 fps. En cambio, si la configuráis en sistema NTSC
permiten grabar a 24 fps, 30 fps y 60 fps.

Independientemente del número de fotogramas que escojamos, se


pueden escoger dos modos de grabación en h.264:
 ALL-I (Intraframe)
 IPB (Interframe)
En ALL-I grabaremos con menos compresión y en IPB con más
compresión. Por lo tanto, los clips grabados en ALL-I pesaran tres veces
más aproximadamente.

Canon recomienda utilizar el modo IPB en grabaciones largas, como


entrevistas, conciertos o conferencias, y el modo ALL-I en grabaciones
más cortas en las que os podáis tomar más tiempo para componer
vuestros planos. Este último requiere menos potencia de procesado en el
ordenador, por lo tanto la edición será más rápida y la reproducción es
más suave en el vídeo final.

Por otro lado, existen cámaras especializadas para grabar a número aún
más alto de fotogramas, que os permitirán cámaras lentas de muchísimas
fluidez y calidad. Algunas actioncamara, como la GoPro, permiten grabar
hasta 240 fps por un precio más accesible.
La resolución
Las cámaras nos dejan escoger los fotogramas, pero la resolución puede
variar según la opción. Aquí tenéis una gráfica de las resoluciones
habituales y con el número de fotogramas.

Las ventajas de grabar a resoluciones bajas, como por ejemplo 720p, es


que los archivos en bruto os pesaran menos y el flujo de trabajo será más
fluido. La desventaja es que perdéis detalle en la imagen.
Lo bueno de grabar a resoluciones altas es, además de la calidad, que si
necesitáis escalar el plano en post producción la pérdida en la imagen
será mínima. La desventaja es que, al contener tanta resolución, los
archivos en bruto os pesarán más y el flujo de trabajo será más lento.
Nuestro consejo es que decidáis la resolución según la plataforma en la
que se reproducirá vuestro vídeo. Por ejemplo, no es lo mismo un vídeo
que se vaya a reproducir en YouTube, que normalmente lo vemos en
pequeño y en un ordenador, que verlo en una pantalla de cine, para lo
que necesitaréis más detalle en la imagen. Partiendo de esa base,
vosotros mismos podéis valorar qué resolución os interesa más y
organizar el rodaje como creáis más conveniente.
Hace unos días os hablamos de los nuevos estándares de televisión
de super alta resolución que se están cocinando en las grandes
compañías y que prometen traernos resoluciones impresionantes
hasta nuestros salones.

Sin embargo, desde prácticamente los orígenes del cine seguimos a


cuestas con la misma tasa de fotogramas o imágenes por
segundo, 24 para las películas de cine y 25 o 30 para las
transmisiones televisivas. ¿Es hora de cambiar?, ¿Qué ventajas nos
aportaría?

En los comienzos del cine se decidió establecer el famoso estándar


de 24 fotogramas por segundo (fps) debido a que, entre otras
cosas, permitía una mejor sincronización y reproducción del audio
junto con la imagen. Estas películas eran después pasadas a 25 o 30
fps (dependiendo de la región y estándares) para su retransmisión o
incluso para su grabación en formatos magnéticos u ópticos como
los DVD.

Con la llegada de la alta definición y los Blu-ray se


pretendió recuperar la fidelidadde las grabaciones manteniendo la
tasa de 24 fps (que en la mayoría de los casos son 23,976), lo que a
su vez ha dado lugar a problemas como el judder o pequeños saltos
en la imagen en muchos televisores y proyectores.

No hablaremos hoy de este problema (le dedicaremos un artículo


más adelante), sino de si es conveniente abandonar de una vez por
todas este estándar y pasar a lo que denominan High Frame Rate
Video Playback (HFR).

Se trata de, con la resolución que sea (Full HD, 4K, 8K,
etc.), incrementar la tasa de imágenes por segundo a la hora de
grabar las secuencias y posteriormente a la hora de reproducirlas en
nuestros equipos.

Dos son las principales candidatas a convertirse en nuevos


estándares: 48 y 60 imágenes por segundo, ambas escogidas por
ser múltiplos de las actuales, lo que incrementaría la compatibilidad
con los equipos ya existentes, sobre todo proyectores de cine y
televisores.

imagen en pausa a 60 fps

HFR: Ventajas e inconvenientes


Estas nuevas velocidades de representación de imágenes en pantalla
nos traerían, en teoría, secuencias más fluidas, sobre todo en los
desplazamiento laterales y verticales de las cámaras, así como un
incremento de nitidez en los movimientos de objetos sobre un
fondo estático.

Imagen en pausa a 24 fps

Además, algunos expertos opinan que en el cine en 3D


podría reducirse esa sensación de parpadeos e imágenes borrosas
que a algunos usuarios les molesta y produce picor en los ojos y
cansancio visual.

Sin embargo parece que no a todo el mundo le gusta este efecto,


como se ha demostrado en algunos pases privados de la nueva
película El Hobbit, que se ha rodado a 48 fps y que ha sido criticada
por algunos de los asistentes porque perdía parte del “toque
cinematográfico”.

¿Es esto real? Bueno, lo mejor es que lo comprobéis por vosotros


mismos. En Internet podéis encontrar varios vídeos grabados con
diferentes velocidades de fotogramas. Una de las webs más
interesantes es la de Red (fabricante de cámaras y equipos de cine),
en la que tienen un artículo con diferentes pruebas y demos para
que veamos las diferencias.

Quizá al principio pueda resultar un poco raro ver películas a esos 48


o 60 fps, ya que llevamos toda nuestra vida con tasas bastante
menores, aunque supongo que todo será cuestión de
acostumbrarse.

Eso sí, uno de los principales inconvenientes de los nuevos


estándares será para nuestros bolsillos, ya que tendremos que
actualizar y renovar una gran parte de nuestros equipos
domésticos, tanto televisores como reproductores de vídeo, la
mayoría incapaces de soportar las nuevas velocidades.
n los análisis de tarjetas gráficas para ordenador, y en las review de
videojuegos, solemos ver los FPS como unidas –básica- de media de la calidad
de funcionamiento. Es decir, dicho de un modo más fácil: los FPS –que es el
framerate- nos dicen qué tal funciona una GPU para un determinado
videojuego. La cuestión que abordamos en esta ocasión, sin embargo, es cuántos
FPS necesitamos realmente para ver fluidez en un videojuego, y desde el punto
de vista del framerate como concepto, y por supuesto su relación con
el ‘funcionamiento’del ojo humano y el cerebro para la interpretación de
imágenes.

Scorpio Killer: el PC Gaming de 500 euros que rinde igual que la consola
Cuando eres un ‘masterpiece’ del hardware, quizá leer ‘X FPS’ ya te sea
suficiente para saber qué tal funciona una tarjeta gráfica. Pero cuando eres
un modesto gamer con los conocimientos básicos, quizá esta terminología te
resulte compleja. Pues es sencilla, pero si se explica de tal manera. Y como
decíamos anteriormente, únicamente hay que comprender qué es el framerate, y
por supuesto cómo el cerebro interpreta imágenes según las capacidades del
ojo humano.

Cerebro y ojo humano ¿cuántas imágenes por


segundo podemos ver e interpretar?
La visión humana es capaz de percibir 25 imágenes por segundo de media.
Algunos podremos alcanzar las 25,5, por ejemplo, y otros nos quedaremos en
24,5, pero la medida que comentábamos es la que se comenta como media
estándar, y podemos extrapolarlo directamente a 25 fps, porque los ‘frames’ son
imágenes estáticas, luego 25 imágenes por segundo son 25 frames –o
cuadros- por segundo. Según esto mismo, 25 fps deberían ser suficientes para
ver fluidez perfecta en una imagen digital, pero más adelante ahondamos un poco
más en el tema, para que sepas por qué se recomiendan 60 fps.

NVIDIA Titan Xp: nueva tarjeta gráfica para superar a la GTX 1080 Ti
El desfase de nuestra vista, o por qué se
recomiendan 60 fps
Decíamos justo antes que se recomiendan 60 fps para considerar realmente
fluida la imagen de un videojuego, y una buena calidad de las animaciones, pero
que la visión humana sólo percibe 25 imágenes por segundo. Podría parecer
una contradicción, o un sinsentido, pero la respuesta está en que las imágenes de
nuestro ojo no se sincronizan en el tiempo con las que emite la pantalla –
televisor o monitor-, luego en esta percepción de imágenes se produce un
desfase que es lo que elimina la sensación de movimiento.

Entre la primera imagen que percibe el ojo y la siguiente, es posible que haya
una diferencia de cuadros. Es decir, que como explicábamos, no hay una
sincronía perfecta entre lo emitido por la pantalla y lo captado por el ojo. De esta
forma, el ojo humano se salta imágenes de las animaciones, y por tanto se
pierde realismo en las animaciones del videojuego, las que emite la pantalla. Si
se aumenta el frameratepor encima de los 25 fps, entonces se reduce el desfase
de tiempo. Las imágenes que capta nuestra vista son mucho más similares entre
sí, y por lo tanto la calidad del movimiento es más ‘perfecta’ según,
precisamente, la imperfección del ser humano.

Qué es el thermal throttling y por qué es necesaria una buena ventilación en tu


PC
Caídas en el framerate y complicaciones
Cuando una tarjeta gráfica nos ofrece un framerate de 30 fps para un
determinado videojuego, en ocasiones se producen caídas de fps puntuales que
pueden provocar que se produzcan 25 fps o menos, de tal manera que se
estarían emitiendo menos imágenes que las que es capaz de captar el ojo humano.
En este punto, por tanto, ya ni siquiera se alcanzaría el mínimo para completar el
total de imágenes que es capaz de captar el ojo humano, y por tanto la calidad de
las animaciones es aún mayor por la disparidad entre cuadros.

Kaby Lake-G: estos serían los procesadores Intel con gráficas AMD integradas
Por todos estos motivos anteriores, se recomiendan 60 fps. Y de esta manera, se
pueden producir caídas de fps que nos mantendremos siempre –a priori- por
encima de los 25 fps mínimos para ‘satisfacer’ a la vista humana, y cumplir con
los 30 fps recomendables como mínimo por dejar un margen desde los 25 fps. Y
además se dará un exceso de imágenes suficiente como para perfeccionar la
percepción de las animaciones, según lo que comentábamos poco antes.
La memoria RAM (Random Access Memory) es la
encargada de almacenar las instrucciones que ejecuta la
unidad central de procesamiento. En otras palabras, es un
cajón accesible en todo momento por el procesador mientras
este hace su trabajo. Se trata de un elemento imprescindible
en cualquier sistema informático, sea un ordenador o sea un
móvil.

Es un componente barato y durante los últimos años hemos


visto una escalada de memoria en los dispositivos
Android. De hecho, recientemente se ha presentado
el OnePlus 5 que cuenta ya con 8GB de RAM, una cantidad
bestial y hasta hace poco impensable en smartphones.

Esta enorme cantidad de memoria nos lleva a preguntarnos


sobre su utilidad y si realmente son necesarios 8GB de
RAM en un móvil. Vamos a intentar mostrar cómo hemos
llegado hasta aquí y qué ventajas puede tener el disponer de
tanta memoria en Android.

¿Para qué sirve la memoria RAM? Principalmente para poder


abrir muchas cosas sin que el procesador tenga que realizar
tanto trabajo. La RAM es la encargada de gestionar las
aplicaciones en segundo plano, cuánta más memoria
tengamos más fácil será tener abiertas mil aplicaciones de
todo tipo. Lógicamente, no es lo mismo tener abiertas decenas
de aplicaciones sencillas que tener abiertas decenas de
aplicaciones pesadas como pueden ser juegos, multimedia o
simplemente páginas webs más completas.

A más aplicaciones abiertas, más


memoria necesitaremos
A más aplicaciones abiertas, más
memoria necesitaremos
Android siempre se ha caracterizado por potenciar la
multitarea y por ello la RAM es un componente muy
demandado. Hace unos años cuando teníamos poca memoria
en los dispositivos se pusieron de moda los "Task Killers",
afortunadamente dejaron de utilizarse ya que el propio
sistema ya gestiona estas tareas. Ahora con 8GB de memoria
podremos tranquilamente abrir mil pestañas de Chrome, no
preocuparnos por jugar a la vez a varios títulos y aprovechar
al máximo la multipantalla.

Precisamente la multipantalla es otro de los aspectos que más


se beneficiarán de los 8GB de memoria. Ahora mismo parece
pensado para tablets y ordenadores, pero debemos ver a los
smartphones como miniPCs y tanta memoria nos servirá para
trabajar a la vez con diversas aplicaciones.

Los juegos de hoy en día no son los de antes. De hecho,


algunos móviles ya han igualado en potencia a las consolas de
generaciones anteriores y en consonancia los juegos Android
están llegando a esos niveles. Hablamos de videojuegos con
gráficos 3D, decenas de misiones y mapas y un peso de más de
2GB, no es de extrañar que los smartphones más potentes
vengan con 8GB de RAM.

Si lo que queremos es navegar o escuchar música con un par


de gigas de memoria RAM debería bastarnos, pero estos
gráficos consumen mucho más. Imaginad que estamos
jugando a Asphalt 8 y nos llega un WhatsApp, lo contestamos
y luego se nos olvida y abrimos otro juego. Si queremos
acceder rápidamente a varios juegos tan completos, el
sistema requiere de mayor memoria para que este proceso sea
fluido.

La RAM puede ayudar a la GPU a mover


esos juegos de última generación
Y ojo, no hablamos solo de mantenerlo en segundo plano. La
memoria RAM nos podría permitir por ejemplo activar
"modos para jugar" que reserve memoria RAM para la
GPU (VRAM) o por ejemplo algún sistema para mantener el
Candy Crush siempre en segundo plano y poder acceder a él
rápidamente cuando queramos.

La RAM también es responsable de conseguir que el sistema


funcione más fluido. ¿Pero no es eso responsabilidad del disco
duro y el procesador? No tiene porqué. Muchos fabricantes
crean una capa de personalización más pesada pero utilizan
la RAM para almacenar el launcher y varios
elementos y así su carga sea más rápida. Las
animaciones ya están cargadas, los widgets listos...esto
consume mucha RAM lo que nos deja menos margen para el
resto de tareas, pero como los móviles ya vienen con 4GB o
más es una técnica cada vez más común.

HTC y su Sense fue uno de los primeros en utilizar esto de


manera habitual. Con 8GB de memoria podemos guardar
toda la interfaz en la RAM y además nos sobrará para
utilizarlo en el resto de aplicaciones.

Android aprovecha la RAM de muchas


maneras, con 8GB podemos tener
interfaces enteras a disposición
Android ahora además es un sistema de 64 bits y puede
acceder a más de 4GB de RAM, por lo que los 8GB de
memoria pueden llegar a ser aprovechados. Por otro lado,
aunque decimos que la capa de personalización se puede
almacenar en la RAM lo cierto es que parte del Linux Kernel
de Android siempre aprovecha la memoria para cargar
drivers y caché. También existen archivos virtuales
accesibles por la RAM y los sistemas de radio o el IMEI se
almacenan en la NVRAM. No necesitamos 8GB para
gestionar estos parámetros, pero viene bien recordar que los
móviles utilizan la RAM para manejar muchísimos datos.

Los 8GB de RAM se esperaban para el Galaxy S8 pero


deberemos esperar seguramente hasta el Note 8 para verlos en
un dispositivo Samsung. La marca surcoreana es precisamente
el fabricante de estos módulos de memoria y parecía obvio que
lo estrenarán ellos, sin embargo otros móviles se han
anticipado aprovechando que el nivel de producción de esos
dispositivos es menor.
El precio de las memorias RAM ha ido
descendiendo según MemoryGuyy los actuales
chips LPDDR4 son más rápidos, ocupan menos espacio y
consumen menos. Ofrecen velocidades de hasta 4266
Megabits por segundo y tienen un grosor de solo un
milímetro.

Y es que no solo hablamos de más gigas de memoria, estos


avances traen RAMs más rápida con anchos de banda de más
de 28GB/s y menores latencias. Procesadores como los nuevos
Snapdragon, el Exynos 8890, el MediaTek Helio X30 o el
Kirin 960 aceptan LPDDR4 por lo que es obvio que debe
aprovecharse. Una memoria RAM lenta y escasa puede
limitar un procesador potente y crear cuellos de botella.

Tener 8GB es una garantía de futuro. Fijaros que uno de


los aspectos más importantes al comprar un móvil de gama
baja no es el procesador ni la pantalla, sino la RAM. ¿Os
compraríais un móvil con 1GB de RAM en 2017? Pero seguro
que no tenéis problemas con los cientos de móviles con 2GB
de RAM. Lo que ahora parece un mínimo imprescindible,
dentro de unos años no lo será.

Android es un sistema en constante evolución y a medida que


nos permiten realizar más acciones, la RAM consumida es
mayor. Todos queremos tener mil cosas abiertas al mismo
tiempo, pero es que irá a más. Android O por ejemplo
permite mostrar contenidos en pantallas remotas,
ajustando su interfaz a las dimensiones y resolución de la
pantalla secundaria.

Además cuando hablamos de 8GB de RAM en el móvil


siempre pensamos en pequeño, pero debemos tener en cuenta
que estos dispositivos son cada vez más el cerebro de nuestras
operaciones. Proyectos como Continuum de Windows dejan
patente que simplemente adaptando una pantalla nuestro
móvil pasa a ser ordenador.

Edición de imagen y vídeo en pantallas


4K

Editar fotos y editar vídeo es una tarea mucho más sencilla


con 8GB de memoria RAM. Es cierto que las limitaciones
reales son por culpa del software y no tanto del
hardware, pero lo cierto es que cuando se popularice esta
potencia algunos creadores como Adobe se pondrán las pilas
en mejorar este apartado. Y ojo, porque precisamente los
dueños de Premiere y Photoshop hace ya tiempo que están
sacando herramientas para móviles.

Si a esto le sumamos la llegada de las pantallas 4K a los


móviles, la necesidad de 8GB se hace patente. La resolución
sube una barbaridad y hará falta mayor cantidad de
memoria para poder trabajar y editar. Una tecnología
va ligada de otra, los 8GB pueden parecer excesivo para hoy
pero muy necesarios para compaginarse con el resto de
especificaciones que también mejoran.

No es casualidad que el primer móvil presentado con 8GB


fuese el ASUS Zenfone AR, un móvil pensado para potenciar
Project Tango y la realidad aumentada. Así como la edición y
las pantallas 4K están a la vuelta de la esquina, la realidad
aumentada y la realidad virtual van a ser campos con
mucho potencial los próximos años. Si tenemos 8GB de RAM
en el móvil es más fácil que el nuestro pueda actualizarse y/o
ser compatible con la realidad virtual. De hecho
incluso algunos ordenadores se quedan cortospara este
proceso.

Otro campo podría ser la virtualización de sistemas


operativos. En los ordenadores es normal crear una
partición de la RAM para poder utilizar otro sistema, no debe
ser extraño ver en Android opciones similares.
1080p (también conocido como Full HD) es un tipo de resolución usada en la televisión de
alta definición (HDTV). El número 1080 representa 1080 líneas horizontales que dan cuenta
de la resolución vertical, mientras que la letra p se refiere a progressive scan, en
contraposición a la exploración entrelazada

La diferencia entre 1080p y 1080i estriba en la forma de desplegar las imágenes en cada
segundo, pese a que ambos tienen una resolución de 1920 x 1080.

Pablo G. Bejerano
ETIQUETAS:
FULL HD, TELEVISIÓN
A veces llega ese complicado momento en la vida, cuando hay que enfrentarse a
entender los formatos de vídeo y de televisión, las diferencias entre ellos, cuáles
son mejores, por qué y un largo etcétera de detalles. Una de las preguntas más
recurrentes es cuál es la diferencia entre 1080p y 1080i. Ambos son formatos de
televisión de alta definición y los dos tienen la misma resolución 1920×1080
píxeles. Ofrecen, por tanto, la misma información, pero no son iguales
técnicamente y esto también es distinguible para el ojo humano en ciertas
circunstancias.
Si la información de los dos formatos es la misma, ¿dónde está la diferencia? Es
bien sabido que la resolución de 1920×1080 corresponde a 1080 líneas
horizontales de 1920 píxeles cada una. Es esta información la que se despliega de
forma diferente en 1080p y en 1080i.

La ‘i’ en el formato 1080i quiere decir ‘interlaced’ (entrelazado) y hace


referencia a cómo se despliega cada frame o imagen que compone un vídeo.
Cada una de estas imágenes no aparece completa en un solo cambio. Primero se
despliegan las líneas horizontales impares y en el siguiente cambio la imagen se
completa con las líneas pares. Evidentemente esta actualización se produce tan
rápidamente que el ojo humano rara vez es capaz de notarlo.

La ‘p’ en el formato 1080p significa progresivo, los frames aparecen


progresivamente, uno detrás de otro. Las líneas pares e impares se despliegan a
la vez. En un segundo se muestran 60 frames, que coinciden con el número de
actualizaciones de la imagen, cada una tiene 1080 líneas de 1920 píxeles.
En cambio, en 1080i cada actualización supone 540 líneas de 1920 píxeles,
pues se renovarán las impares o las pares, según corresponda, pero nunca todas a
la vez. En este formato durante un segundo hay 60 actualizaciones, pero sólo se
despliegan 30 frames o imágenes porque en cada actualización sólo aparece la
mitad de un frame.
Diferencia entre 1080p y 1080i para el ojo humano
Las hay, claro. Aunque normalmente no suelen apreciarse. Además, los
televisores hoy pueden convertir en 1080p una imagen que les llegue en 1080i.
Sin embargo, la diferencia se nota si el vídeo hace un cambio brusco de un plano
claro a uno oscuro o, sobre todo, si hay un movimiento rápido en la imagen.
Esto se produce típicamente en eventos deportivos, si éstos se graban a 1080i,
aunque el televisor los convierta, no se puede evitar que haya un pequeño
desajuste en ciertos momentos.
Por lo demás, los formatos son muy similares. Es más, la variación 1080p/60
muestra cada frame dos veces con una frecuencia de 60 por segundo, pero no
dejan de ser 30 imágenes. En 1080p/30 se despliegan las 30 imágenes con una
frecuencia de 30 por segundo. El formato 1080i toma algo de los dos
anteriores, su frecuencia de actualización es de 60 por segundo y muestra 30
imágenes, pero sin repetirlas, en vez de eso, las despliega en dos fases.

Vous aimerez peut-être aussi