Académique Documents
Professionnel Documents
Culture Documents
Se presentarán a nivel teórico y práctico los conceptos, procesos y tecnologías que hacen posible la creación,
estructuración y mezcla, con medios digitales, de una banda sonora (locuciones + músicas + efectos) ligada a unas
imágenes organizadas.
Los alumnos se iniciarán en la manipulación de archivos de sonido, el diseño y el ajuste de efectos de sonido para
imágenes determinadas, la edición de diálogos, músicas y efectos, la sincronización entre la banda sonora y la banda
visual, la mezcla de diálogos, músicas y efectos, etc.
Fechas y horario de realización: febrero-mayo, los jueves de 18 a 19 horas.
Total de horas lectivas: 15
Horas de pràcticas adicionales requeridas (fuera de horas de clase): 30
La evaluación de la asignatura se realizará a partir de la sonorización de un fragmento de video digitalizado de
duración comprendida entre 20 y 60 segundos, que será propuesto por el profesor (aunque cabe la posibilidad de
hacerlo coincidir con alguno procedente de trabajos de otras asignaturas).
Temario
1. La postproducción de sonido.
· Funciones.
· Procesos: Grabación, Edición, Procesado, Mezclas y Masterización.
· Personal técnico y de producción.
· El estudio de postproducción: digital vs. analógico, video vs. multimedia.
2. Soportes y formatos del material sonoro.
· Audio de CDs.
· Audio de DATs. Otros soportes de audio en cinta.
· Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducción de bits.
3. Edición de sonido.
· Visualitación del sonido. El dominio temporal i el dominio espectral.
· Claves visuales que nos ayudan a interpretar el sonido.
· Edición destructiva y edición no destructiva.
· Cortes y encadenamientos.
· Fundidos de entrada y de saltida. Fundidos cruzados.
· Eliminación de ruidos indeseables.
4. Transformación y procesamiento del sonido.
· Reverberación y procesado espacial.
· Procesado de dinámica: Normalización, modificación de la amplitud, compresión, limitación,
expansión.
· Transformaciones tímbricas basadas en retardos: delay, flanger, chorus...
· Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado.
5. Montaje y Mezcla.
· El entorno acústico que requiere una mezcla.
· Mezcladores virtuales.
· Procesado habitual en una mezcla.
· Automatización.
6. Sincronización audio-video. Formatos definitivos.
· SMPTE.
· Postproducción informatizada.
· El sonido y los formatos audiovisuales más habituales: AVI, Quicktime, Betacam...
7. Fuentes sonoras a incorporar en una producción audio-visual (I): voces.
· Características sonoras de las voces.
· Rudimentos de microfonía para voces.
8. Fuentes sonoras a incorporar en una producción audio-visual (II): efectos.
· Tipologias de efectos.
· Estrategias de creación de efectos.
· Colecciones de efectos. Recursos disponibles en Internet.
9. Fuentes sonoras a incorporar en una producción audio-visual (III): músicas.
· Funciones de la musica en una producción audiovisual.
· Criterios básicos de montaje musical.
· Colecciones de musicas versus musicas "a medida".
10. Relaciones entre imagen y sonido en una producción audiovisual.
Programas
La utilización de estos programas está supeditada a la posesión, por parte del IUA, y en el periodo lectivo del curso,
de las correspondientes licencias. Caso de no disponer de ellas las clases se realizarán con programas shareware de
prestaciones equivalentes.
Sound Forge
Vegas Audio
Bibliografía
Junto a cada libro se indica su nivel de complejidad (B: básico, A: avanzado), así como su orientación (T: técnica, C:
contenido teórico-analítico).
Los libros básicos son aquellos recomendados para quien no conoce el tema, mientras que los avanzados
presuponen ya un cierto conocimiento teórico y práctico de la materia.
La orientación técnica implica que lo que se presenta en el libro son procedimientos, técnicas, recomendaciones, etc.,
para llevar a cabo las operaciones relacionadas con la postproducción digital del sonido. En cambio, la orientación de
contenido teórico-analítico es propia de libros en los que se discuten cuestiones estéticas, estilos, modos de trabajo,
y/o se analizan producciones audiovisuales como medio para ilustrar y discutir problemas propios de la
postproducción.
La postproducción de sonido
· Funciones
· Procesos: Grabación, Edición, Procesado, Mezclas y Masterización
· Personal técnico y de producción
· El estudio de postproducción: digital vs. analógico, video vs. multimedia
Funciones
La función de la postproducción (o "sweetening") es organizar espacio-temporalmente y dar forma definitiva a los
diversos materiales sonoros que se utilizan en una producción audiovisual. En la postproducción se combinan
elementos musicales extraídos de colecciones especializadas, efectos de sonido grabados en sala, generados
electrónicamente o extraídos de colecciones, locuciones y músicas grabadas expresamente -en estudio o "on
location"-, etc. El objetivo de esa combinación depende del tipo de producción audiovisual, de su soporte, de su
género, del criterio estético del realizador, etc. En algunos casos la banda sonora será un complemento a la
banda visual, en otros será la guía de los elementos visuales, en otros servirá de refuerzo de la banda visual, en
otros duplicará la información que llega a través de la vista, etc.
La postproducción es el último proceso en la creación de una banda sonora pero no por ello hay que dejar todas
las decisiones para ese momento. La frase "...eso lo arreglarán en la postproducción" es tópica, típica, y
desgraciadamente más habitual de lo que nos gustaría. Con una mejor pre-producción o con sesiones de
grabación bien planificadas podrían evitarse muchos de los defectos que hay que subsanar en post-producción.
Procesos: Grabación, Edición, Procesado, Mezclas y Masterización
En la postproducción puede ser necesario registrar en soporte magnético voces, efectos y músicas. Una vez
grabados, puede ser necesario adecuarlos y ajustarlos (espacial, temporal, y tímbricamente) a las imágenes.
También será necesario conseguir un determinado equilibrio entre todos los elementos sonoros empleados en
cada momento. Finalmente la mezcla definitiva deberá adecuarse al medio de difusión de la producción así como
a las características del soporte en el que se distribuya.
Personal técnico y de producción
Realizador: es la persona con la que suele trabajar constantemente el equipo técnico de sonido. Conoce la
producción como la palma de su mano, sabe lo que quiere respecto al sonido, confía en el equipo técnico de
sonido y escucha y acepta sus sugerencias... Si todo eso se cumple, y el equipo de sonido esta a su misma altura
(humana y profesional) la producción se sonoriza con éxito.
Productor: suele encargarse de los aspectos organizativos y financieros de la producción, así que sólo lo veremos
en contadas ocasiones (cuando los gastos de sonorización rompan el presupuesto, o la postproducción de sonido
dure más tiempo del previsto...).
"Creativo": personaje del mundo de la publicidad encargado de suministrar las ideas subyacentes a la producción.
En algunas ocasiones puede llegar a tomar decisiones que incumban al equipo técnico... ya se sabe, los creativos
son unos seres taaan especiales...
Asistente de grabación: el "chico de los cafés" suele ocuparse de preparar los micrófonos, de tener el equipo a
punto, de seleccionar efectos de sonido de colecciones, y en algunos casos, de realizar las grabaciones menos
comprometidas.
Músico o Montador musical: se encarga de seleccionar las músicas de colecciones especializadas y adaptarlas a
la producción, o bien de componerlas según las necesidades de cada producción.
Edición de sonido
· Visualización del sonido. El dominio temporal i el dominio espectral.
· Claves visuales que nos ayudan a interpretar el sonido.
· Edición destructiva y edición no destructiva.
· Cortes y encadenamientos. Fundidos de entrada y de salida. Fundidos cruzados.
· Eliminación de ruidos indeseables.
· Ejercicios
La edición de sonido es el proceso a través del que convertimos en definitivos los elementos sonoros "en bruto" que
se combinan en una producción audiovisual. En este proceso es necesario eliminar silencios, toses, ruidos molestos,
re-ajustar niveles, combinar archivos, equilibrar tonalmente materiales heterogéneos, etc.
Los expansores de dinámica actúan de manera inversa a los compresores. A partir de un determinado umbral
expanden el margen dinámico en una proporción fijada por el usuario. Su utilidad puede revelarse especialmente en
situaciones en las que la señal original tiene una dinámica demasiado reducida (por ejemplo, en la escucha de un
disco de vinilo) y nos interesa tratar de ampliarla un poco, o también puede ayudarnos a restaurar señales grabadas
con bajo nivel (aunque necesitaremos aplicar otros procesos adicionales, ya que el expansor por sí solo no bastará).
Cuando necesitemos utilizar varios tipos de procesadores de dinámica hemos de actuar en primer lugar contra los
ruidos indeseables (con una puerta de ruido, por ejemplo). Después podemos poner el compresor. Finalmente, a
diferencia del uso de otros procesos (reverberación, retardos), no suele tener mucho sentido combinar señal
procesada en dinámica con señal seca.
La normalización consiste en transformar la amplitud de la señal tomando un determinado valor como máximo y
reajustando en la correspondiente proporción toda la señal. Así, cuando normalizamos a 0, si el valor máximo que
tenemos en nuestro archivo es de -10 dB estaremos amplificando toda la señal esa magnitud. El problema más
habitual con la normalización es la existencia de ruido de fondo, el cual, mientras está a una amplitud baja no se
percibe tan molesto como cuando es amplificado en exceso (la explicación es psicoacústica). A veces será preferible
normalizar a menos de 0 dB, o comprimir un poco y aprovechar la ganancia de salida del compresor para aumentar el
nivel definitivo. Aumentar la ganancia y normalizar son dos maneras de referirse a una misma operación, aunque en
muchas ocasiones empleamos la expresión "normalizar" sólo cuando normalizamos a 0 dB de la escala digital.
Se trata de un filtrado periódico (en forma de peine) de una serie de frecuencias determinada por el tiempo de retardo
(por ejemplo, con uno de 0.5 milisegundos realzaremos 2KHz y sus armónicos), aunque explicarlo con palabras es
poco efectivo. El origen del flanger es mecánico (hay quien se lo atribuye a George Martin y a John Lennon): si al
grabar una cinta en un magnetofón presionamos con el dedo de vez en cuando y con fuerza variable la bobina que
entrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos simultáneamente en 2
magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido
característico del efecto de flanger.
El flanger proporciona efectos más llamativos cuanto más rico (armónicamente hablando) sea el sonido. Cuando le
añadimos feedback lo equiparamos a un chorus.
Chorus
Se utiliza para "engrosar" la señal, o para simular la existencia de varios instrumentos sonando al unísono. En esta
situación, un intérprete puede atacar con cierto retraso y con cierta desafinación respecto a otro intérprete; eso es lo
que trata de simular, de manera compacta, este efecto. Dado que su funcionamiento es similar al del flanger (sólo que
la señal que sale se filtra y se realimenta) los parámetros de control también son similares.
Distorsión
Transforma en cuadradas las ondas de la señal de entrada. Eso origina que el resultado tienda a ser desagradable y
rasposo (ya que la cuadratura de la onda implica que aparezcan armónicos impares).
Excitador
También denominado enhancer. Genera armónicos pares -a menudo medios/agudos- de la señal de entrada, de
manera que contribuye a hacer más presente esa señal en una mezcla sin necesidad de subir su nivel. También
puede utilizarse para generar subarmónicos con el fin de realzar instrumentos de tesitura grave, o de proporcionarles
más cuerpo. Finalmente puede utilizarse satisfactoriamente en restauración sonora de vinilos o de grabaciones
defectuosas.
Transpositor
Inicialmente las transposiciones mecánicas se basaban en alterar la velocidad de reproducción de una cinta respecto
de su velocidad en el momento de la grabación (reproduciendo al doble obtenemos una transposición de octava hacia
arriba), pero también se alteraba la tímbrica ya que esta transformación no preserva las estructuras de formantes
propias de muchos instrumentos (por ejemplo la voz) y de ahí los conocidos efectos de "pitufo" o de "ogro", en los que
la voz así procesada poco tiene que ver con la original. Muchos transpositores digitales aún operan en base a esa
idea de alterar la velocidad de reproducción, aunque en los últimos años van apareciendo más equipos y programas
capaces de transponer, incluso en tiempo real, sin alterar en exceso las características del instrumento. Las utilidades
de un "pitch-shifter" comprendend: desafinar ligeramente un instrumento (por ejemplo, convertir un piano "soso" en un
"honky-tonk"), engrosar su sonido -con la ayuda adicional de un pequeño retardo-), crear imágenes estéreo a partir de
una fuente mono, corregir algunas alturas equivocadas en una interpretación por otra parte valiosa, crear armonías
paralelas, o deformar sonidos "naturales" u "originales" para crear nuevos timbres (películas como La caza del
Octubre Rojo, Full Metal Jacket, o Terminator 2 contienen interesantes ejemplos de uso del transpositor).
La manipulación de un transpositor implica básicamente escoger un intérvalo de transposición (o varios, en el caso
de necesitar crear acordes). Manipulando otros parámetros como el tiempo de retardo y el grado de realimentación
podemos llegar a generar arpegios y otros efectos musicales.
Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado.
El dispositivo más utilizado para transformar el timbre de un sonido es el ecualizador. Un ecualizador permite
modificar la señal de entrada de manera tal que determinados componentes de su estructura o espectro salen de él
atenuados o amplificados. Un ecualizador permite, como máximo, manipular 3 parámetros:
1. Frecuencia de actuación o central: para determinar sobre qué zona del espectro queremos actuar;
2. Anchura de banda o factor Q: para determinar la región en torno a la frecuencia central (cuanto más
estrecha más precisa será la modificación -pero seguramente será menos evidente-);
3. Nivel de atenuación/amplificación: para determinar la magnitud en dB que necesitamos realzar o atenuar la
banda sobre la que actuamos.
Un ecualizador puede ser:
· Paramétrico: si permite manipular los tres parámetros anteriores;
· Semiparamétrico: si la Q está prefijada y sólo podemos alterar los otros dos parámetros (habitual en muchas
mesas de mezclas);
· Gráfico: si consta de un número fijo de frecuencias (8, 15, 31) de actuación, con una Q fija, de manera que
tan sólo permite modificar el nivel de atenuación/amplificación (con 31 bandas y una Q de tercio de octava
puede ser el típico ecualizador utilizado para ajustar tonalmente una sala).
Las transformaciones que podemos conseguir con un ecualizador no son excesivamente drásticas, aunque nos
pueden ayudar a atenuar determinadas frecuencias molestas o exageradamente presentes, a realzar determinadas
características tímbricas de una fuente sonora, o, en última instancia, a compensar determinadas deficiencias
microfónicas o perceptuales (aunque no debemos poner muchas esperanzas en que nos arregle una deficiente toma
microfónica). La EQ no se debe utilizar por rutina o sistema sino en función de los objetivos sonoros o musicales
(claridad, equilibrio tonal, énfasis en determinados componentes, etc.).
En una mezcla es importante tratar de plantear siempre en primer lugar una ecualización destructiva (en la que se
atenúan determinadas zonas para conseguir el deseado equilibrio tonal) antes que una constructiva (en la que una
amplificación excesiva puede originar un aumento del ruido); en lugar de amplificar lo que queremos resaltar
podemos obtener el mismo efecto atenuando todo aquello que no nos interesa resaltar. En cambio, en grabación, si
es necesario ecualizar deberemos preferir antes una EQ constructiva (que siempre permita volver a atenuar en
mezcla) antes que una destructiva (si hemos atenuado algo, difícilmente vamos a conseguir que "reaparezca"); ahora
bien, hay que conocer en qué zonas se mueve la energía de los instrumentos para no cometer el error de enfatizar
zonas vacías que lo único que hará será aumentarnos el ruido de la grabación. También es importante ecualizar
"contextualizadamente", es decir, teniendo presente el resto de fuentes sonoras que van a sonar al tiempo que
aquella que tratamos de ecualizar: un instrumento ecualizado puede sonar fantástico cuando lo escuchamos "solo", y
en cambio, en la mezcla en la que está incorporado, ser un factor de ensuciamiento o de desequilibrio. La
ecualización debe permitirnos también asentar los instrumentos en un espacio espectral "vertical", de forma que cada
uno de ellos ocupe un "nicho ecológico" propio y no exista una feroz competencia entre varios.
Junto a los ecualizadores los filtros son otra herramienta importante para alterar la estructura tímbrica de un sonido
(de hecho los ecualizadores no son más que filtros especiales). Un filtro nos permite eliminar una determinada banda
o margen de frecuencias en torno, por encima, o por debajo, de una cierta frecuencia de trabajo o frecuencia de
corte.
Los filtros más habituales son:
· Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central;
· Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte;
· Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo,
el filtro de 80/100 Hz que habitualmente llevan las mesas de mezcla);
· Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia
central;
· Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte,
pero sin ser tan abruptos como los pasa-altos y pasa-bajos (los controles de graves y agudos de los
amplificadores domésticos y algunas secciones de los ecualizadores de una mesa de mezclas suelen ser de
tipo escalón);
Además de estas herramientas básicas es necesario tener presente las herramientas de transformación de la
estructura tímbrica a partir de procesos de análisis y síntesis, como por ejemplo los porgramas Soundhack,
SMSTools, Lemur, etc. Con esta clase de herramientas podemos operar drásticas transformaciones impensables sólo
con ayuda de filtros tradicionales. Es posible obtener más información sobre esta clase de aplicaciones a partir de
estas páginas:
CTI Music at Lancaster University
Mac programs for computer music
Digital Sound Page
HitSquad
Montaje y mezcla
· El entorno acústico que requiere una mezcla.
· Mezcladores virtuales.
· Procesado habitual en una mezcla.
· Automatización
El entorno acústico que requiere una mezcla
* Acústica de la sala: se requiere una sala con respuesta plana (sin tendencia a realzar o atenuar determinadas
bandas de frecuencia) y apenas reverberada; en caso de que no cumpla estas condiciones es necesario
acondicionarla acústicamente, y en última instancia, procesar la escucha a través de un ecualizador gráfico de tercio
de octava para equilibrarla tonalmente. Además, la sala debe estar convenientemente aislada, de manera que no
interfieran en la escucha sonidos ajenos a la mezcla. Es importante, en este sentido, conseguir aislar o atenuar ruidos
propios de los dispositivos de audio (motores, ventiladores de ordenadores, etc.), para lo cual suele ser útil disponer
de una "sala de máquinas" adyacente al control de escucha.
* Monitores de campo próximo y monitores de estudio: escuchar una mezcla puede requerir dos tipos de escucha: por
un lado la escucha "fina", de precisión, para captar los matices de un instrumento determinado y los cambios que
sobre su sonido puedan realizarse, y por otro lado la escucha "integrada", en la que nos queremos hacer la idea de
cómo sonará esa mezcla en un equipo medio similar al de la mayoría de consumidores. También es muy
recomendable haber realizado al menos una escucha en mono, para verificar que no se produzcan cancelaciones de
fase.
* Niveles de escucha: la respuesta en frecuencias del oído humano sano no es lineal, ni mucho menos. Cuando el
nivel o sonoridad es bajo tendemos a "perder" bajas y altas frecuencias, tal y como puede observarse en las típicas
curvas isofónicas de Fletcher y Munson. La respuesta más lineal de nuestro oído se da cuando el nivel de escucha es
bastante alto (unos 80 o 90 dB SPL), de ahí que para mezclar una producción audiovisual se tienda a trabajar con
esos niveles. Debe inisitirse en que un exceso de horas de trabajo en esas condiciones degradan temporal (e incluso
a veces permanentemente la salud del aparato auditivo). La recomendación a seguir (según los organismos de salud
pertinentes) es realizar un descanso de 10 minutos cada hora que se trabaje a 90 dB SPL; no sólo lo agradecen
nuestros oídos, sino que el resultado del trabajo acostumbra a ser más satisfactorio.
Mezcladores virtuales
Un mezclador es un dispositivo que permite combinar simultáneamente dos o más señales diferentes. Para realizar
esas combinaciones las señales discurren por buses, o líneas de transmisión de audio, de manera que cuantos más
buses independientes tengamos más mezclas alternativas simultáneas podremos realizar (pensemos por ejemplo
que, en una grabación de un par de instrumentistas que tocan sobre una base ya grabada cada uno de ellos requerirá
una mezcla diferente en sus auriculares, y nosotros en el control necesitaremos otra mezcla diferente, y si además
hemos de grabar una mezcla previa sobre la marcha, necesitaremos elaborarla independientemente de la que
escuchamos, e independientemente también de la que enviamos a grabación...). Por ello, a la hora de evaluar la
utilidad de un mezclador, no sólo cabe tener en cuenta el número de canales, sino también el número y tipo de buses
disponibles.
Los mezcladores virtuales suelen ser programas de gestión de pistas de sonido con interfases gráficos que emulan
las superficies de trabajo de una mesa de mezclas de estado sólido. Entendiendo la estructura y funciones de una
mesa de mezclas es fácil utilizar el símil para comprender y operar un mezclador virtual ya que hasta el momento no
parecen existir metáforas mejores para diseñar sus nterfases de usuario.
En un mezclador cabe distinguir:
· Entradas y Salidas principales: a grabación, a altavoces, a auriculares, a menudo duplicadas.
· Entradas y Salidas auxiliares: generalmente asociadas a buses auxiliares, de subgrupos, de escucha, de
inserción, o de retorno (para ingresar señal procedente de procesadores).
· Canales: dentro del canal cabe distinguir el pre-amplificador (para ajustar la ganancia de entrada), los filtros y
ecualizadores, los potenciómetros de envío a auxiliares, los selectores de envío a otros buses, etc.
· Buses auxiliares: generalmente utilizados como envíos hacia procesadores de efectos, o hacia auriculares de
la cabina de grabación).
· Buses de subgrupos: generalmente nos permiten agrupar un cierto número de canales en un único par de
salida (por ejemplo para regular el nivel de una batería sin necesidad de operar sobre los 7 u 8 canales que
habitualmente se utilizan).
· Buses de retorno: llevan hacia otros buses señales que ingresaron en la mesa por entradas diferentes a las
de canal.
· Buses de monitoraje: utilizados para ajustar el nivel de entrada de señal (en combinación con la función de
escucha antes del fader o PFL.
La ventaja de los sistemas virtuales es que los buses pueden reconvertirse, y reconfigurarse según las necesidades
de cada proyecto, cosa que con los mezcladores de estado sólido convencionales no es posible (el número de buses
está prefijado y no se puede alterar). En los sistemas digitales más simples sólo existen un par de buses estéreo
(escucha por cascos y salida de línea), aunque gracias a la tecnología Direct-X algunos programas de audio
incorporan ya otras alternativas (véanse por ejemplo los envíos a efectos de Cakewalk).
Automatización
Para ahorrarnos la tarea de tener que usar las manos y los pies para conseguir fundidos simultáneos de varios
canales a diferentes velocidades (y teniendo en cuenta que no podemos amaestrar a un pulpo para que nos ayude)
debemos recurrir a la automatización de los movimientos de faders y potenciómetros de una mesa, ya sea real o
virtual. La automatización se conseguía antaño mediante la conversión de los datos de posición de los controles de la
mesa a un determinado formato digital especial, y la grabación de dichos datos en una pista del magnetofón "master",
pero hoy en día cada vez es más utilizada la automatización MIDI. Mediante los controladores 7 y 10 (volumen y
panorama respectivamente), o mediante otros controladores no asignados que nos permitan mayor resolución y que
hayamos asociado (vía software) a los controles de nivel y panorama de cada pista es posible grabar (en varias
pasadas incrementales) una secuencia MIDI con la información necesaria para conseguir la mezcla que haga falta,
por compleja que sea. Si además disponemos de una superfície física de control como una caja de faders MIDI,
podremos realizar movimientos en varios canales simultáneamente. Hay que advertir que no todos los programas de
mezcla multipista permiten dicha automatización (Cakewalk, por ejemplo, sí; en cambio CoolPro no).
Generalmente durante una sesión de automatización se graba una secuencia inicial aproximada a la mezcla que se
pretende, y luego se insertan correcciones en determinados puntos críticos, o se sobre-escriben movimientos que no
hayan resultado apropiados. También se suele utilizar una función de "configuración instantánea" por la que podemos
grabar la situación del mezclador en un momento dado, y luego, en otro momento, recuperarla exactamente.
SMPTE
Las siglas significan Society of Motion Pictures and Television Engineering (sociedad de ingenieros de cine y
televisión) y a menudo se asocian al código más utilizado para sincronizar audio y video. Para conseguir esa
sincronía es necesario disponer de un aparato -generalmente un magnetoscopio- que denominamos master,
y de uno o más aparatos -generalmente multipistas de audio- que denominamos esclavos (slaves). El master
es el que tiene el código de tiempo que gobierna los esclavos; la función de éstos es siempre la de seguir el
código que en cada momento esté reproduciendo el master -o sea, posicionar sus sistemas de transporte,
reales o virtuales, en el punto que indica el master.
El código SMPTE es una señal digital -impulsos o ausencia de ellos- (grabada analógicamente), que contiene
una referencia temporal absoluta y que suena a modo de tono electrónico modulado. La referencia temporal
absoluta consiste en una "dirección" indicada como horas, minutos, segundos y fotogramas, cuadros, o
frames (hh:mm:ss:ff), que se graba de manera reiterada (varias veces por segundo) en las cintas que
necesitan sincronizarse. Puesto que la cinta contiene una marca temporal diferente por cada frame de imagen
(sólo existirá un frame cuya dirección sea 1h:05m:22s:04f, por ejemplo), resulta fácil posicionar la cinta en el
punto que interese. A partir de esta señal, y con la ayuda de un sincronizador que la recibe, la descodifica y
controla el mecanismo de transporte de los dispositivos esclavizados podremos conseguir que un multipistas
de audio desplace su mecanismo de transporte (real o virtual) siguiendo el código del video. El proceso por el
cual los esclavos se dirigen al punto marcado por el master y se posicionan en él se denomina resolución
(resolving).
Existen diferentes variaciones del código SMPTE, según el número de frames con el que trabajan:
· El SMPTE puro és el sistema americano en blanco i negro. Trabaja con 30 cuadros por segundo.
· El SMPTE "drop frame" o "con eliminación de cuadro" es el propio del sistema de video NTSC de los
EEUU. Trabaja a 29.97 cuadros por segundo. Para conseguirlo el código trabaja realmente a 30
cuadros por segundo, pero los dos primeros cuadros de cada minuto que no sea el 00, 10, 20, 30, 40,
y el 50 no se cuentan -se eliminan- (es decir, que por ejemplo después de 00:53:59:29 pasamos a
00:54:00:02).
· El EBU (European Broadcast Union) es el propio de los sistemas de video PAL y SECAM. Trabaja a
25 cuadros por segundo. Es el habitual en Europa y a veces se lo denomina SMPTE/EBU.
· Finalmente, en cine se utiliza código de 24 cuadros por segundo.
La elección de un sistema u otro se hace en función del tipo de producto y de sus lugares de difusión aunque
lo más habitual es trabajar 25 fps. En cualquier caso hay que procurar no mezclar formatos diferentes en una
misma producción, dado que las conversiones entre unos y otros no siempre resultan triviales.
En algunas ocasiones, al trabajar con código SMPTE puede ser necesario ajustar el denominado offset o
diferencia entre el código del master y el del esclavo. Supongamos que hemos empezado a sonorizar un
video antes de que nos hayan pasado las imágenes. Nuestro audio empieza en 00:01:00:00, pero cuando
recibimos las imágenes nos damos cuenta de que el audio debería empezar en 00:02:30:00. Si no es fácil
mover en bloque toda la banda sonora (cuando se trabajaba con multipistas analógicos que tenían SMPTE en
la última pista era imposible plantear tal movimiento) podemos recurrir a ajustar el offset (todos los programas
serios tienen una opción para ello), de manera que el sistema esclavo, cuando reciba el código 00:02:30:00,
empiece la reproducción correspondiente a su código 00:01:00:00. Estableciendo un offset de -00:01:30:00
(nótese que el offset sería negativo en este caso, y algunos sistemas no pueden trabajar con offsets
negativos sino que requieren establecer el 0 absoluto en 24:00:00:00 de manera que nuestro offset también
podría ser 23:58:30:00) habremos resuelto el problema. La fórmula
Offset = Tc Esclavo - Tc Master
nos permite calcular el valor de offset. Una recomendación respecto a los valores de código SMPTE es la de
procurar empezar a trabajar con valores más allá del cero absoluto (por ejemplo 00:02:00:00) para evitar
problemas en el caso de que haya que añadir elementos (sean de imagen o sean de sonido) al principio de la
cinta. Finalmente, cuando necesitemos sonorizar un video no debemos olvidar que, además de necesitar
disponer de una copia con el código SMPTE que gobernará los dispositivos esclavos, necesitamos ver
sobreimpresionado en pantalla ese mismo código. Así pues cuando solicitemos una copia de trabajo para
sonorizar hay que acordarse de pedir que nos sobreimpresionen el código, y antes de empezar a sonorizarla
es necesario verificar que el código sobreimpresionado coincide con el que hay grabado en la pista de código
que usamos para controlar los dispositivos esclavos.
Actualmente en configuraciones de estudio en las que se utilizan dispositivos MIDI se emplea cada vez más
el Midi Time Code (o MTC), que es la versión del código SMPTE en formato de datos MIDI (en jerga MIDI se
trata de mensajes comunes de sistema o System Common). Así, a través de un cable midi real o virtual
también es posible transmitir una señal de direccionamiento absoluto de tiempo a diferentes aparatos tales
como secuenciadores, workstations de síntesis, editores de sonido, multipistas digitales, etc. En estos casos
suele existir un dispositivo (como el SMPTE Slave Driver de Digidesign, o la interfase MIDI 2Port S/E de
Opcode) que pueden recibir y generar SMPTE en formato tradicional y convertirlo a MTC, y viceversa.
Cuando se utiliza MTC en una configuración MIDI típica es recomendable disponer de un puerto MIDI
exclusivamente para la transmisión de MTC (al utilizar un mismo puerto para MTC y para mensajes de canal
típicos podemos colapsar el sistema con cierta facilidad).
Postproducción informatizada
La postproducción informatizada requiere no sólo de que dispongamos en formato digital de todos los
elementos de la banda sonora, y de una serie de programas de edición, procesado y mezcla, sino también de
que dispongamos en formato digital de las imágenes que tenemos que sonorizar.
Uno de los entornos integrados más conocidos es Premiere, pero está orientado principalmente a la
postproducción de imágenes (si bien con él podemos resolver satisfactoriamente también sencillas
postproducciones de sonido). Postview, pariente de Protools permite la postproducción de sonido en un
entorno en el que se integra también el video digital. En el ámbito de los PCs, cabe destacar Soundscape y
SADIE. En cualesquiera de esos casos es necesario disponer de un hardware específico que posibilita una
conversión A/D y D/A de muy alta calidad, y la gestión, edición y procesado del sonido con gran eficacia.
Otra opción interesante en estudios domésticos es la de utilizar un programa reproductor de video digitalizado
que pueda al mismo tiempo generar MTC (Sound Forge, por ejemplo). Este MTC es llevado vía software
hacia el programa de edición o de mezcla multipista (CoolPro, por ejemplo), el cual habremos configurado
como esclavo de MTC. Así, cuando hagamos play en el reproductor de video digital el programa de audio se
pondrá en reproducción sincronizada. Para hacer uso de esta opción es imprescindible disponer de una
matriz virtual MIDI o programa de rutaje MIDI que facilite el uso flexible de puertos MIDI virtuales (además de
los reales que nos proporciona nuestra tarjeta). Hubi Loopback Device es un shareware imprescindible para
crear a través de software un MIDI patchbay de 4 entradas x 4 salidas.
Betacam
Es un formato de 1/2 pulgada, el más utilizado actualmente para hacer masters de video. La señal de video
se registra "por componentes", es decir, con pistas separadas para la crominancia (información de color) y la
luminancia (cantidad de luz). En un Betacam normal hay tres pistas longitudinales para grabar audio
analógico: Audio-2 (la més exterior, en la parte de arriba), Audio-1 (más hacia el centro, pero adyacente a la
anterior), y Audio-3 (exterior, abajo). Esta última suele ser la utilizada para grabar código de tiempo. La
calidad sonora del Betacam es un poco mejor que la del Umátic, ya que presenta 50 dB de relación
señal/ruido, y un rango de frecuencias entre 15 y 15000 Hz. La varietdad conocida como Betacam-SP mejora
las prestaciones de audio ya que incorpora el reductor de ruido Dolby-C, cosa que hace aumentar la relación
señal/ruido hasta 53 dB. Además, es posible grabar sonido en 2 pistas adicionales que se codifican y graban
conjuntamente con la crominancia. Estas pistas ofrecen 68 dB de relación señal/ruido, y un rango de 20 a
20000 Hz, pero resultan problemáticas cuando se necesita editar la imagen "a posteriori" así que sólo pueden
utilizarse si la mezcla definitiva de audio se realiza al mismo tiempo que el volcado (o "repicado") de la
imagen.
VHS
No se trata de un formato habitual para masters, pero sí para copias de trabajo que nos permitan ir
sonorizando en casa o en un pequeño estudio, y luego trasladar nuestro trabajo a otro formato profesional
con la seguridad de que las cosas cuadrarán sin problemas. El VHS es un formato de 1/2 pulgada con 1 ó 2
pistas lineales de audio, i en algunos modelos (HI-FI) dos pistas adicionales de sonido modulado en
frecuencia (AFM) igual que el Betacam SP. No lleva pista dedicada a código de tiempo así que deberemos
sacrificar una pista de audio para insertar el código de tiempo.
Hi-8
Es un formato en cinta de 8mm que permite disponer de dos pistas digitales de audio PCM (de calidad inferior
a la de un CD ya que se cuantiza a menos de 16 bits). Además de ellas, dispone de otras 2 pistas de audio
modulado en frecuencia. Las pistas PCM son independientes de la imagen.
AVI
Es un formato de digitalización de video desarrollado por Microsoft. En un AVI el audio y el video se
almacenan entrelazados, y el software de presentación se encarga de separar los dos componentes a la hora
de "proyectar" la película .(generalmente en formato de 320 x 240 pixels, y a una velocidad de 15 frames por
segundo).
Quicktime
Formato de digitalización de video desarrollado por Apple. Permite integrar imagen móvil y fija, texto,
animaciones, audio y midi en un objeto único y compacto. No es específico de plataformas Mac aunque para
examinar y editar el contenido de un Quicktime existen más herramientas (por ejemplo MoviePlayer) para
Mac que para PC.