Vous êtes sur la page 1sur 44

1 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

INFORMÁTICA Y MEDIOS
ELECTROACÚSTICOS
2 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN
3 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

LA COMPUTADORA
Las computadoras son dispositivos que constan de una parte física, o hardware, constituida por un
procesador central, memoria, periféricos, y un conjunto de programas, o software, que estipulan qué
secuencia de operaciones deben realizar los diversos componentes del hardware. En el caso de las
computadoras aplicadas a la música, existen dos enfoques. El primero consiste en dotar a la
computadora de un periférico (habitualmente denominado placa, plaqueta o tarjeta de sonido) que
básicamente realiza la conversión digital/analógica, es decir que convierte los números que la
computadora le va proporcionando en señales eléctricas analógicas, aplicables directamente a un
altavoz. Los números que entrega la computadora pueden ser el resultado a su vez de la aplicación de
un algoritmo o proceso de cálculo en tiempo real, lo cual requiere una gran velocidad de cálculo, o bien
pueden ser extraídos de la memoria, en donde se encuentran guardados en la forma de un “archivo de
sonido” (por ejemplo en formato WAV). Este archivo, desde luego, debió ser generado previamente, es
decir, en tiempo diferido, ya sea mediante una serie de cálculos siguiendo determinado algoritmo, o por
muestreo de un sonido real (las placas de sonido también permiten la grabación digital de sonid os, es
decir, la conversión analógico/digital).
El segundo enfoque para la música por computadora consiste en utilizar un sintetizador y controlarlo
desde la computadora por medio de mensajes MIDI. Igual que en el primer caso, los mensajes MIDI
pueden ser generados en tiempo real, mediante algún algoritmo (lo cual sucede por ejemplo en
programas de improvisación), o en tiempo diferido, extrayendo los mensajes MIDI de un “archivo MIDI”
(por ejemplo en formato MID). Este archivo MIDI debe ser generado con antelación a su uso, y
nuevamente cabe la posibilidad de generarlo mediante un algoritmo, o memorizando los mensajes MIDI
generados durante la ejecución en tiempo real por medio de un controlador MIDI. En el primer enfoque,
por consiguiente, la computadora construye el sonido, es decir que crea literalmente la forma de onda
del mismo (salvo la traducción final digital/analógica). En el segundo enfoque, en cambio, sólo transmite
órdenes a un dispositivo externo, el sintetizador, y es éste quien construye el sonido, siguiendo las
instrucciones de la computadora, a partir de sus propios algoritmos o de sus propias tablas de formas de
onda. La velocidad de cómputo requerida para enviar los mensajes, y aún para generarlos
algorítmicamente, es muchísimo menor que para general directamente el sonido.

El procesador, o unidad central de proceso, es la parte encargada de realizar las diversas operaciones.
La memoria sirve para guardar los programas y los datos. Los periféricos son dispositivos que permiten o bien almacenar
datos y programas en forma permanente, como las unidades de disco, o bien comunicarse con el usuario (pantalla,
teclado alfanumérico, mouse, tarjeta de sonido, impresora,etc.) o con otros dispositivos (módem, interfaz MIDI, etc.).
Un proceso en tiempo real es aquél en el que la computadora realiza los cálculos a medida que se van requiriendo los
resultados.
En los procesos en tiempo diferido, la computadora realiza todos los cálculos antes de comenzarse a obtener los
resultados

LA COMPOSICIÓN POR COMPUTADORA


La computadora puede servir a varios fines dentro de la composición. En primer lugar, funcionando como
secuenciador permite la verificación inmediata de lo que se está componiendo, lo cual es particularmente útil
cuando se busca lograr efectos tímbricos nuevos y por lo tanto desconocidos. En segundo lugar, puede
colaborar en la realización de cálculos, especialmente combinatorios, requeridos para organizar una forma
musical compleja. En tercer lugar, puede componer automáticamente en base a una serie de pautas
introducidas a tal efecto. Por último, permite trabajar íntimamente con el sonido mismo, realizando lo que se
ha dado en llamar microcomposición, en donde la elaboración de un sonido complejo, de un timbre nuevo,
reviste igual importancia que su aplicación posterior a la composición de una obra. A nivel del gran público,
existen diversos programas capaces de realizar armonizaciones y arreglos instrumentales en diversos estilos.
Estos programas, sin embargo, no permiten lograr composiciones de gran valor artístico, debido a que los
algoritmos utilizados son relativamente simples y proveen soluciones estándar, efectivas pero no originales.
Existen programas realizados por centros de investigación en diversos lugares del mundo con posibilidades
más avanzadas de control del proceso creativo. Por ejemplo, es posible trabajar en forma aleatoria con
4 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

grandes masas de sonidos, controlando parámetros estadísticos globales de dichas masas, como podrían ser la
frecuencia de aparición de cada altura, o la duración promedio de cada sonido, o la manera en que evoluciona
el timbre o el contenido armónico de los sonidos , a lo largo del tiempo. También es posible establecer reglas
de composición, como podrían ser tipos de acordes permitidos, tipos de encadenamientos de acordes, tipos
de elaboración y variación de motivos, tipos de textura y timbres, tipos de discurso, desarrollo formal, etc.

EL POTENCIAL ANALÍTICO Y LA “MUSICONOMÍA”


La computadora puede brindar una ayuda invalorable en el análisis cuantitativo de diversos aspectos de la
música (la composición, la interpretación, la notación) que pueden contribuir significativamente a la
investigación en música. Esto ha llevado a proponer la nueva denominación de “musiconomía” [3] para la
ciencia de la música, superando así a la “musicología”, un estadio primitivo en el cual las observaciones sólo
podían tener un carácter cualitativo o sólo groseramente cuantitativo. Con la computadora se puede, por
ejemplo, estudiar los estilos musicales desde una nueva perspectiva, la de realizar y probar modelos
algorítmicos para la reproducción de un estilo compositivo. Con técnicas de inteligencia artificial es posible
reconocer estructuras comunes a diversas obras representativas de un estilo. También es posible investigar a
fondo las leyes que gobiernan la interpretación musical, ya que se puede medir con gran precisión tanto las
intensidades como los tiempos así como parámetros asociados a otros recursos expresivos (como el vibrato).
Esto llevará, dentro de no mucho tiempo, a disponer de modelos que permitirán la interpretación automática
de piezas de diversos géneros y estilos.

LA MÚSICA POR COMPUTADORA EN LA EDUCACIÓN


Las posibilidades de la música por computadora en la educación musical son enormes. Se puede utilizar para
enseñar a reconocer diversos estilos. Permite realizar un estudio exhaustivo de partituras para conjuntos
instrumentales, ejecutando las partes individualmente, en grupos, o en su totalidad, comparando las
diferentes versiones. También se puede utilizar para enseñar diversas técnicas compositivas y para el estudio
de la instrumentación y orquestación. Se puede emplear como tutor para el aprendizaje de un instrumento,
detectando y corrigiendo errores. Se puede utilizar para enseñar a objetivar los procesos interpretativos,
analizando interpretaciones realizadas sobre un controlador y almacenadas como datos MIDI por intérpretes
expertos, así como las propias de los alumnos. También se puede utilizar para el desarrollo de demostraciones
acústicas y auditivas. La lista de posibilidades sólo depende de las necesidades y de la imaginación del docente
que utilice este recurso aún poco explotado. Lo anterior se refiere a utilizar la computadora como accesorio
pedagógico para enseñar más eficientemente lo que puede transmitirse también de otra manera (como
siempre se ha hecho). Pero además, la música por computadora es, por mérito propio, una disciplina digna de
ser aprendida en sí misma. En efecto, llegar a ser un instrumentista de primer nivel hoy en día, además de
requerir una predisposición motriz y una disciplina muy marcadas, lleva entre diez y doce años de intenso
estudio. En cambio, adquirir sistemáticamente el tecnicismo del control de un sintetizador por computadora
puede demandar apenas un par de años, bien complementados con un buceo entre los diversos exponentes
estilísticos. Los músicos así formados tendrían, además, una visión mucho más amplia, ya que no estarían
limitados a un solo instrumento, sino que podrían realizar interpretaciones de obras para conjuntos o aun
orquestas completas, así como para sonidos electrónicos.

CONTROLADORES GESTUALES
Hasta ahora, cuando hablábamos de controladores MIDI, nos referíamos a dispositivos capaces de enviar la
totalidad de los mensajes MIDI necesarios para producir una ejecución musical, es decir todas las órdenes de
activación y desactivación de notas y los demás parámetros asociados. Es posible, sin embargo, contar con
otros controladores que modifiquen aspectos más globales de la ejecución que tienen un importante papel en
la interpretación, Así, puede controlarse el volumen, el tempo (parámetro musical que indica la rapidez de
ejecución), el vibrato, y otros elementos de control en tiempo real.
5 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Como estos elementos varían mucho más lentamente que los mensajes de activación y desactivación de
notas, la dificultad motriz que caracteriza una pieza complicada se reduce a un mínimo, posibilitando la
intervención en tiempo real del intérprete, aunque no sea experto en la ejecución de instrumentos en tiempo
real. La forma de accionamiento de estos controladores puede ser por medio de pedales o palancas (joysticks).
También se han desarrollado, o aunque todavía no parecen tener difusión a nivel comercial, controladores
gestuales, es decir sensibles a diversos gestos del intérprete. Así, es posible que un director de orquesta,
realizando los gestos habituales, pueda controlar la ejecución de una orquesta electrónica. Por medio de
cámaras de vídeo y técnicas de redes neuronales, es posible detectar además elementos como la sonrisa y
otros gestos faciales y utilizarlos para gobernar diversos elementos de la interpretación.

LA MÚSICA DEL FUTURO


Hemos visto que con el advenimiento de las nuevas tecnologías se han hecho realidad los sueños del pasado,
inclusive los de un pasado relativamente reciente. ¿Cómo termina todo esto? Para contestar esta pregunta
debemos explicitar los sueños del presente. Existen dos diferencias sustanciales entre una ejecución en vivo y
la música que emerge de un par de altavoces de un sistema estereofónico. La primera es que si bien con el
estéreo se logra cierta espacialización del sonido, la imagen acústico-espacial obtenida no es completa. La
segunda es que no hay en realidad músicos tocando. Si bien a lo largo del siglo XX nos hemos acostumbrado a
estas dos carencias tanto a través de las grabaciones en diversos medios como de las transmisiones radiales,
sabemos muy bien qué diferente resulta asistir a un concierto que meramente escuchar una grabación del
mismo. Es quizás por esa razón que el concierto como tal, a pesar de ser una institución demasiado costosa,
sigue sobreviviendo. Los “multimedios” y la “realidad virtual” son la clave para una de las posibles evoluciones
de la música por computadora. Podemos imaginamos sentados en el sillón del líving, con las luces apagadas,
presenciando y escuchando un concierto sinfónico coral como si estuviéramos en la mejor ubicación de
nuestro teatro favorito, sintiendo de vez en cuando algún cuchicheo cercano, o alguno que otro papel de
caramelos (que podemos silenciar si así lo deseamos, naturalmente), todo ello generado en nuestra
computadora de bolsillo con un puñado de elementos de hardware adicional: un par de auriculares, y un
proyector holográfico. Pero podemos también, por medio de un controlador gestual interactuar con la
orquesta e influir en tiempo real en la interpretación, transformando la velada en una experiencia fascinante.
Con un click del mouse podríamos, en plena ejecución, introducirnos en la orquesta y pasear entre los
músicos, escuchando instante a instante exactamente como lo haríamos si estuviéramos paseando entre los
músicos de una verdadera orquesta. También podemos imaginar una clase de espectáculo completamente
diferente, con imágenes generadas por la computadora no como un complemento nostálgico del verdadero
mensaje (la música), sino como parte integral de un arte audiovisual como quizás lo soñó Alexander Scriabin,
de un arte audiovisual interactivo, tal vez improvisatorio, capaz de crear sensaciones espacio-temporales
inéditas. ¿Qué falta para llegar a esto? En verdad estamos relativamente cerca. Los únicos inconvenientes son
una cuestión de costo y de perfeccionamiento de tecnologías que ya existen. De hecho se utilizan en la
actualidad dispositivos de esta naturaleza por ejemplo para entrenar pilotos de avión. Cabe preguntarse, a la
luz de esta perspectiva, qué sucederá con los ejecutantes humanos. ¿Tenderán a desaparecer? ¿Evolucionarán
hacia otra forma de artista? ¿Seguirá existiendo el concierto tal como lo conocemos? Al parecer, la ejecución
de un instrumento, así sea un controlador, constituye para el músico una fuente de placer difícil de
reemplazar. Tarde o temprano el ejecutante experimenta la sensación de tener en la punta de los dedos el
control de un fenómeno casi mágico. Consideraciones similares son válidas, desde luego, para el canto. Todo
esto parecería indicar que nunca desaparecerá del todo la “especie” de los intérpretes “puros”.
6 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Sin embargo, es muy factible que las nuevas generaciones de personas con inclinación por la música vayan
desviando esta fuente de placer hacia otras direcciones. La ejecución utilizando los recursos de
transcodificación mencionados anteriormente, por medio de los cuales una acción física sencilla desencadena
una complicada serie de eventos, parece ser un buen sustituto (basta observar la expresión de alegría de un
niño pequeño cuando al oprimir un botón de cualquier aparato moderno logra desencadenar una acción
compleja). Por otro lado, con el transcurso del tiempo probablemente resulte cada vez más difícil conseguir un
buen maestro a la usanza tradicional, aunque los nostálgicos dispondrán siempre de software educativo para
el autoestudio (software que en sí mismo será una pieza de museo desarrollada cuando todavía era frecuente
y apetecible el estudio tradicional de un instrumento o el canto). El músico profesional, como en toda época,
tenderá a llevar su técnica instrumental al límite, y, por medio de controladores adecuados complementados
con la transcodificación, producirá una música de gran complejidad. Surgirá así una especie de virtuosismo
auditivo, por el cual la capacidad de escuchar comprehensivamente también será llevada al límite. En relación
con el concierto público, al disminuir la cantidad de músicos altamente capacitados se irá encareciendo cada
vez más, con lo cual terminará constituyendo un privilegio prohibitivo. Aparecerá en cambio una nueva forma
de espectáculo: el concierto difundido a través de redes globales de información digital, como Internet, con
mayores o menores niveles de interacción entre el oyente y la interpretación. Esto permitirá satisfacer la
necesidad de exhibición que caracteriza al artista: exhibición de su obra, de su interpretación, de su destreza.
Así, un compositor podrá introducir en la red pública de información su última obra, que será apreciada quizás
por cientos o miles de “escuchas informáticos” a todo lo largo y ancho del mundo, Del mismo modo, un
intérprete podrá reejecutar (y reinterpretar) obras que encuentre a la deriva en la maraña de la red de
información y sean de su agrado. Por otra parte, al término de una sesión, los escuchas, intérpretes o
compositores podrán introducir en la red sus comentarios, e inclusive mantener largas conversaciones con
otros escuchas, intérpretes o compositores quizás de lugares geográficamente remotos, Se llegará así a una
rara mezcla de individualismo, intimidad y estado público del hecho musical sin precedentes, sólo pálidamente
anticipada por la industria discográfica que prevaleció y sigue prevaleciendo desde la invención del fonógrafo
como medio de difusión masiva de la música. Por último, probablemente se llegue a un estado de cosas en el
cual cada obra sea retocada, editada o transformada cientos de veces durante su permanente errar por la red,
entrando en el terreno de la creación colectiva, o mejor aún cooperativa, reeditando el statu quo vigente hace
varios siglos, cuando la música era anónima.
7 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

La computadora/Placas de Sonido
¿Es lo mismo un interface de audio y una tarjeta de sonido?
Interface de audio y tarjeta de sonido es lo mismo.

¿Es cierto que mi computadora no tiene tarjeta de sonido?


No. Tienes tarjeta de sonido, pero la que viene por defecto con tu computadora. Con esta tarjeta podrás
escuchar y crear música sin ningún problema, sin embargo, si quieres grabar o mezclar con garantías, tu
tarjeta no es la más recomendable ya que necesitarás introducir y sacar señales de audio, y para eso, necesitas
un interface dedicado. El tuyo está pensado únicamente para reproducir audio en un entorno doméstico.

¿Para qué sirve una tarjeta de sonido o interface de audio?


Las tarjetas de sonido que compramos para el estudio nos permiten principalmente hacer 2 cosas, introducir y
sacar señales de audio. Además como estas señales entran y salen en analógico pero se procesan en digital,
necesitaremos unos buenos conversores AD (analógico/digital) DA (digital/analógico) para que la señal
dgitalizada sea lo más parecida posible a la señal original. Para realizar estos procesos, las tarjetas necesitan
tiempo y memoria, lo que en la práctica se traduce en términos como latencia y buffer….

¿Qué tipos de señales se introducen en los interfaces de audio? ¿Qué diferencia hay entre
Mic/Line/Instrument?
En las entradas de los dispositivos de audio podemos introducir distintos tipos de señales analógicas, las
cuales se diferencian principalmente por el voltaje que entregan (y la impedancia de salida de la fuente).
Nuestro interface nos permite alternar entre varios tipos de circuitería interna con el objetivo de obtener la
mejor relación señal/ruido posible en la señal que queremos introducir. A priori podemos distinguir 3 tipos de
señales analógicas:
Señal de nivel de micro: Cuando el sonido golpea el diafragma de un micrófono se producen señales de muy
baja tensión. Estas señales son débiles y pueden ser afectadas por las interferencias eléctricas con bastante
facilidad. Como esta señal es tan débil es necesario un previo para aumentar la señal a nivel de línea y así
trabajar con ella.
* Se llama previo al dispositivo que Pre-amplifica la señal para que pueda ser posteriormente procesada en
niveles óptimos. No es lo mismo pre-amplificar que amplificar. La amplificación es el proceso que prepara la
señal para ser reproducida por los altavoces o headphones.
Señal de nivel de línea: Las señales de nivel de línea tienen una salida de tensión mucho más alta que las de
nivel de micro o instrumento. Hay dos tipos de señales de nivel de línea:
• Niveles de línea domestico: -10 dBV
• Nivel de línea profesional: 4 dBu (o dBm)
Si pre-amplificamos nuestro micro con un previo externo, la señal que este nos entregara para llevar al
interface será de nivel de línea. La señales (no digitales) que salen de un compresor, ecualizador… externo
también son de nivel de línea, por lo tanto si introducimos estas en nuestro interface, tendremos que
insertarlas en las entradas de línea o en las que nos permiten conmutar entre mic y line pulsando el botón
LINE.
Normalmente en la parte trasera de nuestros interfaces vemos entradas que no se acompañan de un
potenciómetro, esto significa que las señales que se introducen son de nivel de línea, ya que no necesitan ser
pre-amplificadas. Ojo podrían ser amplificadas digitalmente desde el software, pero esto es muy raro.
Las tarjetas profesionales nos permiten configurar muchas opciones desde el panel de preferencias, entre
ellas cambiar el nivel de línea de -10dBV a 4dBu.
Señal de nivel de Instrumento: Aunque los teclados y las guitarras no entregan el mismo nivel de señal,
ambos se oscilan aproximadamente entre el nivel de micrófono y el nivel de línea. Para convertir la señal de
un instrumento a nivel de línea se necesita una caja DI activa (caja de inyección). Para transformar la señal de
un instrumento a nivel de micro se puede utilizar una DI activa o pasiva.
* Cuando pulsamos el botón instrument en la entrada de nuestro interface, este actua como una DI ya que
adapta la señal para que pueda ser procesada posteriormente de forma optima.
8 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

¿Qué tengo que saber acerca de las salidas de mi interface?


Las salidas de nuestro interface pueden ser utilizadas con distintas finalidades. Analicemos las más comunes.
Enviar señal a los monitores: La señal que se envía a los monitores es la que nos proporciona la escucha
principal. La calidad de nuestra escucha la determina la relación conversores-cables-monitores.
Lo ideal es que la calidad de nuestros monitores sea proporcional a la de nuestros conversores AD/DA
(Analógico-Digital / Digital-Analógico) y viceversa. Como decimos los ingenieros de sonido, “tu audio suena tan
mal como el peor de tus componentes”, es decir, el mejor equipo del mundo sonora mal si pasa por un cable
defectuoso. ¿Porqué? Lo explico con un ejemplo sencillo y una metáfora:
Los monitores sirven para observar el sonido. No vale de nada tener unos monitores que pueden ver “micro-
organismos” si lo que tus conversores entregan son “piedras”. Tampoco vale la pena tener unos conversores
que entregan “micro-organismos” si tus monitores son como unas gafas empañadas.
* Si tienes buenos conversores y monitores, cómprate un buen cable! Si tienes un equipo modesto pero
funcional, no tires la casa por la venta por un cable pensando que tu equipo sonará mejor.
* Si tu tarjeta incorpora un control de volumen que te permite controlar la cantidad de señal que envías al
monitor, de lujo! Cambiar regularmente de volumen mientras estamos mezclando, es una de las mejores
formas de no cansar el oído, y además nos permite saber como responderá nuestra mezcla en distintas
situaciones ya que el odio no escuha igual a 60dbs que a 100dbs. Lo normal es mezclar aproximadamente a
85dbs o 90dbs ya que ahí es donde se produce la escucha más plana posible (Mirar curvas de Fletcher y
Munson). Usen un sonómetro cuando mezclen!
Si escuchas ruidos extraños en tus monitores, probablemente tu casa no tiene toma de tierra. Intenta
ponerla!. Separar los cables de audio de los cables que llevan la electricidad es una buena costumbre para
evitar ruidos. Conectar los cables de alimentación del audio a una toma diferente que los cables de
alimentación de informática, luces….también es una buena costumbre.
Enviar señal a los Headphones: Los interfaces suelen incorporar una salida para headphones. Si tienen 2
mejor. Especialmente si no tienes una cabina para grabación de voces, tener 2 salidas de auriculares es lo
ideal, pues tanto el ingeniero de grabación como el vocalista podrán disponer cada uno de una señal
independiente.
Enviar señal a un amplificador de Headphones: Si necesitas más salidas de auriculares cómprate un
amplificador de Headphones y conécta sus entradas a las salidas de tu interface. Para enviar las señales desde
tu DAW (Logic, Cubase, Protools…) al amplificador, crea un envío en todas las pistas de tu mezcla recógelo en
la entrada de un canal auxiliar y saca ese canal auxiliar por las salidas de tu interface que llegan al
amplificador. Puedes modificar la cantidad de señal que envías al amplificador desde el envío de cada pista.
Puedes modificar la cantidad de envío global desde el fader del canal auxiliar.
Enviar señal a un procesador externo: Las salidas de tu interface podrían servirte para enviar tus señales a
procesadores externos como ecualizadores, compresores, reverbs… Los DAWS profesionales tienen una
opción dedicada a las inserciones hardware.
Enviar señal a un sumador: Otra de las utilidades que le podemos dar a las salidas es enviar algunas de
nuestras pistas o todas ellas a una mesa de mezclas o a un sumador. Si la enviamos al sumador, lo que
buscamos es sumar las señales de forma analógica en lugar de hacerlo en digital. Si la enviamos a una mesa de
mezclas además de sumar podremos aprovechar sus procesadores (Ecualizadores, compresores…) Me explico.
El DAW (Digital Audio Workstation) en el canal LR, se realiza gracias al llamado algoritmo de suma. Cada DAW
usa un tipo de algoritmo, de ahí que existen guerras dialécticas en torno a si Logic suena mejor que Cubase,
Protools mejor que Logic, etc, etc….La realidad es que esto es muy difícil de apreciar (conozco estudios que lo
demuestran). Lo que si es cierto es que sumar en analógico (eléctricamente) dos señales de audio no es lo
mismo que hacerlo en digital (ceros y uno).
Los principales beneficios de sumar en analógico son que conseguimos mayor profundidad en la mezcla, un
sonido más cohesionado (aunque sea por el ruido que añade la circuitería y el efecto crosstalk) y
probablemente una mejor imagen estéreo. A decir verdad, yo mismo he hecho pruebas con sumadores de
calidad y en equipos de muy alta gama y me ha costado notar las diferencias, sin embargo, sumar en una mesa
analógica como SSL o Neve si que se nota y mucho.

¿Qué diferencias hay entre un cable balanceado y otro no balanceado?


En la práctica:
El cable no balanceado esta expuesto a recoger interferencias eléctricas (ruidos). No se recomienda su uso en
tiradas de más de 5 o 10 metros porque los ruidos se hacen muy evidentes. Su ventaja es que es barato. Se
suele usar en equipos Hi-fi (domesticos) y semi profesionales.
9 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

El cable balanceado es capaz de derivar a tierra cualquier interferencia eléctrica (ruido) para limpiar nuestras
señal de audio.

¿Qué son los conversores AD/DA y que importancia tienen para mi interface?
Los conversores son uno de los dispositivos más importantes de nuestro interface. Estos se encargan de
convertir el audio de analógico a digital y viceversa. Como vimos en el apartado sobre envió de señales a
monitores, no merece la pena invertir mucho dinero en unos conversores Hi-End si nuestros monitores no nos
permiten apreciar los matices del sonido. Tampoco merece la pena tener un micro genial si nuestros
conversores no están a la altura a la hora de digitalizar la señal.
* Mi consejo: Si quieres mejorar las grabaciones invierte primero en un buen micro y si quieres mejorar tus
mezclas, invierte primero en unos buenos monitores. Lo que quiero decir es que los dispositivos más
importantes son siempre los que comienzan la cadena, es decir, los transductores electro-acústicos
(transforman la energía eléctrica en acústica y viceversa). Si ya tienes una buena señal, entonces preocúpate
de que no se degrade en el camino que la lleva a tu DAW (cable-previo-cable-conversores).
Otras opciones interesantes si quieres relación calidad precio en este aspecto de tu tarjeta son RME, Motu….a
un nivel más bajo pero también como buenas opciones para estudios de proyectos situaría a Focusrite, Roland
y M-Audio. Por debajo, como opciones muy baratas pero siempre efectivas, Alesis, Presonus, Behringer….Por
otro lado en la gama alta de conversores encontraremos a fabricantes como Digidesign, Linx, Universal
Audio…Para adquirir estos equipos hay que desembolsar, sin embargo Apogee tiene opciones económicas que
mantienen la calidad en sus conversores. Es el caso de Duet, eso si, solo funcionan en MAC.

Tengan en cuenta que estamos hablando exclusivamente de conversores y que el debate esta muy caliente en
cuanto a calidad. Para valorar un interface hay que tener en cuenta muchos detalles. Focusrite por ejemplo no
tiene tanta calidad de conversión como Apogee pero sin embargo ofrece un montón de opciones muy
apetecibles en sus tarjetas…RME, en mi opinión, no llega al nivel de limpieza de Apogee pero sin embargo te
permite trabajar con un buffer bajísimo…¿Cómo elegir? Depende de lo que necesites y sobre todo del
monitoraje que tengas. Como dije antes, no vale la pena comprar unos conversores Hi-End si tus monitores
no te permiten escuchar las sutilezas del audio.

¿Qué significan términos como Buffer y latencia? ¿cómo me afectan?


El buffer es un espacio de memoria que proporciona tu ordenador para evitar que tu interface se quede sin
espacio mientras transfiere datos. ¿Así de simple? NO.
Mientras mayor es este buffer mayor será el tiempo de latencia que obtendrás. El buffer será nuestro aliado o
nuestro enemigo dependiendo de lo que estemos haciendo.
Si estas grabando y tienes el buffer alto tu señal llegará con retardo. El tiempo de retardo exacto que provoca
el buffer se denomina latencia. Si la latencias de entrada es mayor a 11ms puede ser percibidas por el oído, si
es inferior a 8ms no. Para saber si tenemos bien configurado nuestro buffer debemos observar la latencia de
entrada no la latencia total la cual es la suma de la latencia de entrada más la de salida.
Si estas mezclando y tienes el buffer alto, lo único que notaras es que el reproductor tardara unos
milisegundos en comenzar a “andar” desde que haces play. No hay ningún problema en esto.
¿Entonces como se ajusta el buffer?
Esta respuesta si es simple: El mínimo posible si vas a grabar y el máximo posible si vas a mezclar.
Grabación: Cuando bajes demasiado el buffer llegará un momento en que escucharás ruidos, ahí ya sabrás
que te has pasado. Nunca grabes con clips audibles. Trabajar con un buffer bajo nos permitirá grabar sin
latencia. Esto es absolutamente esencial para el resultado musical.
* Con un buffer bajo también podremos monitorizar la entrada de audio a través del DAW, lo que significa
escuchar nuestra voz con autotunes en tiempo real, escucharnos con reverb….
Mezcla: Aquí debemos subir el buffer al máximo. Esto mejorará sobre todo en el rendimiento del programa
(procesar más pistas, insertar más plugins, instrumentos vst…). No tiene ningún efecto negativo mezclar con el
buffer al máximo.

¿Para que sirven las entradas y salidas digitales?


Las entradas y salidas digitales son poco utilizadas por la mayoría de consumidores, sin embargo, tienen gran
utilidad y nos pueden abrir un abanico importante de posibilidades.
En mi opinión lo más interesante de estas grandes desconocidas es que nos permiten ampliar el número de
entradas y salidas analógicas de nuestro interface. Veamos los protocolos digitales más conocidos.
10 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

ADAT: Si nuestro interface incorpora entradas y salidas digitales ADAT, significa que a través de ellas
podremos introducir y sacar de forma simultanea hasta 8 señales de audio digital. ¿Cómo aprovechar esto en
la práctica?
1. Compramos un Octo-Pre ( dispositivo compuesto por 8 previos) con salidas ADAT.
2. Conectamos hasta 8 micrófonos en el.
3. Conectamos las salidas digitales de nuestro Octo-Pre (ADAT) a las entradas digitales de nuestro interface
(ADAT).
4. Las señales de los 8 micrófonos llegan a nuestro interface a través del puerto digital.
5. En nuestro DAW podremos ver además de las señales analógicas de nuestro interface, las 8 señales que llegan
desde el Octo-Pre.
Por supuesto, este proceso se puede hacer a la inversa para conseguir salidas adicionales.
SPDIF: SPDIF es el protocolo más utilizado en interfaces de consumo. Para alimentar un puerto SPDIF podemos
utilizar tanto cable coaxial como cable óptico. El cable óptico es mejor porque es inmune al ruido eléctrico.
SPDIF nos permite enviar/recibir 2 señales de audio digital. Los puertos SPDIF se suelen utilizar para conectar:
1. DAT (cinta digital) , MiniDisc, reproductores de CD…
2. Efectos de rack con interfaz digital.
3. Teclados o sintetizadores que ofrecen opciones de salida digital.
AES-EBU: El AES-EBU es un protocolo profesional que encontraremos en tarjetas de alta gama. La función es la
misma pero las prestaciones son mayores. A través de él pueden entrar y salir 2 señales de audio digital.
Habitualmente es combinado con conversores AD/DA profesionales, grabadoras digitales multipista, y word
clock.

¿Qué es el DSP?
DSP significa Procesador de Señal Digital.
Incluso con los tamaños de búfer más bajos, casi siempre escucharemos unos milisegundos de retraso si
queremos monitorizar nuestra señal con una reverb añadida desde un plugin de nuestro DAW. Si tienes DSP
podrás procesar (ecualizar, añadir reverb, delay, chorus…) y escuchar en tiempo real las señales que entran a
tu interface sin necesidad de acudir a tu ordenador. Esto es muy útil para liberar la CPU de procesos y eliminar
la latencia
11 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

ENTORNO MIDI
Las siglas MIDI no representan únicamente la norma de comunicación entre instrumentos y
computadoras, sino que su sentido se ha ampliado. Se habla así de instrumentos MIDI, interfaces MIDI,
controladores MIDI, cables MIDI, archivos MIDI, programación MIDI, etc. Hasta podría hablarse de una
filosofía MIDI. Pero ¿qué es, específicamente, lo que permite hacer MIDI? En primer lugar permite
intercambiar una serie de mensajes. Hay tres rutas que pueden seguir los mensajes:
1- desde un controlador MIDI hacia un sintetizador,
2- desde un controlador MIDI hacia una computadora,
3- desde una computadora hacia un sintetizador.
Estas rutas se seleccionan mediante el conexionado. Cada instrumento posee una salida (MIDI Out) y
una entrada (MIDI In). Conectando la salida de un equipo A a la entrada de otro equipo B, se consigue
dirigir los mensajes desde A hacia B. La primera ruta se emplea cuando se desea ejecutar música con el
sintetizador en forma manual, como si se tratara de un instrumento acústico. La segunda ruta se utiliza
para grabar o memorizar una ejecución manual. A diferencia de lo que sucede con un grabador de cinta
o de cassette, lo que se graba no es la música en sí, sino las órdenes para ejecutarla, es decir qué notas
ejecutar, en qué instantes, con qué timbre, duración, intensidad, etc. La tercera ruta corresponde a la
ejecución automática, en donde la computadora toma el control y envía órdenes al sintetizador. Estas
órdenes pueden haber sido grabadas anteriormente a partir de una ejecución manual, o pueden haber
sido ingresadas desde el teclado alfanumérico de la computadora (mediante una codificación que
dependerá del programa de edición que se utilice). También es posible generar las órdenes
automáticamente, mediante algún algoritmo de composición.
Las tres rutas descriptas pueden combinarse entre sí, lo cual enriquece enormemente las posibilidades
que ofrece MIDI. Así, es posible ejecutar manualmente un instrumento, al mismo tiempo que la
computadora ejecuta otro u otros instrumentos automáticamente. Si se desea, además, la parte
ejecutada manualmente puede ser grabada, y posteriormente ejecutada automáticamente junto con los
otros instrumentos. Reiterando este proceso, una única persona puede tocar uno a uno todos los
instrumentos de una orquesta u otro conjunto instrumental. Naturalmente, todos los instrumentos
podrán ser ejecutados desde un mismo controlador, que puede elegirse de un tipo que resulte de fácil
ejecución para el músico. Esto es así porque se puede ordenar a la computadora que los men sajes MIDI
sean ejecutados con un timbre a elección dentro de los disponibles, aun cuando el mecanismo del
controlador no se parezca al del instrumento acústico que produce dicho timbre (por ejemplo, con un
teclado pueden ejecutarse sonidos de una flauta). Los programas secuenciadores permiten ingresar las
órdenes de varias maneras, una de ellas, es la ejecución en tiempo real por parte de un intérprete
humano, es decir un músico con el dominio técnico necesario para ejecutar correctamente las diversas
partes en el controlador MIDI que haya elegido (normalmente, un teclado). También es posible ingresar
las notas mucho más lentamente, de modo de facilitar la ejecución. Otra manera, que no requiere el
manejo técnico de ningún instrumento, es ingresar nota por nota desde el teclado alfanumérico de la
computadora, indicando de alguna manera (que depende del programa secuenciador en particular que
se esté usando) los distintos parámetros asociados: duración, timbre. intensidad. etc. Los programas
más amigables permiten escribir directamente en la pantalla de la computadora con la notación musical
tradicional. En otros casos las notas se ingresan desde el teclado alfanumérico de la computadora. En
MIDI existe una serie estándar de mensajes, que son comunes a todos los instrumentos MIDI y todos los
fabricantes entre los cuales están la activación y desactivación de notas, el cambio de timbre
(denominado “cambio de programa”), la modificación de afinación, el control de volumen global, el
accionamiento del pedal, etc. También existe una serie de mensajes no estandarizados, que son
definidos por cada fabricante, denominados “mensajes exclusivos de sistema”. Con estos mensajes MIDI
especiales se pueden controlar las diversas funciones específicas de cada instrumento. Es p osible, por
ejemplo, introducir modificaciones de timbre durante la ejecución propiamente dicha, variando
envolventes, contenido armónico, etc.
12 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

PARÁMETROS BÁSICOS SOBRE EL SONIDO DIGITAL


Para poder entender el proceso de grabación y depuración del sonido, es necesario comprender algunos
aspectos básicos sobre las muestras digitales (samples) de audio. Estos conceptos juegan un papel primordial
cuando se quiere obtener muestras de mayor calidad en el proceso de grabación, aunque debe tenerse en
cuenta la elección del formato del material que se vaya a publicar en alguna plataforma virtual, que requiere
de archivos más livianos.
Amplitud
Se refiere al comportamiento de las ondas sonoras dentro de una señal digital que puede verse en un
software de grabación. La representación gráfica de un audio parte de un eje central que equivale a volumen
0, y a medida que la onda se aleja de este eje, el volumen se incrementa hasta el límite máximo, donde
comienza el umbral de saturación. La distancia por encima de la línea central de una forma de onda (tal como
una onda sinusoidal pura) representa el nivel de amplitud de la señal. Cuanto mayor sea la distancia o el
desplazamiento de la línea central, más intensa es la variación de la presión, nivel de la señal eléctrica o
desplazamiento físico dentro de un medio .
La representación gráfica de una onda de audio muestra las variaciones y los picos de volumen a medida que
esta se aleja del eje central.
Frecuencia
Es el número de vibraciones por segundo que tiene el sonido producido por un objeto sonoro; este concepto
de ciclos por segundo (cps) se mide en hercios (Hz). El oído humano puede escuchar frecuencias entre los 20 y
los 20.000 Hz; estas frecuencias son las que determinan la afinación de un sonido, es el caso de la nota musical
la, que tiene una frecuencia de 440 Hz, es decir, que vibra 440 veces por segundo.
Tasa de muestreo
El audio digital parte del proceso de conversión de una señal analógica en un algoritmo de unos (1) y ceros
(0). El tiempo que toma la señal analógica para ser convertido en audio digital es el que determina dicha tasa,
término que en inglés se conoce como sample rate. Este factor es de vital importancia en el proceso de
grabación, ya que determina la calidad de muestreo del sonido.
En 1928, Harry Nyquist, demostró que, en el proceso de grabación de una señal, la frecuencia de muestreo
debe ser mayor que el doble del ancho de banda de la señal de entrada para poder reconstruir la señal
original.
La tasa de muestreo se mide en hercios (Hz). Por ejemplo, 44.100 Hz indican que en un segundo se
toman 44.100 muestras de la señal analógica para crear el audio digital resultante; mientras más alta sea la
tasa de muestreo, mejor será la calidad del audio.
Resolución
Para comprender el nivel de resolución de una muestra de audio, debe mencionarse el bit (acrónimo de binary
digit), el proceso de conversión de la información en un dígito binario, que puede ser 1 o 0. La combinación de
estos dígitos sirve para codificar cualquier valor como números, palabras, sonidos o imágenes, entre otros. La
resolución, entonces, se refiere al número de bytes (unidad de ocho bits) o bits utilizados para almacenar cada
muestra de la señal analógica; así, se pueden obtener distintos tipos de resolución si se incrementa el número
de bits. Por ejemplo, el audio del disco compacto es 44.100 Hz/16 bits/estéreo.
El proceso de medir la intensidad de los sonidos se conoce como cuantificación (de cantidad). Una
cuantificación de 16 bits a una frecuencia de muestreo de 44,1 kHz (para una calidad de cd) significa que
podemos marcar el sonido 44.100 veces por segundo con una gama de nivel de 65.536 puntos. Como los
sonidos son analógicos (las ondas de sonido se mueven continuamente), se necesita una «caja convertidora»
para producir todas esas combinaciones de 0 y 1. Esta
caja se conoce como convertidor analógico/digital (A/D) (Lyver, 2000).
Velocidad de transmisión
La bit rate o bitrate se refiere a la cantidad de espacio físico en bits que ocupa un segundo de duración de
una señal de audio. La tasa promedio de bitrate para un archivo mp3 es de 128 kbps (kilobits por
segundo). Un archivo grabado con este bitrate debe tener una buena calidad, y la variación de este factor
incide directamente en el tamaño de la muestra de audio.
13 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Decibelio
Es una unidad de medida que sirve para establecer el nivel de potencia o intensidad de una muestra
sonora. En Latinoamérica también se conoce como decibel, y se representa con el símbolo dB. Esta unidad se
usa en acústica, electricidad, telecomunicaciones y, en general, en todas las ciencias que necesitan establecer
la relación entre dos magnitudes de intensidad sonora.
Esta unidad de medida se utiliza para expresar, entre otros, el nivel de potencia o nivel de intensidad (llamado
también nivel de presión sonora, Sound Presure Level, SLP), el nivel del voltaje (V) y el nivel de potencia (W).
Se hace uso, entonces, de una escala logarítmica, porque la sensibilidad del oído humano ante variaciones de
la intensidad sonora sigue una escala logarítmica y no una lineal (Caballero P., 2010).
Códec
Es un algoritmo que se usa para reducir el número de bits que ocupa un archivo digital de audio o video. Su
nombre viene del acrónimo codificación/decodificación.
Una vez los archivos son procesados con un códec específico, requieren de este mismo códec para ser
decodificados y reproducidos nuevamente. Para conseguir un tamaño más pequeño del archivo original al
destino, la mayoría de los códecs generan pérdida de la información; es el caso de los archivos de audio mp3.

FORMATOS DE AUDIO/Extensiones de archivos


Todo archivo de audio consta de dos partes: la cabecera y los datos. La cabecera (header) es la sección inicial
del archivo, donde se identifica si el sonido es monofónico o estéreo, contiene bucles (loops), la frecuencia de
muestreo, los bits de cuantificación, la duración y otros aspectos generales del audio. Los datos (data) se
refieren al audio digital propiamente, es decir, a las diferentes características de la onda sonora original como
tamaño, tempo y volumen, entre otros.
A continuación se presentan los formatos más usados, haciendo la aclaración de que sus nombres
corresponden a extensiones de archivos, es decir, se escriben en minúscula precedidos de punto.

Archivos sonoros de mayor tamaño y mejor calidad


Son los que conservan el grado máximo de pureza y tamaño de la información, con reproducciones de alta
calidad. Aunque utilizan métodos de compresión, no sacrifican la pureza del audio; por lo tanto, el tamaño del
archivo es mucho más grande («pesado») que el de aquellos comprimidos. Los más representativos son:
1- .wav o .wave
Creado por la compañía Microsoft en 1987, con el objetivo de unificar mundialmente archivos de audio digital
de alta calidad. [El formato .wav o .wave] admite diferentes frecuencias de muestreo (8.000, 11.025, 12.000,
16.000, 22.050,24.000, 32.000, 44.100, 48.000, 96.000 y 192.000 Hz),cuatro calidades de cuantificación (8, 16,
24 y 32 bits)y puede ser monofónico o estéreo. Al igual que ocurre con el formato .cda, su principal ventaja es
la calidad, y su principal inconveniente es la memoria que requiere(Iglesias S., 2002).
Normalmente, los archivos .wav se trabajan a 44.100 kHz, 16 bits y estéreo, es decir, con la resolución del
disco compacto.
Como el PC es más masivo que el Mac, el formato .wav ha ido imponiéndose -sobre todo en la Internet-, lo
que ha generado que mucho hardware (como los samplers de Akai y Ensoniq, entre otros) se fabrique con la
opción de carga de sonidos .wav). Debe revisarse, a la hora de elegir un editor de audio -o cualquier tipo de
software-, el tipo de formato que el ordenador es capaz de importar y convertir (Andreux y Orellana, 2003).
2- .aiff (audio interchange file format)
Es un formato de archivo de intercambio de audio promovido por la compañía Apple Macintosh en 1988.
Admite diferentes frecuencias de muestreo, hasta de 44,1 kHz y 32 bit de cuantificación. Es un formato con
gran posicionamiento en el mercado porque maneja un algoritmo de compresión que no presenta pérdidas de
la calidad del audio; sin embargo, exige un alto consumo de memoria: aproximadamente 10 MB por minuto.
Sus extensiones son .aif, .aiff y .aifc, siendo este último el más comprimido.
3- .flac
El Free Lossless Audio Codec es otro código de compresión sin pérdida de calidad, que logra reducir del
tamaño original a la mitad, incluso en tres cuartas partes. Normalmente se usa para el intercambio y venta de
música por la Internet y para hacer respaldos de discos compactos. Este formato es de fácil uso, y permite
realizar diferentes frecuencias de muestreo y bit rates.
14 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Archivos sonoros con pérdida de calidad

Estos códecs utilizan unos algoritmos de compresión más invasivos para reducir considerablemente el tamaño
de los archivos (en MB), sacrificando así la pureza del audio original; por esta razón se usan para moverse con
mayor velocidad dentro de la web. Los formatos más comerciales son:
1- .mp3
Es quizá uno de los formatos más comunes en la actualidad. Sus siglas resumen los nombres de MPEG-1
Audio Layer III y MPEG-2 Audio Layer III. Fue desarrollado por la compañía Thomson Multimedia y el
FraunhoferGesellschaft. La capacidad de compresión del formato equivale a reducir el tamaño original en unas
diez veces, aunque permite modificar parámetros de frecuencias que inciden directamente con el tamaño de
la muestra resultante. Actualmente, ambas compañías se encuentran trabajando en una nueva versión: el
.mp3 Pro, que permite obtener una mayor compresión, utiliza la mitad del espacio de los .mp3 tradicionales y
conserva la misma calidad.
2-.ra
El formato Real Audio también goza de mucha popularidad, ya que es usado en transmisiones por la Internet
en tiempo real. Una de sus principales características es el sistema de descompresión, que puede reproducir el
sonido sin la necesidad de tener el archivo completo; esto les permite a los programas que trabajan con
streaming reproducir la información, al mismo tiempo que descargan los datos. La calidad es inferior a los
formatos .wav, .cda y .mp3; sin embargo, es una herramienta esencial para las reproducciones vía Internet.
3- .wma
El Microsoft Windows Media Audio, creado por la empresa Microsoft, es un formato de archivo de audio
Streaming se refiere al flujo continuo de información. Consiste en la emisión de contenidos multimedia a
través de la Internet, de tal manera que el usuario puede escuchar y ver la información al mismo tiempo que
se descarga. Este proceso se logra a través de un búfer de datos que se almacena constantemente en el
computador adonde está llegando el material audiovisual comprimido; diseñado para difundir música por la
Internet, no ha tenido el alcance del mp3. Existen otras versiones como el .wma Pro, un formato más
avanzado, que permite incluir el sonido surround de alta resolución; el .wma Lossless, que comprime el audio
sin pérdida de definición; y el .wma Voice, diseñado para los archivos de audio de voz hablada, que maneja
tasas de bits muy bajas. Surround se refiere al sonido envolvente de alta calidad. Utiliza varios canales de audio para provocar el
efecto envolvente en la audiencia, similar al sonido de las salas de cine. Lossleess: sin pérdida.
4 .ogg Vorbis
Desarrollado por la Fundación Xiph.Org, es un formato de compresión tan eficiente como el .mp3. Su gran
ventaja radica en la licencia de tipo BSD (Berkeley Software Distribution), que es libre y gratuita. El algoritmo
de compresión elimina una cierta cantidad de información que es considerada irrelevante con el volumen
general del audio, similar a lo que ocurre con la compresión del .mp3.

SOFTWARE DE GRABACIÓN Y EDICIÓN DEL AUDIO


Existe una gran cantidad de empresas dedicadas a la fabricación de software para la grabación y edición de
audio, y con frecuencia aparecen productos nuevos y actualizaciones de los ya existentes. Los siguientes son
los más reconocidos y usados por los músicos e ingenieros de sonido, tanto para la preproducción como para
la producción y posproducción de música.

Software de grabación
• Pro Tools
Diseñado por la empresa Digidesign (actualmente Avid) para los sistemas operativos de Mac y Microsoft
Windows; es considerado la estación de trabajo de audio digital (Digital Audio Worksation, DAW) más usada
del mundo. Su desventaja radica en los elevados costos de su software, hardware y plug-ins, además de las
altas exigencias que demanda del procesador y la memoria ram del computador para poder ejecutar
correctamente sus procesos.
El software Pro Tools ofrece opciones de hardware con denominaciones grandes, costosas, pero de alta
calidad. Los fabricantes han construido equipos que se integran fácilmente entre ellos para ampliarse a
cualquiernúmero de tracks y características que se necesiten. Digidesign también se ha preocupado por suplir
las necesidades de los clientes con bajo presupuesto, ha creado tarjetas específicas que son de bajo costo,
para ofrecer la mayor parte de las características de sus grandes equipos a los estudios caseros, para que
puedan grabar audio de alta calidad.
15 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

• Nuendo y Cubase
Diseñados por la compañía Steinberg (adquirida y operada por la multinacional Yamaha en 2004) para
funcionar como una estación de trabajo que permite grabar, arreglar, editar y posproducir música con
excelentes herramientas.
En su lanzamiento, en 1984, operaba en los computadores Commodore 64; y más tarde en los computadores
Atari ST. En la actualidad funcionan para los dos sistemas operativos más usados: Mac y Microsoft Windows.
Nuendo, por su lado, compite lado a lado con el sistema Pro Tools.
• Cakewalk
Es un software secuenciador y editor de midi y audio que opera en Microsoft Windows. La versión X2 contiene
herramientas muy poderosas, es de fácil uso, y es uno de los programas más populares en los estudios de
grabación.
• Logic Pro
Creado por la compañía Apple, permite grabar, editar y mezclar con calidad profesional. Su plataforma incluye
muchos sonidos y plug-ins que le agregan mucho realismo a las muestras. Posee cientos de canales de
entrada, decenas de grupos de mezclas, montones de envíos y canales auxiliares, creación dinámica de ajustes
de canales, potentes herramientas de automatización y gestión de pistas, y completas funciones de sonido
envolvente.
(Plug-in. Un componente de software que le añade nuevas funciones a un software existente. En el caso
de la música digital, se refiere a una serie de procesos y efectos digitales que sirven para múltiples
funciones: afinar, comprimir, ecualizar, ampliar el panorama estéreo, distorsionar, agregar reverberación
o delay, etc.)

Software de edición
• Sound Forge Pro 11
Es un software especializado para la producción de audio digital que posee todas las herramientas
necesarias para convertir los sonidos originales en audio masterizado de alta calidad. Sirve también para
crear, grabar y editar archivos de audio en estéreo o multicanal, con rapidez y precisión. Sound Forge
soporta resolución total en archivos de 24 y 32/64-bit a 192 kHz.
La última versión (Sound Forge Pro) trae el trabajo de multicanal, que permite ediciones y
procedimientos para exportar en el formato 5.1, 7.1 y surround AC-3, usando el plug-in Dolby Digital AC-
3. La compañía Sony es la encargada de diseñar otros software de vital importancia como Acid Pro,
Vegas Pro y Movie Studio, que les permite intercambiar una gran cantidad de herramientas de procesos
y edición (Kim,2007).
Uno de los grandes desarrollos del Sound Forge consiste en una nutrida gama de plug-ins de edición y
procesamiento del audio, entre los que se encuentra el Noise Reduction. Este plug-in utiliza una muestra
del ruido que se desea extraer del audio original, y permite que se manipule el porcentaje exacto de
absorción del ruido, para evitar la deformación de la muestra hasta los niveles deseados y eliminar el
ruido seleccionado.
• Adobe Audition
La nueva versión de Cool Edit Pro, es un software diseñado para la edición digital del audio. Contiene
una plataforma de mezcla y edición de audio que permite trabajar simultáneamente varias muestras de
audio (multipista). Es la alternativa más adecuada para las personas que no tienen mucho conocimiento
en las plataformas digitales para la edición del audio, ya que sus herramientas son muy fáciles de usar.
Conocido en el medio como la «Navaja Suiza», por su alta precisión y capacidad, permite al usuario
hacer modificaciones que no destruyan ni deformen el audio en una forma agresiva.
16 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Micrófonos
El primer elemento de la cadena de audio es el micrófono, un transductor capaz convertir señal sonora en
señal eléctrica. Con mayor precisión, convierte presión sonora en tensión. Estudiaremos algunos parámetros y
especificaciones importantes, así como las estructuras constructivas de los micrófonos dinámicos y
capacitivos.

Micrófonos dinámicos
Existen varios mecanismos de conversión de energía sonora en energía eléctrica utilizados en los micrófonos.
Los más habituales corresponden a los micrófonos dinámicos y los micrófonos capacitivos.
Los micrófonos dinámicos, también denominados de bobina móvil, están constituidos por una bobina con
varias espiras de alambre de cobre que se desplaza en forma oscilante a lo largo de un núcleo cilíndrico de
imán. La bobina es impulsada por un diafragma que vibra en concordancia con las variaciones de presión de
una onda sonora
(Figura 8.9). De la física se sabe que cuando una bobina se mueve dentro de un campo magnético (en este
caso el del imán) se genera en sus terminales una tensión eléctrica denominada fuerza electromotriz, y éste
es precisamente el principio de operación de los micrófonos dinámicos .

Figura 8.9. Diagrama esquemático constructivo de un micrófono dinámico o de bobina móvil. Las variaciones de presión causadas por
una onda sonora imprimen movimiento al diafragma, el cual arrastra consigo a la bobina. El movimiento de la bobina respecto al imán
genera una tensión eléctrica entre los terminales + y – del micrófono.

Los micrófonos dinámicos generan tensiones bastante pequeñas, del orden de 1 a 4 mV/Pa (milivolt por
pascal). Para lograr mayores sensibilidades sería necesario que la bobina tuviera muchas espiras, lo cual
implicaría aumentar su masa. Esto repercutiría negativamente en la respuesta en alta frecuencia, dado que a
mayor masa, mayor inercia, es decir mayor dificultad para que una onda de alta frecuencia ponga en
movimiento al conjunto diafragma - bobina (sería equivalente a intentar sacudir rápidamente un objeto muy
pesado). De todas maneras, aún con pocas espiras (y por lo tanto baja sensibilidad) el comportamiento en alta
frecuencia está limitado en general a unos 16 kHz. Actualmente, el uso de potentes imanes de neodimio
permite reducir la cantidad de espiras, permitiendo en algunos modelos extender la frecuencia a la banda
completa de audio.
Otra desventaja de los micrófonos dinámicos es el denominado ruido de manipulación (es decir el ruido
ocasionado al mover o tocar el micrófono). La ventaja principal de este tipo de micrófonos es su robustez y
tolerancia a condiciones adversas de operación, como variaciones de temperatura o humedad, grandes niveles
de presión sonora, golpes y sacudidas, etc., por lo cual son especialmente aptos para el sonido en vivo. Otra
ventaja es que no requieren fuentes de alimentación propias para generar señal eléctrica en respuesta a un
sonido.
17 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Micrófonos capacitivos
Los micrófonos capacitivos (también denominados de capacitor, de condensador, o electrostáticos) se basan
en la utilización de un campo eléctrico en lugar de un campo magnético. Están formados por un diafragma
muy delgado (típicamente, 5 micrones de espesor) bañado en oro, y una placa posterior metálica que
normalmente está
perforada o ranurada (Figura 8.10). Ambos forman un condensador cuya capacidad C varía con la distancia
entre sí, y esta distancia varía al vibrar el diafragma impulsado por las variaciones de presión de la onda
sonora.

Figura 8.10. Diagrama esquemático constructivo de un micrófono de condensador. Las variaciones de presión causadas
por una onda sonora imprimen movimiento al diafragma, y al variar consecuentemente la distancia entre éste y la placa
posterior, varía también la capacidad del condensador formado por ambos. Si previamente se ha aplicado una carga
eléctrica a ambas placas, la variación de capacidad implicará una variación de tensión eléctrica v entre los terminales +y –
del micrófono.

Respuesta en frecuencia
Una característica importante de cualquier componente de un sistema que procesa señal, en particular de
los micrófonos, es su respuesta en frecuencia. La respuesta en frecuencia de un micrófono es una gráfica que
indica la sensibilidad en dB en función de la frecuencia. El aspecto típico de la respuesta en frecuencia de un
micrófono se muestra en la Figura 8.2. Se observa que la respuesta no es plana, vale decir que no es constante
con la frecuencia. Esto significa que ante dos sonidos de diferente frecuencia, por ejemplo 30 Hz y 10 kHz,
pero idéntica amplitud, el micrófono generará tensiones diferentes. En este ejemplo, la sensibilidad para 30
Hz es de 50 dB, mientras que para 10 kHz es de -- 40 dB, lo cual hace una diferencia de 10 dB. Esto implica que
la tensión generada por el micrófono a 10 kHz será (a cálculo hecho) más de 3 veces mayor que la generada a
30 Hz.
También se nota en la respuesta cierta irregularidad (fluctuaciones) en alta frecuencia. Esto es una
consecuencia directa de que la longitud de onda a esas frecuencias ya es comparable al tamaño del micrófono
(por ejemplo a 10 kHz la longitud de onda es de 3,45 cm), lo cual hace que el propio micrófono interfiera en el
campo sonoro causando el equivalente de “sombras” acústicas sobre sí mismo, que dependen mucho de la
longitud de onda.
Finalmente, se aprecia que existe una banda de frecuencias, que en el ejemplo abarca desde alrededor de 50
Hz hasta unos 15.000 Hz, en que la respuesta es bastante plana. Los extremos se denominan respectivamente
frecuencia inferior y frecuencia superior, definidas como aquellas frecuencias por debajo de la cual y por
encima de la cual la sensibilidad cae 3 dB (o en algunas especificaciones, 1 dB) por debajo del valor a 1 kHz.
18 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Cuando se desea dar una idea rápida de la respuesta en frecuencia de un micrófono, se especifican las
frecuencias inferior y superior, lo cual en general es suficiente para decidir si un micrófono es o no adecuado
para determinada aplicación.

Figura 8.2. Curva de la respuesta en frecuencia de un micrófono típico.

Direccionalidad
Otra característica importante en los micrófonos es su direccionalidad. Debido a su construcción, y a los
principios de la Acústica, la sensibilidad de un micrófono varía según el ángulo respecto a su eje desde donde
viene el sonido. En la Figura 8.3 se ilustra este hecho. Figura 8.3. Efecto sobre la sensibilidad de un micrófono
direccional (por ejemplo cardioide) de las diversas orientaciones de la fuente.

Se pueden indicar las características direccionales de un micrófono por medio de un diagrama direccional o
diagrama polar como el que se muestra en la Figura 8.4.
En este tipo de diagrama se indica cómo varía de la sensibilidad del micrófono con el ángulo entre la fuente
sonora y el eje principal, es decir aquella dirección de máxima sensibilidad. En el ejemplo de la Figura 8.4, por
ejemplo, a los 90º la sensibilidad es unos 6 dB menor que en el eje principal.
El patrón direccional (forma del diagrama polar) de un micrófono varía con la frecuencia, debido a que para
altas frecuencias, la longitud de onda es pequeña, comparable al tamaño del propio micrófono, que proyecta
sobre sí mismo “sombras” acústicas que dependen de la orientación y de la longitud de onda (y por lo tanto de
la frecuencia). En la Figura 8.5 se repite el diagrama polar de la Figura 8.4, incluyendo otras dos frecuencias.
19 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Se han popularizado varios patrones direccionales, cada uno destinado a un tipo dado de aplicaciones. El
patrón omnidireccional, cuyo diagrama polar se ilustra en la Figura 8.6, tiene la misma sensibilidad en todas
las direcciones, por lo cual no requiere ser enfocado hacia la fuente. Este tipo de micrófono se utiliza
precisamente cuando se requiere captar sonido ambiental, sin importar su procedencia. Los micrófonos
omnidireccionales, en general tienen menor variación del patrón polar con la frecuencia, razón por la cual no
“colorean” el sonido proveniente de direcciones diferentes del eje principal, es decir que no presentan picos
importantes en la respuesta en frecuencia.

En la Figura 8.4 se muestra un patrón cardioide.

Estos micrófonos son bastante direccionales, reduciéndose muchísimo su sensibilidad en la dirección


opuesta a la prin-
cipal (180º). Debido a su característica direccional, los micrófonos cardioides tienen la particularidad de que
cuando la fuente se aproxima mucho al micrófono (3 ó 4 cm), la respuesta en frecuencia cambia, aumentando
la sensibilidad en las bajas frecuencias. Esto se denomina efecto de proximidad, y es utilizado por los vocalistas
para engrosar el tono de su voz.
Una de las principales aplicaciones del patrón cardioide (también llamado direccional o unidireccional) es la
de tomar sonido de una fuente determinada cuya posición es bastante estable, como por ejemplo un
instrumento musical, rechazando lo más posible los sonidos provenientes de otras fuentes. Así, la captación
del ruido ambiente se reducirá considerablemente, ya que el ruido es multidireccional, es decir que proviene
de todas las direcciones. Un micrófono omnidireccional, lo captará en su totalidad, mientras que uno cardioide
tomará sólo una parte de dicho ruido.
Dado que en estos micrófonos el patrón polar cambia bastante con la frecuencia (Figura 8.5), al captar
sonidos laterales, estos resultarán “filtrados”, acentuándose algunas frecuencias por sobre otras, lo cual
implicará que dichos sonidos laterales estarán bastante distorsionados, o “coloreados”. Los micrófonos
cardioides de mejor calidad están diseñados para evitar lo más posible estas fluctuaciones con la frecuencia de
sus patrones polares.
20 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN
21 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Otro patrón polar difundido es la figura de ocho, llamada así por tener la forma de un 8 (Figura 8.7). Este tipo
de micrófono podría denominarse también bidireccional, ya que es fuertemente direccional en las dos
direcciones paralelas al eje principal.
En la dirección perpendicular a este eje, por el contrario, la sensibilidad es nula, por lo que permite eliminar
casi por completo la captación de ruidos provenientes de dichas direcciones.
Como los cardioides, exhiben también el efecto de proximidad, aumentando la sensibilidad a los graves
cuando la fuente se acerca mucho al micrófono.

Dado que estos micrófonos se caracterizan por rechazar las señales acústicas provenientes de los lados de
una fuente, son útiles para minimizar la captación de señal proveniente de un músico o cantante que se
encuentra al lado del que se pretende tomar con el micrófono. También se utilizan para grabaciones
estereofónicas (cuando se pretende crear la imagen sonora estéreo directamente desde la grabación y no por
mezcla posterior), colocando para ello dos micrófonos a 90º entre sí. Esta configuración se denomina X-Y. De
esta forma, la señal captada por cada micrófono será rechazada por el otro, contribuyendo a crear una mayor
independencia o separación de los canales.
Además de los tipos principales descriptos, existen en el mercado micrófonos con otros patrones polares,
como por ejemplo el subcardioide (menos direccional que el cardioide), hipercardioide (similar al cardioide
pero con un ángulo de captación todavía menor, a costa de la existencia de un pequeño lóbulo en la dirección
opuesta a la principal), o el lobular (muy direccional, con un lóbulo que abarca ángulos de captación tan
cerrados como 90º). La aplicación de estos micrófonos es bastante específica, y conviene en cada caso
aplicarlos según las indicaciones del fabricante.
En general, los micrófonos direccionales (cardioides, figura de ocho, hipercardioides, etc.) tienen peor
respuesta en frecuencia que los omnidireccionales. Esto se debe a que según se mostraba en la Figura 8.5, el
patrón polar de los direccionales varía con la frecuencia, y por lo tanto para direcciones diferentes de la
principal la respuesta en frecuencia tiene fluctuaciones más importantes que para la dirección principal. El
resultado de esto es que el sonido proveniente de los costados no sólo estará más atenuado que el que
proviene del frente (precisamente por la direccionalidad) sino que se verá más afectado en frecuencia, es
decir estará “coloreado” (por ejemplo, tendrá tendencia a enfatizar los graves, u otras frecuencias específicas,
produciendo respectivamente un sonido más sordo o algo metálico), como se muestra en el ejemplo de la
Figura 8.8. En los mejores micrófonos, este detalle es tenido en cuenta, de modo que el patrón polar resulte
más uniforme con la frecuencia, con lo cual el sonido proveniente de los costados sólo sonará más débil, y no
además distorsionado.
22 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

EL MIXER (CONSOLA DE SONIDO)


Así como el secuenciador es el centro alrededor del cual giran las labores de la creación de música con
ordenadores, el mixer (o consola) es el centro del trabajo en un estudio profesional.
Un mixer es un administrador de diferentes tipos de señales eléctricas. Permite juntar gran cantidad de ellas,
enviando algunas hacia dispositivos externos que las devuelven procesadas, a fin de reagruparlas y procesarlas
en su conjunto para obtener un grupo de señales normalmente menor y de la mayor calidad posible. Las
señales finales pueden ser una única señal monofónica, dos señales para obtener una imagen estéreo, o
cuatro para las actuales mezclas surround.
Las señales eléctricas con las que trabaja un mixer son las que llegan a través de micrófonos, grabadores,
compact disc o cualquier tipo de instrumento musical o soporte electrónico que genere una señal de audio.
Ese tipo de señal es sumamente pequeña, del orden de microvoltios, por lo que una de las primeras funciones
de la consola será la de amplificarlas suficientemente para poder trabajar con ella.
Un mixer está compuesto, básicamente, de cinco secciones generales: canales de entrada, retornos, controles
generales, monitoreo y salidas.

Vista de un tipo de mixer (Yamaha 03D)

Sección de entrada
Normalmente, de la calidad del dispositivo que amplifique la señal que ingresa dependerá la calidad final del
sonido del mixer, ya que una parte importante del ruido comienza aquí. La impedancia de entrada a la mesa
debe ser, al menos, tres veces superior a la salida de un micrófono, lo que implica impedancias mínimas de
600 ohm. Dentro de la misma consola veremos que habrá secciones provistas de entradas y salidas de señal,
que trabajarán en forma balanceada, y otras secciones que lo harán en forma desbalanceada.
23 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Los mixers consiguen el balanceado de dos maneras: electrónica mente o por medio de transformador. Una
de las ventajas del balanceado por transformador es que aísla unos equipos frente a otros, porque no hay una
conexión eléctrica física entre los equipos. Otra es que adapta la impedancia del micrófono y la del
amplificador de entrada.
Cuando el balanceado se obtiene electrónicamente, se logra por medio de un amplificador diferencial que
incrementa las señales y atenúa las señales parásitas.
Como las señales que llegan al mixer (micrófonos, teclados, etc étera) tienen valores de impedancia,
ganancia y corriente muy distintos unos de los otros, sus entradas serán independientes y estarán provistas de
dos amplificadores diferentes, que deberán ser utilizad os de manera adecuada para evitar saturaciones.

Ganancia o Trim
La entrada de micrófono es un amplificador previo de ganancia fija seguido de otro amplificador regulable
(Control de Trim o Ganancia del mixer). Generalmente provee para un rango de ganancia de +20 hasta +70 dB,
con una impedancia de 1 Kohm. A partir de cierta calidad, los mixers ofrecen para cada módulo de canal un
pulsador den ominado “pad” que permite atenuar la señal de entrada en 20 dB, así como una función de
alimentación de corriente para micrófonos de condensador de 48 voltios.
Si se fuerza la ganancia del micrófono, no sólo se obtendrán grandes montos de la señal que se desea grabar,
sino de todos los ruidos —por minúsculos que sean— que rodean al micrófono. Estos ruidos abarcan:
respiraciones de los músicos, roces de todo tipo, ruidos electrónicos, la música que se monitorea por los
auriculares y hasta los ruidos que generan las partículas de aire golpeando la membrana del mic. Lo
aconsejable es elegir el tipo de micrófono adecuado para cada utilización, y chequear siempre el nivel de toda
la toma —aunque al artista lo incomode—, a fin de evitar giros sorpresivos de su interpretación.
Los mixers completos vienen con un indicador de saturación (“overload”) que marcará los excesos de señal.
Las entradas de línea tienen una impedancia de 10 Kohm, y normalmente pueden regularse en un margen de -
20 a +30 dB.

Inserts
Punto de ruteo en serie de la señal, ejecutado desde un zócalo para la ficha tipo plug estéreo. Localizados
inmediatamente a continuac ión del trim, su función es enviar y recibir la señal con un cable especial que está
conformado por un plug estéreo en una terminal del cable, y dos cables plug mono en la otra. Permiten un “ir
y venir” de la señal completa, a diferencia de los envíos auxiliares, que trabajan con un paralelo de la señal.
La señal que se envía al insert se direccionará íntegra hacia el dispositivo elegido. Debido a ello, la calidad final
de la señal que reing rese al módulo dependerá de la calidad del dispositivo asignado. Es un lugar excelente
para “pinchar” la señal y comprimirla. De hecho, muchos mixers profesionales ubican en ese lugar una
compuerta.

Envíos auxiliares
Estos envíos derivan una copia de la señal original hacia otros sectores del mismo mixer o hacia dispositivos
externos.
Dependiendo de la calidad del mixer, cada módulo o canal provee desde uno hasta más de una docena de
envíos auxiliares. Ellos permitirán enviar distintas mezclas de monitoreo a los músicos que graban (o tocan en
vivo) y direccionar señal hacia cualquier tipo de efecto o procesador externo: reverbs, delays, ecual izadores,
etcétera.
La señal “enviada” retorna a través de “retornos auxiliares” o de un canal normal del mixer, lo que permite
unir su señal a la general.

Sección de ecualización
La calidad y cantidad de los dispositivos de ecualización varían considerablemente de un mixer a otro en
relación directa con su precio.
La sección de ecualización comienza en los mixers de mediana calidad para arriba con un interruptor de
activación o desactivación de la función.
También dependiendo de la calidad (y precio), esta sección prevee de filtros para altos y bajos.
24 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Luego, el sistema concreto de ecualización variará entre ecualizadores semiparamétricos, para-métricos con el
Q variable, gráficos, digitales, o la combinación de varios de ellos.
Un mixer económico proveerá de sistemas semiparamétricos, mientras que uno profesional permitirá la
combinación de prácticamente todos los ecualizadores mencionados.
•Recordar no abusar del procesamiento de la señal. Dependiendo de la calidad del mixer, toquetear demasiado
la señal redundará en un pérdida de calidad de la misma.
•Por otro lado, es recomendable hacer tomas “limpias” a fin de ecualizar más tarde, en la mezcla. Eso
permitirá tener margen a la hora de optar por distintas posibilidades. A vec es, ecualizar la toma obliga a tener
que desecharla más tard e por no adecuarse a la estética final de una producción.
Ecualizadores paramétricos: con ellos pueden variarse la frecuenc ia central y el ancho de banda (O), a fin de
seleccionar con toda exactitud la frecuencia que desea corregirse. Un control selecciona la frecuencia y otro
controla su ganancia entre -12 y +12 dB.
Ecualizadores gráficos: su nombre proviene de los ecualizador es frontales de gran cantidad de bandas (14 o
31) dispuestas una a continuación de la otra y que son manejables con potenciómetros deslizables. Esa
disposición permite “visualizar” la curva de ecualización obtenida. En el mixer, pueden presentarse como dos
controles (graves y agudos) a cuatro (graves, medios graves, med ios agudos, agudos).

Faders
Estos controles se han impuesto en la forma de potenciómetros desl izables debido a su practicidad, precisión
y, dependiendo de su cal idad, bajo nivel de ruido.
Regulan el voltaje de salida final de todo el módulo.
Puede decirse que la ganancia regula la “cantidad” de señal (el monto de corriente), mientras que el fader
regula la “calidad” de la señal (el monto de voltaje). Faders VCA (Amplificadores de Voltaje Controlado): los
faders de este tipo convierten la señal eléctrica en códigos binarios (O y 1). De esa forma, pueden ser
almacenados y utilizados por ordenadores para todo tipo de uso, tanto en la grabación (u operación en vivo)
com o en la mezcla de un trabajo de producción.

Buses o subgrupos
Si el mixer lo permite, varios canales pueden agruparse y direccion arse hacia la sección de los buses o
subgrupos antes de ir hacia el master de salida del mixer.
Su uso es sumamente útil a la hora de mezclar u operar en vivo, ya que distintos grupos de instrumentos
(una batería completa, una sección de brasses, una percusión, una banda completa, coros, etcétera)
pueden gobernarse en general sin tener que recurrir a operar cada canal por separado. Los buses tienen
también auxiliares para rutear la señal hacia procesadores externos.
Así, si bien cada instrumento es grabado por separado, en la mezc la se agrupan en una señal estéreo
(dos buses) con su propia compresión, ecualización y efecto, a fin de preparar esa sección musical para
ser dirigida hacia el master.
25 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Amplificadores
Introducción
El amplificador es el primer bloque procesador de señal puramente eléctrico. Su finalidad es aumentar
el nivel de las señales provenientes de generadores de bajo nivel, como los micrófonos, hasta alcanzar
un nivel apto para determinada aplicación, como podría ser excitar un parlante o caja acústica. La idea
de la amplificación es sumamente recurrente en la electrónica, y aunque tal vez no lo parezca a primera
vista existen amplificadores en todos los dispositivos o equipos electrónicos, tales como relojes digitales,
controles remotos, computadoras, etc. Nosotros estamos interesados en los amplificadores de señales
de audio.

Niveles de señal
La otra propiedad fundamental de los amplificadores es el nivel de señal que son capaces de manejar.
Existen tres niveles de señal característicos: bajo nivel, nivel de línea, y nivel de potencia. Las señales de
bajo nivel corresponden a la señal producida directamente por los transductores, como los micrófonos,
los fonocaptores para discos de vinilo, y los cabezales de reproducción de cinta magnetofónica. Las
señales de nivel de línea son el resultado de aplicar preamplificación a las señales de bajo nivel, pero
también son las señales que producen diversos equipos como las cassetteras, los reproductores de
compact disc, los sintonizadores, los sintetizadores y otros instrumentos musicales el ectrónicos, etc.
Finalmente, el nivel de potencia es el requerido para excitar los altavoces (parlantes) o cajas acústicas.

Clasificación de los amplificadores


Los amplificadores se pueden clasificar según la señal que manejan, y así existen los amplifica dores de
bajo nivel, o preamplificadores, y los de alto nivel o amplificadores de potencia. Los preamplificadores
tienen como finalidad llevar las señales de bajo nivel al nivel de línea, que es el nivel estándar que
manejan las entradas y salidas de las consolas de mezcla. Los amplificadores de potencia reciben señal
de nivel de
línea a su entrada y la amplifican hasta el nivel de potencia. En la Figura 9.2 se muestra la configuración
requerida para llevar una señal de bajo nivel (como la de un micrófono) hasta el nivel de potencia
necesario para excitar un parlante.
En realidad los preamplificadores normalmente vienen incorporados en las consolas o equipos
generadores de señal como las cassetteras, por lo cual sus especificaciones no están bajo el contr ol del
usuario. No sucede lo mismo con los amplificadores de potencia, para los cuales se especifican diversas
características técnicas a las que es necesario prestar debida atención.

Figura 9.2. Diagrama de bloques de una interconexión amplificadora


básica, en la cual se muestran la etapa preamplificadora y la etapa de
potencia.
26 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Altavoces y Cajas Acústicas


Introducción
Para completar un mínimo sistema acústico que sea funcionalmente completo, a los micrófonos y
amplificadores, se les debe agregar algún transductor que transforme nuevamente la energía eléctrica
en energía acústica. Ejemplos de ello son los altavoces, audífonos y auriculares. Nos ocuparemos aquí de
los altavoces (también de nominados altoparlantes o simplemente parlantes). Los altavoces más
difundidos son los de bobina móvil, tanto para baja como para alta frecuencia. En alta frecuencia (por
encima de los 5 kHz) se utilizan también los piezoeléctricos.
Clasificación por rangos de frecuencia
Tanto en sonido de alta fidelidad (sonido de buena calidad para consumo familiar) como en sonido
profesional (sonido de calidad superior para grabaciones o espectáculos) es habitual utilizar cajas
acústicas que incluyen dos o más altavoces que cubren diferentes rangos de frecuencia. Así, p ara bajas
frecuencias, es decir las frecuencias menores de 500 Hz, se utilizan los denominados woofers (cuya
traducción directa sería
“ladradores”), altavoces cuyo diámetro varía entre 8” (20,3 cm) y 18” (45,7 cm) (aunque lo más común
es entre 12” y 18”). Algunos woofers llegan hasta frecuencias de 1,5 kHz, particularmente los que se
usan en sistemas de sólo dos altavoces (sistemas de dos vías). Para frecuencias medias, entre 500 Hz y
unos 6 kHz, se utilizan los antiguamente llamados squawkers (“graznadores”), cuyo diámetro típico está
entre 5” (12,7
cm) y 12” (30,5 cm). Finalmente, para las altas frecuencias, es decir por encima de los 1,5 kHz, y a veces
por encima de los 6 kHz, se utilizan los denominados tweeters(“piadores”).
En sonido profesional de gran potencia, las cajas acústicas poseen un único alta voz, y se coloca una caja
o más por cada rango de frecuencia, con características optimizadas para dicho rango.
Altavoces de bobina móvil
En la Figura 10.1 se ha representado un altavoz de bobina móvil típico. Está constituido por un circuito
magnético, formado a su vez por una base o placa posterior con un núcleo o polo central cilíndrico
montado sobre su centro, un imán permanente con forma de una gran arandela, y una placa anterior
con forma de arandela más pequeña. Entre el polo central y la placa anterior queda un espacio de aire
denominado entrehierro, sobre el cual existe un poderoso campo magnético. En dicho entrehierro se
aloja la bobina, la cual se halla montada sobre un tubo de papel que la comun ica con el cono.
27 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Figura 10.1. Corte transversal de un altavoz de bobina móvil típico,


en donde se indican sus partes funcionalmente más importantes.

Como la bobina está inmersa en un campo magnético, al circular por ella corriente
eléctrica se genera una fuerza que le imprime movimiento (en el capítulo 23 se encontrarán más detalles
sobre la interacción eléctrica y magnética). Dicho movimiento se
transmite al cono o diafragma, y éste actúa entonces como una especie de pistón, impulsando el aire
hacia afuera o hacia adentro según la polaridad de la tensión aplicada a
la bobina. Este proceso genera sucesivas ondas de compresión y rarefacción del aire
que, tal como se explicó en el capítulo 1, se propagan como sonido.
28 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Acústica
Introducción

La Acústica es la disciplina que se ocupa de estudiar el sonido en sus diversos aspectos. Se puede dividir en
una gran cantidad de subdisciplinas, algunas de las cuales se listan en la tabla siguiente Nosotros nos
ocuparemos brevemente sólo de la acústica física, la acústica musical y la acústica arquitectónica.

El sonido: un fenómeno ondulatorio

El sonido consiste en la propagación de una perturbación en el aire. Para comprender mejor este concepto
imaginemos un tubo muy largo lleno de aire, con un pistón en un extremo. El aire está formado por una
cantidad muy grande de pequeñas partículas o moléculas. Inicialmente, el aire dentro del tubo está en reposo,
o, más técnicamente, en equilibrio (Figura 1.1a). Este equilibrio es dinámico, lo cual significa que las moléculas
no están quietas, sino que se mueven caóticamente en todas las direcciones debido a la agitación térmica,
pero con la particularidad de que están homogéneamente repartidas en el interior del tubo. En otras palabras,
en cada centímetro cúbico (cm3) de aire, ya sea cerca del pistón o lejos de él, hay aproximadamente la misma
cantidad de moléculas (una cantidad muy grande: unos 25 trillones).

Figura 1.1. Propagación de una perturbación en


un tubo. (a) El aire
en reposo (moléculas repartidas
uniformemente). (b) Ante una perturbación el
aire se concentra cerca del pistón. (c), (d), (e) La
perturbación se propaga alejándose de la fuente.
29 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Supongamos ahora que se desplaza rápidamente el pistón hacia el interior del tubo (Figura 1.1b). Las
moléculas que se encuentran junto al pistón serán empujadas por éste, mientras que las que se encuentran
muy alejadas no. Esto implica que en la zona del pistón el aire se encontrará más comprimido que lejos de él,
es decir que la misma cantidad de aire ahora ocupa menos espacio. En otras palabras, habrá ahora más
moléculas por centímetro cúbico cerca del pistón que lejos de él. Al igual que lo que sucede cuando se abre la
válvula de un neumático, el aire comprimido tiende a descomprimirse,
desplazándose hacia la derecha, y comprimiendo a su vez el aire que se encuentra próximo a él (Figura 1.1c).
Esta nueva compresión implica, otra vez, una tendencia a descomprimirse, que se efectiviza a costa de
comprimir el aire contiguo (Figura 1.1d). Elproceso se repite así en forma permanente, con lo cual la
perturbación original (la compresión del aire cercano al pistón) se propaga a lo largo del tubo alejándose de la
fuente de la perturbación (el pistón).
Este proceso se denomina también propagación de una onda sonora, y es similar a lo que sucede cuando en
una pileta en calma se deja caer una piedra. En el instante en que la piedra golpea el agua, se produce una
perturbación, que se propaga en forma de una circunferencia cuyo radio va en aumento, como se aprecia en
la Figura 1.2.

Velocidad del sonido


Ahora nos preguntamos qué tan rápido se aleja la onda de la fuente. La respuesta es que el sonido se
propaga con una velocidad c que en el aire a 23 ºC vale
c = 345 m/s ,
o bien
c = 1242 km/h .
Esta velocidad varía algo con la temperatura (un 0,17 %/ºC), por eso en diversos textos pueden encontrarse
valores ligeramente diferentes. Una observación importante es que la velocidad del sonido es independiente
de la intensidad de la perturbación.
Veamos algunos ejemplos. Si una persona se encuentra a 100 m de distancia de otra (aproximadamente una
cuadra), un grito de la primera demorará, a causa de esta velocidad, 29 centésimas de segundo en llegar a
donde se encuentra la segunda. Otro ejemplo es el de los relámpagos y los truenos. Un relámpago es una
enorme chispa que se produce por una descarga eléctrica entre distintas capas de aire con cargas opuestas.
Esta chispa produce a la vez luz y sonido. Sin embargo, la luz viaja a una velocidad mucho más alta, y alcanza
nuestra vista casi instantáneamente, mientras que el sonido demora un tiempo apreciable en llegar a
nosotros. Así, si cronómetro en mano comprobamos que el trueno se escucha 5 s después de ver un
relámpago, conociendo la velocidad del sonido podemos calcular que el relámpago se produjo a una distancia
d = 345 m/s ´ ´ 5 s = 1725 m = 1,725 km.
Otro ejemplo interesante es el eco. Si gritamos frente a una superficie vertical un tanto alejada (por ejemplo
una barranca o un acantilado), el sonido tardará un tiempo en llegar a la superficie, se reflejará en ella, y
volverá demorando otro tiempo adicional. El resultado será que se escucha, unos instantes después, que la
pared “repite” el grito.
Más adelante veremos ejemplos correspondientes a los sistemas de sonido, en los cuales a causa de la
distancia entre los parlantes y el público se producen retardos que es preciso corregir.

Longitud de onda
Vamos ahora a definir algunos parámetros muy importantes relacionados con los sonidos periódicos1. El
primero es la longitud de onda, que se representa con la letra griega lambda,λ, y es la distancia entre dos
perturbaciones sucesivas en el espacio. Se mide en metros (m) o en centímetros (cm), y para los sonid os
audibles está comprendida entre los 2 cm (sonidos muy agudos) y los 17 m (sonidos muy graves).
30 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

La longitud de onda es importante en varias situaciones. En primer lugar, un objeto grande comparado con la
longitud de onda es capaz de alterar significativamente la propagación del sonido cuando se interpone entre la
fuente sonora y el oyente. Así, por ejemplo, los sonidos graves pueden “doblar la esquina” fácilmente porque
su longitud de onda es grande. Los agudos, en cambio, cuya longitud de onda puede ser de apenas algunos
cm, se ven considerablemente atenuados.
Otra situación en la cual la longitud de onda juega un papel importante es en la eficiencia de los altavoces.
Cuando la longitud de onda λ emitida por un parlante es mucho más pequeña que su propio tamaño, la
potencia emitida se reduce considerablemente. Por esa razón, los tweeters (altavoces de agudos) son mucho
más pequeños que los woofers (altavoces de graves).
Por último, veremos más adelante que la respuesta de los micrófonos se altera para aquellos sonidos de
longitud de onda λ comparable con el tamaño del micrófono.

1 Un movimiento periódico es el tipo de evolución temporal que presenta un sistema cuyo estado se repite exactamente a intervalos
regulares de tiempo

Representación gráfica del sonido


Hasta ahora no habíamos tenido en cuenta la manera en que se aplican las perturbaciones sucesivas. Así,
podría ocurrir que éstas fueran el resultado de un suave vaivén del pistón, o que por el contrario cada
perturbación consistiera en una brusca sacudida del mismo. La realidad es que aún manteniéndose la
frecuencia, ambos sonidos sonarán muy diferentes, lo cual muestra la importancia de conocer la forma de la
perturbación. Para ello se utiliza un tipo de representación gráfica denominada oscilograma, que consiste en
mostrar la evolución en el tiempo de la perturbación (Figura 1.4) en un par de ejes correspondientes al tiempo
(eje horizontal) y a la presión sonora (eje vertical).

Amplitud
El oscilograma nos permite interpretar fácilmente un parámetro del sonido vinculado a la fuerza o intensidad
del mismo: la amplitud. La amplitud se define como el máximo valor que alcanza una oscilación en un ciclo. La
amplitud se denomina también valor de pico o valor pico. En la Figura 1.6 vemos la misma forma de onda con
dos amplitudes diferentes.
31 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Envolvente
La amplitud de un sonido no es necesariamente constante, sino que puede variar en el tiempo. De hecho, la
mayor parte de los sonidos reales tienen amplitud variable. Se define la envolvente de un sonido como la
forma que se obtiene uniendo las amplitudes de los ciclos sucesivos. En la Figura 1.7 se puede apreciar una
onda cuya amplitud varía en el tiempo. En línea de trazos se muestra la envolvente respectiva.

Algunas formas de onda


Podemos afirmar que virtualmente cada sonido implica una forma de onda diferente. Existen sin embargo
algunas formas de onda que reciben especial atención, ya sea por su simplicidad o por su utilidad práctica o
teórica. La primera de ellas es la onda cuadrada, que consiste en dos niveles (generalmente uno positivo y el
otro negativo) que se van alternando en el tiempo. Cada uno de ellos permanece un tiempo T/2, donde T es el
periodo. En la Figura 1.8 se muestra un ejemplo. Esta onda es importante por su simplicidad geométrica. No
existe en la Naturaleza, pero es muy fácil de sintetizar electrónicamente.

Una variante de la onda cuadrada es el tren de pulsos, en el cual el tiempo de permanencia en cada uno de
los dos niveles no es el mismo. Se suele especificar un porcentaje que corresponde a la proporción del periodo
en el nivel alto. En la Figura 1.9 se muestra un tren de pulsos al 25%.
32 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Otra forma de onda interesante es la onda triangular (Figura 1.10). Está formada por rampas que suben y
bajan alternadamente.

La onda diente de sierra (Figura 1.11) tiene una subida rápida y una bajada en forma de rampa o viceversa. Si
bien tampoco es una forma de onda natural, la forma de onda del sonido del violín guarda cierta similitud con
la diente de sierra. También tienen esta forma de onda los sonidos que se generan al rozar dos objetos, por
ejemplo el chirrido cuando se frota rápidamente una tiza en una pizarra.

Onda senoidal
Finalmente, tenemos la onda más importante, no sólo en Acústica sino en toda la Física y gran parte de la
Matemática: la onda senoidal (Figura 1.12), también denominada senoide o sinusoide. Si bien
matemáticamente tiene cierta complicación (está representada por la función trigonométrica seno),
físicamente esta forma de onda corresponde a las oscilaciones más sencillas posibles. Pocos sistemas son tan
simples como para oscilar senoidalmente. El más conocido es el péndulo: la oscilación de un peso suspendido
de un hilo sigue una ley senoidal. En el campo de la música, el diapasón de horquilla produce un sonido casi
puramente senoidal. El silbido es también casi senoidal, y lo mismo ocurre con una
flauta ejecutada piano (suave). Una cuerda de guitarra punteada muy suavemente en su punto medio también
produce un sonido aproximadamente senoidal.

Pero lo que da mayor importancia todavía a esta forma de onda es el hecho de que cualquier onda periódica
puede considerarse como una superposición (suma) de ondas senoidales de distintas frecuencias, todas ellas
múltiplos de la frecuencia de la onda (propiedad conocida como Teorema de Fourier). Dichas ondas se llaman
armónicos. Esta superposición no se limita a ser un artificio de análisis del sonido, sino que si se escucha
atentamente es perfectamente audible en muchos casos. La onda senoidal es la más simple precisamente
porque consta de una sola frecuencia.
33 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Moduladores de Sonido
Son dispositivos utilizados para la modificación de uno o varios parámetros en forma gradua l e
instantánea, dependiendo de los valores asignados al mismo. Cuando subimos (fade-in) bajamos (fade-
out) el volumen de una canción, estamos realizando lo que técnicamente conoce como modulación de
amplitud. (fig.01)

ENVOLVENTES
Una envolvente es un recorrido programado de tiempos y niveles. La cantidad de pasos de penderá del
dispositivo utilizado. El parámetro sobre la cual ejercerá su accionar dependerá del software o
dispositivo utilizado, siendo los más comunes, la amplitud, la frecuencia y las frecuencias de corte (cut -
off) de los filtros.

ENVOLVENTE DE AMPLITUD (amplitude envelope)


Esta es la más conocida y utilizada. Lo más usual es su utilización en la ap arición progresiva (fade-in)
moduladores) o disminución gradual (fade-out) como pudimos ver en la fig 01. Una de las más clásicas
es la típica (ADSR - attack-decay-sustain-release) muy utilizada en sintetizadores y samplers. (fig 02)
En este caso el nivel de sustain se mantiene hasta que se deje de accionar (key -off) el dispositivo que
produce la modulación, dejando actual luego el tiempo de release. En el podemos oir la
ejecución completa de una envolvente de este tipo. ej03
EL ATAQUE
El ataque es la sección más importante de una envolvente de amplitud (primer paso del tiempo de la
misma). En instrumentos tradicionales este tiempo que oscila entre 50 ms y 400 ms y nos da la característica
particular de cada uno. Al modificarlo, estaremos cambiando drásticamente el tipo de sonido.
El último paso de la envolvente, llamado relevo (release) nos dará el tiempo que el sonido queda una vez
que soltamos la tecla que lo ejecuta.

ENVOLVENTE DE FRECUENCIA (pitch env.)


La aplicación de una envolvente sobre la frecuencia produce cambios continuos en la altura del sonido
tratado. Como podemos ver en la fig. 04 se modifica la altura de 440 Hz. a 880 Hz. (una octava) hacia arriba y
baja luego a la mitad de la frecuencia original (220Hz.)
34 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Descripción y uso de efectos en el Audio


Delay y Cámaras de reverberancia

Existe una diferencia fundamental entre delay y cámara de reverberación:


- Delay: es la repetición de un sonido una vez que el sonido original ha cesado.
- La reverberación es un eco múltiple que se superpone sobre el original y sobre si mismo, y que se genera
en un tiempo tan breve y de modo tal como para parecer un sonido único.
La diferencia es que el delay evidencia las repeticiones, y la reverberación, por el contrario las difumina en
una masa de sonido que se apaga lentamente.
En síntesis la reverberancia es un tipo de eco que al producirse en espacios tan pequeños de tiempo
consecutivamente, no alcanzamos a diferenciar separadamente. Nuestro oído, al no tener la capacidad para
diferenciar un eco tan corto, lo une y lo percibe como un todo al que llamamos reverberación. (Tal como no
distinguimos los cuadros de una película, que percibimos como movimiento continuo).
Este fenómeno se debe al llamado efecto Hass, que hace que el cerebro no sea capaz de integrar los ecos
consecutivos de un sonido en el que tengan entre si mas de 35 milisegundos.

Efecto Haas (de precedencia)


Un experimento interesante consiste en alimentar unos auriculares estereofónicos con dos señales iguales,
una de las cuales se encuentra ligeramente retardada respecto a la otra . Si se va aumentando el retardo
desde 0 a 0,6 ms, se crea la sensación de una fuente virtual (es decir aparente) que parece desplazarse desde
el frente hacia el lado que no experimenta retardo. Después de los 0,6 ms y hasta los 35 ms de retardo, la
fuente virtual permanece más o menos fija, pero parece ensancharse cada vez más. Para retardos mayores de
35 ms la fuente virtual se divide en dos, percibiéndose separadamente ambos canales, como provenientes de
fuentes diferentes. A medida que el retardo se hace mayor, el segundo sonido aparece como un eco del
primero. Este experimento ilustra el denominado efecto de precedencia, o también efecto Haas (en honor al
investigador que estudió sus consecuencias para la inteligibilidad de la palabra), que puede utilizarse para
controlar de un modo más realista la ubicación aparente de una fuente en la imagen estereofónica.

Efecto Haas, o efecto de precedencia. Se envía por medio de auriculares un sonido corto a ambos oídos,
estando el correspondiente al oído derecho retrasado respecto al del oído izquierdo. En la figura se muestran
las imágenes auditivas ante diferentes retardos:
(a) La señal llega a ambos oídos simultáneamente (sin retardo). (b) La señal llega al oído izquierdo 0,3 ms
después que al oído derecho: la fuente virtual se desplaza hacia la derecha. (c) La señal llega al oído izquierdo
0,6 ms después que al oído derecho: la fuente virtual deja de moverse. (d) La señal llega al oído izquierdo 20
ms después que al oído derecho: la fuente virtual parece ensancharse. (e) La señal llega al oído izquierdo 35
ms después que al oído derecho: por primera vez se crea la sensación de dos fuentes virtuales.
Parámetros típicos del delay
- Mix: regula la cantidad de señal original que deseamos que esté presente junto a las repeticiones.
- Time: regula la cantidad de tiempo entre una señal y otra.
- Feedback: regula la cantidad de repeticiones.
Parámetros típicos de las reverbs
- Pre-delay: tiempo de retardo con que aparece la reverberación. Su rango de trabajo se encuentra en
general, entre los 0 y 60 milisegundos. Es muy útil cuando se desea clarificar el sonido original y evitar
empastes.
- Decay: regula el largo de tiempo en que tarda la reverberación en caer.
35 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Chorus
Este efecto brinda la sensación de aumento de profundidad de la señal grabada permitiendo un mayor realce
musical cuando es utilizada veladamente o logrando un notorio efecto ondulante —sobre todo si se maneja en
estéreo— cuando se la destaca por sobre el resto de los instrumentos. Se aplica con gran acierto para
remarcar la presencia de las secciones de cuerda, teclados y guitarras.
El chorus trabaja dividiendo la señal en tres, y las coloca al centro, izquierda y derecha del panorama estéreo.
Cada una de ellas se retrasa ligeramente por medio de un oscilador de baja frecuencia (LFO)1 a fin de evitar
evidentes variaciones en la afinación. El efecto final es el de un batido y una modulación muy agradables si se
lo emplea con acierto.
Sus parámetros normales son width, que regula el largo de la onda que modula, y depth, que regula la
profundidad de dicha onda.
1 Un oscilador electrónico es un circuito electrónico que produce una señal electrónica repetitiva, a menudo una onda senoidal o una
onda cuadrada.
Flanger
Este es otro efecto generado por modulación, y se obtiene combinando la señal original con otra afectada por
un retardo de variación constante modulado por un oscilador de baja frecuencia. Esto genera un cambio
continuo de fase que es el efecto que se escucha. El retardo tiene un tiempo que oscila entre 1 y 25
milisegundos, y la baja frecuencia oscila entre 0,03 y 1 Hz.
Es necesario que ambos niveles sean similares, y se obtiene mayor efectividad cuanto mayor sea el espectro
de frecuencias tratada, ya que se producirán cancelaciones en un mayor número de frecuencias.
Sus parámetros normales son width, depth, y feedback, que gobierna la realimentación de la frecuencia
oscilante.
Phasing
Este efecto se obtiene desfasando la señal directa y la procesada por medio de una diferencia en el tiempo
entre ambas. Para lograrlo, se emplea una serie de filtros que funcionan como línea de retardo.
El phasing da la sensación de cambio de localización de la imagen sonora y se utiliza mucho para la grabación
de platos, guitarras y teclados.
Pitch Shifter
Este tipo de efecto se utiliza para modificar la altura de la señal entrante, en general, en rangos de una octava
hacia arriba y una hacia abajo. Es excelente para afirmar líneas de bajo, solos de guitarra u obtener
armonizaciones realmente creativas cuando se las programa y mezcla con la señal original en intervalos de
terceras, cuartas, quintas o séptimas. También generan efectos vocales de deformación que pueden resultar
muy interesantes.
Overdrive
Produce el recorte de la señal por sobresaturación artificial de la ganancia de la señal generando efectos
naturales de distorsión sin efectuar cambios sobre las características de los tonos.
Su uso más frecuente se encuentra en la grabación de guitarras eléctricas, en la aplicación de efectos de
ciertos sonidos de teclados, bajo y en la distorsión de las voces.
Excitadores aurales
Estos procesadores tienen una doble función. Por un lado, actúan sobre frecuencias medias, altas o bajas,
excitándolas, con lo cual realzan cierto tipo de armónicos de la señal original sin alterar su margen dinámico y
logrando un incremento aparente de hasta 4 dB. Por otro lado consiguen una alteración del espectro estéreo
que “ensancha” la percepción psicoacústjca del oyente.
El aumento del panorama auditivo sumado al incremento de la gama armónica permiten obtener mayor
definición y presencia de los instrumentos y voces, tanto en grabación como en reproducción, sin alterar sus
características dinámicas.
Compresores
De todos los procesadores, el compresor es el más utilizado. Muchos modelos de compresores vienen
provistos de funciones complementarias que incrementan la eficacia del dispositivo. Estos son: las compuertas
de ruido, los expansores, los “silabeadores”, etcétera.
Se denomina “compresión”, esencialmente, al proceso de reducción de ganancia eléctrica de la señal. La
“limitación” corresponde a una brusca reducción de la señal. Técnicamente, el compresor es un amplificador
lineal de audio cuya ganancia de salida es prefijada y no depende del nivel de la ganancia de entrada. O sea:
que la ganancia que brindará a la señal de salida permanecerá constante sea cual fuere el nivel de entrada de
dicha señal. De esa manera, el compresor entrega una señal que se encuentra dentro de los márgenes que
hayamos prefijado.
36 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

El compresor-limitador ayuda a trabajar a unos niveles muy altos de audio gracias a la obtención de la mejor
relación señal/ruido posible, que es lo que se conoce como incrementar el margen (o rango) dinámico general
de una grabación. Al trabajar sobre la ganancia de entrada de la señal, provee de una inestimable protección
contra sobrecargas de voltaje (recordemos que la señal es un pulso eléctrico: una vez que entró al micrófono,
estamos trabajando con una señal eléctrica). Con este acotamiento de las características eléctricas de la señal,
se evitan las distorsiones al momento de imprimir dicha señal en el grabador.
En el caso de la música digital, este proceso es fundamental, ya que los antiguos soportes de grabación
profesional (las cintas magnéticas) brindaban un margen amplio de tolerancia a la distorsión de la señal. Este
no es el caso de la grabación digital: en ella, cualquier distorsión se transforma en “ruido digital”, que suena
como chasquidos sumamente molestos. Por ello es de suma importancia regular los niveles de entrada y de
grabación de la señal.
Nota: no se está haciendo referencia al efecto artístico de la distorsión de una guitarra de rock (por ejemplo),
sino a la distorsión que resulta de dejar entrar una señal con demasiada ganancia de entrada al mixer (sea
análogo o digital), o de dejar pasar una señal con demasiado volumen al soporte de grabación (sea un DAT, un
grabador de cinta abierta o el rígido del ordenador).
Aquel margen de tolerancia era utilizado, a veces, como un efecto artístico, ya que se llevaba el rango
dinámico de la grabación al máximo posible aprovechando las características físicas de la cinta magnética. De
allí el color tan particular de las grabaciones de la época del vinilo.
Los compresores son dispositivos electrónicos presentes en casi cualquier ámbito profesional: son utilizados
en radio y en televisión para crear compartimentos con las frecuencias de transmisión de las distintas
emisoras. En la telefonía celular, permiten la existencia de millones de aparatos que utilizan fragmentos
minúsculos del espectro radiofónico y permiten que las comunicaciones se concreten sin molestarse unas con
otras.
Parámetros de la compresión
El umbral (threshold) regula el punto en que comienza a trabajar el compresor. Toda señal que sobrepase ese
punto será reducida en la proporción que se establezca en el ratio de compresión. La señal que permanezca
por debajo de ese punto no sufrirá alteración. Este umbral es variable a fin de elegir el punto adecuado en
cada caso, y, normalmente, es ajustable entre los -20 db y +10 db.
Relación (ratio) de compresión: regula la relación en que se ejecutará la compresión, o sea, la correspondencia
entre el nivel de ent rada y el de salida de la señal. Los ratios de compresión son gobernados por
potenciómetros que permiten seleccionar distinto tipo de proporción: 5:1, 2:1, 3:1, 4:1, 6:1, etcétera. Un ratio
1:1 imp lica que el compresor directamente no actuará: dejará pasar intacta la señal tal como entra en él. Un
ratio 2:1 significa que si la ganancia de entrada de la señal es de 10 db, a la salida del procesador se obtendrá
una señal con una ganancia de 5 db. Cualquier ganancia igual o por debajo de 5 db no será procesada.
Si se selecciona un punto de umbral más bajo que el nivel de línea, deberá incrementarse el nivel de la señal
desde la gan ancia del mixer, con el consiguiente aumento de nivel de ruido.
Tiempos de ataque (attack): regula el tiempo que necesita la unid ad para efectuar la reducción de la
ganancia, y opera sobre la característica y el tamaño de los picos que trae la señal.
Los cambios bruscos de ganancia no se logran instantáneamente, por lo que, si se programan tiempos cortos,
no le daremos tiempo al procesador a trabajar y la señal sonará como ahogada. Los tiempos de ataque lentos
son útiles cuando se desea lograr un alto grado de compresión y el máximo impacto en un instrumento: por
ejemplo, los sonidos altos y duros del pop y del rock. En otros estilos musicales, la compresión como efecto
artístico no se utiliza, ya que desnaturaliza la expresividad de los instrumentos: tal es el caso de la música
clásica.
Tiempo de recuperación (release): regula el tiempo que tarda la unidad en volver a su nivel normal una vez
que ha cesado la comp resión.
Si bien existen dispositivos con este parámetro fijo, los márgenes ofrecidos por las distintas marcas varían
generalmente entre 100 microsegundos y 3,5 microsegundos. De su adecuada selección dependerá el cambio
de ganancia en cada momento.
El “de-esser”
Algunos procesadores modernos incluyen este tipo de función, que consiste en un una serie de dispositivos
que permiten elevar a elección las frecuencias agudas del espectro, a fin de localizar las molestas frecuencias
silbantes de una toma de voz (por ejemplo). Dándole al compresor una pendiente alta de trabajo y tiempos
rápidos de ataque y de recuperación, y ajustando el umbral para que la atenuación de ganancia sólo actúe en
el momento en que esté presente la señal silbante, se comprime la frecuencia molesta sin llegar a eliminarse.
El defecto se alivia o se atenúa, y se mejora la grabación en grados sorprendentes.
37 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

La compuerta de ruido (Noise-gate)


La compuerta es un compresor que opera a la inversa: reduce a cero la señal que no llega a cierto umbral,
eliminando señales de bajo nivel.
Es muy útil para eliminar en una toma cualquier tipo de ruidos o sonidos no deseados anteriores a la ejecución
del artista. En el momento en que la señal llega, la compuerta deja de operar.
Sobre el uso de compresores y compuertas:
• Debe recordarse que la máquina no distingue entre ruido de bajo volumen (soplo) y sonido poco audible.
Cuando se trabaja con sonidos con mucho “sustain las compuertas deben ser operadas con suma delicadeza o
“,

dejadas de lado, ya que cuando la resonancia del instrumento comienza a desaparecer, la compuerta se activa
y puede cortar en seco la “cola” de un sonido.
• Tiempos rápidos en la recuperación de la compresión originarán un cambio constante de ganancia y la
consecuencia de un desagradable efecto de bombeo.
•Cuando se comprimen señales ricas en medias frecuencias, se corre el riesgo de atenuarlas demasiado, lo cual
genera un cambio indeseado en la ecualización de la toma. Utilizando tiempos suaves, se conseguirá aminorar
este defecto.
•Para el tratamiento de voces es conveniente la utilización de dos compresores con tiempos diferenciados que
funcionen en red (Iink), a fin de suavizar las diferencias de ganancia producidas por el trabajo de un solo
compresor.
•Podemos utilizarlo para aumentar el “soustain” de una toma programando ratios de compresión altos y
tiempos de recuperación largos.
38 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

GLOSARIO
ADC: Analog to Digital Converter o conversor analógico-digital. Circuito encargado de convertir señales analógicas en
digitales para su poster ior procesamiento.
ADSR: siglas que significan Atack, Decay, Sustain y Release. Se usan para indicar la forma de una envolvente.
Altavoz: parlante, speaker.
Altura: característica acústica del sonido relacionada con la frecuenc ia con que se producen los ciclos vibratorios.
Relacionada con el agudo y grave.
Análisis de Fourier: Teorema desarrollado por Fourier que implica que cualquier onda sonora compleja puede ser
descompuesta en una serie de ondas simples (sinusoides) de amplitud variable.
Armónicos: Sonidos que se producen como vibraciones parciales de un mismo cuerpo vibratorio. En relación de número
enteros y a una amplitud menor; responsables del timbre del sonido.
Atack: uno de los pasos de la envolvente. La pendiente que describe la amplitud promedio desde que un sonido se inicia
hasta el momento del decay.
Backup: copia de respaldo o de seguridad de datos importantes.
Bit: mínima cantidad de información que puede manejar una comput adora (ceros y unos).
Bits de resolución: cantidad de bits que se utilizan para determinar y codificar las variaciones de amplitud de una onda
analógica que proviene del audio externo.
CDDA: (Compact Disc Digital Audio). Formato para la grabación de música. Datos digitalizados a 16
bits y sampling de 44.1 MHz.
Clip: en terminología multimedial se llama clip a cualquier archivo MIDI de audio digital, de
animación o de video digital, indistintamente.
Conector MIDI IN: conexión de entrada de datos por donde llegan a la computadora los comandos
MIDI desde un dispositivo MIDI externo.
Conector MIDI OUT: conexión de salida de datos. Envía comandos MIDI para controlar dispositivos
externos MIDI.
Conector MIDI THRU: conexión de salida de datos. Por ella vuelven a salir exactamente los mismos
datos que han entrado por el conector In, con lo cual se pueden conectar varios dispositivos MIDI,
uno detrás de otro, controlados por un único teclado.
Controlador MIDI: Teclados que no pueden emitir ni generar ningún tipo de sonido y cuya función es
la de enviar códigos a otros dispositivos MIDI.
CPU: Central Processing Unit o microprocesador.
DAC: (Digital to Analog Converter) o conversor digital-analógico. Encargado de traducir las señales
digitales a analógicas para que puedan ser comprendidas por el oído humano.
DAT: (Digital Audio Tape). Soporte que se utiliza para el registro de audio digital. En formato similar
al cassette, pero las marcas proveen de un patrón digital. Máquina que permite registrar y reproducir
en ese formato.
Db: unidad de medición relativa de la amplitud.
Decay: uno de los momentos de la envolvente. Pendiente que se produce después del atack y que se
extiende hasta el momento en que la intensidad sonora se estabiliza
Delay: Demora, retardo. Generado artificialmente en algunos casos a través de periféricos dedicados.
Dry: seco. Ambientes carentes de reflexiones sonoras.
Duración: parámetro del sonido. Diferencia de tiempo que se produce entre la aparición del sonido y
la extinción.
Echo: rebotes generados por la reflexión de las ondas sonoras contra las superficies no absorbentes.
Ecualización: técnica que consiste en igualar o compensar la resultante de audio final, acentuando en
intensidad o bien disminuyendo algunas frecuencias (o rango de frecuencias).
Envolvente: manera promedio de comportarse que tiene la amplitud
Evento MIDI: cualquiera de las órdenes que intercambian el sintetizad or (o computadora, si ésta
tiene placa de sonido) y el instrumento a través de la interfase MIDI. Estas órdenes se transmiten a
31.250 baud ios (Bits por segundo) y constan de 1, 2 ó 3 bytes, dependiendo el tip o de evento.
Faders: potenciometros deslizables. Palancas o perillas que regulan la cantidad de algún valor.
39 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

FM: Frequency Modulation o modulación de frecuencia. Técnica de generación de sonidos por medio
de síntesis FM.
Frecuencia: número de ciclos por segundo de una onda.
Frecuencia de muestreo: velocidad a la cual tiene que operar el circuito de captura de audio digital
(Sample & Hoid) para poder garantizar el registro de determinadas frecuencias.
Fundamentales: primer armónico. Vibración de mayor amplitud y menor frecuencia generada por un
fenómeno vibratorio complejo.
GM: (General MW 1) . Norma estándar que garantiza la plena compatibilidad de la norma SMF
(Standard MIDI File). Asegura un método para hallar similares instrumentos en las mismas
alocaciones de memoria. Garantiza una polifonía mínima, un mapa de batería similar y la respuesta a
una serie de mensajes comunes.
Hz: Hertzio. Número de veces que se repite una acción en un segund o(1KHz = 1000Hz). Unidad de
medición de la altura o frecuencia de un sonido.
Intensidad: volumen fenómeno que provocan los cuerpos vibratorios dentro de la alteración en un
campo de presión sonora. Fuerte y suave.
Interfase: cualquier cosa que está entre medio de dos dispositivos, sistemas o programas y sirve
como punto de conexión de ambas.
Intervalos: en acústica, la medida que representa la diferencia de altura de dos frecuencias sonoras
diferentes.
IRQ: (Interrupt Request). Petición de interrupción al microprocesador realizada por un periférico,
para que se realice una determinada tarea.
MID: extensión estándar de los archivos generados por los secuenciadores.
MIDI: (Musical Instrument Digital Interface). Interfase que permite comunicar una computadora o un
instrumento musical con otras computadoras o instrumentos musicales que dispongan de este
estándar para controlarlo y recibir información del mismo.
Minus one: concepto que se usa en producción musical. Todos menos Uno (por ejemplo: toda la
orquestación completa menos la parte del clarinete).
Monofónica: Una sola voz a la vez.
MPC: Multimedia Personal Computer. Norma que indica las prestaciones mínimas de un sistema
Multimedia. Existen las normas MPC-1 y MPC.
Muestra: sample. Porción digitalizada de parte de una onda sonora.
Muestreo: toma periódica de valores de amplitud en una señal conti ua para poderla convertir en
digital y procesarla.
Multimedios: mucha información dirigida en varios sentidos a la vez.
Multitimbre: capacidad de emitir notas de más de un instrumento al mismo tiempo.
Mutear: apagar, enmudecer.
Panoramización: balance entre el altavoz o canal izquierdo y derecho.
PCM: Pulse Code Modulation o modulación de pulsos codificados. Técnica de almacenamiento de
muestras digitales..
Pistas: unidades de organización de los distintos componentes que forman una obra musical(la pista
de la batería, la del bajo, etc.).
Placa madre: componente básico que contienen al microprocesador, chipsets, etc.
Polifonía: máximo número de voces o notas que un sintetizador puede hacer sonar a la vez.
Polifónica: más de una voz a la vez.
RAM:Random Access Memory o memoria de acceso aleatorio. Es donde
se ejecutan los programas.
Raw: formato de sonido que contiene sonido digitalizado.
Rec: apócope de Recording Grabar
Release: Uno de los momentos de la envolvente. Pendiente que se prod uce después del Sustain y
que se extiende más allá del tiempo aunque hayamos dejado de tocar las teclas.
40 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Reverb: fenómeno de reflexión del sonido

ROM: Riad Only Memory o memoria de sólo lectura Se guardan las funciones críticas de
funcionamiento del equipo, como la BIOS.
Sample: ver muestra
Sampler: instrumento que permite digitaliz audio y guardan0 en mem oria. Muestreador Seco: ver
dry
Secuenciador: grabador de eventos MIDI.
Sintetizador: instrumento musical que puede generar sonidos a partir de diferentes técnicas. Todas
ellas prescinden en la fase de generación de un cuerpo vibratorio acústico.
Sistema exclusivo: Mensajes MIDI que no son estándar a todos los instrumentos. Son propios de
cada fabricante para comunicar datos edición.
Speaker: ver altavoz.
Subsónicas: frecuencias por debajo del área de audición humana; tien en menos de 20 Hz.
Sustain: uno de los momentos de la envolvente. Momento de estabilidad en amplitud de la onda
sonora. En MIDI Control Change que emula el pedal de sustain de un piano.
Teclado maestro: Te.jlado musical que transmite y controla datos MIDI
Timbre: Cualidad del sonido que nos permite diferenciar auditivament e los distintos instrumentos.
Tracks: ver pistas.
Ultrasónicas: frecuencias que se encuentran por encima del rango de audición humano (más de
18.000 Hz).
Wav: extensión que ofrecen los archivos de audio digital dentro del entorno Windows.
Wav: extensión de archivos de sonido de Microsoft Windows.
Wave Table: método para generar sonidos de alta calidad a partir de la grabación de una única nota
de cada instrumento. Variando posteriormente la frecuencia de dicha nota, se obtienen las restantes.
41 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Adobe Audition
Adobe Audition ejercicio 1
1 Iniciar el software Audition
Encontramos en el espacio de trabajo tres vistas .
a- Edición. En la vista Edición, se modifican o editan los archivos de audio individuales.
b- Multipista. En esta sección , se suman en distintos canales, diferentes archivos de audio,
permitiéndonos crear al finalizar una mezcla nueva.
c- Cd. Desde aquí realizamos la compilación para grabar en soporte cd audio (cda) el proyecto
realizado.

2 Importar en el tres pistas de audio


Procedimiento para abrir archivos:
a- Archivo
b- Abrir
c- Buscar en…(elegir el soporte, unidad o disco donde se encuentra el archivo).
d- Hacer doble click y esperar que se cargue.

3 Introducir ahora las pistas en la sección multitrack


a- Pasamos ahora a la vista multitrack.
b- Visualizamos ahora los tres archivos importados (panel archivo).
c- Ubicamos el cursor sobre el nombre del archivo y arrastramos los mismos hacia diferentes pistas
del multitrack.
d- Tenemos ahora en nuestro proyecto multisesión tres archivos superpuestos.

4 Realizar una compilación, enlazando los finales y comienzos de los track


a- Desde el panel zoom alejar o acercar para poder manipular las pistas.
b- Para mover un archivo y poder ubicarlo donde corresponde, apoyar el cursor sobre este y
manteniendo apretado el botón derecho arrastrar.
c- Enlazar los archivos.
d- Ahora exportar la mezcla. Procedimiento: - Ir a Archivo, exportar, mezcla de audio; elegir el
destino donde se va a guardar.
e- Exportar el trabajo realizado, en una mezcla estéreo, con una resolución de 44100 hertz y 16 bit,
guardándolo con el nombre de ejercicio nro.1.

Adobe Audition ejercicio 2


1 Importar en el tres pistas de audio
2 Introducir ahora las pistas en la sección multitrack
3 Editar el primer track o pista, logrando que el mismo tenga una duración de 26 segundos.
Procedimiento para editar y cortar: en la vista edición seleccionar un fragmento, luego apretar
suprimir. El panel selección muestra el tiempo en segundos del fragmento seleccionado y el tiempo en
segundo del resto de la pista.
4 Editar el segundo track o pista, logrando que el mismo tenga una duración de 35 segundos.
5 Editar el tercer track o pista, logrando que el mismo tenga una duración de 1.20 minutos.
6 Realizar en cada caso fundidos (envolventes de amplitud) de entrada y de salida de 3 segundos de
duración.
42 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Procedimiento: el la vista edición, seleccionar el fragmento de audio, e ir a efectos, amplitud,


amplificación/transición. Para realizar un fundido al comienzo click en aparecer, para realizar un
fundido al final click en desaparecer.
7 Unir o “enganchar”los tres eventos editados, solapando los mismos tres segundos.
8 Exportar el trabajo realizado, en una mezcla estéreo, con una resolución de 44100 hertz y 16 bit,
guardándolo con el nombre de ejercicio nro2 .

Adobe Audition ejercicio 3 Reverb y Delay

1- Importar un archivo wav en el escritorio de trabajo.


2- Editar el mismo realizando envolventes de amplitud de entrada y salida de 3 segundos
respectivamente.
3- Generar un envolvente de frecuencia de 3 segundos donde creas conveniente.
4- Aplicar efecto de delay y reverberación según creas conveniente.
5- Exportar el trabajo realizado, en una mezcla estéreo, con una resolución de 44100 hertz y 16 bit,
guardándolo con el nombre de ejercicio nro.3.

Ayuda para aplicar reverb y delay


1- Iniciar audition e importar el archivo en la visualización “Editar”.
2- Seleccionar el archivo o fragmento al que se le aplicará el efecto.
3- Para delay ir a efectos, efectos de retardo, eco. Tildar el casillero bloquear izq. y der. Te
encontrarás con los siguientes parámetros: tiempo de retardo es igual a time, retroalimentación
es igual a feedback y nivel de eco que es igual a mix. Pulsar reproducir y detener para ir
escuchando los cambios. Finalmente “Aceptar” para aplicar el efecto.
4- Para reverb ir a efectos, efectos de retardo, reverberación. Te encontrarás con los siguientes
parámetros:
Tiempo de decadencia es igual a decay, tiempo de retardo previo que es decay.
5- Pulsar reproducir y detener para ir escuchando los cambios. Finalmente “Aceptar” para aplicar el
efecto.

Adobe Audition ejercicio 4 Generar formas de onda


Procedimiento: generar, tonos, procesar, elegir frecuencia y tipo de onda. Aceptar.

Adobe Audition ejercicio 5 Acústica Cálculo y producción de componentes frecuenciales

Friedrich Chladni Por su trabajo sobre vibración, y el cálculo de la velocidad del sonido para
diferentes gases, es considerado el fundador de la acústica. Los patrones geométricos formados en una
fina base de arena, depositada sobre una placa de vidrio o metal, vibrando a frecuencias diferentes, son
llamados "figuras sonoras de Chladni".

Nro de Chladni 1,05946 Método del temperamento igual

Para calcular las frecuencias vibratorias ascendentes La4=440 x1,05946 =SIb4

Para calcular las frecuencias vibratorias descendentes La4 =440÷1,05946 =SIb4


43 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Actividad Audition

En vista edición generar una forma de onda diente de sierra de 10 seg altura la 440. Guardar con el nombre
onda diente de sierra 440 10s. Cerrar.
Volver vista edición generar una forma de onda cuadrada de 10 seg altura sea la octava de la anterior.
Guardar con el nombre Onda cuadrada octava 10s. Cerrar.
A través del método del temperamento igual calcular la frecuencia vibratoria de do 4. Generar una onda
senoidal de 10 seg con dicho valor y guardar con el nombre senoidaltercera . Cerrar.
Abrir los tres archivos, insertar en el multitrack y superponer. Mezclar las tres componentes frecuenciales.
Exportar archivo en formato wav 16bit, 44.100hz.

Amplificadores Niveles de Señal


Indica en cada caso el nivel de señal que producen los siguientes dispositivos/equipos:

1- Micrófono para voces dinámico………………………………………………


2- Amplificador para guitarra eléctrica………………………………………..
3- Micrófono activo para guitarra o bajo eléctrico………………………
4- Sintetizador……………………………………………………………………………..
5- Mixer o consola de mezclas……………………………………………………..
6- Micrófono pasivo para guitarra o bajo eléctrico………………………
7- Mixer o consola de mezclas potenciada 1000 wats………………….
8- Fonocaptor (discos vinilo)…………………………………………………………
9- Reproductor de cd…………………………………………………………………….
44 IFORMÁTICA Y MEDIOS ELECTROACÚSTICOS VOLPATO, JUAN

Sibelius
Tutorial Básico

1- Iniciar Sibelius, nueva partitura, en blanco.


2- Ir a “Inicio”, “añadir o eliminar”, “otros”, “sin nombre”, “clave de sol” (se añade una clave de sol con 5
compases).
3- Para ingresar el Titulo de la obra, compositor, etc.: click con el botón derecho, “texto”, “título”. Luego
clickear sobre la partitura e ingresar el texto.
4- Para definir la tonalidad con la que vamos a trabajar ir a: notaciones, armadura y seleccionar. Hacer
luego click en el primer compás para concluir la operación.
5- Para definir el tipo de compás o ingresar un cambio de compás ir a: notaciones, compás, seleccionar y
hacer click sobre el primer compás o el compás donde se realiza el cambio.
6- Introducción de notas
a- Se lo puede hacer a través del teclado flotante, que por defecto aparece al costado izquierdo de la
partitura.
Para activarlo o desactivarlo se pulsa la letra “n” del teclado.
b- Hacer click sobre la duración que queremos ingresar, luego posar sobre la altura correspondiente
en el pentagrama.
c- Para ingresar silencios marcamos en el botón silencio del panel flotante, luego le otorgamos la
duración con la figura correspondiente, e ingresamos en la partitura.
d- Tener en cuenta que al cambiar el tipo de duración no debe quedar ninguna nota seleccionada en
el pentagrama, por lo tanto, apretar “n”, y realizar un click fuera del pentagrama para sacar el
efecto de selección a la nota, luego ingresar la nueva duración.
7- Para ingresar una ligadura de prolongación: seleccionar las dos notas a ligar (click sobre la primer nota,
manteniendo apretado la tecla “control” hacemos click sobre la segunda nota a ligar), luego ir al panel
flotante y seleccionar “ligadura”.
8- Para escuchar o reproducir la partitura: ir a la barra de tareas, “reproducción”, “controles”.

Ejercicio, transcribir utilizando el Sibelius.

Vous aimerez peut-être aussi