Postproducción de Sonido

24
Postproducci ó n de sonido Se presentarán a nivel teórico y práctico los conceptos, procesos y tecnologías que hacen posible la creación, estructuración y mezcla, con medios digitales, de una banda sonora (locuciones + músicas + efectos) ligada a unas imágenes organizadas. Los alumnos se iniciarán en la manipulación de archivos de sonido, el diseño y el ajuste de efectos de sonido para imágenes determinadas, la edición de diálogos, músicas y efectos, la sincronización entre la banda sonora y la banda visual, la mezcla de diálogos, músicas y efectos, etc. Fechas y horario de realizaci ó n: febrero-mayo, los jueves de 18 a 19 horas. Total de horas lectivas: 15 Horas de pr àcticas adicionales requeridas (fuera de horas de clase): 30 La evaluación de la asignatura se realizará a partir de la sonorización de un fragmento de video digitalizado de duración comprendida entre 20 y 60 segundos, que será propuesto por el profesor (aunque cabe la posibilidad de hacerlo coincidir con alguno procedente de trabajos de otras asignaturas). Temario 1. La postproducción de sonido. Funciones. Procesos: Grabación, Edición, Procesado, Mezclas y Masterización. Personal técnico y de producción. El estudio de postproducción: digital vs. analógico, video vs. multimedia. 2. Soportes y formatos del material sonoro. Audio de CDs. Audio de DATs. Otros soportes de audio en cinta. Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducción de bits. 3. Edición de sonido. Visualitación del sonido. El dominio temporal i el dominio espectral. Claves visuales que nos ayudan a interpretar el sonido. Edición destructiva y edición no destructiva. Cortes y encadenamientos. Fundidos de entrada y de saltida. Fundidos cruzados. Eliminación de ruidos indeseables. 4. Transformación y procesamiento del sonido. Reverberación y procesado espacial. Procesado de dinámica: Normalización, modificación de la amplitud, compresión, limitación, expansión. Transformaciones tímbricas basadas en retardos: delay, flanger, chorus... Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado. 5. Montaje y Mezcla. El entorno acústico que requiere una mezcla. Mezcladores virtuales. Procesado habitual en una mezcla. Automatización. 6. Sincronización audio-video. Formatos definitivos. SMPTE. Postproducción informatizada. El sonido y los formatos audiovisuales más habituales: AVI, Quicktime, Betacam... 7. Fuentes sonoras a incorporar en una producción audio-visual (I): voces. Características sonoras de las voces. Rudimentos de microfonía para voces. 8. Fuentes sonoras a incorporar en una producción audio-visual (II): efectos. Tipologias de efectos. Estrategias de creación de efectos. Colecciones de efectos. Recursos disponibles en Internet. 9. Fuentes sonoras a incorporar en una producción audio-visual (III): músicas. Funciones de la musica en una producción audiovisual.

Transcript of Postproducción de Sonido

Page 1: Postproducción de Sonido

Postproducción de sonido

Se presentarán a nivel teórico y práctico los conceptos, procesos y tecnologías que hacen posible la creación,estructuración y mezcla, con medios digitales, de una banda sonora (locuciones + músicas + efectos) ligada a unasimágenes organizadas.Los alumnos se iniciarán en la manipulación de archivos de sonido, el diseño y el ajuste de efectos de sonido paraimágenes determinadas, la edición de diálogos, músicas y efectos, la sincronización entre la banda sonora y la bandavisual, la mezcla de diálogos, músicas y efectos, etc.Fechas y horario de realización: febrero-mayo, los jueves de 18 a 19 horas.Total de horas lectivas: 15Horas de pràcticas adicionales requeridas (fuera de horas de clase): 30La evaluación de la asignatura se realizará a partir de la sonorización de un fragmento de video digitalizado deduración comprendida entre 20 y 60 segundos, que será propuesto por el profesor (aunque cabe la posibilidad dehacerlo coincidir con alguno procedente de trabajos de otras asignaturas).

Temario

1. La postproducción de sonido.· Funciones.· Procesos: Grabación, Edición, Procesado, Mezclas y Masterización.· Personal técnico y de producción.· El estudio de postproducción: digital vs. analógico, video vs. multimedia.

2. Soportes y formatos del material sonoro.· Audio de CDs.· Audio de DATs. Otros soportes de audio en cinta.· Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducción de bits.

3. Edición de sonido.· Visualitación del sonido. El dominio temporal i el dominio espectral.· Claves visuales que nos ayudan a interpretar el sonido.· Edición destructiva y edición no destructiva.· Cortes y encadenamientos.· Fundidos de entrada y de saltida. Fundidos cruzados.· Eliminación de ruidos indeseables.

4. Transformación y procesamiento del sonido.· Reverberación y procesado espacial.· Procesado de dinámica: Normalización, modificación de la amplitud, compresión, limitación,

expansión.· Transformaciones tímbricas basadas en retardos: delay, flanger, chorus...· Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado.

5. Montaje y Mezcla.· El entorno acústico que requiere una mezcla.· Mezcladores virtuales.· Procesado habitual en una mezcla.· Automatización.

6. Sincronización audio-video. Formatos definitivos.· SMPTE.· Postproducción informatizada.· El sonido y los formatos audiovisuales más habituales: AVI, Quicktime, Betacam...

7. Fuentes sonoras a incorporar en una producción audio-visual (I): voces.· Características sonoras de las voces.· Rudimentos de microfonía para voces.

8. Fuentes sonoras a incorporar en una producción audio-visual (II): efectos.· Tipologias de efectos.· Estrategias de creación de efectos.· Colecciones de efectos. Recursos disponibles en Internet.

9. Fuentes sonoras a incorporar en una producción audio-visual (III): músicas.· Funciones de la musica en una producción audiovisual.

Page 2: Postproducción de Sonido

· Criterios básicos de montaje musical.· Colecciones de musicas versus musicas "a medida".

10. Relaciones entre imagen y sonido en una producción audiovisual.

Programas

La utilización de estos programas está supeditada a la posesión, por parte del IUA, y en el periodo lectivo del curso,de las correspondientes licencias. Caso de no disponer de ellas las clases se realizarán con programas shareware deprestaciones equivalentes.Sound ForgeVegas Audio

BibliografíaJunto a cada libro se indica su nivel de complejidad (B: básico, A: avanzado), así como su orientación (T: técnica, C:contenido teórico-analítico).Los libros básicos son aquellos recomendados para quien no conoce el tema, mientras que los avanzadospresuponen ya un cierto conocimiento teórico y práctico de la materia.La orientación técnica implica que lo que se presenta en el libro son procedimientos, técnicas, recomendaciones, etc.,para llevar a cabo las operaciones relacionadas con la postproducción digital del sonido. En cambio, la orientación decontenido teórico-analítico es propia de libros en los que se discuten cuestiones estéticas, estilos, modos de trabajo,y/o se analizan producciones audiovisuales como medio para ilustrar y discutir problemas propios de lapostproducción.

Page 3: Postproducción de Sonido

La postproducción de sonido· Funciones· Procesos: Grabación, Edición, Procesado, Mezclas y Masterización· Personal técnico y de producción· El estudio de postproducción: digital vs. analógico, video vs. multimedia

Funciones

La función de la postproducción (o "sweetening") es organizar espacio-temporalmente y dar forma definitiva a losdiversos materiales sonoros que se utilizan en una producción audiovisual. En la postproducción se combinanelementos musicales extraídos de colecciones especializadas, efectos de sonido grabados en sala, generadoselectrónicamente o extraídos de colecciones, locuciones y músicas grabadas expresamente -en estudio o "onlocation"-, etc. El objetivo de esa combinación depende del tipo de producción audiovisual, de su soporte, de sugénero, del criterio estético del realizador, etc. En algunos casos la banda sonora será un complemento a labanda visual, en otros será la guía de los elementos visuales, en otros servirá de refuerzo de la banda visual, enotros duplicará la información que llega a través de la vista, etc.La postproducción es el último proceso en la creación de una banda sonora pero no por ello hay que dejar todaslas decisiones para ese momento. La frase "...eso lo arreglarán en la postproducción" es tópica, típica, ydesgraciadamente más habitual de lo que nos gustaría. Con una mejor pre-producción o con sesiones degrabación bien planificadas podrían evitarse muchos de los defectos que hay que subsanar en post-producción.

Procesos: Grabación, Edición, Procesado, Mezclas y Masterización

En la postproducción puede ser necesario registrar en soporte magnético voces, efectos y músicas. Una vezgrabados, puede ser necesario adecuarlos y ajustarlos (espacial, temporal, y tímbricamente) a las imágenes.También será necesario conseguir un determinado equilibrio entre todos los elementos sonoros empleados encada momento. Finalmente la mezcla definitiva deberá adecuarse al medio de difusión de la producción así comoa las características del soporte en el que se distribuya.

Personal técnico y de producción

Realizador: es la persona con la que suele trabajar constantemente el equipo técnico de sonido. Conoce laproducción como la palma de su mano, sabe lo que quiere respecto al sonido, confía en el equipo técnico desonido y escucha y acepta sus sugerencias... Si todo eso se cumple, y el equipo de sonido esta a su misma altura(humana y profesional) la producción se sonoriza con éxito.Productor: suele encargarse de los aspectos organizativos y financieros de la producción, así que sólo lo veremosen contadas ocasiones (cuando los gastos de sonorización rompan el presupuesto, o la postproducción de sonidodure más tiempo del previsto...)."Creativo": personaje del mundo de la publicidad encargado de suministrar las ideas subyacentes a la producción.En algunas ocasiones puede llegar a tomar decisiones que incumban al equipo técnico... ya se sabe, los creativosson unos seres taaan especiales...Asistente de grabación: el "chico de los cafés" suele ocuparse de preparar los micrófonos, de tener el equipo apunto, de seleccionar efectos de sonido de colecciones, y en algunos casos, de realizar las grabaciones menoscomprometidas.Músico o Montador musical: se encarga de seleccionar las músicas de colecciones especializadas y adaptarlas ala producción, o bien de componerlas según las necesidades de cada producción.

El estudio de postproducción: digital vs. analógico, video vs. multimedia

En un estudio de postproducción sonora para video es imprescindible algún tipo de magnetoscopio (al menos unVHS Hi-Fi, o un U-mátic en el que tener una copia de trabajo con código de tiempo SMPTE, para "arrastrar" elaudio). La presencia de ordenadores, aunque cada vez más habitual, no es todavía absolutamente imprescindible(todo el proceso se realiza con magnetofones de bobina abierta).En un estudio de postproducción orientado a producciones multimedia puede haberse prescindido de losmagnetoscopios ya que es posible sonorizar video a partir de copias digitalizadas de la imagen en formato AVI oQuicktime. Tampoco es imprescindible una cabina de grabación (puede alquilarse un estudio durante unas horaspara ello), ni tan siquiera una mesa de mezclas. Desgraciadamente las condiciones acústicas se suelen cuidarmuy poco (la sala de sonorización no está acondicionada ni insonorizada, la escucha se basa en altavoces yauriculares de baja calidad, etc.)

Page 4: Postproducción de Sonido

Soportes y formatos del material sonoro.

· Audio de CDs· Audio de DATs. Otros soportes de audio en cinta· Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducción de bits· EJERCICIOS

Cuando el audio que ha de integrar una producción no lo grabemos directamente en sincronía con las imágenespodemos hallarnos en situación de tener que transferirlo desde diferentes soportes:

Audio de CDs

Existe una gran variedad de formatos de CD, no todos ellos necesariamente ligados al sonido. No es éste el lugarapropiado para detallar todas las variantes, pues seguramente otras asignaturas han entrado en detalle alrespecto.El CD-Audio almacena pistas de audio muestreado a 44.1 KHz y codificado en formato PCM a 16 bits,permitiendo más de 70 minutos estéreo por disco. El CD-ROM permite almacenar unos 650 Mb de datosinformáticos de toda índole y por tanto es posible utilizarlo como soporte de almacenamiento de archivos de audiodigital. Un CD-ROM no puede ser interpretado correctamente por un reproductor de CDs musicales (como muchonos escupirá ráfagas de clicks o de ruidos tremebundos); en cambio, un CD-Audio sí que puede ser leídocorrectamente por un lector de CD-ROMs.Para extraer audio de CDs musicales e incorporarlos en un proyecto de postproducción digital de sonido sepueden seguir 4 procedimientos, asumiendo que el resultado lo pretendemos almacenar en el disco duro delordenador:

a) Tomar la salida analogica del reproductor (line out) y conectarla a la entrada analógica de la tarjeta desonido que utilicemos. Activar la función de grabación de nuestro programa de grabación/edición desonidob) Utilizar el lector de CD-ROMs incorporado en el ordenador. La conexión entre su salida y la entrada dela tarjeta de sonido se realiza a través de software.c) Transferir directamente los datos del CD a archivo de sonido, con ayuda de programas específicos(CD-grabbers).d) Transferir digitalmente los datos del CD desde un reproductor con salida digital hacia una tarjeta conentrada digital.

La opción c) será siempre la preferida ya que ahorra la redigitalización que tiene que llevar a cabo la tarjetaen los dos primeros casos, y permite mantener intacta la calidad original de la grabación en CD, y ademásnos ahorra tener que editar la grabación puesto que de hecho no hacemos una grabación sino una mera"transferencia". El problema es que los lectores de CD-ROMs no están suficientemente estandarizados y unprograma de captura que funcione con un modelo o una marca puede no hacerlo con otro diferente. Laopción d) también sería buena, pero nos obligaría a editar el fragmento grabado (para eliminar silencios antesy después del fragmento que nos interesaba).

Audio de DATs. Otros soportes de audio en cinta

La extracción correcta de audio de DATs requiere que la tarjeta de sonido disponga de entrada digital, ya seaSPDIF (conector RCA) o AES-EBU (conector XLR o cannon). Si no disponemos de ella siempre queda el recursode redigitalizar la señal conectando la salida de línea del DAT con la entrada de línea de la tarjeta, pero no es laopción más recomendable ya que perderemos calidad. La transferencia digital en este caso no nos permiteconservar las marcas de posición (índices) que puedan existir en la cinta.La extracción de audio en otros soportes de cinta siempre la tendremos que realizar a través de los conectores delínea, de manera que la tarjeta de sonido será la que digitalice la señal. Cuando el audio proviene de cintas decassette no tiene mucho sentido preocuparse por la calidad de la tarjeta, pues la señal que entraremos tienesuficientes defectos. Digitalizar audio de una cinta nos permitirá, para empezar, tratar de mejorar la calidad delsonido, eliminando el típico "hiss" o ruido de soplido.

Archivos de sonido. Formatos. Cambios de formato, downsampling, i reducción de bits

Una vez digitalizado un sonido (recordemos muy de pasada que el proceso requiere un filtrado pasa-bajos, unmuestreo temporal, una cuantización de la amplitud de la onda y una codificación según un procedimientopreestablecido denominado "Modulación en código de pulsos" o PCM) dispondremos de un archivo quepodremos reproducir en aquellas plataformas capaces de reconvertir su información en impulsos eléctricossusceptibles de mover el cono de un altavoz. El archivo también podremos manipularlo de la misma manera quehacemos con otros tipos de archivos, y con la ayuda de programas especializados, podremos transformar sucontenido sin que la calidad se degrade lo más mínimo (nótese que dije podremos: algunos programas detransformación pueden llegar a degradar notablemente la calidad sonora de los archivos).

Page 5: Postproducción de Sonido

En un archivo de sonido distinguimos entre la cabecera (o header) y los datos. La cabecera es la sección inicialdel archivo y en ella suele indicarse si se trata de un sonido mono o estéreo, si contiene puntos de buclaje (oloops), la tasa de muestreo, la duración, y otras informaciones respecto a los datos que van a continuación. Talesdatos representan, muestra a muestra, el valor de la amplitud de la onda sonora. Cuando utilizamos 16 bits paracodificar esa amplitud necesitamos dos octetos (o bytes) por muestra; el orden de ambos octetos es diferentepara un archivo de un ordenador con procesador Intel (big-endian) que para uno con procesador Motorola (little-endian). Esta es una cuestión muy importante cuando movamos archivos entre plataformas.Los formatos más comunes son:AIFF y SoundDesigner II, habituales de Macintosh. Las principales diferencias entre uno y otro son que en elAIFF los datos de cada canal están separados, mientras que en el SD-II están intercalados (interleaved) -o sea,una muestra de un canal seguida de una muestra del otro...- y que el formato SD-II utiliza unas estructuras dedatos propias de Macintosh denominadas resource forks que suelen complicar las transferencias a PC.WAV, propio de PCs.SND, habitual en plataformas NeXT.AU, habitual en plataformas Sun.Un cambio de formato por lo general no debe afectar a la calidad del sonido (siempre que se mantenga laresolución y la tasa de muestreo), sólo afectará a la cantidad y tipo de información que se almacene en lacabecera. De ahí que con un cambio de formato el tamaño del archivo no se altere en exceso.La reducción de la tasa de muestreo y/o de la resolución se plantea como algo inevitable en muchasproducciones multimedia ya que permiten comprimir el tamaño de los archivos de sonido hasta hacerlos 4 vecesmás pequeños, aunque el precio a pagar es siempre la degradación de la calidad.Cuando reducimos la tasa de muestreo es importante aplicar un filtro anti-imagen o (anti-aliasing) para que noaparezcan -a modo de fantasmas- componentes espectrales de baja frecuencia que no tenía el sonido original. Elfiltrado anti-imagen elimina todos los componentes situados más allà de la denominada frecuencia de Nyquist (lamitad de la tasa de muestreo). Así pues, una reducción de tasa de muestreo tendrá impacto principalmente en eltimbre del sonido pues eliminará armónicos y componentes espectrales de alta frecuencia..Cuando reducimos la resolución (de 16 a 8 bits, por ejemplo) el impacto se produce principalmente sobre el rangodinámico de la señal (cada bit que perdemos lo reduce unos 6 dB). Por tanto, los cambios de nivel entre unamuestra y otra son más abruptos, produciendose una rugosidad sonora muy característica. Para tratar de paliarlapodemos intentar reducir la dinámica del archivo original con ayuda de un compresor.Recientemente han empezado a implantarse con éxito diversos esquemas de compresión de datos que utilizansofisticadísimos algoritmos "adaptativos" (analizan espectralmente la señal, elaboran predicciones de lo quepuede venir a continuación, utilizan conocimientos de psicoacústica para eliminar información redundante oenmascarada...). Tales algoritmos permiten reducciones de datos considerables (hasta en proporción 12:1), y sindegradar en exceso la calidad. El precio a pagar es que es necesario un proceso de descodificación que puedeoriginar un cierto retardo en el inicio de la reproducción, o un gasto excesivo de los recursos de cálculo delordenador. Entre estos algoritmos vale la pena conocer el denominado IMA ADPPCM, que reduce el audio enuna proporción de 4 a 1 sin que suene tan mal como cuando reducimos a 22 KHz y 8 bits, y el MPEG-3, quepuede comprimir en proporción 12 a 1 con una calidad notable (casi de CD escuchado a través de un equipomultimedia).Para más detalle sobre MP3, RealAudio, Quicktime, etc., puedes consultar mis apuntes sobre formatos de audioen internetEJERCICIOSSiempre que tratemos de comparar dos archivos supuestamente idénticos puede ser muy útil aprovechar laopción de cambio de fase (invert) de los editores de sonido. Supongamos que A y B son archivos supuestamenteiguales. Si fuera así, al invertir de fase B, crearíamos una "imagen refleja" de A respecto al eje de amplitud. Así, almezclar a igual nivel [A]+[B invertido] obtendríamos... silencio total. Pero si B no es totalmente igual que A, almezclar [A] + [B invertido] apreciaremos todo aquello que tienen de diferente. Utilizad esta técnica en losejercicios que siguen, siempre que tenga sentido hacerlo.0. Copiar a vuestra zona o al disco local los archivos tema2*.* que halléis en la carpeta R:\Recursos\PostAudio.1. Abrir el archivo tema2-m.wav. Convertir a AIFF, a SND. Comprobar si existe perdida de calidad. Comprobar siexiste variación de tamaño del archivo. Reconvertir uno de los dos a WAV, volver a comprobar la variación decalidad y de tamaño. Transferir el AIFF y el WAV a un Macintosh y hacerlos sonar. ¿Qué problemas surgen?¿Cómo se pueden solucionar? Transferirlos desde el Macintosh nuevamente al PC. ¿Qué problemas surgen?¿Cómo se pueden solucionar?2.Convertir a IMA ADPCM (con ayuda de SoundForge) y a MPEG3(con ayuda de alguna aplicación específicaque tengáis en C:\Winaudio\). Comprobar si existe perdida de calidad. Comprobar si existe variación de tamañodel archivo. Reconvertir uno de los dos a WAV, volver a comprobar la variación de calidad y de tamaño.3. Convertir el archivo tema2-m.wav a 22 KHz. Generar 2 versiones, una con filtro anti-aliasing de máxima calidady otro sin filtro. Compararlos entre sí y con el original. ¿Qué diferencias se notan? Re-muestrearlos de nuevo a

Page 6: Postproducción de Sonido

44.1 KHz y comparar con el archivo original. ¿Hay diferencias? Re-muestrear otra vez hacia 22 KHz el archivopreviamente re-muestreado. Volver a escuchar notando las diferencias. Volverlo a muestrear otra vez hacia 44.1KHz y volver a comparar.4. Capturar un fragmento de audio desde un CD directamente, y desde la entrada de línea de la tarjeta de sonido.Analizar las diferencias. Si es posible, haced dos copias sobre DAT del fragmento del CD, una por vía digital yotra por vía analógica. Transferir cada fragmento desde el DAT al ordenador por las 2 vías posibles. Comparar losresultados entre sí, y con los fragmentos transferidos directamente desde el CD. ¿Existe alguna situación en laque no se haya producido ninguna degradación del sonido?

Edición de sonido

· Visualización del sonido. El dominio temporal i el dominio espectral.· Claves visuales que nos ayudan a interpretar el sonido.· Edición destructiva y edición no destructiva.· Cortes y encadenamientos. Fundidos de entrada y de salida. Fundidos cruzados.· Eliminación de ruidos indeseables.· Ejercicios

La edición de sonido es el proceso a través del que convertimos en definitivos los elementos sonoros "en bruto" quese combinan en una producción audiovisual. En este proceso es necesario eliminar silencios, toses, ruidos molestos,re-ajustar niveles, combinar archivos, equilibrar tonalmente materiales heterogéneos, etc.

Visualización del sonido. El dominio temporal i el dominio espectral

Durante más de 40 años la edición de sonido se ha llevado a cabo únicamente "de oído", manipulando cintasmagnéticas con ayuda de cuchillas y cinta adhesiva. No obstante en la actualidad contamos con la ayuda derepresentaciones visuales tales como los gráficos de formas de onda y los espectrogramas, y la edición no serealiza físicamente sobre el soporte del audio, sino de manera "virtual" sobre representaciones del sonido..Los gráficos de forma de onda nos presentan las variaciones de amplitud de la onda sonora a lo largo del tiempo.En el eje horizontal se representa el tiempo, y en el vertical la amplitud, intensidad o incluso la presión sonora. Amenudo en el eje horizontal tenemos una escala en horas, minutos, segundos y "frames", o bien en compases ytiempos de compás, mientras que en el eje vertical tenemos decibelios, valores de amplitud de muestra oporcentaje de amplitud.Los espectrogramas nos representan la estructura intrínseca del sonido. En el eje horizontal se ubica lafrecuencia, y en el vertical la amplitud. Si repetimos esas representaciones a lo largo de un periodo de tiempoobtenemos un espectrograma en cascada, en el que podemos observar las variaciones temporales de laestructura del sonido. Para analizar el espectro nos valemos del análisis de Fourier a corto plazo. Esta técnicapuede requerir que ajustemos algunos parámetros para obtener unas representaciones fiables y de alta precisión.Por ejemplo, un tamaño grande para la ventana de análisis nos permite detectar correctamente bajas frecuencias,pero nos reduce la resolución temporal.

Claves visuales que nos ayudan a interpretar el sonido

Algunas claves visuales que nos ayudan a comprender el sonido:En el dominio temporal:* Relación amplitud-intensidad* Relación forma de onda con timbre... presencia de más o menos armónicos.* Discontinuidades y regularidades excesivas como elementos de ruido y distorsión* Ruido versus partes estables, vocales versus consonantes.En el dominio espectral:* Armonicidad.* Regiones de relevancia espectral, formantes.* Presencia de ruidos como picos espectrales fuera de lugar.

Edición destructiva y edición no destructiva

La mayoría de programas actuales de edición permiten trabajar de manera no-destructiva. Ello significa que lastransformaciones que realizamos con un determinado archivo no operan directamente sobre él sino sobre unacopia real (un archivo temporal) o virtual (una serie de punteros y variables que especifican cómo se transforma elarchivo original en el momento de reproducirlo transformado). La edición no-destructiva permite siempre "volveratrás" si tomamos una decisión equivocada.

Page 7: Postproducción de Sonido

Una opción muy interesante en los sistemas de edición no destructiva es la del uso de regiones. Una región esuna representación "virtual" -software- de un fragmento del archivo. Descomponiendo un archivo en regiones esposible construir un orden nuevo de sus contenidos sin necesidad de alterarlo físicamente, ni de copiar y pegarlos fragmentos para construir nuevas ordenaciones. Para ello elaboramos una lista de reproducción (o playlist)que especifica qué regiones hacer sonar en cada momento.En algunas aplicaciones de edición de sonido podemos hallar diferentes modos de edición. La elección de uno ode otro depende de los objetivos de la sesión o del proceso que tratemos de llevar a cabo. Cuando utilizamos lasfunciones de cortar y pegar es posible realizar un "pegado-mezcla" (pegando sobre un fragmento del archivo quepreviamente contenía sonido), una inserción (el audio que pegamos hace desplazar hacia atrás el que existía enel punto de inserción), o una substitución total (cuando en lugar de un punto de inserción especificamos unaregión). También es posible el pegado a una dirección específica de código de tiempo. Otra opción muyinteresante es el recorte (o crop), mediante el que podemos eliminar todo aquello que rodea al fragmento queverdaderamente nos interesa. Finalmente, la opción de simulación de bobina permite ajustar un punto de ediciónescuchando a velocidad lenta el sonido existente alrededor de dicho punto. Cada opción depende, en últimainstancia, del modo de edición en el que estemos trabajando.

Cortes y encadenados. Fundidos de entrada y de salida. Fundidos cruzados

Denominamos corte a una edición de material sonoro en la que el audio aparece o desaparece bruscamente.Denominamos encadenado a una edición de material sonoro en la que se yuxtaponen sin solución de continuidady sin solapamiento dos elementos más o menos dispares. Cuando hacemos un encadenado la mayoría deaplicaciones profesionales pueden ajustar hasta cierto punto el enlace para que no se produzca un "click" audibledebido a diferencias de fase y amplitud entre los dos fragmentos.Un fundido es una transición gradual desde o hacia el silencio absoluto. En el primer caso se denomina fundidode entrada" (o "fade in"), mientras que en el segundo caso hablamos de fundido de salida (o "fade out"). Cuandoyuxtaponemos 2 materiales sonoros diferentes utilizando una combinación de fundido de entrada y de salida, esdecir, cuando los yuxtaponemos sin "corte" sino con una transición paulatina, denominamos al proceso crossfade(o "fundido cruzado").En un fundido cruzado coinciden en el mismo momento de tiempo dos fragmentos sonoros diferentes,probablemente procedentes de archivos diferentes, que se combinan entre sí en una proporción que varía a lolargo del tiempo. Así hablamos de fundidos cruzados lineales, exponenciales, abruptos. Siempre que realizamosun fundido cruzado hay que vigilar las alteraciones de nivel que pueden producirse durante él (un fundido cruzadolineal origina una pérdida de entre 3dB y 6 dB).

Eliminación de ruidos indeseables

Los ruidos continuos y estables (por ejemplo un zumbido de baja frecuencia, o el "hiss" o soplido de cinta) puedenreducirse notablemente con ayuda de sofisticados procesos de filtraje disponibles en algunos editoresprofesionales. La estrategia suele implicar la selección de un breve fragmento -200 milésimas suele sersuficiente- de ruido solo, a partir del que el programa obtiene el perfil espectral de dicho ruido y propone un filtroreductor. A continuación, operando por ensayo y error unos cuantos parámetros es posible conseguir una mejoraen la calidad sonora del archivo.Los ruidos transitorios, abruptos, y poco predecibles (toses, respiraciones, rozamientos de ropa, "clicks", "pops",etc.), es posible eliminarlos siempre que no coincidan con material "interesante". Estos ruidos que aparecen enmomentos de silencio pueden eliminarse de manera semi-automática, con funciones tipo puerta de ruido, en lasque establecemos un umbral de intensidad por debajo del cual lo que suena se atenúa o elimina. Además, esposible establecer umbrales temporales de manera que la puerta de ruido sólo actúe si el ruido no es mayor omenor que un determinado valor. En el caso de crujidos y "pops" de disco de vinilo existen aplicaciones confunciones especialmente diseñadas para resolver aceptablemente el problema. En el caso de "glitches" o "clicks",también podemos utilizar funciones de "de-clicking" que permiten substituir la muestras defectuosas por, porejemplo, un valor aceptable calculado a partir de las muestras adyacentes.La eliminación de ruidos indeseables no siempre debe realizarse "por sistema". En ocasiones el proceso deeliminación puede llegar a desvirtuar características sonoras importantes, en otras ocasiones determinadaseliminaciones restarán naturalidad a la banda sonora, o provocarán una cierta sensación de extrañeza. Esnecesario valorar en cada caso la necesidad y el alcance y límites de dicho proceso.

EJERCICIOS0. Copiar a vuestra zona o al disco local los archivos tema3*.* que halléis en la carpeta R:\Recursos\PostAudio.1. A partir de los archivos tema3-musica.wav, tema3-voz.wav, tema3-ruidos.wav tratar de relacionar y descubrirclaves visuales que nos ayuden a interpretar el contenido sonoro de los archivos. Utilizar las opciones de análisisespectral para observar la estructura tímbrica de los sonidos.

Page 8: Postproducción de Sonido

2. Con los archivos tema3-a.wav y tema3-b.wav experimentar diferentes tipos de fundido de salida y de entrada.¿En qué situaciones puede funcionar mejor cada tipo de fundido?3. Enlazar los archivos tema3-a.wav y tema3-b.wav por encadenado, y por diferentes fundidos cruzados. ¿En quésituaciones puede funcionar mejor cada tipo de enlace?4. Experimentar diferentes posibilidades de corte y pegado de fragmentos a partir de los archivos tema3-a.wav ytema3-b.wav. Elaborar un breve fragmento musical que los combine de diferentes maneras.5.Tratar de restaurar el archivo tema3-noise.wav con los diversos recursos que nos ofrece Sound Forge. Dadoque consta de varios fragmentos cuyo ruido procede de fuentes diferentes, separar el archivo original enregiones, generar un archivo a partir de cada una de ellas y operar sobre cada uno de ellos con la estrategia másapropiada. Finalmente recomponer un archivo "limpio" a partir de unir los diferentes fragmentos.

Transformación y procesamiento del sonido

· Reverberación y procesado espacial.· Procesado de dinámica: normalización, modificación de la amplitud, compresión, limitación, expansión...· Transformaciones tímbricas basadas en retardos: delay, flanger, chorus...· Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado.

Reverberación y procesado espacial

La reverberación es la suma total de las reflexiones del sonido que llegan al lugar del oyente en diferentes momentosdel tiempo. Auditivamente se caracteritza por una prolongación, a modo de "cola sonora", que se añade al sonidooriginal. La duración y la coloración tímbrica de esta cola dependen de:

1. la distancia entre el oyente y la fuente sonora;2. la naturaleza de las superficies que reflejan el sonido.

En situaciones naturales hablamos de sonido directo para referirnos al sonido que se transmite directamente desde lafuente sonora hasta nosotros (o hasta el mecanismo de captación que tengamos). Por otra parte, el sonido reflejadoes el que percibimos después de que haya rebotado en las superficies que delimitan el recinto acústico, o en losobjetos que se encuentren en su trayectoria. Evidentemente, la trayectoria del sonido reflejado siempre será máslarga que la del sonido directo, de manera que -temporalmente- escuchamos primero el sonido seco, y unos instantesmás tarde escucharemos las primeras reflexiones (early reflections); a medida que transcurre el tiempo las reflexionesque nos llegan son cada vez de menor intensidad, hasta que desparecen. Nuestra sensación, no obstante, no es lade escuchar sonidos separados, ya que el cerebro los integra en un único percepto, siempre que las reflexioneslleguen con una separación menor de unos 50 milisegundos. Esto es lo que se denomina efecto Haas o efecto deprecedenciaCuando manipulamos un reverberador artificial, los principales parámetros son:Tiempo de decaimiento: se define como el tiempo que tarda el sonido reverberado en disminuir 60 dB (a menudo sedenomina TR60). Las salas grandes tienen tiempos largos (un segundo o más), mientras que las habitaciones de unacasa tienen tiempos muy cortos (menos de medio segundo).Retardo de las primeras reflexiones: en salas grandes las primeras reflexiones tardan en llegar más tiempo que ensalas pequeñas, pudiendo sonar incluso como una especie de eco.Intensidad de las primeras reflexiones: está determinada por la distancia del oyente y de la fuente sonora respectoa las superficies reflectantes. Si el oyente o la fuente sonora están junto a ellas las primeras reflexiones sonarán conmucha intensidad.Manipulando los 3 parámetros anteriores podemos crear la sensación de tamaño del recinto, y de posicionamiento defuente y oyente dentro de él. Pero además, podemos crear diferentes sensaciones relacionadas con los materiales delas paredes, suelo y techo con parámetros tales como:Tipo de reverberación: una reverberación tipo hall nos proporciona una coloración diferente que una de tipo plate, ode tipo room. Otros tipos de reverberación como las gete-reverbs o las reverbs no lineales (en las que la intensidadde las reflexiones no se va atenuando a medida que pasa el tiempo) pueden alterar poco la coloración, pero encambio provocar sensaciones extrañas (ya que son "anti-naturales").Densidad de las reflexiones: aumenta en función de la cantidad de trayectorias reflejadas que lleguen al oyente(debido a que hay muchas superficies reflectantes (paredes con angulaciones cambiantes, objetos interpuestos en latrayectoria del sonido, paredes de materiales poco absorbentes...).Absorción selectiva de determinadas frecuencias: puede simularse aplicando una determinada ecualización; laabsorción está directamente relacionada con los materiales de las superficies reflectantes (una pared de hormigónreflejará muchas más altas frecuencias que una cortina gruesa, por ejemplo).Es importante remarcar que cuando uno empieza a utilizar reverberaciones suele hacer un abuso de ellas. La mejormanera de evaluar su efectividad consiste en ajustar el equilibrio entre sonido seco y sonido reverberado (dry/wet)según cremoas apropiado, y a continuación eliminar la reverberación; si "aparecen" detalles o instrumentos que en lamezcla no se oían quiere decir que seguramente estábamos a punto de sobre-reverberar. Para hacer este tipo de

Page 9: Postproducción de Sonido

escucha es importante configurar el mezclador de manera que en dos canales tengamos la señal seca, en los doscontiguos la señal reverberada, y que el procesador nos entregue 0% de señal original y 100% de procesada.En los últimos años han aparecido equipos e incluso programas que permiten simular el posicionamiento de unafuente sonora no sólo en un espacio acústico y en un eje horizontal, sino también en el eje vertical, así como simularcon credibilidad trayectorias de la fuente dentro de ese espacio. Asímismo, es posible codificar fácilmente una mezclaen formatos envolventes multicanal (Surround).

Procesado de dinámica

El margen dinámico de nuestro oído y el que se puede generar a partir de instrumentos acústicos puede alcanzar los130 dB SPL. En cambio, los dispositivos de grabación no tienen tanto margen: los magnetofones de cinta apenassuperan los 60 dB, las tarjetas de sonido domésticas apenas superan los 80 dB, tan sólo algunos de los equiposdigitales profesionales permiten una dinámica de 120 dB... Por tanto, en algunas situaciones en la que necesitemosgrabar instrumentos acústicos (especialmente una orquesta) necesitaremos comprimir su dinámica (o aprendernos lapartitura para subir o bajar faders según haya momentos ppp o fff). Básicamente un compresor atenuará en unadeterminada proporción (ratio) la intensidad de la señal cuando ésta supere determinado umbral (threshold). Si apartir de determinado nivel no se permite que aumente la intensidad en absoluto, estaremos utilizando un limitadoren lugar de un compresor. El limitador es de utilidad cuando resulta imprescindible que una señal de audio no supereun determinado umbral (por ejemplo, en transmisión de televisión, o en grabación digital -aunque en este caso elpropio dispositivo de grabación ya realiza la limitación, con los desagradables resultados que todos conocemos-).Las utilidades más habituales y obvias de los compresores se centran en situaciones en las que es necesariominimizar los cambios de nivel debidos a variaciones de la distancia entre el micro y la fuente sonora, o cuando esnecesario grabar sobre un soporte que no permite tanta dinámica como la fuente original -y protegernos contra lassaturaciones-, o cuando es necesario suavizar los ataques de fuentes sonoras intensas, o cuando es necesarioconseguir una sensación de alta intensidad sonora sin llegar a saturar y distorsionar la grabación (por ejemplo enemisoras comerciales de FM, o en spots publicitarios). Cuando utilizamos la compresión hay que pensar que el nivelde salida del compresor puede ser menor que el de entrada, por tanto tendremos que compensar la salida añadiendouna ligera amplificación. Para eso utilizaremos el parámetro output gain. Por último, hay que ajustar los parámetrosde ataque y liberación del compresor: el primero determina el tiempo que el compresor tardará en entrar en accióncuando se haya superado el umbral; el segundo determina el tiempo que el compresor tardará en dejar de actuarcuando la señal haya bajado por debajo del umbral. Hay que vigilar el ajuste de ambos ya que un ataque demasiadocorto provocará una pérdida de transitorios en los ataques -y por tanto apagará el sonido, perderá "pegada"- o puedegenerar "clicks", pero si es demasiado largo es probable que la energía de los transitorios origine una alteracióngrande de nivel. Si el tiempo de liberación es demasiado corto y la razón de compresión es grande puede aparecer elefecto de "bombeo": la subida abrúpta de graves justo cuando deja de comprimir -porque aún queda un cierto nivel deseñal en la cola del sonido, y ésta ya no está siendo comprimida-; si es demasiado largo, puede estarcomprimiéndose un ataque que no lo necesita, con la consiguiente pérdida de definición. El oído es quien nos tieneque guiar en última instancia a la hora de ajustar esos parámetros.Un tipo de compresión que cada vez se utiliza más es la compresión por bandas, de manera que sólo se aplica adeterminadas frecuencias (por ejemplo a los graves, o a los 7KHz para reducir la sibilancia o siseo de una voz).Aunque no nos extenderemos en ellos, los reductores de ruido de cinta (Dolby B y C, Dolby SR y DBX) son sistemasde compresión/expansión selectiva por bandas de frecuencia.Las puertas de ruido "cierran" el paso de toda señal que no supere un determinado umbral fijado por el usuario. Sonmuy útiles en situaciones de "directo" en las que hay multitud de micrófonos que pueden captar lo mismo que elprincipal, y tratamos de que la señal sólo entre por el principal (por ejemplo, en un coloquio en el que casi seguro quesólo habla una persona al mismo tiempo). También nos ayudan a "recortar" todos aquellos ruiditos no deseados quese han colado en una grabación (toses, respiraciones, rozamientos de ropas, ruidos de ambiente), siempre que no semezclen con la señal principal.

Los expansores de dinámica actúan de manera inversa a los compresores. A partir de un determinado umbralexpanden el margen dinámico en una proporción fijada por el usuario. Su utilidad puede revelarse especialmente ensituaciones en las que la señal original tiene una dinámica demasiado reducida (por ejemplo, en la escucha de undisco de vinilo) y nos interesa tratar de ampliarla un poco, o también puede ayudarnos a restaurar señales grabadascon bajo nivel (aunque necesitaremos aplicar otros procesos adicionales, ya que el expansor por sí solo no bastará).Cuando necesitemos utilizar varios tipos de procesadores de dinámica hemos de actuar en primer lugar contra losruidos indeseables (con una puerta de ruido, por ejemplo). Después podemos poner el compresor. Finalmente, adiferencia del uso de otros procesos (reverberación, retardos), no suele tener mucho sentido combinar señalprocesada en dinámica con señal seca.La normalización consiste en transformar la amplitud de la señal tomando un determinado valor como máximo yreajustando en la correspondiente proporción toda la señal. Así, cuando normalizamos a 0, si el valor máximo quetenemos en nuestro archivo es de -10 dB estaremos amplificando toda la señal esa magnitud. El problema más

Page 10: Postproducción de Sonido

habitual con la normalización es la existencia de ruido de fondo, el cual, mientras está a una amplitud baja no sepercibe tan molesto como cuando es amplificado en exceso (la explicación es psicoacústica). A veces será preferiblenormalizar a menos de 0 dB, o comprimir un poco y aprovechar la ganancia de salida del compresor para aumentar elnivel definitivo. Aumentar la ganancia y normalizar son dos maneras de referirse a una misma operación, aunque enmuchas ocasiones empleamos la expresión "normalizar" sólo cuando normalizamos a 0 dB de la escala digital.

Transformaciones tímbricas basadas en retardos: delay, flanger, chorus...

Eco/RetardoCuando las reflexiones de un sonido llegan con retardos superiores a 50 milisegundos respecto de la fuente originalaparece lo que denominamos eco. En otros tiempos el efecto de eco se conseguía gracias a los 2 cabezales(grabación y reproducción) de un magnetofón. Inyectando un sonido, grabandolo y reproduciéndolo inmediatamenteobtendremos un retardo cuyo tiempo estará determinado por la distancia entre los cabezales y por la velocidad de lacinta (puede oscilar entre 66 i 266 milisegundos). Actualmente los ecos se consiguen mediante retardos digitales(delays) que nos permiten tiempos desde una milésima de segundo hasta 3 ó 4 segundos.Además del tiempo de retardo, es posible manipular parámetros como:Regeneración: la señal retardada vuelve a retardarse, con una regeneración al 100% la señal no deja nunca desonar.Múltiples líneas de retardo (multi-tap delay): es posible retardar de maneras diferentes pero simultáneas una mismaseñal (por ejemplo, una línea atenúa progresivamente la señal retardada, otra hace un número fijo de retardos, conuna dinámica creciente, y otra hace lo mismo pero con una dinámica y una distribución de tiempos de retardoaleatorias.Panoramización: permite hacer sonar las repeticiones alternativamente en uno u otro lado del espacio acústico, o irdesplazándolas progresimente en una determinada dirección.Los retardos no sólo se utilizan para simular eco:

· Con un retardo muy corto (< 30 milisegundos) y una cierta realimentación alteraremos claramente latímbrica. El sonido se hará metálico y adquirirá resonancias muy definidas en determinadasfrecuencias. Incluso podemos simular acordes a partir de esta opción.

· Con un retardo entre 20 y 80 milésimas afectamos principalmente a la presencia del instrumento, yaque nos aprovechamos del efecto Haas para "sumar" perceptualmente dos sonidos iguales (yfísicamente separados en el tiempo), de manera que podemos generar la sensación de sonido más"grueso", o de multiplicación de instrumentistas.

· Con retardos mayores de 80 o 100 milisegundos el efecto principal que obtenemos es de tipo rítmico,por tanto -al menos en el caso de músicas con ritmos marcados- hay que ajustar el tiempo de retardoal tempo de la música, para lo cual existen tablas muy útiles o puede valernos la fórmula:

Tiempo de Retardo = 60000 / (BPM x R),donde R es 1 si el retardo va a negras, 2 si es a corcheas, 4 si es a semicorcheas, etc. Porejemplo, a 100 BPM y 4/4, si queremos un retardo a semicorcheas (R=4) necesitamos un tiempode 150 milisegundos.

Flanger

Se trata de un filtrado periódico (en forma de peine) de una serie de frecuencias determinada por el tiempo de retardo(por ejemplo, con uno de 0.5 milisegundos realzaremos 2KHz y sus armónicos), aunque explicarlo con palabras espoco efectivo. El origen del flanger es mecánico (hay quien se lo atribuye a George Martin y a John Lennon): si algrabar una cinta en un magnetofón presionamos con el dedo de vez en cuando y con fuerza variable la bobina queentrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos simultáneamente en 2magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barridocaracterístico del efecto de flanger.El flanger proporciona efectos más llamativos cuanto más rico (armónicamente hablando) sea el sonido. Cuando leañadimos feedback lo equiparamos a un chorus.ChorusSe utiliza para "engrosar" la señal, o para simular la existencia de varios instrumentos sonando al unísono. En estasituación, un intérprete puede atacar con cierto retraso y con cierta desafinación respecto a otro intérprete; eso es loque trata de simular, de manera compacta, este efecto. Dado que su funcionamiento es similar al del flanger (sólo quela señal que sale se filtra y se realimenta) los parámetros de control también son similares.DistorsiónTransforma en cuadradas las ondas de la señal de entrada. Eso origina que el resultado tienda a ser desagradable yrasposo (ya que la cuadratura de la onda implica que aparezcan armónicos impares).Excitador

Page 11: Postproducción de Sonido

También denominado enhancer. Genera armónicos pares -a menudo medios/agudos- de la señal de entrada, demanera que contribuye a hacer más presente esa señal en una mezcla sin necesidad de subir su nivel. Tambiénpuede utilizarse para generar subarmónicos con el fin de realzar instrumentos de tesitura grave, o de proporcionarlesmás cuerpo. Finalmente puede utilizarse satisfactoriamente en restauración sonora de vinilos o de grabacionesdefectuosas.TranspositorInicialmente las transposiciones mecánicas se basaban en alterar la velocidad de reproducción de una cinta respectode su velocidad en el momento de la grabación (reproduciendo al doble obtenemos una transposición de octava haciaarriba), pero también se alteraba la tímbrica ya que esta transformación no preserva las estructuras de formantespropias de muchos instrumentos (por ejemplo la voz) y de ahí los conocidos efectos de "pitufo" o de "ogro", en los quela voz así procesada poco tiene que ver con la original. Muchos transpositores digitales aún operan en base a esaidea de alterar la velocidad de reproducción, aunque en los últimos años van apareciendo más equipos y programascapaces de transponer, incluso en tiempo real, sin alterar en exceso las características del instrumento. Las utilidadesde un "pitch-shifter" comprendend: desafinar ligeramente un instrumento (por ejemplo, convertir un piano "soso" en un"honky-tonk"), engrosar su sonido -con la ayuda adicional de un pequeño retardo-), crear imágenes estéreo a partir deuna fuente mono, corregir algunas alturas equivocadas en una interpretación por otra parte valiosa, crear armoníasparalelas, o deformar sonidos "naturales" u "originales" para crear nuevos timbres (películas como La caza delOctubre Rojo, Full Metal Jacket, o Terminator 2 contienen interesantes ejemplos de uso del transpositor).La manipulación de un transpositor implica básicamente escoger un intérvalo de transposición (o varios, en el casode necesitar crear acordes). Manipulando otros parámetros como el tiempo de retardo y el grado de realimentaciónpodemos llegar a generar arpegios y otros efectos musicales.

Transformaciones tímbricas basadas en la estructura de los sonidos. Filtrado.

El dispositivo más utilizado para transformar el timbre de un sonido es el ecualizador. Un ecualizador permitemodificar la señal de entrada de manera tal que determinados componentes de su estructura o espectro salen de élatenuados o amplificados. Un ecualizador permite, como máximo, manipular 3 parámetros:

1. Frecuencia de actuación o central: para determinar sobre qué zona del espectro queremos actuar;2. Anchura de banda o factor Q: para determinar la región en torno a la frecuencia central (cuanto más

estrecha más precisa será la modificación -pero seguramente será menos evidente-);3. Nivel de atenuación/amplificación: para determinar la magnitud en dB que necesitamos realzar o atenuar la

banda sobre la que actuamos.Un ecualizador puede ser:

· Paramétrico: si permite manipular los tres parámetros anteriores;· Semiparamétrico: si la Q está prefijada y sólo podemos alterar los otros dos parámetros (habitual en muchas

mesas de mezclas);· Gráfico: si consta de un número fijo de frecuencias (8, 15, 31) de actuación, con una Q fija, de manera que

tan sólo permite modificar el nivel de atenuación/amplificación (con 31 bandas y una Q de tercio de octavapuede ser el típico ecualizador utilizado para ajustar tonalmente una sala).

Las transformaciones que podemos conseguir con un ecualizador no son excesivamente drásticas, aunque nospueden ayudar a atenuar determinadas frecuencias molestas o exageradamente presentes, a realzar determinadascaracterísticas tímbricas de una fuente sonora, o, en última instancia, a compensar determinadas deficienciasmicrofónicas o perceptuales (aunque no debemos poner muchas esperanzas en que nos arregle una deficiente tomamicrofónica). La EQ no se debe utilizar por rutina o sistema sino en función de los objetivos sonoros o musicales(claridad, equilibrio tonal, énfasis en determinados componentes, etc.).En una mezcla es importante tratar de plantear siempre en primer lugar una ecualización destructiva (en la que seatenúan determinadas zonas para conseguir el deseado equilibrio tonal) antes que una constructiva (en la que unaamplificación excesiva puede originar un aumento del ruido); en lugar de amplificar lo que queremos resaltarpodemos obtener el mismo efecto atenuando todo aquello que no nos interesa resaltar. En cambio, en grabación, sies necesario ecualizar deberemos preferir antes una EQ constructiva (que siempre permita volver a atenuar enmezcla) antes que una destructiva (si hemos atenuado algo, difícilmente vamos a conseguir que "reaparezca"); ahorabien, hay que conocer en qué zonas se mueve la energía de los instrumentos para no cometer el error de enfatizarzonas vacías que lo único que hará será aumentarnos el ruido de la grabación. También es importante ecualizar"contextualizadamente", es decir, teniendo presente el resto de fuentes sonoras que van a sonar al tiempo queaquella que tratamos de ecualizar: un instrumento ecualizado puede sonar fantástico cuando lo escuchamos "solo", yen cambio, en la mezcla en la que está incorporado, ser un factor de ensuciamiento o de desequilibrio. Laecualización debe permitirnos también asentar los instrumentos en un espacio espectral "vertical", de forma que cadauno de ellos ocupe un "nicho ecológico" propio y no exista una feroz competencia entre varios.Junto a los ecualizadores los filtros son otra herramienta importante para alterar la estructura tímbrica de un sonido(de hecho los ecualizadores no son más que filtros especiales). Un filtro nos permite eliminar una determinada banda

Page 12: Postproducción de Sonido

o margen de frecuencias en torno, por encima, o por debajo, de una cierta frecuencia de trabajo o frecuencia decorte.Los filtros más habituales son:

· Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central;· Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte;· Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo,

el filtro de 80/100 Hz que habitualmente llevan las mesas de mezcla);· Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia

central;· Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte,

pero sin ser tan abruptos como los pasa-altos y pasa-bajos (los controles de graves y agudos de losamplificadores domésticos y algunas secciones de los ecualizadores de una mesa de mezclas suelen ser detipo escalón);

Además de estas herramientas básicas es necesario tener presente las herramientas de transformación de laestructura tímbrica a partir de procesos de análisis y síntesis, como por ejemplo los porgramas Soundhack,SMSTools, Lemur, etc. Con esta clase de herramientas podemos operar drásticas transformaciones impensables sólocon ayuda de filtros tradicionales. Es posible obtener más información sobre esta clase de aplicaciones a partir deestas páginas:CTI Music at Lancaster UniversityMac programs for computer musicDigital Sound PageHitSquad

Page 13: Postproducción de Sonido

Montaje y mezcla

· El entorno acústico que requiere una mezcla.· Mezcladores virtuales.· Procesado habitual en una mezcla.· Automatización

El entorno acústico que requiere una mezcla

* Acústica de la sala: se requiere una sala con respuesta plana (sin tendencia a realzar o atenuar determinadasbandas de frecuencia) y apenas reverberada; en caso de que no cumpla estas condiciones es necesarioacondicionarla acústicamente, y en última instancia, procesar la escucha a través de un ecualizador gráfico de terciode octava para equilibrarla tonalmente. Además, la sala debe estar convenientemente aislada, de manera que nointerfieran en la escucha sonidos ajenos a la mezcla. Es importante, en este sentido, conseguir aislar o atenuar ruidospropios de los dispositivos de audio (motores, ventiladores de ordenadores, etc.), para lo cual suele ser útil disponerde una "sala de máquinas" adyacente al control de escucha.* Monitores de campo próximo y monitores de estudio: escuchar una mezcla puede requerir dos tipos de escucha: porun lado la escucha "fina", de precisión, para captar los matices de un instrumento determinado y los cambios quesobre su sonido puedan realizarse, y por otro lado la escucha "integrada", en la que nos queremos hacer la idea decómo sonará esa mezcla en un equipo medio similar al de la mayoría de consumidores. También es muyrecomendable haber realizado al menos una escucha en mono, para verificar que no se produzcan cancelaciones defase.* Niveles de escucha: la respuesta en frecuencias del oído humano sano no es lineal, ni mucho menos. Cuando elnivel o sonoridad es bajo tendemos a "perder" bajas y altas frecuencias, tal y como puede observarse en las típicascurvas isofónicas de Fletcher y Munson. La respuesta más lineal de nuestro oído se da cuando el nivel de escucha esbastante alto (unos 80 o 90 dB SPL), de ahí que para mezclar una producción audiovisual se tienda a trabajar conesos niveles. Debe inisitirse en que un exceso de horas de trabajo en esas condiciones degradan temporal (e inclusoa veces permanentemente la salud del aparato auditivo). La recomendación a seguir (según los organismos de saludpertinentes) es realizar un descanso de 10 minutos cada hora que se trabaje a 90 dB SPL; no sólo lo agradecennuestros oídos, sino que el resultado del trabajo acostumbra a ser más satisfactorio.

Mezcladores virtuales

Un mezclador es un dispositivo que permite combinar simultáneamente dos o más señales diferentes. Para realizaresas combinaciones las señales discurren por buses, o líneas de transmisión de audio, de manera que cuantos másbuses independientes tengamos más mezclas alternativas simultáneas podremos realizar (pensemos por ejemploque, en una grabación de un par de instrumentistas que tocan sobre una base ya grabada cada uno de ellos requeriráuna mezcla diferente en sus auriculares, y nosotros en el control necesitaremos otra mezcla diferente, y si ademáshemos de grabar una mezcla previa sobre la marcha, necesitaremos elaborarla independientemente de la queescuchamos, e independientemente también de la que enviamos a grabación...). Por ello, a la hora de evaluar lautilidad de un mezclador, no sólo cabe tener en cuenta el número de canales, sino también el número y tipo de busesdisponibles.Los mezcladores virtuales suelen ser programas de gestión de pistas de sonido con interfases gráficos que emulanlas superficies de trabajo de una mesa de mezclas de estado sólido. Entendiendo la estructura y funciones de unamesa de mezclas es fácil utilizar el símil para comprender y operar un mezclador virtual ya que hasta el momento noparecen existir metáforas mejores para diseñar sus nterfases de usuario.En un mezclador cabe distinguir:

· Entradas y Salidas principales: a grabación, a altavoces, a auriculares, a menudo duplicadas.· Entradas y Salidas auxiliares: generalmente asociadas a buses auxiliares, de subgrupos, de escucha, de

inserción, o de retorno (para ingresar señal procedente de procesadores).· Canales: dentro del canal cabe distinguir el pre-amplificador (para ajustar la ganancia de entrada), los filtros y

ecualizadores, los potenciómetros de envío a auxiliares, los selectores de envío a otros buses, etc.· Buses auxiliares: generalmente utilizados como envíos hacia procesadores de efectos, o hacia auriculares de

la cabina de grabación).· Buses de subgrupos: generalmente nos permiten agrupar un cierto número de canales en un único par de

salida (por ejemplo para regular el nivel de una batería sin necesidad de operar sobre los 7 u 8 canales quehabitualmente se utilizan).

· Buses de retorno: llevan hacia otros buses señales que ingresaron en la mesa por entradas diferentes a lasde canal.

Page 14: Postproducción de Sonido

· Buses de monitoraje: utilizados para ajustar el nivel de entrada de señal (en combinación con la función deescucha antes del fader o PFL.

La ventaja de los sistemas virtuales es que los buses pueden reconvertirse, y reconfigurarse según las necesidadesde cada proyecto, cosa que con los mezcladores de estado sólido convencionales no es posible (el número de busesestá prefijado y no se puede alterar). En los sistemas digitales más simples sólo existen un par de buses estéreo(escucha por cascos y salida de línea), aunque gracias a la tecnología Direct-X algunos programas de audioincorporan ya otras alternativas (véanse por ejemplo los envíos a efectos de Cakewalk).

Procesado habitual en una mezcla

Como siempre, no hemos de esperar a arreglar defectos de grabación en una mezcla. El procesado a utilizar, portanto, debería ser el justo y necesario para enfatizar determinados aspectos cruciales que dependen del tipo deproducción audiovisual que estemos creando, o bien para tratar de conjurar problemas que se pueden presentar en elmomento de la difusión de dicha producción. La mezcla que vamos a realizar no será la misma si el destino final esun video, un CD, un CD-ROM, o un cassette.Cuando la respuesta en frecuencias del soporte final esté restringida (caso del video analógico tradicional, que no vamás allá de 15 KHz, o de los cassettes, que también se quedan en esa región), o la dinámica esté reducida (en unvinilo no hay más de 40 dB, por ejemplo), hay que procesar convenientemente la mezcla (recortando frecuencias,comprimiendo, etc.).Los procesos más habituales en la mezcla son:Ecualización: un mismo instrumento en mezclas diferentes puede requerir ecualizaciones diferentes. La primera reglade la ecualización dice que no hay reglas para ecualizar. Lo que es importante es conocer en qué regiones delespectro se halla la energía de cada instrumento para poder decidir a qué "nicho espectral" asignamos cada uno deellos. Ya nos ocupamos de esto en el tema anterior.Panoramización: sirve para ayudar a distribuir y localizar en el espacio las diferentes fuentes sonoras. No hay queolvidar que, en combinación con niveles diferenciados y con un buen ajuste de la reverberación, podemos conseguircrear planos sonoros diferentes. En el caso de sonorizar imágenes suele estar en concordancia con la posición de lafuente sonora en el encuadre escogido en cada secuencia (salvo que haya muchos saltos, en cuyo caso puede serpreferible no moverlo continuamente). En el caso de grupos instrumentales suele escogerse una panoramización querefleje las posiciones espaciales habituales de cada instrumento dentro del conjunto. La posición central siempre sereserva para los instrumentos que ejerzan un papel más importante. Hay que vigilar bien los casos en los que sepanoramiza a los extremos, ya que podemos estar creando "agujeros en el centro". En cualquier caso, se aplica lamisma regla que en la ecualización.Reverberación: generalmente es necesario crear la sensación de que diversos instrumentos, grabados encondiciones acústicas diferentes, comparten el mismo o parecido espacio físico; para ello nos valdremos de la reverby del panorama. Hay que vigilar la coloración que nos añadirá la reverb (en algunos casos puede amplificar graves yemborronar la mezcla, por lo tanto, el retorno de la reverb podríamos recortarlo por debajo de 100 Hz). Lacombinación de delay corto + reverb puede resolver mejor que la reverb sola algunas situaciones.Compresión: especialmente necesaria en video o en grabaciones sobre cinta magnética doméstica. En mezcla suelecomprimirse toda la mezcla de manera global (previamente podemos haber grabado algunos instrumentos ya con unasuave compresión, o haberlos regrabado aplicándola entonces). Si tenemos acceso a una compresión por bandas defrecuencia, con un poco de experimentación podremos conseguir resultados más interesantes que aplicando lamisma compresión a todas las bandas. A veces, tras la etapa de compresión, y ya justo antes del DAT másterpodemos insertar un excitador psicoacústico que devuelva parte del brilllo que el compresor puede habernos hechoperder, y también para conseguir una mezcla más "presente".

Automatización

Para ahorrarnos la tarea de tener que usar las manos y los pies para conseguir fundidos simultáneos de varioscanales a diferentes velocidades (y teniendo en cuenta que no podemos amaestrar a un pulpo para que nos ayude)debemos recurrir a la automatización de los movimientos de faders y potenciómetros de una mesa, ya sea real ovirtual. La automatización se conseguía antaño mediante la conversión de los datos de posición de los controles de lamesa a un determinado formato digital especial, y la grabación de dichos datos en una pista del magnetofón "master",pero hoy en día cada vez es más utilizada la automatización MIDI. Mediante los controladores 7 y 10 (volumen ypanorama respectivamente), o mediante otros controladores no asignados que nos permitan mayor resolución y quehayamos asociado (vía software) a los controles de nivel y panorama de cada pista es posible grabar (en variaspasadas incrementales) una secuencia MIDI con la información necesaria para conseguir la mezcla que haga falta,por compleja que sea. Si además disponemos de una superfície física de control como una caja de faders MIDI,podremos realizar movimientos en varios canales simultáneamente. Hay que advertir que no todos los programas demezcla multipista permiten dicha automatización (Cakewalk, por ejemplo, sí; en cambio CoolPro no).

Page 15: Postproducción de Sonido

Generalmente durante una sesión de automatización se graba una secuencia inicial aproximada a la mezcla que sepretende, y luego se insertan correcciones en determinados puntos críticos, o se sobre-escriben movimientos que nohayan resultado apropiados. También se suele utilizar una función de "configuración instantánea" por la que podemosgrabar la situación del mezclador en un momento dado, y luego, en otro momento, recuperarla exactamente.

Sincronización audio-video. Formatos definitivos.

· SMPTE.· Postproducción informatizada.· El sonido y los formatos audiovisuales más habituales: AVI, Quicktime, Betacam...

SMPTE

Las siglas significan Society of Motion Pictures and Television Engineering (sociedad de ingenieros de cine ytelevisión) y a menudo se asocian al código más utilizado para sincronizar audio y video. Para conseguir esasincronía es necesario disponer de un aparato -generalmente un magnetoscopio- que denominamos master,y de uno o más aparatos -generalmente multipistas de audio- que denominamos esclavos (slaves). El masteres el que tiene el código de tiempo que gobierna los esclavos; la función de éstos es siempre la de seguir elcódigo que en cada momento esté reproduciendo el master -o sea, posicionar sus sistemas de transporte,reales o virtuales, en el punto que indica el master.El código SMPTE es una señal digital -impulsos o ausencia de ellos- (grabada analógicamente), que contieneuna referencia temporal absoluta y que suena a modo de tono electrónico modulado. La referencia temporalabsoluta consiste en una "dirección" indicada como horas, minutos, segundos y fotogramas, cuadros, oframes (hh:mm:ss:ff), que se graba de manera reiterada (varias veces por segundo) en las cintas quenecesitan sincronizarse. Puesto que la cinta contiene una marca temporal diferente por cada frame de imagen(sólo existirá un frame cuya dirección sea 1h:05m:22s:04f, por ejemplo), resulta fácil posicionar la cinta en elpunto que interese. A partir de esta señal, y con la ayuda de un sincronizador que la recibe, la descodifica ycontrola el mecanismo de transporte de los dispositivos esclavizados podremos conseguir que un multipistasde audio desplace su mecanismo de transporte (real o virtual) siguiendo el código del video. El proceso por elcual los esclavos se dirigen al punto marcado por el master y se posicionan en él se denomina resolución(resolving).Existen diferentes variaciones del código SMPTE, según el número de frames con el que trabajan:

· El SMPTE puro és el sistema americano en blanco i negro. Trabaja con 30 cuadros por segundo.· El SMPTE "drop frame" o "con eliminación de cuadro" es el propio del sistema de video NTSC de los

EEUU. Trabaja a 29.97 cuadros por segundo. Para conseguirlo el código trabaja realmente a 30cuadros por segundo, pero los dos primeros cuadros de cada minuto que no sea el 00, 10, 20, 30, 40,y el 50 no se cuentan -se eliminan- (es decir, que por ejemplo después de 00:53:59:29 pasamos a00:54:00:02).

· El EBU (European Broadcast Union) es el propio de los sistemas de video PAL y SECAM. Trabaja a25 cuadros por segundo. Es el habitual en Europa y a veces se lo denomina SMPTE/EBU.

· Finalmente, en cine se utiliza código de 24 cuadros por segundo.La elección de un sistema u otro se hace en función del tipo de producto y de sus lugares de difusión aunquelo más habitual es trabajar 25 fps. En cualquier caso hay que procurar no mezclar formatos diferentes en unamisma producción, dado que las conversiones entre unos y otros no siempre resultan triviales.En algunas ocasiones, al trabajar con código SMPTE puede ser necesario ajustar el denominado offset odiferencia entre el código del master y el del esclavo. Supongamos que hemos empezado a sonorizar unvideo antes de que nos hayan pasado las imágenes. Nuestro audio empieza en 00:01:00:00, pero cuandorecibimos las imágenes nos damos cuenta de que el audio debería empezar en 00:02:30:00. Si no es fácilmover en bloque toda la banda sonora (cuando se trabajaba con multipistas analógicos que tenían SMPTE enla última pista era imposible plantear tal movimiento) podemos recurrir a ajustar el offset (todos los programasserios tienen una opción para ello), de manera que el sistema esclavo, cuando reciba el código 00:02:30:00,empiece la reproducción correspondiente a su código 00:01:00:00. Estableciendo un offset de -00:01:30:00(nótese que el offset sería negativo en este caso, y algunos sistemas no pueden trabajar con offsetsnegativos sino que requieren establecer el 0 absoluto en 24:00:00:00 de manera que nuestro offset tambiénpodría ser 23:58:30:00) habremos resuelto el problema. La fórmulaOffset = Tc Esclavo - Tc Masternos permite calcular el valor de offset. Una recomendación respecto a los valores de código SMPTE es la deprocurar empezar a trabajar con valores más allá del cero absoluto (por ejemplo 00:02:00:00) para evitarproblemas en el caso de que haya que añadir elementos (sean de imagen o sean de sonido) al principio de lacinta. Finalmente, cuando necesitemos sonorizar un video no debemos olvidar que, además de necesitar

Page 16: Postproducción de Sonido

disponer de una copia con el código SMPTE que gobernará los dispositivos esclavos, necesitamos versobreimpresionado en pantalla ese mismo código. Así pues cuando solicitemos una copia de trabajo parasonorizar hay que acordarse de pedir que nos sobreimpresionen el código, y antes de empezar a sonorizarlaes necesario verificar que el código sobreimpresionado coincide con el que hay grabado en la pista de códigoque usamos para controlar los dispositivos esclavos.

Actualmente en configuraciones de estudio en las que se utilizan dispositivos MIDI se emplea cada vez másel Midi Time Code (o MTC), que es la versión del código SMPTE en formato de datos MIDI (en jerga MIDI setrata de mensajes comunes de sistema o System Common). Así, a través de un cable midi real o virtualtambién es posible transmitir una señal de direccionamiento absoluto de tiempo a diferentes aparatos talescomo secuenciadores, workstations de síntesis, editores de sonido, multipistas digitales, etc. En estos casossuele existir un dispositivo (como el SMPTE Slave Driver de Digidesign, o la interfase MIDI 2Port S/E deOpcode) que pueden recibir y generar SMPTE en formato tradicional y convertirlo a MTC, y viceversa.Cuando se utiliza MTC en una configuración MIDI típica es recomendable disponer de un puerto MIDIexclusivamente para la transmisión de MTC (al utilizar un mismo puerto para MTC y para mensajes de canaltípicos podemos colapsar el sistema con cierta facilidad).

Postproducción informatizada

La postproducción informatizada requiere no sólo de que dispongamos en formato digital de todos loselementos de la banda sonora, y de una serie de programas de edición, procesado y mezcla, sino también deque dispongamos en formato digital de las imágenes que tenemos que sonorizar.Uno de los entornos integrados más conocidos es Premiere, pero está orientado principalmente a lapostproducción de imágenes (si bien con él podemos resolver satisfactoriamente también sencillaspostproducciones de sonido). Postview, pariente de Protools permite la postproducción de sonido en unentorno en el que se integra también el video digital. En el ámbito de los PCs, cabe destacar Soundscape ySADIE. En cualesquiera de esos casos es necesario disponer de un hardware específico que posibilita unaconversión A/D y D/A de muy alta calidad, y la gestión, edición y procesado del sonido con gran eficacia.Otra opción interesante en estudios domésticos es la de utilizar un programa reproductor de video digitalizadoque pueda al mismo tiempo generar MTC (Sound Forge, por ejemplo). Este MTC es llevado vía softwarehacia el programa de edición o de mezcla multipista (CoolPro, por ejemplo), el cual habremos configuradocomo esclavo de MTC. Así, cuando hagamos play en el reproductor de video digital el programa de audio sepondrá en reproducción sincronizada. Para hacer uso de esta opción es imprescindible disponer de unamatriz virtual MIDI o programa de rutaje MIDI que facilite el uso flexible de puertos MIDI virtuales (además delos reales que nos proporciona nuestra tarjeta). Hubi Loopback Device es un shareware imprescindible paracrear a través de software un MIDI patchbay de 4 entradas x 4 salidas.

El sonido y los formatos audiovisuales más habituales: AVI, Quicktime, Betacam...

Betacam

Es un formato de 1/2 pulgada, el más utilizado actualmente para hacer masters de video. La señal de videose registra "por componentes", es decir, con pistas separadas para la crominancia (información de color) y laluminancia (cantidad de luz). En un Betacam normal hay tres pistas longitudinales para grabar audioanalógico: Audio-2 (la més exterior, en la parte de arriba), Audio-1 (más hacia el centro, pero adyacente a laanterior), y Audio-3 (exterior, abajo). Esta última suele ser la utilizada para grabar código de tiempo. Lacalidad sonora del Betacam es un poco mejor que la del Umátic, ya que presenta 50 dB de relaciónseñal/ruido, y un rango de frecuencias entre 15 y 15000 Hz. La varietdad conocida como Betacam-SP mejoralas prestaciones de audio ya que incorpora el reductor de ruido Dolby-C, cosa que hace aumentar la relaciónseñal/ruido hasta 53 dB. Además, es posible grabar sonido en 2 pistas adicionales que se codifican y grabanconjuntamente con la crominancia. Estas pistas ofrecen 68 dB de relación señal/ruido, y un rango de 20 a20000 Hz, pero resultan problemáticas cuando se necesita editar la imagen "a posteriori" así que sólo puedenutilizarse si la mezcla definitiva de audio se realiza al mismo tiempo que el volcado (o "repicado") de laimagen.

VHS

No se trata de un formato habitual para masters, pero sí para copias de trabajo que nos permitan irsonorizando en casa o en un pequeño estudio, y luego trasladar nuestro trabajo a otro formato profesionalcon la seguridad de que las cosas cuadrarán sin problemas. El VHS es un formato de 1/2 pulgada con 1 ó 2pistas lineales de audio, i en algunos modelos (HI-FI) dos pistas adicionales de sonido modulado enfrecuencia (AFM) igual que el Betacam SP. No lleva pista dedicada a código de tiempo así que deberemossacrificar una pista de audio para insertar el código de tiempo.

Page 17: Postproducción de Sonido

Hi-8

Es un formato en cinta de 8mm que permite disponer de dos pistas digitales de audio PCM (de calidad inferiora la de un CD ya que se cuantiza a menos de 16 bits). Además de ellas, dispone de otras 2 pistas de audiomodulado en frecuencia. Las pistas PCM son independientes de la imagen.

AVI

Es un formato de digitalización de video desarrollado por Microsoft. En un AVI el audio y el video sealmacenan entrelazados, y el software de presentación se encarga de separar los dos componentes a la horade "proyectar" la película .(generalmente en formato de 320 x 240 pixels, y a una velocidad de 15 frames porsegundo).

Quicktime

Formato de digitalización de video desarrollado por Apple. Permite integrar imagen móvil y fija, texto,animaciones, audio y midi en un objeto único y compacto. No es específico de plataformas Mac aunque paraexaminar y editar el contenido de un Quicktime existen más herramientas (por ejemplo MoviePlayer) paraMac que para PC.

DAT con código de tiempo

El formato original de la cinta DAT no permite almacenar información de tiempo con precisión de frames. Noobstante algunos fabricantes han llegado a soluciones satisfactorias a base de utilizar el espacio destinado asubcódigos (donde se graban las marcas de inicio de programa, de salto, de fin de cinta, etc.) pero para elloson necesarios grabadores/reproductores de DAT especialmente adaptados (cosa que triplica su precio decoste). Un aparato de estas características es capaz de generar SMPTE, de leerlo en cualquier formato, y deactuar de esclavo o de master según convenga.También a finales de los 80 se desarrollaron formatos multipista de audio digital con soporte en cintas devideo S-VHS (por ejemplo, ADAT de Alesis) o 8 mm (DA-88 de Tascam, por ejemplo) en los que es posibledisponer de código SMPTE alojado en una de las pistas normales (caso del ADAT) o en una pista especial(caso del DA-88).

Fuentes sonoras a incorporar en una producción audio-visual (I): voces.

· Características sonoras de las voces.· Rudimentos de microfonía para voces.

Características sonoras de las voces

La voz humana cantada tiene una tesitura que oscila entre los 80 y los 1000 Hercios, aunque la mayor parte de laenergía se sitúa entre los 200 y los 700 Hz.. Según la ubicación y rango de la tesitura de una voz cantadadistinguimos como mínimo entre voces de bajo (82/293 Hz), tenor(146/523 Hz), contralto (174/659 Hz) y soprano(261/1046 Hz). Los armónicos de un cantante pueden llegar a los 12 o 14 KHz en el caso más agudo. En cambio,la tesitura de la voz de un locutor o de un actor no cubre tan amplio espectro, y debemos esperar que se sitúeentre los 100 y los 500 Hz, mientras que sus armónicos probablemente no superen los 10 KHz.Otra característica importante de la voz es que las vocales presentan zonas en las que se concentra la energía:son lo que denominamos los formantes de la voz. El número de formantes y su ubicación son diferentes paracada vocal y para cada registro de voz, aunque no varían en exceso entre cantantes diferentes de un mismoregistro (varía la fundamental, pero no la ubicación de los formantes). El primer formante lo hallamos entre 250 y700 Hz, mientras que el segundo se sitúa entre 700 y 2500 Hz. Los buenos cantantes de tesitura grave y mediapresentan el denominado "formante del cantante", una zona de energía especialmente realzada entre 2.5 y 3 KHzque les sirve para poder sobresalir en medio de una orquesta.En cuanto a los sonidos que una voz puede generar, en el caso del canto predominan las vocales, que sonsonidos estables, armónicos, de altura definida... En cambio en el habla existe una mezcla de sonidos vocálicoscon consonantes, que son sonidos inarmónicos, transitorios, sin altura definida la mayoría de las veces. Lossonidos de consonantes tienen un espectro de energía mucho más ancho (puesto que son ruidos) aunquealgunas de ellas presentan zonas especialmente intensas: la "s" tiene mucha energía entre los 7 y los 8 KHz; la"j" presenta alta energía por encima de los 4.6 KHz; la "r", en cambio tiene una distribución mucho más uniforme.El momento del día que elijamos para grabar una voz puede determinar en gran medida su calidad: siempre hayque preferir la tarde o la noche (si por la mañana no se ha sometido la voz a esfuerzos), aunque eso a menudo nolo podemos controlar nosotros.

Page 18: Postproducción de Sonido

En el caso de voces de locutores (y en general, de cualquier voz que no cante -actores, por ejemplo-) hay quevalorar en primer lugar la inteligibilidad, ya que un locutor suele decir algo para que sea entendido por losespectadores. La inteligibilidad depende de diversos factores: prominencia de las consonantes, característicasespectrales de la voz, ritmo, articulación, vocalización... Puesto que las consonantes son básicamente ruidos y deellas depende en primer lugar la inteligibilidad, cualquier interferencia o ruido que aparezca en una grabaciónpuede afectar gravemente su inteligibilidad debido a un efecto de enmascaramiento.Las cualidades tonales de una voz suelen determinar su elección o no para determinados roles. Por ejemplo,dado que una voz grave tiende a ser tomada como más creible (existe evidencia empírica al respecto, no se tratade suposiciones), esas voces serán las preferidas en spots comerciales que pretendan ofrecer datos que orientenlas decisiones de los consumidores. En este mismo sentido, debemos considerar desacertadas determinadasvoces aparentemente infantiles que se utilizan en otros tipos de spots, pues al no ser identificadas como talesproducen efectos contrarios a los deseados.Finalmente, otras características a valorar pueden ser que no tenga un exceso de sibilancia (o sea, que lossonidos de "eses" no sean excesivamente prominentes) y que no tenga unas plosivas explosivas (o sea, que lossonidos de "bes" y "pes" no hagan que saltemos de la silla), aunque estos dos defectos pueden paliarse conayuda de la tecnología.

Rudimentos de microfonía para voces

El primer factor a controlar en una grabación de voces es la comodidad del cantante o del locutor. Si no se sientebien, confortable, en un ambiente positivo destinado a extraer lo mejor que pueda dar de sí, por muy bueno quesea él o ella, y por muy extraordinario que sea nuestro equipamiento, no conseguiremos un resultado decente. Enla comodidad juega un papel importante la comunicación, no sólo la verbal (ayuda mucho que el productor sepalo que la voz debe hacer y cómo, y que se lo sepa transmitir), sino también la no verbal (él o ella verán a travésde una ventana las caras que ponemos en el control); también es importante que reciba una buena mezcla dereferencia, con el equilibrio y el nivel que desee, y en unos auriculares cómodos; y que pueda pedirnos en cadamomento lo que necesite, tanto en cuestiones sonoras como a otros niveles (descanso, atenuar la refrigeración,beber...). Si todo esto lo hemos cuidado al máximo, tendremos un 30% del éxito garantizado.Cuando la grabación se realice en un lugar cuyas características acústicas sean beneficiosas para la voz, y nosinterese aprovecharlo, será preferible un diagrama polar omnidireccional pues captaremos en mayor medida quecon micrófonos direccionales la reverberación y la coloración del recinto. En estos casos, además, puede serrecomendable el realizar una toma estereofónica, que aún preservará más tales características. Si no nosinteresa la acústica del recinto, además de utilizar un micro direccional podemos ayudarnos de pantallas aislantesy/o atenuadoras de reflexiones para garantizar una toma con el mínimo de coloración debida al recinto (aunquesu uso contribuye a disminuir la comodidad del cantante o locutor).En el caso de grabar voces en exteriores hay que prestar especial atención a los ruidos de ambiente: podemosreducirlo considerablemente con micrófonos direccionales (especialmente de diagrama polar hipercardiode osupercardioide) y ubicando -siempre que sea posible- la fuente sonora de frente a las fuentes de ruido (paracaptarla de espaldas a él). También el uso de un filtro de graves (pasa altos ajustado entre 80 y 100 Hz) es unaopción útil a considerar para reducir el ruido de tráfico, manipulación del micro, roces de ropa, etc.La elección de un micrófono u otro es materia bastante personal, e implica un conocimiento profundo delcomportamiento de los micros que haya a nuestra disposición. En estudios, especialmente para postproducciónde video, se suele trabajar con un micro de condensador de diafragma grande (tipo Neumann U87 o U47)colocado a un palmo de la boca, para cantantes pop y actuaciones en directo se prefieren micros dinámicos comoel clásico Shure SM58, y en determinado tipo de rodajes o de programa de TV alguno de tipo lavalier (micro desolapa). Además del micro elegido, y de su ubicación (podemos alejarlo si se trata de grabar locuciones queluego irán en segundo plano), juega un gran papel en el sonido final el pre-amplificador (o previo) utilizado.Siempre que dispongamos de un previo decente externo a la mesa de mezclas es aconsejable utilizarlo. Elprincipal objetivo del previo es amplificar la señal del micro lo necesario para que sea grabada con el nivel óptimo,pero además, el previo introduce coloraciones que en muchos casos son intencionadamente buscadas. Losprevios a válvulas "añejos" parecen dar mayor calidez a la voz que los previos digitales más modernos (perotambién pueden introducirnos más ruido e interferencias). En el caso de utilizar micros direccionales debeprestarse especial atención al efecto de proximidad: a medida que la fuente sonora se aproxima al micro serealzan más las frecuencias graves.Los objetivos de la grabación que más debemos cuidar son:

· Obtener una calidad tonal lo más parecida al original, al tiempo que resaltamos aquello que la vozpueda tener de peculiar e interesante (para hacer la comparación es conveniente el ejercicio deescuchar la voz "al natural", en la propia cabina de control o en la sala de grabación si es tonalmenteneutra y "guardarnosla en la memoria" para hacer comparaciones cuando ajustemos el micro, ocuando la ecualicemos).

Page 19: Postproducción de Sonido

· Obtener una serie de ellas con suficiente coherencia tonal, estabilidad de niveles, calidad y claridadsonora entre ellas, de manera que aunque la banda sonora contenga fragmentos grabados enmomentos diferentes ello no sea aparente.

· Especialmente en el caso de diálogos y locuciones, obtener tomas con el máximo grado deinteligibilidad posible. Podemos mejorar la inteligibilidad amplificando un poco la banda en torno a los2 KHz (o en general amplificando 3 o 4 dB por encima de esa frecuencia), pero también nos puedeayudar el enlentecimiento artificial del ritmo de pronunciación (cuando ello sea posible). También laelección de una reverb bastante corta, poco prominente, e incluso con un predelay de unos 35 ms(para engrosar el sonido gracias al efecto Haas) puede jugar en favor de una mejor inteligibilidad.

Para paliar la sibilancia pueden utilizarse de-essers, una especie de compresores especializados que seencargan de recortar la banda en torno a 7 u 8 KHz. cuando existe un exceso de energía en ella (de hechocon muchos compresores normales es posible conseguir dicha función aún cuando no se especifique en supanel de control). El problema de las plosivas puede paliarse con ayuda de un filtro anti-pop (no quiere decirque elimine a los cantantes pop) o en su defecto con una pantalla elaborada con ayuda de alambre y unamedia o panty, que se colocan justo ante el micro, entre él y el/la vocalista. También puede ser útil en estecaso descentrar ligeramente el micro, de forma que en lugar de apuntar al centro de la boca apunte a lamejilla o a la barbilla. Las respiraciones exageradas habrá que eliminarlas "a mano" o con ayuda de unapuerta de ruido a posteriori (si hemos hecho la grabación sin utilizarla).Respecto al procesado, casi siempre es preferible aplicarlo "a posteriori" pues al aplicarlo en grabaciónresultará imposible o muy difícil restaurar el original no procesado si ello es necesario. En todo caso, unapuerta de ruido y una ligera compresión (dado el gran margen dinámico de la voz) son los tipos de procesadoque sí pueden recomendarse en muchas ocasiones en las que hay que grabar una voz. En caso de usarcompresión en la grabación suele preferirse un buen compresor analógico "añejo" o "con solera" (vintage)que añada calidez a la grabación digital, en lugar de uno de calidad media o incorporado en la mesa o en elsistema de grabación. También puede ser util en contadas ocasiones, siempre que no se abuse, el ayudarsede un transpositor para corregir desafinaciones.Finalmente, si somos los responsables últimos del sonido debemos asumir dicha responsabilidad exigiendorepetir las tomas tantas veces como sea necesario para disponer de al menos una que sea satisfactoria(¿verdad que se hace lo mismo con la imágen y nadie pierde la calma?) siempre que la deficiencia en lastomas no se nos puedan achacar a nosotros mismos y a nuestros aparatos.

Fuentes sonoras a incorporar en una producción audio-visual (II): efectos

· Tipologias de efectos.· Estrategias de creación de efectos.· Colecciones de efectos. Recursos disponibles en Internet.

Una primera definición, algo reduccionista, de efecto de sonido sería la de considerar como tal cualquier reproducciónde sonido que trate de acompañar a la acción y proporcionar realismo a una producción audiovisual. Los efectospueden representar objetos, movimientos en el espacio o en el tiempo, estados emocionales, procesos depensamiento, contacto físico entre objetos, escenarios, entidades irreales... En algunos casos los efectos puedenservir para ahorrar escenas peligrosas, económicamente cosostas o muy difíciles de filmar; es lo que se denominafunción elíptica del efecto de sonido.En general los efectos más utilizados a lo largo de la historia del teatro eran principalmente aquellos encargados desimular sonidos de la naturaleza (ya los griegos utilizaban efectos de sonido en sus obras de teatro, por ejemplohacían sonar "truenos" cuando aparecía el dios Júpiter airado), y más adelante aquellos destinados a reforzarsituaciones cómicas. A partir de la expansión de la radio en los años 30 los efectos de sonido recibieron un nuevoimpulso: era necesario conseguir el máximo realismo en un medio dramático que no contaba con la imagen comofactor principal para ello, y también era necesario eliminar los fatídicos silencios muertos que daban la sensación deque la emisora no funcionaba bien. Los "efectistas" de la época, además de los mecanismos tradicionales degeneración de efectos (planchas metálicas, muelles, instrumentos de percusión, bocinas, silbatos, etc.) podíandisponer de efectos previamente grabados en discos de piedra o bakelita (incluso había tocadiscos especiales de 2brazos para reproducciones simultáneas de 2 efectos!). Finalmente, los efectos de sonido llegaron al cine y a partir dela película Aleluya de King Vidor (1929) fueron utilizados de manera dramática y no como simple contrapartida auralde la imagen.

Tipologias de efectos

· Considerados según su origen pueden ser:· Efectos originales, procedentes de las tomas de sonido directo o sonido de producción. Estos

efectos pueden ir en sincronía con determinadas imágenes o ser independientes de ellas, si bien suorigen sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la

Page 20: Postproducción de Sonido

grabación de sonidos originales hay que conseguirlos con la máxima nitidez sonora posible (si esnecesario hay que aprovechar los ratos de descanso o cuando aún no ha empezado la sesión defilmación). En situaciones de rodaje también hay que prever la grabación correcta de aquellossonidos cuya generación no puede repetirse (destrucciones de elementos, multitudes, etc.), así comode aquellos sonidos de ambiente que pueden ayudarnos a establecer un determinado entornoacústico durante la postproducción (esta grabación de sonidos probablemente útiles, pero noindicados en el guión, se denomina wildtracking). Los efectos originales tienen los inconvenientes deque es difícil hallar lugares lo suficientemente tranquilos y silenciosos que garanticen una buenagrabación, y que muchos eventos naturales son poco controlables y difícilmente repetibles. Por todoello los efectos originales a menudo requieren de algún tipo de post-procesado antes de incluirlos enla banda sonora.

· Efectos de sala (en inglés se denominan foley en honor de uno de los pioneros en su creación:George Foley). Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierdencuando se doblan diálogos o se graban en directo. En general los efectos de sala acostumbran a serpasos, roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc, y para su grabaciónlos estudios disponen de suelos de superficie variable (un metro cuadrado de grava, otro de arena,otro de cemento, otro de hojas secas...) así como de salas de almacenaje de elementos útiles(fragmentos de metal, latas, zapatos, vidrios, etc.). Efectos típicos de sala son los pasos de uncaballo creados a partir de golpear cocos contra un suelo de tierra o de grava, la lluvia creada a partirde volcar tierra sobre un papel situado encima del micrófono, los sonidos de comida friéndosecreados a partir de poner trapos mojados sobre una superficie ardiente, los truenos creados a basede sacudir un globo lleno de perdigones o bolitas de plomo, o el fuego creado arrugando papelcelofan. Los efectos de sala no siempre tienen que ser lo que definitivamente vaya a sonar:posteriormente pueden procesarse o acumularse unos sobre otros hasta conseguir el tipo de sonidoque mejor se adecúe.

· Efectos de colecciones o de bibliotecas. Las colecciones en CD y CD-Rom son el recurso másutilizado a la hora de construir la banda sonora de una producción audiovisual. Suelen estarorganizadas temáticamente (con categorías tales como: militares, transporte, naturaleza, domésticos,electrónicos, exteriores, humanos, etc.) y cuentan con diversas opciones de indexación para facilitarsu búsqueda (por nombres, categorías, elementos relacionados, sinónimos, etc.) que cada vez másse valen de la ayuda de un soporte informático (algunas colecciones incluyen un programa de gestiónde bases de datos y una base de datos relativa a los sonidos que componen la colección). Ademásde poderlos utilizar "tal cual", podemos tomarlos como punto de partida y refinarlos, a base de edicióny procesado, hasta que se ajusten a lo que necesitamos exactamente. Los inconvenientes de muchasde estas colecciones son: su precio, ya que para poder ofrecer unos sonidos completamente libres dederechos de autor es necesario pagar hasta 8000 pesetas por CD, y su variedad, que exige invertirmuchas horas en escucharse y conocerse lo que contienen (cosa que en muchos estudios es trabajopropio de los asistentes de grabación) ya que guiarse sólo por los títulos de las pistas no garantiza laexplotación de la colección al 100%. Colecciones interesantes son las de CBS, Hanna-Barbera,Lucasfilms, BBC, Valentino, Prosonus, Hollywood Sound Ideas (una parte de la cual está disponibleprevia solicitud en el IUA), Audivis (tal vez la más asequible en España, pues hasta en los grandesalmacenes podemos hallar sus discos), o Network Production Music (tal vez la más extensa: 12000efectos que ocupan 64 discos). Algunas de dichas colecciones ofrecen un servicio "a la carta", demanera que sólo adquirimos exactamente aquellos sonidos que necesitamos.

· Efectos electrónicos o sintéticos. Podemos considerar que la película Dr Jeckyll & Mr. Hyde deReuben Mamoulian (1937) fue la pionera en el uso de dichos efectos (se utilizaron técnicasdesarrolladas por Fischinger que consistían en la manipulación de la pista óptica de la película -pintándola a mano, por ejemplo-). Ya en los años 50 algunos creadores de fectos de sonido seconstruían máquinas especiales para generar determinados tipos de efectos (como la Foster Gun,que generaba sonidos de pistolas, cañonazos, explosiones...), y también son de aquella época losprimeros sonidos verdaderamente sintéticos: la banda sonora de Forbidden Planet es un ejerciciopionero pues consta íntegramente de sonidos electrónicos generados por los compositores Lois yBebe Barron. No obstante, habrá que esperar hasta los años 70 para que los sintetitzadores y otrosdispositivos electrónicos se conviertan en una herramienta importante en la creación de efectos desonido. Aparte del uso del sintetizador como generador de tonos y texturas electrónicas opseudoacústicas, es muy importante la adopción del sampler como herramienta universal de edición,combinación, procesado y colocación "en vivo" de efectos.

· Considerados según su relación con la imagen a la que acompañan distinguimos entre:· Sonidos Naturales: cuando el efecto es el sonido del objeto que está sonando. El sonido natural es

un sonido real, sin ornamentos. Son más propios de documentales y de reportajes. En cambio en

Page 21: Postproducción de Sonido

producciones de ficción las expectativas del público hacen que se tienda a substituir los sonidosnaturales por otros que no lo son (ya que el sonido original -de una pistola del 38, por ejemplo- nuncaes suficientemente potente, agresivo o contundente, y debido también a que en experiencias previasel público ya se ha acostumbrado a aceptar esa falsificación de la realidad como algo normal ynecesario para incrementar el disfrute de la producción audiovisual). ¿Cuándo llegaremos al punto enel que el sonido no tendrá nada que ver con la fuente que lo genera en la pantalla?

· Sonidos Característicos: cuando el efecto es una imitación de lo que sería el sonido natural delobjeto que está sonando. Un sonido característico puede reconocerse, pero no es el original de lafuente sonora sino aquél que se supone, o que se supone que el oyente puede suponer, que ha detener la fuente sonora. La deformación o imitación de un sonido característico se hace con el fin deintensificar el impacto sobre el espectador. Un ejemplo: durante muchos años los anuncios deautomóviles en USA utilizaban todos el mismo sonido, el de un Deusenberg del 35, debido a que sutimbre no enmascaraba las voces de los locutores; para el oyente -especialmente si no erademasiado entendido en sonidos de coches- el efecto utilizado era apropiado, aunque no fuera el quecorrespondía en realidad al auto que se publicitaba.

Los sonidos característicos podemos subdividirlos en:· Sonidos imitativos: aquellos que tienen propiedades físicas similares a las del sonido al que

tratan de imitar, y se generan de manera parecida a ellos. Por ejemplo: los pasos de caballoobtenidos a base de golpear cocos, o los pasos sobre la nieve obtenidos a base de pisar unsuelo especial cubierto de harina de trigo.

· Sonidos interpretativos: aquellos que no guardan ninguna semejanza con el sonido quetratan de substituir. Por ejemplo, un trozo de corcho empapado en keroseno puede servirpara caracterizar un grito de una rata. Es en la habilidad para la creación de esta categoríade sonidos donde podemos distinguir a los auténticos especialistas: ellos son los que viendoun determinado objeto o material pueden imaginar que tipos de sonidos pueden llegar acrear.

· Según su función en una producción audiovisual, distinguimos entre:· Sonidos objetivos: aquellos que suenan a consecuencia de la aparición de la imagen de un objeto

que emite el sonido. Un sonido objetivo suena como se supone que sonará el objeto que aparece enla imagen (no necesariamente suena exactamente como lo hace en la realidad).

· Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de lospersonajes, sin que necesariamente el objeto productor del sonido aparezca en la imagen.

· Sonidos descriptivos: aquellos que no representan a ningún objeto de los que aparecen en laimagen, sino que son abstracciones o idealizaciones de los sonidos supuestamente originales(aquellos que podríamos escuchar). Podemos considerarlos como sonidos metafóricos.

· El silencio podemos entenderlo como un tipo de sonido especial. Su uso dosificado puede generarexpectación, o un impacto emotivo fuerte cuando el desarrollo lógico de la escena hace esperar un sonidofuerte. Al igual que sucede con el resto de efectos sonoros podemos considerar dos funciones del silencio:

· Objetiva: corresponde a la ausencia real de sonido en la narración (situación que estrictamenteconsiderada resulta muy poco habitual... salvo que la acción transcurra en el espacio -pensemos en2001 una odisea del espacio- o en una cámara anecoica, o que el protagonista esté sorodo, siempreexistirá un ruido de fondo, un ambiente...).

· Subjetiva: cuando el silencio se utiliza para crear un ambiente emocional concreto. Hay que vigilar yno abusar de esta función porque el espectador puede llegar a pensar que existe alguna deficienciaen la banda sonora, o en los dispositivos de amplificación del sonido del lugar en el que se exhibe laproducción. Además de generar expectación o de contrastar escenas o mensajes visuales puedellegar a comunicar situaciones de desolación, muerte, emociones desagradables... pero tambiéntranquilidad.

Estrategias de creación de efectos

En los escenarios de la acción es recomendable grabar todos los sonidos que puedan parecer interesantes. En casode hacer wildtracking es preferible utilizar pistas diferentes de las que utilicemos para grabar los diálogos o los efectossincrónicos, o incluso cintas diferentes. También es util captar en los escenarios de la acción los denominados roomtones o sonido de ambiente. Hay que pensar que incluso una habitación aparentemente tranquila y silenciosa tiene unroom tone. Disponer de esos sonidos puede ayudar a homogeneizar la sonoridad de la banda sonora, a minimizardiferencias tonales cuando los diálogos procedan de tomas diferentes, y en generar, proporcionarán un mayorrealismo. Cuando no dispongamos de esos sonidos es recomendable crear un sutil colchón sonoro a base de tráficodistante (si la acción es urbana), o zumbidos y rumores domésticos (si la acción es en interiores), aderezado conruidos esporádicos "ad hoc". Finalmente, aún cuando los grabemos juntamente con diálogos, es interesante que

Page 22: Postproducción de Sonido

tratemos de conseguir los efectos sincrónicos aislados. De esa manera podremos mezclarlos con los diálogos al nivelnecesario y no al nivel determinado por la posición y ubicación de los micrófonos en el momento de captar el diálogo.En todos estos casos debemos ir documentando y marcando debidamente las pistas que grabamos para facilitar laposterior búsqueda y gestión de todo ese material.Cuando necesitamos crear efectos "de la nada", es recomendable tratar de partir de algún sonido vagamenteparecido o relacionado con el que necesitamos. A partir de él siempre es posible experimentar con algunasestrategias para convertirlo en un auténtico efecto:

· Variar la velocidad de reproducción o la altura.· Comprimirlo y expandirlo en el tiempo.· Filtrarlo o ecualizarlo selectiva y drásticamente.· Transformarlo con procesos basados en retardos (flanger, chorus, phaser...).· Editarlo en fragmentos pequeños y re-ensamblarlo a modo de mosaico.· Acumular varias capas de sonidos similares o no, para generar uno de nuevo y diferente.

A la hora de generar efectos debemos pensar en el género al que pertenece la producción que sonorizamos pues noes lo mismo crear un disparo casual para una comedia que crear uno para una película policiaca. En general será utiltratar de comprender las convenciones propias del género (por ejemplo: exageraciones y sonidos pasados de vueltapara dibujos animados, sonidos etéreos, electrónicos para fantasía, efectos vulgares y manidos para comedias desituación de infinitos capítulos...). También puede ser de gran ayuda el pensar en términos de sensaciones, en lugarde tratar de preservar a toda costa el realismo (en otras palabras: disociar el nombre del efecto de su contenidosonoro): si la sensación conseguida por el efecto es acorde con el tono de la acción y con el objetivo del director elefecto puede ser aceptable (por ejemplo, para sonorizar una explosión atómica puede llegar a servir el ruido de unasgrandes cataratas), y el espectador no se apercibirá de que el origen del sonido no se corresponde con lo que ve.Siguiendo con esta misma línea de recomendaciones, es útil plantearse si el efecto que necesitamos posee algunacaracterística sonora distintiva, primordial (un tipo de ataque, un ritmo determinado...); si es así podemos tratar decentrarnos en esa característica (y buscar en una colección otros sonidos que la compartan) pues una vez halladaserá más sencillo acabar de redondear el efecto con otros sonidos que a priori no parecerían encajar. En el caso denecesitar re-crear sonidos naturales es útil descomponer la situación en la que se generan ya que suele podersedistinguir diversas fases o sonidos "base" que se van integrando o desintegrando a lo largo de esa evolucióntemporal: es la estrategia de divide y vencerás. Finalmente, antes de descartar un sonido, hay que escucharlo con laperspectiva propia que debiera tener en la banda sonora (tal vez a volumen máximo no nos convenza, pero integradoen el ambiente de fondo, tal y como se podría deducir de las imágenes, sí que resulte apropiado).Por lo que respecta a la organización del material es conveniente tener a mano los ambientes y room tones que seprevean más necesarios habilitando para ellos un par de pistas (seguramente habrá puntos en los que se solapen) obien, si trabajamos con sampler, fragmentos con loop de diversas duraciones. También hay que habilitar suficientespistas (o configurar el sampler) para generar rápidamente stacks o efectos multicapa. La ventaja de disparar losefectos con ayuda de un sampler y un teclado MIDI es que variando la velocidad de pulsación podemos verificarrápidamente la adecuación de cada capa. Finalmente, para ubicar sonidos cuya sincronía es crucial puede ser másacertado adelantarlos entre 1/4 y 1/2 frame, en lugar de clavarlos a la imagen (especialmente si la producción se va aexhibir en salas grandes: a 7 metros de distancia de la pantalla el sonido ya se ha retrasado 20 milisegundos respectode la imagen).

Fuentes sonoras a incorporar en una producción audio-visual (III): músicas.

· Funciones de la musica en una producción audiovisual.

· Criterios básicos de montaje musical.

· Colecciones de musicas versus musicas "a medida".

Funciones de la musica en una producción audiovisual

Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre:· Música diegética: aquella que pertenece al mundo de los personajes (por ejemplo, en una escena de baile

en una película de los años 50, la música de la orquesta que toca en la sala).· Música no-diegética: la que existe fuera del mundo de los personajes, y por tanto ellos no la pueden oir.

Aunque la función principal de la música diegética es la de suministrar apoyo y coherencia a aquello que se nosmuestra en la imagen (si se ve una orquesta tocando, hay que oirla tocar algo de la época en la que se desarrolla lapelícula) el hecho de hacerla necesaria puede ir ligado a unas intenciones más complejas del realizador (y noolvidemos que los grandes realizadores consiguen subvertir esta dicotomía -una música diegética se funde en unano-diegética; un personaje comenta la no-diegética...-). Sea o no necesaria, la música de una producción audiovisualpuede cumplir alguna de las siguientes funciones:

Page 23: Postproducción de Sonido

· Suministrar información: la letra de una canción puede explicarnos cosas que pasan, sentimientos de lospersonajes, etc; también el estilo musical nos puede informar de la época y el lugar en el que se desarrolla laacción.

· Captar la atención del espectador: a base de golpes orquestales, fanfarrias, sintonías de programas· Establecer o potenciar un estado de ánimo: existen libros que llegan a detallar una serie de emociones

básicas y las características musicales que las potencian (por ejemplo: MALDAD - Timbre áspero u opaco,tesitura media o grave, armonía en modo menor o atonal, fraseo con repeticiones irregulares, movimientolento, orquestación simple, ritmo irregular). Estas clasificaciones no hacen más que potenciar tópicos.

· Establecer el ritmo: de la edición de la imagen (por ejemplo, Koyaanisqatsi), y/o del diálogo.· Mantener el flujo y la continuidad de la acción: la persistencia de una música suavizará cortes abruptos,

rupturas de raccord visual.Existen determinados formatos musicales destinados a cumplir funciones específicas:

· Sintonía: caracteriza inequívocamente un programa o producción audiovisual; avisa de su inicio o final.· Ráfaga: fragmento de música sin otra finalidad que la de introducir variación o distracción sonora.· Cortinilla: fragmento breve utilizado para delimitar y separar secciones de una misma producción.· Fondo o ambiente: música incidental, que suele ir mezclada con diálogos o efectos importantes, y que

contribuye a mantener una continuidad anímica o estructural.· Banda Sonora: suele identificarse como tal la banda musical pero incluye también la banda de efectos y la de

diálogos.

Criterios básicos de montaje musical

Se recomienda utilizar una escaleta u hoja de registro en la que, por ejemplo, en una columna indicamos tiemposSMPTE de puntos clave, en otra una palabra resúmen de la imágen, en otra la música que debe sonar, y en otra eltipo de entrada o salida de la música, o si hay que hacer alguna manipulación en tiempo real de niveles o de otro tipo.Los encadenados deben ser suaves o enérgicos, pero deben realizarse en el momento oportuno, sin vacilaciones denivel. Las transiciones abruptas es mejor realizarlas justo antes de los acentos.. Especialemente importante es quelas ediciones no alteren el ritmo de una forma antinatural (salvo que esa antinaturalidad vaya en paralelo con laimagen), y dado que el oído del espectador medio está más acostumbrado a los acordes y armonías "consonantes",las ediciones deben hacer lo posible para mantener esa sensación de consonancia (incluso si conviene, es preferibletransponer un pasaje o una nota si con ello nos aseguramos que el espectador no notará la edición). El últimoelemento a igualar es la textura.El volúmen máximo de la música no debe superar el 80% del margen dinámico cuando suena sola, de esta maneracuando haya efectos o diálogos éstos podrán estar por encima de ella sin necesidad de que bajemos su nivel.Pensar en el soporte final del producto: es muy probable que pierda altas frecuencias, por tanto, no obcecarse enellas y en todo caso tratar de enfatizar la zona próxima a la frecuencia de corte del soporte final.Cuando mezclamos música y voz, cuidar de que la voz se entienda y su timbre no quede completamenteenmascarado por la música.Cuando mezclemos música y efectos, cuidar de que prevalezca el que por intención expresiva sea más conveniente;si mezclamos al 50% generalmente obtendremos un batiburrillo incomprensible. Cuando un efecto va después de unamúsica (o al revés), es preferible un pequeño solapamiento entre ambos elementos (siempre que sonora yvisualmente no haya otros motivos que lo desaconsejen).Utilizar el silencio como un elemento más de la banda sonora. A menudo puede ser el más importante.

Colecciones de musicas versus musicas "a medida"

Las músicas de colección suelen organizarse temáticamente, según estilos (clásica, country, jazz, rock, vocal...) ocontextos para las que parecen apropiadas (electrónico, patriótico, terror, histórico...). A diferencia de los efectos desonido, que una vez adquiridos están libres de derechos y los podemos utilizar tantas veces y en tantas produccionescomo queramos, las piezas musicales de colecciones suelen requerir la firma de determinados tipos de licencia:

· Contrato de compra (buyout): permite el uso ilimitado de las músicas una vez se ha pagado por la colección(igual que sucede con los efectos).

· Contrato de alquiler anual (annual blanket): permite el uso ilimitado de la colección durante un año, pagandosólo una cuota al iniciarse el período de disfrute.

· Contrato por producción: permite el uso de una colección, o de una selección de piezas, en una solaproducción, pagando una determinada cuota que depende del tamaño y tipo de audiencia a la que se dirige laproducción, el medio de distribución (video, cine, TV, CD-ROM...) y la duración de la producción (serie diaria,telefilm, programa único...).

· Contrato de cuota por tema: se utiliza cuando una determinada pieza se necesita en diversos proyectosrelacionados (por ejemplo, al hacer jingles de radio y spots de TV del producto X).

· Contrato por veces de utilización (needle drop): permite utilizar una misma pieza varias veces en momentosdiferentes de la producción; cada vez que se usa se aplica una determinada cuota.

Page 24: Postproducción de Sonido

Respecto a los derechos, cabe distinguir entre· Derechos de reproducción: autorizan a reproducir la obra en determinados medios, y bajo determinadas

circunstancias. Lo percibe la editora de la obra. En el precio de compra de un CD hay una parte destinada apagar esos derechos.

· Derechos de pública comunicación o difusión: se percibe en función de las veces que se haya difundido laobra en un medio público. En el precio de una entrada a un concierto hay una parte destinada a pagar esosderechos.

· Derechos de comercialización: es aplicable cuando un determinado producto incluye obras sujetas aderechos (por ejemplo una banda sonora de película). En ese caso, el autor debe conceder al propietario delproducto el permiso para que utilice su obra dentro del producto comercial elaborado.

Con tantas opciones de compra y de pago de derechos, el uso de músicas de libreria debe dirigirse a optimizar elcoste de su acceso. Hay que vigilar la letra pequeña de los CDs de colecciones ya que su posesión (a través de unacompra) no siempre garantiza su uso indiscriminado. Una opción interesante en producciones pequeñas es lasubcontratación del uso de librerías a estudios potentes que disponen de ese servicio. Recientemente algunasrevistas musicales (como Future Music) "regalan" CDs con fragmentos musicales y loops libres de derechos que, endeterminados contextos, pueden ayudarnos a resolver ágilmente alguna banda sonora. Otra opción interesante es lade desarrollar nuestra propia colección a base de fragmentos sueltos, retales que no casan en otros proyectos,impromptus grabados sobre la marcha, etc. En este sentido, los estudios de sonido suelen contar con la figura delmúsico de estudio, una de cuyas funciones principales puede llegar a ser la de elaborar músicas funcionalesajustadas a una producción audiovisual concreta.Desde la página de links (aún no publicada) puedes acceder a información sobre colecciones de músicas.