BANDA SONORA
Y TRATAMIENTO DEL SONIDO
Magdalena Adrover Gayá
Curso 2011/2012
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 2
Índice
Del cine mudo al cine sonoro .................................................................................................................... 4 El sonido antes del sonoro ............................................................................................................................ 4 Los primeros intentos de dar sonido al cine .................................................................................................. 4 El cine sonoro: una nueva forma expresiva ................................................................................................... 5 El proceso de sonorización ............................................................................................................................ 6
¿Qué es la banda sonora? ......................................................................................................................... 8 Reconocimientos a la Banda sonora (Academy Award for best) .................................................................. 8 Conceptualización del término banda sonora ............................................................................................... 8 Cómo se inicia el sonido y por qué ................................................................................................................ 9 Esquema de una banda de sonido .............................................................................................................. 10 Cómo se produce la banda sonora (Workflow: sonido en cine) .................................................................. 10 Movietone vs Vitaphone (Sound-‐on-‐films vs Sound-‐on-‐disc) ..................................................................... 11 Secuencia de rodaje .................................................................................................................................... 14 Equipo de producción de sonido ................................................................................................................. 14 Line up tones ............................................................................................................................................... 14 El equipo de postproducción sonora en cine .............................................................................................. 15 Ultra low buget crew (bajo presupuesto) ................................................................................................... 15 El guión formateado .................................................................................................................................... 16 La fase de la señal de audio ......................................................................................................................... 16 Los mezcladores .......................................................................................................................................... 16 Canales de inserción .................................................................................................................................... 16 El tiempo ..................................................................................................................................................... 17 Pistas auxiliares ........................................................................................................................................... 17 Grupos de pistas .......................................................................................................................................... 17 Grabación de voces en estudio ................................................................................................................... 17 Los oficios de la cultura: Javier Limón, productor musical .......................................................................... 17 Fundido en protools .................................................................................................................................... 18 Tipos de curvas de fundido ......................................................................................................................... 18 Frecuencia y amplitud de onda ................................................................................................................... 18 Rango de frecuencias .................................................................................................................................. 18
Ecualización ............................................................................................................................................ 19 Tipos: ........................................................................................................................................................... 19 Tipos de ecualización ................................................................................................................................... 19 Técnica del barrido ...................................................................................................................................... 20 Esquema de sentimientos y sus equivalencias a frecuencias ...................................................................... 21 Rango de frecuencias de la voz ................................................................................................................... 21 Filtro de paso alto y bajo ............................................................................................................................. 22 Bandas ......................................................................................................................................................... 22 Altavoz con filtros de paso alto y bajo ......................................................................................................... 22
Compresores ........................................................................................................................................... 23 Attack and reléase ....................................................................................................................................... 24 Threshold (umbral) ...................................................................................................................................... 25 Ratio ............................................................................................................................................................ 25
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 3
La mezcla: ideas fundamentales .............................................................................................................. 27 ¿Qué podemos considerar como una buena mezcla? ................................................................................ 27 El entorno de escucha ................................................................................................................................. 28 Buscando orden dentro del caos ................................................................................................................. 28 ¿Cómo afrontar una mezcla? ...................................................................................................................... 29 Conceptos básicos sobre la mezcla ............................................................................................................. 30 La mezcla: ecualizadores y procesadores de dinámica ............................................................................... 32 La mezcla: modificando la dinámica ............................................................................................................ 38 Tipos de compresores ................................................................................................................................. 39 ¿Por qué usar compresores? ....................................................................................................................... 40
Microfonía .............................................................................................................................................. 44 Tipos de micrófonos .................................................................................................................................... 44 Modelos de captación ................................................................................................................................. 47 Técnicas de microfonía: estéreo ................................................................................................................. 48 Uso de micrófonos: guitarra, bajo y voz ...................................................................................................... 53 Diagrama polar ............................................................................................................................................ 54 Cadena de la señal de audio del micro al altavoz ........................................................................................ 55 Conexionado de un equipo de producción sonora ..................................................................................... 55 Circuitos de un canal (5 tipos) ..................................................................................................................... 56 Interfaces y superficies de control .............................................................................................................. 56
Conexionado y soldadura ........................................................................................................................ 57 Conectores .................................................................................................................................................. 57 Adaptadores ................................................................................................................................................ 58
Proceso para la postproducción de sonido del rodaje al master .............................................................. 59
Guía para compresión ............................................................................................................................. 60 Vídeo ........................................................................................................................................................... 60 Audio ........................................................................................................................................................... 60
Podcast ................................................................................................................................................... 61
Charles Chaplin y los inicios del cine sonoro ............................................................................................ 62 Los críticos con el advenimiento del sonoro ............................................................................................... 62 Luces de la ciudad ....................................................................................................................................... 62 Tiempos modernos ...................................................................................................................................... 63 El gran dictador ........................................................................................................................................... 64
Bienvenido Mr. Marshall (1953), Luís García Berlanga ............................................................................. 67
Tratamiento del audio en los 70: La Guerra de las Galaxias (1977), George Lucas .................................... 69 Información con respecto a los “protagonistas” del sonido de Star Wars .................................................. 69
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 4
Del cine mudo al cine sonoro
El sonido antes del sonoro
Anteriormente al cine sonoro ya existía el sonido en el cine. Los cineastas y proyectistas se habían preocupado de ello, pues el cine nace con voluntad sonora. En las primeras filmaciones cortas en que aparecen actores y actrices bailando, el espectador no oye la música, pero puede observar sus movimientos. Por otra parte, rara vez se exhibían las películas en silencio. Los hermanos Lumiére, en 1897, contrataron un cuarteto de saxofones para que acompañase a sus sesiones de cinematógrafo en su local de París y hubo compositores de valía, como Saint-‐Saéns que compusieron partituras para acompañar la proyección de una película. Músicos y compositores tenían en el negocio del cine mudo una fuente de ingresos. No sólo la música, también los ruidos y acompañamiento tenían cabida en el cine mudo, por lo que algunos exhibidores disponían de máquinas especiales para producir sonidos, tempestades o trinar de pájaros. Cierto es que este sistema era solamente posible en grandes salas, en ciudades o lugares de público pudiente, y escasamente podía apreciarse en pueblos o lugares alejados. Todos los instrumentos eran válidos para hacer música en el cinematógrafo aunque el piano (y la pianola) era normalmente el más apetecido.
Algunos experimentos habían demostrado que las ondas sonoras se podían convertir en impulsos eléctricos. En el momento en que se logró grabar en el celuloide esta pista sonora, se hizo posible ajustar el sonido a la imagen, y por lo tanto hacer sonoro el cine.
Thomas Alva Edison, uno de los inventores del cinematógrafo, había conseguido grabar la voz humana en su fonógrafo en el año 1877. No fue el primero, ya que Muybridge grabó la progresión del galope de un caballo en 1972. Estos dos precursores sientan las bases de los inventos posteriores. En el caso del cine, el problema que no se conseguirá solucionar de manera rentable y eficaz hasta después de la Primera Guerra Mundial será la sincronización de sonido e imagen.
Los primeros intentos de dar sonido al cine
En el año 1893, el físico francés Démeny inventó lo que se llamó fotografía parlante. Charles Pathé, uno de los pioneros del cine, combinó fonógrafo y cinematógrafo, llegando a fabricar unas 1900 películas cantadas. Y también en la misma época, Léon Gaumont desarrolló un sistema de sonorización de films parecido, que presentó en la Exposición Universal de París de 1902. Otros inventos posteriores, el de Eugène Lauste y el de Messter Baron y Ruhmer, en la segunda década del siglo XX, son importantes como primeros experimentos, pero no llegaron a buen término a causa de la mala calidad del sonido resultante o problemas con la sincronización.
Así, en 1918, es patentado el sistema sonoro llamado TriErgon, que permitía la grabación directa en el celuloide. Pero no será hasta el año 1922 que Jo Engel, Hans Vogt y Joseph Massole presentan el primer film, Der branstifer, que lo utiliza incorporando las aportaciones del ingeniero norteamericano Lee DeForest. El sistema que usan estos alemanes dará lugar al llamado Movietone, que será utilizado por la Fox antes de la estandarización y al llamado Tobis Klangfilm.
En 1923, el ya mencionado Lee de Forest presenta su invento definitivo y establece las bases del sistema que finalmente se impuso. El Phonofilm resolvía los problemas de sincronización y amplificación del sonido, porque lo grababa encima de la misma película. A pesar del éxito logrado con la proyección de una secuencia de The Covered Wagon, la falta de financiación postergó la implantación del invento hasta el año 1925. Los empresarios que dominaban el sector no creyeron en él en aquel momento, porque la adopción
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 5
del sonoro implicaba una fuerte inversión, ya que había que adaptar los estudios y todas las salas de proyección.
En 1925, la compañía Western Electric decide apostar por Lee de Forest y, en el año 1926, se inició la producción bajo la tutela de la Warner Brothers que, con esta apuesta, pretendía superar una mala situación económica. Y así ese año presentaban cinco cintas en que la imagen convivía con el sonido gracias al sistema Vitaphone de sincronización disco-‐imagen. Éstas consistían en un discurso de William Hays, una pieza interpretada por la New York Philarmonic Orchestra, una pieza de violín tocada por Mischa Elman, una audición de la cantante Anna Case y la película de Alan Crosland, Don Juan, con John Barrymore como protagonista y en la que se había añadido una partitura interpretada por la orquesta antes citada.
El cine sonoro: una nueva forma expresiva
Las nuevas técnicas, el espíritu creativo y emprendedor de los cineastas y la búsqueda del más difícil todavía, hizo que se impusiera el cine sonoro, acabando, no sin dificultades y dejando a mucha gente en el camino, con el cine mudo. Cuando el cine sonoro demostró su rentabilidad, las películas mudas, a pesar de su arte, quedaron condenadas a pasar a la historia. El cine mudo había durado 35 años.
En 1926 se estrenó en Nueva York Don Juan, con efectos sonoros y una partitura sincronizada y posteriormente varios cortos que fueron perfeccionando los dos sistemas, el Vitaphone (la Warner) y en competencia el Movietone (la Fox). El 6 de octubre de 1927 se estrenó El cantor de jazz (The Jazz Singer), considerada la primera película sonora de la historia del cine, que hizo tambalear todos los planes del momento del cine mudo. Hacia 1930 el sonoro era un hecho, y el cine mudo había sido definitivamente vencido.
En el mundo de los actores se produjo el pánico, ya que temieron, y con razón, que sus voces no fueran adecuadas a los cambios, y todos fueron obligados a «pruebas de voz». A pesar de que la mayoría de los actores superaban las pruebas, actores significativos, aunque no por causa de la voz, quedaron en el camino (John Gilbert, Buster Keaton...).
«El cine sonoro no era simplemente el mudo con sonido incorporado, sino una nueva forma de expresión que tenía que reconciliar lo real (la grabación precisa de palabras y sonidos) con lo irreal (la imagen bidimensional), mientras que el cine mudo había sido una unidad armoniosa, completa por sí misma». (Planeta, 1982).
Algunos directores de fotografía afirman que el cine sufrió un inmenso retroceso al llegar el sonoro, pues limitó enormemente las posibilidades creativas del mismo. Cierto es que perdió con celeridad cierta fluidez, creatividad y ritmo, y tal vez sufrió unos años de retraso el avance imparable en el que se veía inmerso el lenguaje cinematográfico. Las cámaras hacían mucho ruido, y las filmaciones debían hacerse en riguroso silencio. Los micrófonos lo captaban todo y al mismo tiempo no se entendían correctamente las voces de los actores. El operador, encerrado en una cabina insonorizada no se enteraba de nada que no veía, lo que ralentizaba el trabajo y hacía perder agilidad a los movimientos narrativos.
Algunos historiadores del cine dicen, no obstante, que afirmar lo anterior es magnificar el problema, ya que en muy poco tiempo se montaron las cabinas para la cámara sobre ruedas y enseguida se blindaron las cámaras insonorizándolas totalmente, con lo que recuperaron la movilidad anterior. Hacia 1928 se habían superado la mayoría de los problemas técnicos con los que se inició el cine sonoro, se inventó la «jirafa», el micrófono que se coloca en lo alto de la escena y se evitaron así las cámaras insonorizadas, pesadas y aparatosas, que impedían la movilidad en las escenas.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 6
La primera película sonora: Don Juan (1926)
Aunque no es exactamente el primer largo con sonido sincronizado de la historia, ya que se trata de uno mudo en el que se incluye música (interpretada por la Filarmónica de Nueva York) y efectos (ruido del entrechocar de espadas, campanadas, etc.) sincronizados, la película Don Juan, dirigida por Alan Crosland y protagonizada por John Barrymore, fue el film pionero, el que dio el pistoletazo de salida a la gran carrera por llevar con mayor calidad el sonido al cine. La productora Warner, con el concurso de la compañía Western Electric, había desarrollado un sistema llamado Vitaphone de grabación de sonido sincronizado para cines y que experimentó primero con cortometrajes en los que actuaban famosos cantantes y, a continuación, en Don Juan, su producción más costosa hasta entonces y una de las más rentables.
El proceso de sonorización
Para dar sonido al cine se utilizaron una gran variedad de técnicas que atravesó las diferentes etapas de las primeras décadas del cine. Se comenzó por hablar o producir ruidos detrás de la pantalla, complementado por el acompañamiento musical en vivo durante las proyecciones y la utilización de un locutor que añadía comentarios a los rótulos. Más tarde, la técnica Vitapohone sustituyó en las salas de cine a las orquestas por altavoces y se limitó a la música y los ruidos. El procedimiento Photophone, de Alexandre Grahan Bell consiguió transmitir la voz utilizándose la luz. La voz se proyectaba a través de un tubo para un espejo fino, que vibraba y actuaba como un transmisor, y se dirigía hacia otro espejo que hacía el proceso inverso actuando como receptor. Los sonidos registrados en disco de huellas sonoras fotográficas, permitieron inscribir sonidos e imágenes en una misma cinta, tanto para la producción como para el registro. El resultado final fue la incorporación a la cinta de una pista sonora que reprodujo música, efectos ambientales y diálogos de los actores.
Anécdotas
El sonido era un problema en los primeros tiempos del cine sonoro. Una amenaza mayor para la libertad de la imagen consistía en la necesidad de que el actor hablase cerca de los micrófonos. Los equipos de sonido de la época exigían que la persona que hablaba se dirigiese al micrófono y a corta distancia. Los micrófonos se escondían en los floreros, tras las cortinas o en la peluca de los actores. En muchos filmes de aquellos tiempos se puede apreciar el envaramiento de los actores y su cercanía extraña hablando con los objetos más diversos.
Uno de los grandes problemas del cine sonoro se debió a la insonorización que debió hacerse de los platós. El primer plató para sonido de la Warner en los antiguos estudios Vitaphone de Nueva York era una especie de gigantesca caja, de unos 14 metros cuadrados y 8,5 metros de altura, con cortinajes colgando por todos lados, en un intento por ahogar los sonidos no deseados.
El conocido león del emblema de la Metro tuvo que ponerse también delante del micrófono.
La llegada del cine sonoro supuso un duro golpe para Charles Chaplin quien, en principio, se negó a aceptarlo, negándole validez artística. Evitó hablar en dos películas ya sonoras: Luces de la ciudad (1931) y Tiempos modernos (1936), que no eran en realidad sino películas mudas con músicas y efectos ingeniosamente sincronizados. Todo hacía pensar que Chaplin, el gran mimo, sería una más de aquellas estrellas que no supieron adaptarse a la llegada del cine sonoro. Chaplin no habló en la pantalla hasta El gran dictador (1941), pero cuando lo hizo, volvió a tener los éxitos de siempre.
Hubo películas sonoras, basadas en una variedad de sistemas, hechas antes de los años 1920, generalmente con intérpretes sincronizando los labios con grabaciones de audio previamente hechas. La tecnología era mucho más adecuada para propósitos comerciales, y durante muchos años los jefes de los
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 7
principales estudios de cine de Hollywood vieron poco beneficio en producir películas sonoras. Estas películas fueron relegadas, junto con las películas de color, al estado de curiosidad.
La primera película sonora en recibir una aprobación crítica casi universal fue El ángel azul (Der blaue engel) estrenada el 1 de abril de 1930, fue dirigida por Josef von Sternberg. La primera película hablada estadounidense en ser ampliamente respetada fue Sin novedad en el frente, dirigida por Lewis Milestone, estrenada el 21 de abril. Se considera la película francesa La edad de oro, dirigida por Luis Buñuel, que apareció en octubre de 1930, una de las importaciones más estéticas, aunque más como una señal de expresión del movimiento surrealista que como cine en sí. La película sonora más antigua ahora reconocida por la mayoría de historiadores de cine como un obra maestra es M de Nero-‐Film, dirigida por Fritz Lang, que se estrenó el 11 de mayo de 1931.
Eisenstein, después de su viaje a Hollywood y México, tras llegar a la Unión Soviética puso música, usando sistemas de sonorización, a varias de sus películas mudas. Destaca Alexander Nevski, 1938, con una fantástica banda sonora compuesta por Prokofiev.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 8
¿Qué es la banda sonora? La banda sonora se divide en dos partes:
-‐ Voz: diálogos, narración
-‐ M + E: Música y efectos. Es lo que se denomina soundtrack (así se puede doblar)
El sonido está 360º a nuestro alrededor, no es como la vista. No se puede hacer como con los ojos, que se cierran y puedes desconectar (hay gente que siempre escucha un tono internamente, estas personas se llaman acúfenos). El sonido siempre está presente. Por lo tanto, el elemento sonoro es fundamental. Sin embargo, el órgano auditivo se puede engañar más fácilmente que la vista.
El sonido tiene tres elementos:
-‐ intensidad (volumen)
-‐ Tono (frecuencia, agudo o grave)
-‐ Timbre (armónicos, es lo que nos permite distinguir entre un instrumento y otro)
La diferencia entre un amateur y un profesional suele ser el sonido; los profesionales le prestan mucha más atención. La mala imagen se aguanta mejor que el mal sonido.
Reconocimientos a la Banda sonora (Academy Award for best)
• Sound editing 1963 (Mejor edición de sonido)
• Sound mixing 1930 (Mejor sonido)
• Original Score 1934* (Mejor banda Sonora)
• Original song 1934 (Mejor canción original)
*Entre 1995 y 1998 se distinguía entre Banda sonora de comedia/musical y Banda sonora de drama
Conceptualización del término banda sonora
Documental “La música en el cine de persecución”, de la serie “Música de cine”
La música añade tensión, potencia la intensidad, y refleja las emociones de los personajes.
Los elementos psicológicos son muy importantes. Por ejemplo, en Speed se quiso reflejar el carácter del autobús, al margen de la acción. La música es emoción (personaje), no acción.
El tema principal de La Gran Evasión está basado en el espíritu del protagonista. Con cada cambio de escena durante la fuga, va cambiando la música. Hay una para cada personaje, que va evolucionando con él. La transición entre ellas debe ser elegante (ralentizar el ritmo, alargar las notas…) para que no resulte molesto.
Para algunos compositores, no sólo se trata de escribir el tema, también hay que analizarlo: ¿qué se puede hacer con él? Si añades música tienes que sacrificar algo. Por ejemplo, en Bullit cada coche tenía un sonido. Todo depende de lo que busca el director.
Hoy en día hay más música que antes, casi todas las secuencias de acción van con música.
El montaje y el sonido deben ir sincronizados; esto se hace en función del tempo, para que parezca que han cogido la música y que han montado la escena encima.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 9
Pero la banda sonora también tiene que evocar algo. Por ejemplo, en Misión Imposible los sonidos de percusión se crean a propósito, para que se distinga de la anterior y tenga un carácter propio y más moderno, para distinguirse de la serie de televisión.
Lo primero es descubrir la dinámica de la escena, ¿dónde hay que poner el tema? ¿cuál es el límite? Las imágenes y la música deben integrarse. Por ejemplo, en Speed se busca la emoción y la identificación. Hay muchos cambios de música, como si el bus pudiera sentir. Es un tema angustioso, con melodía para introducir sentimientos y llegar al corazón. Esto se consigue con la introducción de instrumentos de viento con acero, tipo cómic, y a sustitución de la percusión por sonidos del bus (golpes, chapas, sonidos metálicos). Así se consigue, además, que sea una banda sonora exclusiva.
En el caso de Terminator, la música da impulso y empuje, con un ritmo acelerado. Los sonidos son acústicos, para poner más de manifiesto el carácter humano del robot.
A veces se graban cosas que luego hay que descartar, porque lo importante es que exista una mezcla equilibrada entre música y efectos. Es muy importarte en el caso de Terminator 2, que es un gran ejemplo de esto. El diseñador de sonido es el que analiza la escena y diseña el sonido que va a llevar (el diseñador de sonido de Terminator 2, Gary Rydstrom tiene varios Óscars). Cada vez se tiene más cuidado con el sonido. Se utilizan contrastes, se dejan efectos solos (sin música)…
En Apocalypse Now, la saturación de sonidos podría haber convertido los sonidos en ruido, y que la banda sonora pierda fuerza. En este caso, el diseñador de sonido se dio cuenta de que el equilibrio estaba en dos capas y media de sonido, que le daba un equilibrio entre densidad y claridad. Es como hacer malabarismos. También hay películas, como La Diva, que carecerían de sentido sin música, puesto que ésta no está sólo para acompañar las imágenes, sino que es parte de la historia. En el caso de Thelma y Louis, la música del final, sin efectos de sonido, le confiere a la escena una iluminación poética.
Cómo se inicia el sonido y por qué
Tarda unos treinta años desde la aparición del cine. Si tarda tanto es por dos razones básicas:
-‐ Razón económica: la inversión en el cambio de infraestructuras, los músicos que podrían acabar en paro… no interesa a ciertos sectores. También hay actores que no se adaptan.
-‐ No hay sistemas de sonido homologables
Lo difícil era la sincronización, siempre ha sido lo que ha puesto más trabas.
Lee De Forest (Phonofilm) crea la válvula de vacío, que permite la amplificación de sonido. Los primeros discos son de cera, y se graban de dentro hacia fuera. Esto permite grabar películas sonoras de máximo 3 minutos, pues luego se produce la desincronización a medida que pasa el tiempo. Todo cambia cuando al fin se puede meter el sonido en la película.
La Warner, en 1925, crea el sistema Vitaphone promo: un sistema de disco no en película. Introducción a El Cantor de Jazz, considerada la primera película sonora aunque en realidad fue Don Juan (1926). Se considera la primera porque es la primera en la que hay diálogos (pocos), aunque hubiera películas antes que ya estuvieran sincronizadas.
Pero aunque fuera mudo, el cine no se veía tal cual, sólo con la imagen. Había música, comentaristas, pianistas… influía mucho dónde la veías, porque la calidad era distinta en función de la sala y lo que ofrecía. Las películas se distribuían con partituras codificadas para sincronizar.
Cuando entró el sonido, se siguió con los códigos dramáticos del momento, y con el modelo de representación internacional. La calidad del sonido sincronizado era peor que la de la música en directo,
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 10
pero gustaba más poder oír las voces. Al principio hay muchas mujeres en montaje y muchos hombres en sonido. Hasta que llega el sonido, la cámara era algo libre. El director, además, podía dirigir en voz alta. Con la llegada del sonido, la cámara hacía mucho ruido, por lo que la tuvieron que ponerlas en urnas de cristal, lo que implica una pérdida de movilidad. No hay traveling ni movimientos, por eso existe una cierta detracción por parte de los directores hacia el cine sonoro. Además, los micros eran muy grandes, todavía no existía la pértiga, por lo que era difícil disimularlos.
El cine pasa a ser, en los primeros años del sonoro, un teatro filmado. Pero la tecnología avanza muy rápido: en 1929 ya aparece la cámara silenciosa, y la pértiga en 1931. En 1933 aparece la post-‐sincronización. Las luces también se hacen menos ruidosas (antes eran luces de arco). Durante ese tiempo, se crean cabinas con ruedas, para que la cámara tenga un poco más de libertad de movimiento. El doblaje posterior también da más libertad (Ej.: Cantando bajo la lluvia). El soporte del sonido ha sido magnético hasta hace muy poco.
La sincronización se hace con la claqueta. Al inicio del cine sonoro, a velocidad es muy importante, por lo que se usa un reloj de cuarzo para que la cámara y el magnetofón vayan a la misma velocidad.
Hasta la llegada de Ciudadano Kane, la música en el cine, como venía haciendo desde la etapa muda, era un recurso subordinado a la banda-‐imagen, sirviendo a los principios de legibilidad (del espacio y acción dramáticos), invisibilidad (para volver invisible la sutura entre los planos) y de anclaje narrativo (para di-‐simular el carácter artificial de la construcción fílmica, arrastrándonos al interior de la diégesis mediante los mecanismos identificatorios).
Esquema de una banda de sonido
Banda sonido (esquema):
1-‐ Dolby SR-‐D Digital
2-‐ Digital SDDS
3-‐ Óptico estéreo
4-‐ DTS
La banda óptica siempre se pone, por si el digital falla. No tiene por qué llevar todos los sistemas, pero el óptico siempre está.
Cómo se produce la banda sonora (Workflow: sonido en cine)
ADR: Tomas que salen mal en rodaje y se tienen que grabar en el estudio.
WALLA: Conversaciones de fondo, sonidos de gente que aparece en el plano.
Foley: Crean las presencias (como la ropa), los pasos, los sonidos específicos (ej.: golpe sobre la mesa)
FX: Efectos especiales
Música: Se encarga a un compositor, sincroniza la música con las imágenes.
Banda sonora
Diálogos
Efectos
Música
Editor de diálogo
ADR
WALLA
Foley 1
Foley 2
FX 1
FX 2
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 11
Movietone vs Vitaphone (Sound-‐on-‐films vs Sound-‐on-‐disc)
El Movietone era un sistema de la FOX y el Vitaphone de la Warner. La primera película con sonido óptico se estrena en 1923 en el Teatro Rívoli de Nueva York (Phonofilm, inventado por Lee De Forest).
En agosto de 1927, la Warner estrena El Cantante de Jazz con el sistema Vitaphone. Dos años después, en septiembre de 1929, la FOX estrena Amanecer (de Murnau) con el sistema Movietone.
Este sistema ofrecía ciertas ventajas:
-‐ Sincronización
-‐ Edición (montaje)
-‐ Distribución
-‐ Durabilidad
Pero también algunos inconvenientes (aunque solo al principio):
-‐ Coste de producción: Tan pronto hay economía de escala, el precio se reduce
-‐ Calidad de sonido: El sonido hacía más tiempo que se usaba, la tecnología se conocía mejor. Pero poco a poco la tecnología va mejorando.
Muchos directores y actores estaban contra esta tecnología.
Vitaphone
Vitaphone fue una compañía dedicada al sonido utilizado en las películas, fundada en 1926 por Bell Telephone Laboratories y Western Electric, y adquirida luego por Warner Bros. El proceso que utilizaba para colocar la banda sonora en las películas consistía en grabarla por separado en discos. Los discos con la banda sonora se ponían sincronizadamente con la película proyectada. Muchas películas, como El Cantor de Jazz (1927) y Don Juan (1926), utilizaron el proceso de Vitaphone.
La conversión a este sonido sincronizado le ocasionó serios problemas a la industria del cine, algunos ya comentados antes: la grabación de sonido era difícil, todas las cámaras tenían que grabar desde dentro de cabinas, los estudios tenían que construir escenarios especiales a prueba de ruidos, los cines debían implementar un equipo costoso, y se tenía que contratar escritores que tuvieran buen oído para el dialogo. Muchos de los primeros diálogos eran estáticos y sin sentimiento, las imágenes visuales servían solamente como un acompañamiento para un diálogo interminable, efectos de sonido y números musicales.
El sistema Vitaphone fue descartado hacia 1930, aunque Warner conservó la productora como subsidiaria para la producción de cortometrajes. En los años 40 Warner Bros descarta completamente el sistema.
Vitaphone era un sistema "sonido-‐en-‐disco", desarrollado por Bell Telephone Laboratories y Western Electric. El sistema fue adoptado en el cine de los años 1920, Western Electric estaba investigando como poner el sonido en las películas, entonces concibió la idea de crear el sonido en discos, con la ayuda del sistema de audio de Lee De Forest (1913) y el desarrollo del micrófono de condensador (1915). La compañía decidió́ implementar el sistema de discos en las películas.
El negocio se estableció en Nueva York, y fue adquirida por la Warner Bros en abril de 1925. Vitaphone se presentó el 6 de agosto de 1926, lanzando su primer estreno con este sistema: Don Juan, con música y efectos de sonido solamente (sin diálogo), acompañado de varios temas de estrellas de ópera y los intérpretes de música clásica de la época. Don Juan fue capaz de sacar enormes sumas de dinero en la taquilla, pero no fue suficiente para cubrir el costoso presupuesto que se invirtió.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 12
Un año después se vuelve a implementar el sistema Vitaphone en una nueva película, basada en una obra de Broadway: El Cantor de Jazz rompió los registros de taquilla.
Un equipo de Vitaphone era un proyector, un amplificador y altavoces. Los proyectores funcionan con normalidad y eran silenciosos, pero también con una mecánica que interactuatuaba igual a un tocadiscos. Cuando el proyector es montado, el proyeccionista hace una marca de comienzo de la película, y al mismo tiempo, alineaba la aguja del fonógrafo al comienzo del disco.
A diferencia de las velocidad de 78rpm para los discos de fonógrafo, los discos Vitaphone se desarrolló en 33-‐1/3rpm, para que coincidiera con los 11 minutos de duración máxima de un rollo de película. Además, la aguja en Vitaphone se trasladada desde el interior del disco hacia el exterior.
El proceso Vitaphone hizo grandes mejoras en el sonido:
• Amplificación: El sistema Vitaphone fue uno de los primeros en utilizar amplificación electrónica, utilizando el tríodo de Lee De Forest. Esto permitió que el sonido del fonógrafo llegara a una gran audiencia con un volumen cómodo.
• Fidelidad: En los primeros días, Vitaphone superó a la fidelidad de sonido en otros procesos de película, especialmente en frecuencias bajas.
Pero a pesar de estas innovaciones, el proceso Vitaphone perdió en la guerra de los procesos de sonido de película por varias razones:
• Distribución: Las grabaciones se desgastaban después de unas 20 proyecciones y tenían que ser reemplazados. Al hacer el cambio, los daños y roturas en las películas eran peligros constantes.
• Sincronización: Tuvo graves problemas de sincronización notoria. Si durante una proyección la aguja saltaba o la película se enganchaba, se perdía la sincronía entre imagen y sonido, y el proyeccionista tendría que restaurarla manualmente. Los proyectores Vitaphone tenían palancas especiales para avanzar y retrasar la sincronización, pero era necesaria la continua atención del operador, y esto era poco práctico. Además, el sistema de alineación de las marcas de inicio en la película estaba lejos de ser exacta.
• Edición: Un fonógrafo no podía ser editado físicamente, y esto limitaba considerablemente el potencial creativo de las películas de Vitaphone.
Con mejoras de la competencia, a principios de 1930 la Warner detuvo la grabación en disco y se pasó a la grabación en película.
Hoy en día hay un grupo de aficionados conocido como "El proyecto Vitaphone", cuya misión es la de restablecer a largo plazo las producciones de Vitaphone. Ellos se encargan de localizar elementos de la imagen y sus correspondientes discos Vitaphone, y producir nuevos, en versiones de 35 mm sincronizadas con la última tecnología de sonido y video. Hasta la fecha, el proyecto ha restaurado varias docenas de cortos de Vitaphone.
Movietone
El sistema de sonido Movietone es un método “sonido-‐en-‐película” de grabación de sonido para las películas, que garantiza la sincronización entre sonido e imagen. Esto se logra mediante el registro del sonido como una variable de densidad de pista óptica en la misma tira de película que registra las imágenes. Aunque en la actualidad las películas utilizan “variable-‐area tracks”, cualquier cine moderno (salvo los que han llevado a cabo la transición al cine digital) puede proyectar una película Movietone sin modificar el proyector.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 13
Movietone fue uno de los cuatro sistemas de sonido de películas en la fase de desarrollo del sonido en el cine durante los años 20 en EEUU (los otros eran Phonofilm, Vitaphone y fotófono RCA).
El Movietone fue perfeccionado por Theodore y su asistente, Earl I. Sponable, en 1925 en Nueva York, con la creación de lo que se convirtió en la cámara Movietone, construida a partir de una cámara Bell & Howell.
Movietone se empezó a usar de manera comercial cuando William Fox, de la Fox Film Corporation, compró la totalidad del sistema, incluyendo las patentes (1926). La Fox utilizó el trabajo de investigación y Wall empezó desde cero en la construcción y fabricación de las cámaras.
Muchas historias de cine sonoro afirman incorrectamente que el sistema de sonido Phonofilm (inventado por Lee DeForest) era un “sonido-‐en-‐película”, pero aunque DeForest hizo un gran esfuerzo, no tuvo éxito. Algunos años después, Case desarrolló la Luz OEA, que fue muy útil para la exposición de sonido amplificado en la película, y DeForest finalmente fue capaz de producir películas con sonido audible. Cuando presentó su cámara, DeForest reclamó todo el crédito de la invención de Case, que era la que había hecho posible la película.
Case, cansado de DeForest, rompió su relación con él y siguió investigando. En 1926, William Fox contrató a Earl I. Sponable (del Case Research Lab), cuando compró las patentes de “sonido-‐en-‐película” de Case, que fueron las que sirvieron para desarrollar el sistema Movietone.
El primer largometraje lanzado utilizando el sistema de Fox Movietone fue Amanecer (1927), dirigida por F. W. Murnau. Fue la primera película de producción profesional con una pista de sonido real. El sonido en la película incluye sólo la música, efectos de sonido y muy pocas palabras sincronizadas. Todas las películas sonorizadas de Fox se realizaron utilizando el sistema Movietone hasta 1931, mientras que Fox Movietone News utilizó el sistema hasta el año 1939, debido a la facilidad de transporte de este sistema de equipos de sonido de la película.
El laboratorio de investigación de Case influyó en muchos estándares de la industria, tales como la ubicación de la banda óptica de sonido 20 cuadros por adelantado a la de la imagen que lo acompaña. Esto fue hecho originalmente para asegurar que la película se ejecute sin problemas, pero también para asegurarse de que ninguna película con sistema Phonofilm se podría volver a utilizar en los cines y también para facilitar la modificación de la mayoría de los proyectores que ya estaban en uso.
Sponable trabajó en los estudios de la Fox Film Corporation hasta su jubilación en la década de 1960, llegando a ganar un premio de la Academia por su trabajo técnico en el desarrollo de CinemaScope. Sponable ha hecho muchas contribuciones a la tecnología de las películas durante su carrera, incluyendo la invención de la perforación de imágenes en movimiento, que permite colocar los altavoces detrás de la pantalla para mejorar la ilusión del sonido que emana directamente de la acción de la película.
La historia del Case Research Lab ha sido, en general, poco reconocida. Mientras tanto, DeForest, un inventor fracasado pero promotor principal del sonido en el cine que dedicó su vida a convencer a la gente de que él había inventado el sonido en el cine, alcanzó su mayor gloria con un premio Oscar por sus los logros y contribuciones a la creación del cine sonoro.
Recientemente, se han recuperado las colecciones del Case Research Lab, y se están investigando todos los documentos (incluidas cartas de Thomas Edison, patentes, recibos…).
Las películas de Movietone News están en las colecciones de la 20th Century Fox y en la Universidad de Carolina del Sur en Columbia.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 14
La nouvelle vague
A finales de los 50 y principios de los 60, con el movimiento de la Nouvelle Vague, se busca huir de los estudios: se puede hacer porque la tecnología lo permite (ej.: cámaras móviles). Los precursores de estas vanguardias eran aficionados al cine, y sacaron adelante un nuevo tipo de cine. Lo que se hacía era pregrabar el audio en estudio y luego post-‐sincronizarlo con el vídeo. Esto derivaba en películas más frescas (se graba el sonido en el estudio). Un ejemplo de esto es el director Jean-‐Luc Godard, cuyas películas tenían mucha parte grabada en estudio y post-‐sincronizada. Otro ejemplo es Farenheit 451 (Truffault).
La sincronización en directo se empieza a hacer cuando cuando la tecnología (micros inalámbricos y otras cosas) lo permite, los equipos se mejoran y resulta cómodo y barato.
*Hay que acordarse del room tone (sonido de la habitación o de la localización). Conviene grabarlo para luego insertarlo en la pista de abajo.
Secuencia de rodaje
-‐ Assistant direction: Roll sound (corriendo sonido) -‐ Sound recordist: Speed (corriendo) -‐ Assistant direction: Roll camera -‐ Camera operator: Rolling (rodando) -‐ Assistant director: Claqueta / Slate / Marker / Sticks -‐ Clapperboard Slate Operator: Dice escena, nº toma y golpea slate -‐ Director: ACTION y para finalizar CUT
Equipo de producción de sonido
Con tres personas es suficiente: -‐ Cable man: a veces también hace de boom. Se encarga de los cables. -‐ Boom operator: persona que maneja la pértiga -‐ Sound mixer: le llega el material sonoro y lo organiza para después pasarlo a postproducción
En cuanto al equipo de sonido, el preamplificador es lo más caro. La organización es muy importante; hay que marcarlo todo (tono para ajustar a cero).
Otras personas pertenecientes al equipo técnico de sonido: productor de efectos especiales, diseñador de sonido, operador de playback…
Line up tones
Son cosas que dice el mezclador de sonido cuando va a empezar la grabación para poder identificar bien la grabación:
1. Location of recording 2. Name of the production company 3. Proyect name 4. Date of recording (month, day and year) 5. The ¼’’ roll, DAT, or removable hard drive number 6. Type/model of recording device 7. Equalization setting 8. Tape speed or sampling rate 9. A clear definition of line-‐up tone
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 15
En el Sound reporter se apunta cada toma. La base es apuntar, no grabar por grabar. Es muy importante en postproducción, para que al llegar al estudio sepas lo que has hecho. No hay que confiar en la memoria.
El documento tiene una cabecera que lleva todos los datos necesarios para identificar la cinta: título, compañía, producción, velocidad del tape… así como el nombre del mezclador y del boom operator. Luego, en una lista, se apunta la escena, la toma, lo que se capta por cada canal, comentarios, código de tiempo… y se señala la toma buena (de sonido, lo de la cámara va aparte).
El equipo de postproducción sonora en cine
ADR: Hay que arreglarlo para que no se note respecto a otros sonidos que se hayan grabado en la localización. Si no se hace bien se va a notar que no está grabado a la vez que lo otro. El ADR siempre supone una inversión y un gasto no previsto.
En el sound mixer se valora mucho la rapidez y la facilidad para distinguir si la toma es buena o no.
Una localización de audio es muy importante ir un poco antes y escuchar.
Ultra low buget crew (bajo presupuesto)
El de la derecha es el esquema de un equipo de postproducción de sonido de bajo presupuesto.
SOUND REPORTER
Ultra low buget crew
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 16
El guión formateado
Una hoja de guión = 8 octavos.
Cada página con un guión formateado es un minuto aproximadamente. La página se dividirá en 8 octavos, de tal manera que si la página no está completa sólo contaremos los octavos que llena.
La fase de la señal de audio
Sonido fuera de fase: cuando dos ondas están fuera de fase se anula el sonido.
Los mezcladores
Una vez tenemos el nivel de entrada pasamos al ecualizador. De ahí al filtro que deja pasar altos o bajos. La dinámica (compresor) lo que hace es cortar la dinámica, comprime el sonido para que la señal no se vaya.
• Panoramización: buscar los espacios para cada sonido.
• Canales auxiliares: es el sonido, pero que entra por otro canal.
Si la señal está en Prefader, al que está en la pecera siempre le entra el sonido por interno. Para vídeo en directo siempre hay que tenerlo en Postfader.
Canales de inserción
Interface: módulos que se enchufan por USB al ordenador y que se comportan como tarjeta de sonido del ordenador y permite entradas de canon y de Jack. Con estos interface se puede ir grabando con multipista.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 17
El tiempo
El tiempo, cuando se edita para música, es muy importante (también se llama claqueta). Cuando ya está grabado es muy difícil incluirlo, así que lo normal es que el músico ya toque en función de la claqueta que le damos; es decir, el tiempo que queremos.
Hay temas que no van siempre a la misma velocidad. El ProTools nos permite poner variaciones en la claqueta (normalmente todos los programas de audio te lo permiten). Cuando se prepara un tema, se escucha y se saca el tiempo (compás) para ponérselo después al músico.
La claqueta puede hacerse también con una pandereta o con percusión… a veces la claqueta del programa suena muy dura. Para hacer una claqueta, se puede hacer con el propio programa (en ProTools: nueva pista > instrumento > inserto > click).
Pistas auxiliares
Sirven para meter efectos a varias pistas a la vez, de forma que queda la salida de la pista limpia, y es la pista auxiliar la que tiene los efectos. Normalmente, esto se hace con los envíos. A la pista limpia le pones el envío a la pista auxiliar.
Grupos de pistas
Los grupos de pistas nos permiten subir o bajar todo lo que está en el grupo a la vez. Normalmente se agrupan por tipos de instrumento, por ejemplo: guitarras, voces, baterías…
Grabación de voces en estudio
-‐ Audio grabado en la misma pista de una o varias personas. Se divide para ecualizar.
-‐ Siempre hay que fundir la una con la otra para que no se noten “pops”. Apenas se aprecia, pero hace que no se note el corte.
Los oficios de la cultura: Javier Limón, productor musical
Lo más importante es partir de una buena materia prima. Se tiene que grabar una referencia de voz para los músicos, para que sientan lo que van a tocar.
En España no hay escuelas de producción musical. Para Javier Limón, lo primero es ser un buen músico y formarte. Segundo, estar en el estudio, para aprender. Tercero, crear tu propio sonido, que los artistas quieran que seas tú quien les produzca.
Una vez que el tema está grabado con el sonido limpio, voz e instrumentos, en otro estudio se arregla y se mezcla. Normalmente se tarda un día por tema (más de un tema al día puede pasar que un tema nos influya en el otro). El proceso de mezcla se complica si está grabado con mala calidad. Al final los temas del disco se igual de sonido.
Es necesario conocimiento técnico, buen gusto y psicología (saber traducir de términos no técnicos a términos técnicos).
Luego, hay que dar seguimiento al tema, que también es parte de la producción, pero también se le va diciendo adiós, porque hay que saber decir “hasta aquí” en cuanto a las modificaciones.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 18
Fundido en protools
Hay que seleccionar el trozo que queremos fundir y ctrl+F. Para cruzarlo, colocar los audios en la misma pista, colocar de forma que se solapen (tiene que haber material por debajo), seleccionar el trozo y Ctrl+F. Este es uno de los motivos por los que se exporta con colas.
Los músicos suelen usar Logic, pero en los estudios se suele usar ProTools.
Tipos de curvas de fundido
Las curvas de fundido también se llaman “disolve”.
Frecuencia y amplitud de onda
Rango de frecuencias
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 19
Ecualización La ecualización sirve para:
-‐ asegurar que los diferentes elementos encajen entre sí
-‐ corregir carencias
-‐ herramienta creativa
Tipos:
-‐ Gráfico: puntual, cada frecuencia, atenuación de cada frecuencia por separado.
-‐ Paramétrico: menos puntual, coge varios parámetros. El ancho de banda marca la relación con otras frecuencias. Como vemos, no se puede afinar tanto porque va por grupos.
Ruido rosa: se utiliza para ecualizar el ruido de un local, para que la línea de ecualización esté plana y el ruido del local no influya en las voces
Al ecualizar hay que tener en cuenta:
-‐ efecto enmascaramiento: Cambios en unas frecuencias afectan a la forma en que percibimos otras. Si hacemos una atenuación en frecuencias bajas, las altas se escucharán mejor.
-‐ mejor hacer recortes que refuerzos: Se suele producir coloración del sonido cuando se refuerza
-‐ refuerzos a muy bajas frecuencias (por debajo de 200 Hz): un refuerzo leve en dos frecuencias es mejor que un refuerzo grande en una. Se consigue el mismo efecto con una coloración menor
-‐ cada pista es única: mutea todas las demás para actuar, y luego ponlas para comprobar la relación con las otras pistas
Cuanto menos lio se le meta a una pista, mejor. La ecualización es algo que lleva mucho tiempo.
Tipos de ecualización
-‐ correctora: de pista
-‐ de empaste: general
Tipología
Texto
GRÁFICO
PARAMÉTRICO
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 20
Técnica del barrido
¿Cómo buscar frecuencias que nos están molestando?
-‐ utilizar ecualizador paramétrico
-‐ configurar una de las bandas a una frecuencia dentro del rango (ej: 500Hz)
-‐ cuando sabes donde está, ponemos un ancho de banda muy estrecho (del orden de a=5)
-‐ la ganancia a unos 8dBd
-‐ Lentamente vamos modificando la frecuencia hasta encontrar el punto donde más se note esa resonancia molesta.
-‐ Una vez localizada dejamos la frecuencia fija y jugamos con la Q cerrando el estrecho de banda del ecualizado
Esto se suele usar mucho para limpiar diálogos.
El sonido es muy subjetivo. El profesional incluso viaja con los propios monitores, y ecualiza la sala en la que va a trabajar en función de pistas que conoce. Es importante perder tiempo escuchando y haciendo la mezcla.
Para conseguir presencia en un instrumento: tirar hacia arriba la parte de los medios. Con la voz no se pueden subir los medios porque sale nasal. La voz suele arreglarse bajando los medios.
Mesa de mezclas con un paramétrico (Q=ancho de banda)
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 21
Ecualizador paramétrico:
-‐ Entrada y salida (Input y Output): Se puede dejar plano o también se le puede dar más salida. Así es como le subimos el sonido, pero hay que tener en cuenta que da más ruido.
-‐ Ancho de banda (Q): Hay una lista de controles para cada grupo de frecuencias. La Q es el ancho de banda (la curva), con ella medimos hasta dónde afectará a las frecuencias vecinas.
Esquema de sentimientos y sus equivalencias a frecuencias
Rango de frecuencias de la voz
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 22
Filtro de paso alto y bajo
Sirve para decirle al programa que corte la frecuencia, para que así no entren sonidos no deseados, que puede ser que no escuches, pero que ensucian la grabación.
El filtro de paso bajo es para los agudos, y el de paso alto para los graves. Por ejemplo, pones el filtro a 100 Hz, y nada que esté más bajo que eso pasará.
La utilización de los dos a la vez sería el filtro de paso de banda: especificamos la banda de frecuencias que queremos que pase.
Bandas
-‐ Graves 20-‐50Hz: Esta banda llega hasta el umbral de audición del oído humano. Las frecuencias que la componen se sienten más que se escuchan. Esta banda que añade un matiz orgánico a la mezcla. Hay que tratarla con precaución. Si la amplificamos demasiado se reduce del margen dinámico y, por lo tanto, disminuye el volumen final de la mezcla y tenemos menor definición.
-‐ Graves 63-‐80Hz: Si el bajo y el bombo han quedado algo apagados, se realzan. Añade calidez a la mezcla sin reducir la definición de voces, guitarras… Un gran incremento disminuye la inteligibilidad de la mezcla y el margen dinámico. Puede llegar a saturar algunos altavoces.
-‐ Graves 100-‐160Hz: Esta banda proporciona una buena calidad de graves en altavoces domésticos.
-‐ Graves 200-‐250Hz: Un poco de ganancia puede añadir cuerpo a una mezcla demasiado fina. Puede hacer que el bajo suene poco claro. Para definir el bajo es mejor recortar esta banda que aumentar los medios o agudos. La mezcla será más clara y cálida que si aumentamos los agudos.
Altavoz con filtros de paso alto y bajo
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 23
Compresores Operación: realizar la compresión de pistas por separado.
Objetivo: colocar las cosas en su sitio (nivel), llevarlo dentro de un margen.
La compresión se realiza antes de comenzar a mezclar, ecualizar y panoramizar.
Con la compresión: restauramos las señales para que suenen más naturales, y adaptamos el rango dinámico de las señales para que se adecue al equipo de reproducción. El compresor mantiene todo el sonido y no deja que se vaya la señal.
¿Cómo restaura la señal un compresor?
-‐ Acorta la diferencia existente entre el mínimo y el máximo volumen de una señal.
-‐ Actúa sobre los excesos de volumen a partir de un punto que nosotros le indicamos.
-‐ Este punto se denomina umbral, a partir de él comenzará el procesamiento de la señal.
-‐ La señal se recorta en base a unos parámetros que fijamos a nuestro interés.
Partimos de una señal, por ejemplo un tema musical que abarca desde 0 hasta 100 dB’s. Vamos a minimizar su rango dinámico, comprimiéndola. Pongamos que queremos mantenerla entre 0 y 80 dB’s máximo.
Añadimos 20 dB’s con el control de ganancia del compresor, compensando la caída de 100 a 80 dBs. Así, tenemos la misma señal, pero con menos diferencias entre los volúmenes más altos y los más bajos. De este modo todo se oirá más presente, más potente y aparente al oído.
Esta operación ayuda a acomodar cada instrumento en la mezcla. Se intenta que ninguna señal quede “enterrada” a no ser que lo hagamos de forma intencionada.
Gain: Es la responsable de la atenuación o en algunos casos la amplificación de la señal de entrada en dB (el umbral del dolor está en 120 dB).
Transitorio es el ataque de una señal, que viene definido generalmente por un momento de transición comprendido entre la solicitación del sonido del instrumento, y su cola. Se trata de conseguir un ataque del instrumento natural y realista. Por ejemplo: traducir los 120 dB’s de un instrumento de percusión al natural para que aparenten tener la misma fuerza al reproducir esas señales a través de equipos que no gozan de tanta dinámica como nuestro sistema auditivo.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 24
Headroom define la zona en dB’s que usamos en una mezcla. Va desde unos 20 dB’s a unos 3 o 6 dB’s en las grabaciones actuales. Quiere decir que de esos 80 o 100 dB’s iniciales, sólo aprovechamos unos pocos para delimitar el mínimo y el máximo volumen representado en nuestro tema.
Attack and reléase
El ataque determina lo rápida que puede ser la reducción mientras que el reléase determina como de rápida será la recuperación de la reducción.
Por lo tanto, debemos comprimir todas las pistas que han sido “tocadas” para reducir su rango dinámico, corrigiendo en parte los errores de interpretación, excesos de fuerza tocando, o falta de ella.
De este modo facilitamos el que todo se oiga lo más claro posible, que nada quede enterrado por momentos en la mezcla. Que todo suene “arriba y potente” favorece la sensación de pegada y contundencia, y también hace que se entiendan todos los instrumentos presentes en la mezcla, sobre todo en ambientes que no sean precisamente silenciosos.
No obstante, en la mezcla no todo puede estar arriba. Se trata de conservar, en parte, la naturalidad de la mezcla. Si se comprime mucho, el resultado sonaría cansino y monótono, por mucha presión que consigamos. Ej.: En un grupo de rock intentaremos conservar cierta naturalidad en guitarras y voz, permitiremos que se muevan arriba y abajo unos pocos dB’s en la mezcla. Esto hace que el resultado suene más orgánico y realista.
La batería se mueve a base de golpes que ocupan breves espacios de tiempo, ha de sonar potente, siempre presente e intentar que los golpes suenen igual de fuertes. El ritmo no debe transmitir en ningún momento sensación de fatiga.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 25
Threshold (umbral)
Nivel a partir del que arranca la reducción de ganancia. Cualquier señal que exceda el therslod es conocida como overshooting signal. Será reducida en nivel. Las señales bajo el threshold no están afectadas.
Ratio
Determina la extensión en la que son reducidas las señales que están por encima del threshold. Las voces 2:1, los instrumentos 4:1 estaría bien. A compresiones muy altas no es lo suyo, pues queda muy encorsetado.
Knee: tipo de curva de la rodilla, más abrupta o más suave. No todos los compresores lo tienen.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 26
Ridder técnico
El rider técnico especifica los canales y otras especificaciones (micro, batería, detalles como “puerta” – umbral de sonido en el que entra el micro para que los sonidos no entren por más de un micro).
Esquema de colocación de un grupo de música
Elementos:
-‐ Rider: con plano
-‐ Backline: instrumentos detrás del músico
-‐ PA
-‐ FOH: Frontal Of House (mesa de mezclas)
-‐ Monitores: Para que el músico pueda escucharse. Se da una mezcla particular, según lo quiera escuchar el músico.
-‐ Caja inyección
-‐ Splitter: de 1 se pueden sacar 2 o 3
-‐ Inyección directa: Entra por micro en lugar de por línea. Permite ecualizar.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 27
La mezcla: ideas fundamentales El rápido desarrollo de los sistemas de audio digital ha producido una “democratización” de la
tecnología de producción de audio. En la actualidad cualquier músico aficionado, con una pequeña inversión, puede permitirse el lujo de tener en casa un pequeño estudio de producción donde poder dar rienda suelta a sus “perversiones” musicales.
¿Qué podemos considerar como una buena mezcla?
El proceso de mezcla, aunque en sí implica una cantidad de aspectos técnicos importante, puede considerarse como un proceso altamente creativo. Por esa razón el determinar si una mezcla es buena o mala depende de muchos factores totalmente subjetivos.
El primer paso para poder llegar a “la mezcla perfecta” es el de poder escuchar de forma crítica un tema musical y poder analizar la forma en que fue mezclado. De esta forma, cuando escuches un tema y te guste como suena podrás saber la razón por la que te gusta su sonido, lo que a la larga te va a permitir ver qué es lo que te gustaría a ti que tuviera una mezcla tuya. Para conseguir hacer un análisis crítico de una mezcla debemos escuchar un tema musical fijándonos en algunos aspectos de la mezcla.
En primer lugar, podemos observar la relación entre los niveles de los diferentes elementos. Una mezcla debe ser coherente en los niveles. También hay que tener en cuenta que a veces debemos hacer que un grupo de elementos suenen como un conjunto en vez de como una suma de elementos aislados, como es el caso de los elementos de una batería.
Otro aspecto muy importante en una mezcla es el panorama. Es muy importante en una mezcla el que cada elemento esté correctamente situado en el campo estéreo. Una técnica muy extendida es la de colocar en el centro los elementos de bajas frecuencias (bombo y bajo) y los elementos más importantes (como la voz principal, instrumentos solistas, caja...) en los laterales. Hay que tener en cuenta que un buen panorama en una mezcla hace que los instrumentos se escuchen de forma clara. En las ocasiones en las que tengamos un elemento que no somos capaces de hacer oír claramente sin subir de forma extrema su nivel, probablemente, ajustando el panorama y colocando dicho elemento en una zona donde no quede estorbado por otros elementos, consigamos que se escuche claramente a un nivel razonable.
También es muy importante conseguir que la mezcla tenga un buen balance frecuencial. Por un lado, en una mezcla se debe conseguir que todos los elementos tengan su espacio frecuencial. Cuando dos elementos comparten el mismo rango de frecuencias, uno de ellos puede resultar indistinguible. Además debemos conseguir que en la mezcla estén representadas todas las frecuencias audibles, de forma que la escucha del tema musical resulte agradable.
Otro elemento fundamental en una mezcla es la dimensión. La dimensión en una mezcla se consigue añadiendo efectos de reverberación, delays, flangers... Hay que tener en cuenta que en la mayoría de producciones actuales (exceptuando la música sinfónica, música de cámara, música coral...) los elementos de la mezcla están tomados con microfonía cercana, lo que provoca que las pistas tengan muy poca influencia ambiental de la sala donde se ha grabado, por lo que es muy probable que se necesite añadir de forma artificial ese ambiente durante el proceso de mezcla. Además en la actualizad, la mayoría de instrumentos virtuales nos van a dar un sonido carente de ambiente.
Es importante saber cómo suenan tus monitores ante producciones comerciales. El hacer audiciones de música comercial en los monitores donde trabajamos habitualmente nos va a permitir saber cuando nuestro trabajo se está alejando demasiado del “mundo real”. Una buena solución para no perder el buen
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 28
rumbo a la hora de trabajar es la de hacer una recopilación de temas de diferentes estilos musicales a modo de biblioteca, con la finalidad de refrescar nuestras orejas cuando tengamos la sensación de que lo que estamos haciendo puede que nos suene bien porque nos hayamos acostumbrado a su sonido.
Podemos decir que una buena mezcla probablemente sea la que reúna de forma correcta las características que hemos dicho antes (niveles, panorama, balance frecuencial y dimensión) . Sin embargo que una mezcla cumpla con estas exigencias solo asegura que una mezcla sea técnicamente correcta, lo cual puede distar mucho de significar una mezcla perfecta. Ahí es donde entra la parte artística del proceso de mezcla. Un buen ingeniero de mezcla debe saber de antemano qué dirección quiere dar al sonido de un tema musical antes de haber movido un solo fader. El hacer que algo técnicamente suene bien no es difícil; sin embargo, el hacer que un tema musical suene como realmente tiene que sonar no es tan fácil.
Una mezcla debe estar siempre al servicio de la música y no al servicio de quien mezcla. No debemos titubear a la hora de arriesgarnos a dar una vuelta de tuerca más para lograr que la música con la que estamos tratando suene más interesante y excitante. Al mezclar debemos hacer que el oyente encuentre interesante lo que escucha y no solo que quede impresionado en un primer momento por el sonido y que a los cinco minutos haya perdido todo el interés por lo que escucha.
El entorno de escucha
Antes de ponerse manos a la obra, debemos prestar atención a un elemento crucial en el proceso: el sistema de monitoraje. Unos buenos monitores de mezcla pueden costar decenas de miles de euros, pero existe una amplia variedad de monitores de rango medio que pueden cumplir perfectamente con las exigencias de un home studio. Lo que no es recomendable nunca es usar un equipo de monitoraje Hi-‐Fi para labores de mezcla, ya que no nos van a dar una respuesta lo suficientemente precisa.
Además, tenemos que tener en cuenta que para realizar una mezcla en condiciones óptimas debemos encontrarnos en un entorno acústico indicado para tal propósito. El sistema de monitoraje incluye también la sala donde vayamos a trabajar. Hay que tener en cuenta que el sonido que sale de los monitores y que vamos a percibir va a estar fuertemente influenciado por la respuesta acústica de la sala. Es también muy importante la colocación de los monitores. La colocación más extendida es la que recomienda la ITU (Unión Internacional de Telecomunicaciones). Este estándar dice que los monitores deben colocarse 60º con respecto al punto de escucha, de tal forma que se forme un triángulo equilátero.
Buscando orden dentro del caos
Antes de empezar a ecualizar, a comprimir o a realizar cualquier otro proceso propio de la mezcla, es muy importante tener claro lo que queremos conseguir y organizar el trabajo antes de empezar.
Los grandes ingenieros de mezcla admiten que antes de empezar a tocar nada siempre tienen en la cabeza que es lo que van a intentar conseguir. Para conseguir esto debemos conocer el tema musical que vamos a mezclar. Lo primero es escucharlo un par de veces, tomando notas si hace falta. Tras esto, es probable que en vuestra mente ya tengáis el sonido que queréis conseguir. Muchas veces es inútil ponerse a mezclar sin saber muy bien lo que vamos a hacer, ya que podemos llegar a un punto sin retorno que nos obligue a empezar desde cero una mezcla.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 29
Una vez que conocemos el tema, es hora de organizar el proyecto de mezcla para que en el momento de mezclar tengamos todo ordenado y no nos perdamos buscando las cosas. Hay que tener en cuenta que el proceso de mezcla es una proceso altamente intuitivo, y cualquier retraso en acceder a lo que queremos ver o modificar puede ser perjudicial. Un buen punto de partida para organizar todo es realizar un esqueleto del tema musical. Es conveniente separar el tema musical en diferentes secciones (estrofas, puentes, estribillos, solos,...). Esto nos va a permitir saber en todo momento en que lugar del tema nos encontramos y el poder acceder de forma instantánea a cualquiera de esos puntos.
También podemos programar diferentes visualizaciones dentro del proyecto. En eso radica la gran potencia de las diferentes visualizaciones dentro de un secuenciador.
Otra arma poderosa para luchar contra el caos que supone una mezcla es el uso de subgrupos, que nos va a permitir mutear o poner en solo ciertas pistas de forma instantánea. Además, durante la mezcla nos van a permitir procesar de forma unitaria un conjunto de mezcla (por ejemplo comprimir todas las pistas de batería como conjunto) y hacer automatizaciones globales (por ejemplo hacer un fade out a toda la batería sin necesidad de programar el fade out en todas las pistas de la batería). Cada secuenciador tiene sus particularidades en cuanto a la organización de los proyectos.
¿Cómo afrontar una mezcla?
Un buen punto de partida sería ver qué es lo que se debe evitar hacer. Lo primero que debéis evitar es el pensar en el sonido de las diferentes pistas de modo individual, ya que el tener un buen sonido en todas las pistas de forma individual no asegura una buena mezcla, es más, puede llegar a ser desastroso.
Por otro lado, hay que tener en cuenta que las voces son, pese a quien pese, el elemento más importante de una canción y es donde el oyente medio va a centrar casi toda su atención. Cuando mezclemos debemos pensar que los instrumentos musicales tienen la función de dar soporte para que las voces tengan un buen acompañamiento y no debemos pensar en ningún otro instrumento como líder de la canción.
Un buen punto de partida para poder buscar un sentido a una mezcla es la de agrupar todas las pistas con las que vamos a contar en elementos estructurales del tema musical. Pensad en un tema musical como algo compuesto de diferentes elementos, los cuales tienen una importancia y una función diferentes. Podemos considerar que estos elementos estructurales son:
• La base rítmica, compuesta por el bajo y los elementos percusivos (batería, percusiones, loops, ritmos electrónicos...)
• Los instrumentos principales (voz solista, guitarra solista...)
• Elementos corales (coros, doblajes de guitarra...)
• Elementos de apoyo y de contexto (guitarras rítmicas, teclados...)
• Elementos ambientales (pads de sintetizadores, efectos sonoros, colchones de cuerdas...)
Cada uno de estos conjuntos de elementos tienen una función muy específica dentro de una mezcla y debemos tener esto en cuenta a la hora de mezclar con el fin de que el tema musical suene coherente.
Una vez que tenemos en mente los elementos estructurales de los que se va a componer una mezcla ya podríamos tener una idea de como afrontar nuestra mezcla. Una de las formas más extendidas para afrontar una mezcla consiste en empezar solo con una pista e ir añadiendo progresivamente las demás. El
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 30
punto donde comenzar varía mucho entre los gustos personales de cada uno y el estilo de música con el que tratemos. A medida que vayas añadiendo pistas deberás volver hacia atrás y reajustar constantemente pistas añadidas anteriormente para conseguir que todo el conjunto suene como quieres.
Otra forma de mezclar, y que también está muy extendida, es la de subir todas las pistas a la vez y empezar a trabajar a partir de ahí. Con este método primeramente se hace una mezcla tan solo con los niveles de las pistas en mono. Luego empiezan a situarse los elementos en el espacio estéreo por medio de los controles de panorama. A partir de ahí cada uno sigue sus instintos hasta conseguir el sonido que busca para el tema musical. Puede haber infinidad de formas de hacer una mezcla. A medida que vas haciendo más y más mezclas terminas por adoptar tu propia forma personal.
Conceptos básicos sobre la mezcla
La mezcla es uno de los procesos más delicados y creativos de la producción de una canción. El objetivo es conseguir un reparto equilibrado de las frecuencias, volúmenes y planos de los instrumentos/voces de forma que la escucha sea agradable y/o apropiada a lo que se intenta transmitir. Para ello se controla el espectro de cada instrumento (ecualización), la dinámica (volumen, compresión, expansión, limitación) y la profundidad (reverberación, retardo).
Reproducción y monitorización
Muchas veces olvidado, el sistema de reproducción y monitorización (tarjeta de sonido + amplificador + altavoces) es lo más importante del sistema. El tener una correcta referencia es la mejor de las ayudas para determinar el sonido de una pista. Debido a que cada sistema de escucha es diferente y no existe ni habitación perfecta ni monitores infalibles, en los estudios se suele tener varias parejas de monitores de diferentes tamaños y calidades para conseguir el mejor sonido posible. La colocación de los monitores y las reflexiones en la sala son factores muy importantes.
Los efectos
Existen un grupo de efectos básicos y de su calidad dependerá en mayor o menor medida la calidad del resultado. Como antes se comentó, los más importantes son la dinámica, ecualización y retardo/reverberación, imprescindibles para acometer cualquier mezcla. Debido al auge de la informática, la mayoría de las veces se usan efectos software o la combinación de ambos. No existen reglas fijas sobre su uso. Los efectos se pueden usar de dos formas, como inserción o como envío. En el primer caso el efecto sólo actúa sobre la señal de entrada (una pista o un grupo de ellas). En el segundo caso, puedes elegir de cada pista qué cantidad de esta debe ser afectada por el efecto mediante un control de envío. Efectos de inserción suelen ser los compresores, la ecualización o distorsión. Efectos de envío suelen ser la reverberación, retardo (delay) o el coro (chorus), aunque insisto en que no hay reglas fijas.
El factor humano
La mezcla no es un proceso científico, depende del tipo de canción y del gusto del ejecutante. Además, hay otros factores importantes que influyen negativamente, como el cansancio auditivo o el consumo de drogas. El entrenamiento es el arma más poderosa y, en tiempos en donde la tecnología está al alcance de todos, decisiva.
Preparación
En primer lugar es muy recomendable escuchar unos minutos de tu música favorita para ir “calibrando” tu audición con respecto a los monitores que tengan. Esto es especialmente útil cuando el sistema a usar no es el habitual o estás fuera de casa. Las pistas del tema deberían estar bien alineadas y organizadas
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 31
dentro del sistema multipistas a utilizar. Para acelerar el proceso se puede “patchear” o configurar algún efecto general, tipo reverb o delay.
Hoy en día todo el material, exceptuando el dirigido a televisión o cine, suele estar mezclado en estéreo, aunque en es más sencillo ajustar la ecualización y equilibro de todas las pistas. Además, se ocupa todo el espectro antes, de forma que al volver al estéreo el sonido es más amplio y espacioso. Si se realiza el proceso directamente en estéreo, es más sencillo sobrecargar la mezcla. Una vez que se haya ajustado los volúmenes y el espectro, se puede continuar en estéreo y hacer las correcciones pertinentes.
La voz
Hay que ecualizar, comprimir y ajustar todos los detalles hasta que suena de forma correcta y con un volumen más o menos constante. Un poco de reverberación y retardo nunca le vienen mal, pero es algo que se suele añadir más adelante.
Un defecto importante es la silibancia, que se corrige con un deeser (compresor encadenado en el que la señal de disparo es la misma de entrada filtrada para resaltar la silibancia). Cuando la voz va haciendo coros lo mejor es tener un bus con todos las pistas y comprimirlos y ecualizarlos juntos.
En cuanto a la panoramización, la voz principal debe ir siempre al centro y los coros se suelen abrir en estéreo un poco, pero no demasiado. La ecualización recomendada es un recorte de graves (filtro paso grave) y un ratio de compresión (dinámica) de entre 2,5:1 a 4:1, con un ataque y desvanecimientos moderados. También se pueden añadir reverberación, retardo estéreo sin realimentación… La voz suele ser el elemento principal, por lo que es recomendable usar el mejor compresor y ecualizador disponible.
La percusión
En la mayoría de los estilos musicales, la percusión y el bajo son los elementos que llevan el peso de la canción y más concretamente la batería. La batería, acústica o electrónica, consta habitualmente de los siguientes elementos: bombo, caja, plato de charles (o hi-‐hat), timbales y platos, que suelen ser microfoneados individualmente (incluso con varios micrófonos, como la caja o el bombo). Además, cuando estamos mezclando una batería acústica contaremos con las señales de overhead (micros situados sobre la batería), ambiente (mono o estéreo) y PZM (micrófonos piezoeléctricos que se usan para grabar ambientes). Hay cientos de formas de mezclar una batería.
El bajo
El elemento conductor de la armonía y posiblemente uno de los más sencillos de mezclar. Es muy importante que la grabación sea la correcta y aplicar una buena dosis de compresión durante la mezcla. Al contrario de lo que muchos piensan, no hay que recortar nunca en graves (a menos que sature, claro). Un refuerzo en 100 Hz para darle más cuerpo y entre 2 y 3 Khz para darle más presencia en la mezcla. En cuanto a la panoramización, suele estar centrado, pues junto al bombo, la caja y la voz, son la base de la canción.
Las guitarras eléctricas
Debido a la diversidad de estilos y técnicas, sería muy difícil establecer reglas para colocarlas correctamente en la mezcla. Como norma general, se deben cortar por debajo de 150-‐200 Hz para evitar que choquen con el bajo y el bombo. La panoramización depende de su uso: si son rítmicas y están grabadas dobles se pueden usar totalmente panoramizadas, si es un riff o un solo quizás al centro, si va de acompañamiento a un lado…
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 32
Resto de instrumentos
En general, estos instrumentos van acompañando al resto, por lo que suelen estar recortados en graves para que empasten mejor en la mezcla y panoramizados fuertemente para no restarle peso a la canción, a excepción en los momentos en los que son solistas.
La mezcla
Tal como comentábamos, lo más importante de una mezcla es el equilibrio entre la voz y la parte rítmica, por lo que prestaremos especial atención al balance voz-‐bombo-‐caja-‐bajo que es donde reside la magia de la canción Una vez que están equilibrados, situamos el resto de los elementos de la batería exceptuando los micros generales de ambiente. Cuando todo suene a nuestro gusto, levantamos los overheads y ambientes poco a poco y se corrige el sonido del resto de los instrumentos para mantener el mismo equilibrio con la voz, momento para introducir el bajo y tener el corazón de la canción.
En este punto lo ideal es agregar las guitarras y darles el protagonismo deseado. Después de introducir las guitarras, podremos introducir los sintes, colchones de cuerdas… e ir recortando su espectro acomodándolos con la ecualización. Cuando la mezcla suene correctamente y equilibrada, es el momento de escucharlo en estéreo. Notaremos cómo hay ciertos instrumentos que suenan demasiado alto y algunos efectos suenan demasiado evidentes, por lo que procederemos a hacer las pertinentes correcciones, comprobándolas constantemente en mono para tener una mezcla coherente en ambos formatos.
Trucos
Durante la mezcla, se suele automatizar muchos parámetros, como volúmenes y envíos de efectos, dándole énfasis a distintas partes o, simplemente, equilibrando la dinámica. Especialmente interesante es añadir eco o reverberación a ciertas palabras de la voz, o mover objetos en el panorama.
Compresión en el master: Este es un tema muy peliagudo, pero lo cierto es que el sonido del compresor es el sonido de muchos estilos musicales. El motivo de mezcla con compresión es que el balance de los instrumentos suele ser bastante diferente al aplicarla, constituyendo a veces una desagradable sorpresa.
La mezcla: ecualizadores y procesadores de dinámica
Los procesos técnicos deben estar al servicio de la música. Esto quiere decir que no los debemos aplicar libremente, sino que debemos saber para qué hacemos una modificación en las pistas que tenemos. Hay que tener en cuenta que debemos tenerlos todos en mente cuando mezclemos. Todos los procesos tienen que aplicarse de forma fluida y no de forma separada.
Introducción a la ecualización
La ecualización nos permite cambiar el balance frecuencial de una señal. Por tanto usaremos ecualización para reforzar ciertas frecuencias importantes de un sonido o atenuar otras con el fin de que todas las pistas suenen de forma correcta de forma conjunta.
Además, hay que tener en cuenta el llamado “enmascaramiento”: unos sonidos pueden ocultar otros de diferente frecuencia. Por ejemplo, una guitarra eléctrica con mucha riqueza frecuencial y una voz. Lo más probable es que si buscamos un sonido genial en la guitarra eléctrica sin tener en cuenta la voz, al añadir la voz no seamos capaces de hacer que suene clara. En ese caso tendremos un gran problema de enmascaramiento, y por tanto debemos buscar una buena ecualización para la voz y luego añadir la guitarra y atenuar las frecuencias que veamos oportunas para dejar espacio frecuencial a la voz.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 33
Tipos de ecualizadores usados en mezcla
En mezcla suelen usarse unos tipos de ecualizadores determinados. Sea cual sea el ecualizador, ya sea software o hardware, o de una compañía u otra, si tenemos claro como funcionan estos tipos de ecualizadores podremos usar uno u otro de forma intuitiva, ya que todos funcionan de forma muy similar.
Por un lado tenemos los ecualizadores paramétricos. Este tipo de ecualizadores tienen tres controles fundamentales: la frecuencia central en la que vamos a aplicar el refuerzo o la atenuación, ajustando la Q o amplitud de onda y la ganancia. Hay que tener en cuenta que para retoques muy finos vamos a necesitar una Q alta, mientras para retoques en los que necesitemos modificar un amplio margen de frecuencias a partir de la frecuencia central usaremos una Q baja.
Otro tipo de ecualizadores muy usados en mezcla con los ecualizadores de estantería o shelving. Básicamente en un ecualizador de estantería vamos a fijar una frecuencia a partir de la cual vamos a reforzar o atenuar. En algunos casos vamos a poder tener un control adicional que nos va a permitir definir lo estrecho que queramos que sea la pendiente.
Por último, en mezcla se usan mucho los filtros. En estos filtros tenemos un control principal, que es la frecuencia de corte. Además, en algunos modelos podemos elegir la pendiente del corte. Los filtros cortan todas las frecuencias que se encuentren por encima, en el caso de los filtros paso-‐bajo, o por debajo, en el caso de los filtros paso-‐alto, de la frecuencia de corte.
Procesadores de dinámica
Los procesadores de dinámica son unas herramientas fundamentales a la hora de conseguir una buena mezcla. Existen un gran número de tipo de procesadores de dinámica (puertas de ruido, compresores, expansores upward, expansores downward, duckers, limitadores, de-‐essers...). Sin embargo, todos tienen un fin común, que es el de modificar la amplitud de la señal respecto al tiempo.
Además, su funcionamiento está basado en el mismo principio, que es el que se muestra en el esquema:
La señal de audio de entrada es separada dos. Por un lado tendremos la señal de audio propiamente dicha, la cual será procesada, y una señal de control o detección (key para los anglosajones). Esas dos señales viajan a lugares diferentes. La señal de audio se envía a un amplificador, el cual está controlado por un circuito de detección, que compara los ajustes que hemos hecho en el procesador, con lo que tenemos en la señal de detección, produciendo una u otra ganancia en cada instante en el amplificador a donde llega la señal de audio, por lo que la salida del procesador dependerá, por un lado, de la señal de audio que tenemos a la entrada, y de los ajustes que hemos usado en el procesador. Este diagrama puede complicarse un poco más al usar una señal de detección o key diferente a la señal de audio de entrada en el procesador.
En cualquier procesador de dinámica vamos a tener un control llamado threshold (o umbral). Con este control fijamos un nivel, y el procesador modifica la señal de audio que tiene a la entrada en función de la relación de ese nivel que hemos marcado y el nivel que tienen en cada instante dicha señal de audio.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 34
Puertas de ruido
Estos procesadores dejan pasar la señal de audio sin modificar, siempre que la señal tenga un nivel por encima del fijado en el threshold. Cuando la señal de audio pasa a tener un nivel por debajo del fijado, la puerta de ruido reduce el nivel de la señal en función de lo indicado en los ajustes.
Básicamente una puerta de ruido tiene los siguientes controles: • Nivel de umbral (Threshold): Fija el nivel, medido en dBs, por debajo del cual la señal va a ser
atenuada. • Tiempo de ataque (Attack): Con el ataque indicamos el tiempo que tarda la puerta de ruido en volver
a su estado de ganancia unidad un vez la señal ha superado el nivel de umbral, es decir, el tiempo que tarda la puerta en volver a su estado de reposo.
• Tiempo de mantenimiento (Hold): Determina un tiempo fijo durante el cual la puerta de ruido se mantendrá en ganancia unidad una vez que la señal pasa a tener un nivel más bajo que el que hemos fijado en el umbral.
• Tiempo de relajación (Release): Determina el tiempo que tarda la puerta de pasar de su estado de ganancia unidad a alcanzar toda la atenuación indicada una vez que la señal tiene un nivel por debajo del umbral.
• Atenuación: Determina cuantos dBs de atenuación vamos a tener en la salida cuando la señal de audio tiene un nivel más bajo que el fijado en el umbral.
Hay que tener en cuenta que los medidores de niveles que nos encontramos en las puertas de ruido, ya sean hardware o software, nos van a ser muy útiles a la hora de configurar una puerta, ya que vamos a poder determinar los niveles óptimos de umbral y de atenuación y nos van a permitir ver con qué rapidez funciona la puerta en función de los tiempos con las que la hayamos configurado.
Compresores
Los compresores, junto a las puertas de ruido, son los procesadores de dinámica más usados durante una mezcla, ya que mantienen controlada la dinámica de la señal, con lo que se consigue que el sonido del tema musical esté bien balanceado y controlado en todo momento. Al contrario que sucedía con las puertas de ruido, un compresor se mantiene sin actuar siempre que la señal esté por debajo de lo marcado en el umbral. Cuando la señal supera el nivel de umbral, el compresor produce una atenuación en el nivel de la señal. Por tanto, el compresor lo que hace es aplastar la señal, igualando las partes fuertes y las partes débiles. Un uso muy típico de un compresor en una mezcla es utilizarlo en la pista de voz solista.
Los controles básicos de un compresor son los siguientes: • Nivel de umbral (Threshold): Fija el nivel, medido en dBs, por encima del cual la señal va a ser
atenuada. • Tiempo de ataque (Attack): Determina el tiempo que tarda el compresor en empezar a atenuar una
vez que la señal ha superado el umbral. Es un parámetro muy importante, ya que va a determinar el carácter del sonido. Si usamos un tiempo de ataque muy corto por ejemplo lo que vamos a conseguir es eliminar el carácter transitorio de la pista, si por ejemplo hacemos eso en un bombo eliminaremos mucha pegada.
• Tiempo de relajación (Release): Determina el tiempo con el que el compresor deja de actuar una vez que la señal pasa a tener un nivel inferior del marcado en el umbral. También es un control que determina en gran medida el carácter del sonido.
• Ratio: Determina la cantidad de atenuación que va a provocar el compresor. La forma de medir esta atenuación es un poco más complicada que en el caso en el que dejamos una atenuación fija (como
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 35
lo que sucedía en las puertas de ruido). Esto se debe a que ahora la reducción de ganancia va a ser dinámica, y va a depender del nivel que tenga la señal de entrada. Cuanto más fuerte sea el nivel de entrada más atenuación vamos a tener.
• Ganancia (Makeup): Una compresión implica una reducción del volumen general de la señal de audio. Los compresores suelen tener un control para compensar esa reducción de ganancia.
Ecualizando ¿para qué tenemos que ecualizar?
Antes de nada, hay que tener en cuenta que no existen fórmulas milagrosas sobre ecualización. Lo que manda son vuestros oídos y vuestra propia experiencia y gusto. Otra cosa a tener en cuenta es que durante el proceso de mezcla, y en especial en lo referente a ecualización, los monitores juegan un papel fundamental.
Con la ecualización durante la mezcla debemos conseguir dos cosas. Por un lado, debemos corregir las posibles carencias que tenga una pista. Muchas veces las tomas microfónicas de los instrumentos musicales y de la voz no son todo lo correctas que debieran, ya sea por mala acústica en las salas donde se grabaron, por no haber usado buenos previos, buenos conversores, buenos micrófonos… También puede ocurrir que las tomas hayan sido realizadas en diferentes estudios. Otras veces todo está grabado tan magistralmente que todos los instrumentos suenan de maravilla por si solos. Cuando esto sucede es probable que las pistas tengan componentes frecuenciales que hacen que el sonido de un instrumento en cuestión sea maravilloso, pero que en realidad tengamos muchos componentes que realmente no nos hacen falta. Esto suele pasar cuando trabajamos con instrumentos virtuales.
Por otro lado, la ecualización durante la mezcla debe asegurar que los diferentes elementos musicales encajen perfectamente los unos con los otros. Como ya dijimos en el artículo anterior, dos elementos pueden “chocar” debido a enmascaramiento, o simplemente pueden no quedar bien cuando los hacemos sonar juntos.
Aparte de estas dos funciones fundamentales de la ecualización durante la mezcla, podríamos añadir una tercera función menos importante que las anteriores: el uso de la ecualización como herramienta creativa. Por ejemplo, un efecto muy usado es el de simular una voz telefónica o radiofónica
No es mala la idea la de plantearse la ecualización en dos etapas diferenciadas. Por un lado debemos solventar los problemas que presente una pista, y por otro debemos ecualizar la pista para que trabaje bien con las demás pistas.
La técnica del barrido
Imaginad que tenéis una pista de guitarra que tiene una resonancia extraña en bajas frecuencias. ¿Cómo podemos buscar las frecuencias que nos están molestando? La técnica más usada para esto es la técnica de barrido. En el caso de esa guitarra, en un ecualizador paramétrico configuraríamos una de las bandas a una frecuencia de 500Hz, pondríamos un ancho de banda muy estrecho (del orden de Q=5) y pondríamos una ganancia de unos 8dBs. Lentamente iríamos modificando la frecuencia hacia abajo hasta encontrar el punto donde más se notase esa resonancia molesta. Una vez localizada dejamos la frecuencia fija y jugamos con la Q, cerrando el ancho de banda del ecualizador, y la ganancia hasta que hayamos mitigado los efectos de la resonancia sin que el sonido propio de la guitarra se resienta demasiado.
A la hora de realizar cualquier cambio de ecualización en una pista, sea cual sea el fin de este cambio de ecualización, debemos tener en cuenta algunas cuestiones importantes sobre el proceso de ecualización. Por un lado, tenemos que saber que cualquier cambio en unas determinadas frecuencias afectan a la forma en que percibimos el resto de frecuencias. Esto se debe en gran parte por el efecto de enmascaramiento que ya hemos citado anteriormente, el cual se hace más patente en las altas frecuencias. Por otro lado,
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 36
también es muy importante tener en cuenta que a la hora de ecualizar es mucho mejor intentar hacer recortes que refuerzos, es decir... es mejor quitar que poner. Esto se debe a que los refuerzos en los ecualizadores producen una coloración no deseable debido a las distorsiones de fase. Los refuerzos suelen quedar reservados para cuando no quede más remedio o cuando se trate de dar al sonido de una pista un carácter que en realidad no tenía originalmente.
Cuando hagamos refuerzos a muy bajas frecuencias (por debajo de los 200Hz) debemos tener en cuenta que un refuerzo leve en dos frecuencias es mejor que hacer un refuerzo grande a una determinada frecuencia. Por último, hay que intentar que los elementos principales suenen de la forma más natural y agradable posible.
La ecualización correctora
Como ya hemos dicho antes, en muchas ocasiones podemos tener pistas con algunas carencias que debemos corregir. Por otro lado podemos intentar que una determinada pista suene de forma más agradable, por ejemplo haciendo que su sonido tome un cariz que originalmente no tenía.
Aunque en esto de la ecualización generalizar es muy peligroso, existen unas determinadas frecuencias que suelen ser bastante problemáticas. En muchas ocasiones encontramos pistas poco definidas o con un sonido muy áspero. Casi siempre el problema se centra en frecuencias comprendidas entre 300Hz y 800Hz aproximadamente. Podemos hacer un primer barrido para ver en qué punto tenemos ese sonido que hace que la pista no esté bien definida. Una vez localizada la frecuencia tan solo queda el ajustar la Q y el nivel de recorte, teniendo en cuenta que un recorte excesivo puede hacer que la pista pierda todo su carácter.
En algunas ocasiones puede que un refuerzo en frecuencias muy graves pueda venir bien en algunas pistas para darle grandiosidad al sonido.
La ecualización como herramienta de empaste
Hay que tener en cuenta que el proceso de ecualización es lo más delicado en una mezcla y es donde un simple cambio puede hacer que una mezcla sea realmente buena. También debemos tener en mente que el proceso de mezcla implica un acto intuitivo e instantáneo, lo que quiere decir que no debemos, por ejemplo, ecualizar ni antes ni después de aplicar los procesos de dinámica. Todo debe fluir de forma natural. Lo primero que debemos hacer es conseguir una buena coherencia entre la base rítmica y la voz. Luego subimos el bajo y a partir de ahí empezaríamos a añadir los demás elementos, haciendo las modificaciones oportunas en las pistas que vamos añadiendo y retoques en las pistas que ya teníamos antes para hacer que todo empaste bien junto.
Lo que debemos conseguir es que el sonido global de la mezcla sea agradable y que sirva a las intenciones musicales del tema. Cada elemento debe escucharse claramente sin que unos elementos estorben a otros. Sin embargo esto no sucede por azar. Lo normal es que a medida que añadamos elementos a la mezcla empiecen a obstaculizarse los diferentes elementos.
Existen dos formas fundamentales de resolver este problema. La más sencilla radica en panoramizar los elementos que chocan entre si. Sin embargo, esto se puede hacer en contadas ocasiones; en otro caso, tendremos que meter mano a las ecualizaciones de las pistas. Lo que podemos hacer es o mover la frecuencia de refuerzo de una de las pistas un poco hacia arriba o hacia abajo, haciendo que en esa frecuencia no choquen ambas pistas, o haciendo una pequeña atenuación en la pista cuyo sonido natural se interpone a la ecualizada. También puede suceder que una de las pistas tenga una zona en la que hayamos hecho un recorte frecuencial. En ese caso, para que las dos pistas suenen bien diferenciadas podemos hacer un pequeño refuerzo en la otra pista en la misma frecuencia en la que la otra tiene el recorte. Lo importante es hacer que ninguna pista choque con la otra.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 37
Consejos sobre la ecualización de instrumentos
El bombo tiene tres márgenes frecuenciales bien definidos. Cuando queramos añadir profundidad al bombo, van a ser las frecuencias entre 50 y 100Hz las que vamos a tener que mover. Tened en cuenta que si queremos reforzar en esas frecuencias vamos a tener que aplicar la técnica de la “frecuencia mitad o doble” que ya vimos anteriormente, siempre que nos sea posible. Es importante resaltar que un refuerzo excesivo de estas frecuencias puede provocar que el bombo tenga un sonido demasiado confuso que provoque inestabilidad en el sonido global de la mezcla. También tenemos que tener en cuenta que por debajo de esos 50Hz aproximadamente no vamos a tener nada aprovechable, así que no sería mala idea el que aplicarais un filtro paso alto.
La caja tiene cuatro zonas frecuenciales bien definidas. Por un lado tenemos el rango de 120Hz a 350Hz aproximadamente que confiere a la caja el sonido “gordo”. En la actualidad no suele tener mucho sentido el usar frecuencias en la caja por debajo de esos 120Hz, ya que no contienen ninguna información importante y una excesiva carga en esas frecuencias puede provocar que el sonido de la caja sea confuso. No estaría de más usar un filtro paso alto en esa frecuencia aproximadamente. El sonido de la caja en una mezcla es muy importante, y la ecualización tiene mucha culpa de él. Su sonido va a determinar en gran medida el carácter del sonido una vez que la mezcla está terminada, así que hay que esmerarse en hacer una buena ecualización en ella.
Timbales: Debido a que existen timbales de muy diferentes diámetros y profundidades, nos vamos a tener que esmerar bastante en encontrar las frecuencias importantes de cada uno. Por norma general, los timbales de suelo suelen tener frecuencias útiles hasta aproximadamente unos 100Hz, mientras que los de rack llegan hasta más o menos 250Hz o 300Hz. Podemos poner filtros para eliminar frecuencias más bajas y así asegurarnos la eliminación de frecuencias innecesarias y de ruidos a bajas frecuencias. Sin embargo, hay veces en que para crear un efecto de profundidad, sobre todo cuando un timbal de suelo se usa como base en un ritmo, en el que un refuerzo de frecuencias graves puede ser interesante.
El charles (hi-‐hat): Podemos colocar el filtro paso alto más o menos en 150Hz, y jugar con las frecuencias comprendidas entre 150Hz y 300Hz para buscar empaste en el sonido de la baqueta al chocar. Cuando queramos añadir brillo podemos usar un ecualizador de estantería que empiece a actuar a partir de 10kHz a 13kHz.
Platos: Cuando tengamos pistas individuales para cada plato o alguno de ellos, jugaremos en la zona de 100Hz y 300Hz, al igual que lo hacíamos en el charles, para ajustar el sonido del golpe de la baqueta con el plato. Este ajuste es muy importante en el ride, mientras que en platos como los crash o los slpash no tiene importancia, ya que lo que nos importará en ellos será el efecto de las colas del sonido, en vez del sonido definido de la baqueta al chocar con el plato. En los platos, al igual que sucedía con los timbales, vamos a tener que ajustar muy bien las frecuencias, ya que existen infinidad de platos distintos, tanto por su diámetro, forma y materiales de fabricación.
Los overheads son pistas muchas veces subestimadas en una mezcla, incluso algunos ingenieros comienzan una mezcla normalmente a partir de estas pistas. Eso se debe a que estas pistas nos dan un sonido global de la batería, el cual contiene el ambiente de la sala donde se grabó la batería y una buena distribución espacial de la batería.
El bajo es el instrumento con más componentes frecuenciales de todos, ya que tiene frecuencias importantes en prácticamente todo el espectro audible. Fundamentalmente el bajo tiene dos zonas frecuenciales muy importantes. Por un lado está la zona comprendida entre 80Hz y 100Hz, donde el sonido del bajo tiene su peso o profundidad. Por otro lado está el rango que va desde 120Hz a 300Hz, donde el
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 38
bajo define su “color”. En estas frecuencias la gente suele cometer muchos errores. Algunos piensan que para hacer definida la línea de bajo se necesita eliminar mucha de la información contenida en la frecuencia más baja, y reforzar la alta. Esto se debe a que mucha gente tiene asociado el sonido del bajo a tan solo sus componentes a frecuencias bajas.
En las guitarras acústicas vamos a tener tres márgenes de frecuencias muy importantes. Por un lado tenemos las frecuencias bajas. Dependiendo del margen donde reforcemos o atenuemos vamos a tener un carácter en el sonido muy distinto. La definición de las acústicas suele trabajarse en la zona entre 2’5kHz a 5kHz. Hay que tener cuidado con esta banda, ya que un refuerzo excesivo puede provocar que el sonido sea demasiado “nasal”. El sonido brillante y metálico de las acústicas se encuentra en la banda comprendida entre 5kHz y 10kHz. Dependiendo de vuestras intenciones y del tipo de guitarra usada deberéis reforzar, atenuar o dejar tal y como está esa banda.
El análisis frecuencial de las guitarras eléctricas es muy complicado, ya que su sonido depende mucho del estilo musical, del modelo de guitarra usado, del amplificador, de los efectos usados,… También hay que tener en cuenta que el sonido de las pistas de guitarra eléctrica suelen estar ya ecualizadas en el propio amplificador, y aunque en mezcla se hace necesaria una nueva ecualización, esta ecualización usada a la hora de buscar el “tono” de la guitarra hace muy difícil también el análisis frecuencial. En guitarras limpias podemos definir unas frecuencias importantes muy parecidas a las que tenemos en guitarras acústicas.
La voz es el elemento más importante. En una voz existen tres zonas frecuenciales muy bien definidas y de las que la inteligibilidad de la palabra depende en gran medida. Además, las frecuencias que contienen menos densidad de energía son las que menos tienen que ver con dicha inteligibilidad. Las frecuencias bajas de la voz corresponden con el área comprendida entre 125Hz y 250Hz. Aunque este rango sea muy estrecho es muy importante, ya que en este margen de frecuencisa se contienen la información tímbrica fundamental de la voz; es decir, es en este margen donde está la información de quien es el que está halando (o cantando). Luego tenemos la zona donde se concentra casi toda la energía de la voz, y que es propia de las vocales. Esta zona comprende desde 300Hz hasta los 1’5kHz aproximadamente. Por último tenemos la zona entre 1’5kHz y 4kHz, donde se concentran las consonantes, y que, aunque no contenga apenas densidad de energía, es esencial para la inteligibilidad. Esta separación del rango frecuencial de la voz va a ser muy importante a la hora de aprender a ecualizar una voz, ya que aparte de buscar un sonido agradable en la voz debemos mantener la inteligibilidad siempre bien alta.
La mezcla: modificando la dinámica
Hay que tener en cuenta que el compresor es un dispositivo que nos puede generar muchas satisfacciones, pero también muchos dolores de cabeza, y su correcto uso es en gran medida lo que define bien a un profesional. Cada persona tiene una filosofía propia a la hora de usar los compresores, aunque las cantidades de compresión y sus ajustes dependan en gran medida del tema musical con el que trabajemos.
A medida que se han ido añadiendo más y más pistas en las producciones musicales, se han sumado más y más compresores. Hoy en día, el sonido de las producciones modernas está caracterizado por el uso de numerosos compresores. Mucha gente tiende a sobrecomprimir todo lo que pasa por sus manos. Debemos tener en cuenta que una de las características más importantes de la música es precisamente la dinámica, y que es ella la que en gran medida hace que un tema musical no sea aburrido. Si un tema musical tiene cambios de intensidad será un tema que excite al oyente, mientras que un tema musical totalmente lineal aburrirá. Es importante, por tanto, que seamos capaces de mantener la dinámica propia del tema musical que estemos mezclando. Hoy en día, por desgracia, no es inusual escuchar temas musicales que tienen una introducción musical sin batería que suena exactamente al mismo nivel que el
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 39
resto del tema. Esto hace que esa introducción pierda totalmente el sentido artístico que querían imprimirle los músicos, ya que probablemente lo que ellos pretendían era que al entrar la batería el tema diese una sensación de subida en el oyentes. Aparte de esto debemos tener en cuenta la dinámica que cada instrumento tiene dentro del tema musical e intentar mantenerla también.
Un disco sobrecomprimido con unos niveles altísimos nos dará la sensación de que suena mejor que otro que mantiene la dinámica tan solo si hacemos una comparación A/B entre ellos, y tan solo nos dará esa sensación durante unos segundos, hasta que veamos que el tema musical no tiene sentido artístico. Esto se debe a que cualquier cosa a más volumen que otra va a sonarnos mejor. La razón de esto se debe a que el sistema auditivo humano no tiene una respuesta lineal, es decir, no oye todas las frecuencias de igual forma.
Este fenómeno se explica por medio de las curvas isofónicas. Se toma como referencia la sensación de sonoridad (volumen) que provoca en el oído un cierto nivel a la frecuencia de 1kHz, que es donde el sistema auditivo humano es más sensible. Luego se determina la cantidad de dB SPL (niveles de presión sonora) que se necesitaría en todas las demás frecuencias para provocar la misma sensación de sonoridad. Para ello se usan los fones. Por ejemplo, si tomamos los 0dB a 1kHz, que es justo el umbral por encima del cual el oído humano empieza a escuchar algo, vemos que mientras que una señal de 1kHz con 0dB SPL supone el umbral de audición, a 100Hz necesitaríamos un nivel de más de 35dB SPL para empezar a escuchar. Por tanto, vemos que a frecuencias bajas y a frecuencias altas necesitamos mucho más nivel para tener la misma sensación de sonoridad que a frecuencias medias. Aparte de esto, vemos que a medida que los niveles van subiendo, las curvas isofónicas se van aplanando, lo que quiere decir que a medida que subimos los niveles las diferencias entre los niveles que necesitamos a bajas y a altas frecuencias para tener la misma sensación de sonoridad que a frecuencias medias se van reduciendo.
La única situación donde no nos podremos librar de la sobrecompresión será cuando un tema musical tenga expectativas de ser difundido por radio o televisión. En este caso, debido a las características técnicas de esos medios de comunicación, es necesario sobrepasarse un poco en el tema de la compresión (tanto en mastering como en mezcla). La solución es tan simple como hacer mezclas y mastering especial de esos temas. Estas mezclas suelen caracterizarse por tener un mayor grado de compresión y unos niveles de voces un poco más altos que en las mezclas “normales” que irán en el álbum. Al ingeniero de mastering le entregaremos los doce temas normales más los tres radio edits, indicándole que finalidad tienen esas tres mezclas especiales.
Es importante por tanto que siempre que hagamos una comparación entre dos temas musicales, ambos tengan la misma sonoridad para escuchar realmente una comparación objetiva entre los dos. Para ello lo que debemos hacer es ver el nivel RMS que tienen ambos temas y compensar el tema que más nivel tenga simplemente bajando su volumen la cantidad de dBs RMS que tenga de diferencia con el otro.
Tipos de compresores
A lo largo de la historia se han ido desarrollando diferentes circuiterías en los compresores. Muy al contrario de lo que pasa en el mundo normal, el avance tecnológico no ha supuesto que los modelos antiguos se hayan devaluado y hayan dejado de ser útiles.
Las diferencias más notables entre los distintos tipos de compresores hacen referencia a su etapa de ganancia. Es decir, lo que caracteriza a un compresor es la forma en la que se produce la reducción de ganancia de la señal de entrada. Esto se debe a que la diferente filosofía de esa etapa de ganancia va a hacer que un compresor suene distinto de otro. Es muy importante, por tanto, recordar que cada tipo de compresor va a tener un sonido distinto.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 40
Si nos fijamos en los circuitos que determinan los cambios de ganancia en los compresores, podemos hacer la siguiente clasificación:
• Variable-‐mu. Fueron los primeros compresores que se implementaron. Este tipo de compresores basan su funcionamiento en un tipo especial de válvula llamada variable-‐mu. La característica especial de esta válvula es que es capaz de cambiar la ganancia de forma dinámica en función de la señal de entrada.
• FET. La llegada de los semiconductores al mundo de la electrónica supuso en muchos casos la sustitución de las grandes válvulas por pequeños componentes electrónicos llamados transistores. Este tipo de compresores se basan en un tipo especial de transistores llamados transistores de efecto de campo. Este tipo de compresores tienen un sonido muy cristalino y tienen unos tiempos bastante rápidos.
• Ópticos. La etapa de ganancia de este tipo de compresores se basa en un sistema lumínico. Por un lado tenemos una fuente de luz (de tipo incandescente o LED) que reacciona ante las variaciones de nivel de entrada. De esta forma cuanto más nivel tengamos más luz vamos a tener. Por otro lado tenemos un elemento fotodetector (en este caso un fototransistor) que es capaz de reaccionar ante esos cambios de luz, reduciendo la ganancia en el compresor en función de la cantidad de luz que tengamos. Este tipo de compresores tienen unos tiempos de ataque y release muy altos, es decir, son compresores muy lentos.
• VCA. Son los compresores “normales” que más habituados estamos a usar. Son los que usa todo el mundo para controlar la dinámica de las pistas individuales cuando no se busca un sonido característico en la compresión. Son compresores de estado sólido (transistores) con los cuales podemos hacer controles muy precisos en la ganancia de la señal de entrada gracias a su respuesta rápida y sus alto grado de solidez en las curvas de transferencia.
¿Por qué usar compresores?
A medida que la tecnología de producción de audio ha avanzado se ha ido introduciendo la posibilidad de usar cada vez más pistas. Hoy en día, gracias a los sistemas digitales por ordenador, casi no tenemos limitación en las pistas a usar. Es normal encontrarse con una mezcla de unas 70 pistas, cada una con su propia dinámica.
La primera razón para usar compresores es la de mantener controladas la dinámica de todas las pistas dentro de una mezcla. Cada uno tiene su propia filosofía, pero también hay que tener en cuenta con qué tipo de música estemos tratando. Hay estilos musicales en los que casi no se usa compresión, como por ejemplo jazz o música clásica.
Otra razón por la que usar compresores es la de poder nivelar las señales. Es normal que un cantante, por muy bueno que sea y por mucha técnica que tenga, no sea capaz de cantar con el mismo nivel todas las frases dentro de una estrofa, todas las palabras dentro de una frase y todas las sílabas dentro de una palabra. Para poder eliminar esos altibajos en la voz es necesario usar compresores.
También a veces es necesario aplastar la señal. Hay que tener muy claro cuando es necesario hacer esto, ya que nos vamos a cargar casi toda la dinámica de la pista. No suele ser una cosa que hagamos en muchas pistas dentro de un mismo tema, y tan solo lo debemos hacer cuando sea realmente necesario.
Estas son las tres funciones básicas que tiene la compresión en una mezcla, aunque podemos añadir una función extra: la compresión como recurso estilístico. A veces podemos usar los compresores como efecto de sonido, ya que con ellos podemos cambiar el carácter y el timbre propio de una pista. Para ello se suelen usar compresiones bastante bruscas para alterar totalmente el sonido de la pista.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 41
Los controles básicos
Es muy importante para poder configurar bien un compresor el conocer en profundidad las posibilidades que nos ofrecen sus controles. Aparte de las diferencias sónicas entre los distintos compresores hay que tener en cuenta que cada compresor va a tener unos controles. Es verdad que casi todos tienen los mismos controles, pero algunos ofrecerán más opciones que otros, y también dependiendo de su filosofía de implementación, a algunos les faltará algún control básico. Por ejemplo, como ya dijimos, un Fairchild 670 no va a tener ratio. El fijar correctamente el threshold es algo muy importante, ya que dependiendo la razón por la que queramos aplicar la compresión lo vamos a tener que situar en uno u otro punto del nivel de la señal. Para configurar el threshold es importante que conozcamos la dinámica de la señal.
La gente piensa que para nivelar un pista es necesario que todos los niveles queden afectados por la compresión, de tal forma que sitúan el umbral en la parte baja de la señal. Con eso lo que estamos haciendo no es nivelar, sino aplastar la dinámica. Esta es la razón por la que muchas voces suenan totalmente lineales. Es más, en este caso, puesto que no se hacen una compresión correcta, es necesario aplicar grandes cuotas de compresión para conseguir que la pista no fluctúe en sus niveles, llegando mucha gente a usar limitadores. Meditemos bien qué es lo que queremos conseguir con una nivelación. Lo que pretendemos es acercar los niveles más fuertes a los niveles más bajos de la señal. Para ello hay dos opciones. La incorrecta, como hemos dicho, es situar el threshold en la parte baja de la señal y aplicar mucha compresión, con lo que conseguiremos un sonido demasiado lineal y aburrido en la pista. La correcta es situar el threshold en la parte media de la señal y aplicar una compresión moderada, de tal forma que acerquemos los niveles fuertes a los niveles bajos sin cargarnos totalmente la dinámica de la señal, consiguiendo que la pista tenga consistencia pero que no suene muerta.
Una vez que hemos visto cómo colocar correctamente el threshold, pasemos al ratio. Con el control de ratio vamos a indicar la relación que queremos que tenga la señal de entrada y la señal de salida para los niveles que estén encima del threshold. Por ejemplo, si tenemos un ratio de 2:1 a la salida todo lo que supera el threshold tendrá la mitad de amplitud, con 4:1 tendremos un cuarto, con 6:1 un sexto.... Es muy importante remarcar que hablamos de todo lo que supere el threshold y no hablamos de toda la señal. Es muy común confundir las cosas en cuanto al ratio.
De todo esto sacamos dos conclusiones importantes:
1-‐ Si bajamos el threshold tendremos más reducción de ganancia.
2-‐ Si bajamos el ratio tendremos menos reducción de ganancia.
Vayamos ahora con las constantes de tiempo. El tiempo de ataque es el tiempo que tarda el compresor en alcanzar toda la reducción de ganancia, mientras que el tiempo de release es el tiempo que tarda el
Funciones de transferencia
Una función de transferencia es un gráfico que enfrenta los niveles que tenemos tanto a la entrada como a la salida, de tal forma que podemos saber qué nivel vamos a tener a la salida ante cualquier valor de la entrada. Cuando tratemos con procesadores de dinámica va a ser muy común encontrarnos con este tipo de gráficas, sobre todo en manuales de instrucciones y en bastantes interfaces gráficos de plugins de procesadores de dinámica.
Veamos en primer lugar la función de la ganancia unidad (dibujo 1): Esta podría ser la función de transferencia de cualquier procesador puesto en bypass. La forma de interpretar estas gráficas es la siguiente: Nos fijamos en la entrada y luego vemos que salida provoca. Por ejemplo, si nos fijamos en el
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 42
nivel de entrada de -‐10dBfs y vemos donde corta la línea roja, vemos que a la salida también tendríamos 10dBfs.
Veamos ahora la función de transferencia de un amplificador (dibujo 2): Esta función de transferencia se puede interpretar como el comportamiento de un amplificador lineal, es decir, la entrada es multiplicada por un cierto valor para todos los valores. Por ejemplo si nos fijamos en la entrada con -‐30dBfs vemos que tendríamos una salida de -‐12,5dB. Vemos que ante cualquier entrada, la salida va a dar la entrada multiplicada por 0’41. Hay que tener en cuenta que estamos trabajando con dBfs, es decir, que trabajamos en una escala negativa. En realidad ese factor de amplificación de 0’41 nos está diciendo que estamos teniendo una amplificación de 2,4 veces la señal de entrada.
Dibujo 1
Dibujo 2
Usar gráficas de funciones de transferencia es una forma muy cómoda de poder ver cómo actúa un dispositivo sin necesidad de tener que echar cuentas ni estrujarnos el cerebro.
Otros controles en un compresor
Aparte de los controles básicos que hemos explicado, muchos compresores ofrecen controles adicionales que nos permiten adecuar aun más el dispositivo en función de la finalidad de la compresión. Por ejemplo, algunos compresores nos ofrecen la posibilidad de poder controlar la forma en la que se pasa de ganancia unidad al estado de compresión, es decir, la forma en la que se pasa desde un ratio de 1:1 hasta el que hemos configurado en el compresor. Lo normal es encontrarnos con dos posibilidades: hard-‐knee y soft-‐knee. Además, hay compresores que nos ofrecen la posibilidad de modificar gradualmente esa pendiente de ratio. El uso del modo hard-‐knee ofrecerá una compresión mucho menos sutil que la usada con el modo soft-‐knee.
Compresiones paralelas
Hemos visto hasta ahora cómo la compresión afecta a los transitorios de nuestras señales, ya que lo que hacemos es reducir el nivel de la salida ante las partes de más nivel de la señal. Sin embargo en ocasiones nos interesará comprimir una señal manteniendo los transitorios tal cual están en la señal de entrada. Para hacer esto usaremos la llamada compresión paralela o compresión al estilo New York (ya que fueron los ingenieros de esa ciudad estadounidense los que primeros aplicaron esta técnica).
La compresión paralela consiste en duplicar la señal que nos interesa comprimir, aplicar compresión en esa duplicación y luego mezclar la señal original con la señal duplicada. Podemos hacer esto de forma fácil haciendo una duplicación de la pista a comprimir con todos los insertos incluidos. Sin embargo este sistema tiene dos inconvenientes. Por un lado, al duplicar también los efectos de inserto de la pista original estaremos aumentando la carga de CPU de manera innecesaria. Por otro lado, si hacemos algún cambio en la pista original deberemos hacer ese mismo cambio en la pista duplicada. La forma más extendida de configurar una compresión paralela es tal y como se hace en las mezclas analógicas. Lo que hacemos es enviar la señal original a un bus auxiliar, de tal forma que cualquier cambio en la señal original varía la señal
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 43
que estamos enviando al bus auxiliar. El envío en una situación normal ha de hacerse en ganancia unidad (debemos mandar el nivel de la señal idéntica a la que tenemos en la pista de audio). Creamos entonces una pista cuya entrada sea el bus auxiliar donde hemos mandado la señal original, luego insertamos en dicha pista un compresor y lo configuramos para tener una compresión alta (8dB de reducción de ganancia como mínimo en situaciones normales) con un tiempo de ataque lo más rápido posible. Cuando tenemos configurado el compresor bajamos la pista comprimida al mínimo y vamos subiendo el fader poco a poco, mezclando la señal comprimida con la original
De esta forma conseguimos comprimir la señal manteniendo los transitorios originales de la señal, ya que en vez de bajar los niveles más fuertes de la señal (como hemos hecho hasta ahora) lo que estamos haciendo es subir los niveles más débiles de la señal. Esto hace que obtengamos una compresión mucho menos agresiva que la compresión normal.
¿Donde colocar las cosas?
Hay mucha gente que se pregunta donde colocar el compresor, ¿antes o después de la ecualización? Para contestar a esto hay que tener en cuenta que una compresión va a cambiar el balance frecuencial de la señal. Además las frecuencias bajas excitan más un compresor que las frecuencias altas. Si tenemos en cuenta estas dos cosas podemos suponer que si colocamos el compresor antes del ecualizador, las frecuencias que debemos eliminar en la señal van a estar influyendo en la compresión y que si colocamos el ecualizador antes de la compresión, dicha compresión nos va a alterar el balance frecuencial que hemos definido en el ecualizador.
Para evitar esto lo que se suele hacer es ecualizar en dos etapas. En la primera etapa de ecualización, se hace un filtrado paso alto y se eliminan las resonancias que crea oportunas. Una vez que limpiada la señal, se coloca compresor y ajusta la dinámica de la señal. Una vez hecha la compresión colocamos un ecualizador para determinar el balance frecuencial de la señal.
Si lo hacemos de esta forma, el ecualizador que determina el balance frecuencial no estará influenciado por la compresión. Si no lo hiciéramos de esta manera, cualquier cambio en la ecualización provocaría un cambio en la compresión, por lo que deberíamos ajustar tanto el ecualizador como el compresor ante cualquier modificación.
Compresor en el bus de mezcla
El uso de un compresor en el bus de mezcla es algo que se lleva usando desde hace mucho tiempo, y desde hace mucho tiempo sigue siendo un tema de disputa entre diferentes ingenieros de sonido. Antes de nada hay que decir que hay muy buenos ingenieros de mezcla que mezclan a través de un compresor, pero que también hay muchos otros buenos ingenieros que no les gusta mezclar así. Por tanto, el uso o no de un compresor en el bus de mezcla no es algo determinante para obtener una buena mezcla, si no que es algo que responde a gustos personales del que mezcla.
No hay que olvidar que, el mezclar a través de un compresor hace que algunas cosas que habíamos tenido como ciertas hasta ahora, ya no sean verdad. Por ejemplo, debido a que se están comprimiendo todos los elementos de forma conjunta, los movimientos de los faders ya no provocan el mismo efecto. Cuando usemos un compresor en el bus de mezcla es importante tener siempre en cuenta que hay que tener reducciones de ganancia muy pequeños. Además, los tiempos de ataque y de release son muy importantes a la hora de hacer que el compresor no introduzca artificios extraños en el sonido.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 44
Microfonía Tipos de micrófonos
Los micrófonos son transductores electroacústicos que se ocupan de transformar la presión sonora ejercida sobre su cápsula en energía eléctrica. La membrana o diafragma es un elemento fundamental que está presente en cada uno de ellos. Las diferencias que estriban entre los diferentes tipos de micrófonos se basan principalmente en la sensibilidad que son capaces de proporcionar, que están directamente ligadas a la capacidad del micrófono de capturar las oscilaciones mecánicas que provienen de la membrana, y transformar proporcionalmente con éxito dichas oscilaciones en energía eléctrica... intentando conservar la dinámica original de la fuente que deseamos capturar. Desde su nacimiento, el micrófono ha experimentado una larga carrera en busca de la perfección sonora. Este hecho ha desencadenado, por un lado, que los micrófonos hayan llegado a una calidad ya bastante considerable a día de hoy, y por otro, que su tipología se haya fragmentado buscando el mayor rendimiento para cada aplicación en concreto.
El micrófono dinámico
En el magneto-‐dinámico, comúnmente llamado dinámico, la ondas sonoras generan el movimiento de un delgado diafragma metálico y una bobina de hilo conductor. Un imán produce un campo magnético que rodea la bobina, y el movimiento de ella dentro de ese campo induce un flujo de corriente. El principio es el mismo que la producción de electricidad por las compañías de distribución, pero en una escala miniaturizada. Es importante recordar que la corriente se produce por el movimiento del diafragma, y la cantidad de corriente está determinada por la velocidad de este movimiento. Este tipo de micrófonos es conocido como sensitivos a la velocidad.
En función de la eficacia del micro en su conversión de la onda acústica a eléctrica, podemos distinguir dos grupos:
• Micrófonos dinámicos de bobina: Una pequeña bobina recoge el movimiento de la membrana o diafragma y, al moverse ésta, se genera una corriente. Las ventajas son un coste razonable, robustez, uso sencillo, duro (admiten niveles alto de presión sin saturar) y resistencia de salida baja. Los inconvenientes son una frecuencia algo irregular (con picos) y una sensibilidad alta a golpes y vibraciones. Suelen usarse para instrumentos muy sonoros, así como captaciones en exteriores (por su arquitectura robusta); pueden ser conectados mediante largos cables.
• Micrófonos dinámicos de cinta: La diferencia con los de bobina es que el conductor es una cinta metálica en lugar de la bobina. Las ventajas son su robustez también y un refuerzo notable de frecuencias medias y bajas. Los inconvenientes radican en su peso, irregularidad y pobreza en agudos. No se recomiendan para instrumentos muy sonoros.
El micrófono de condensador
En un micrófono de condensador, el diafragma está montado junto a una placa (que puede estar agujereada o no), pero sin llegar a tocarla. Una pila está conectada a ambas piezas de metal, la cual produce una diferencia de potencial eléctrico, o carga, entre ellas. La cantidad de esta carga está determinada por el voltaje de la pila, el área del diafragma y la placa y la distancia entre ambos. Esta distancia cambia si el diafragma se mueve como respuesta al impacto de las ondas sonoras. Cuando la distancia cambia, la corriente fluye por el hilo conductor (mientras la pila continúe administrando la misma diferencia de potencial). La cantidad de corriente es básicamente proporcional al desplazamiento del diafragma, y tan diminuta, que debe ser amplificada antes de abandonar el micrófono.
Suelen tener pérdidas de señal si usamos cables de longitud superior a un metro; por este motivo llevan a menudo incorporado un preamplificador inmediatamente detrás del condensador.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 45
Las ventajas son una respuesta plana, gran fidelidad, buen comportamiento en agudos y ataques, buenas relaciones señal/ruido, poco sensibles a las vibraciones y reducido tamaño. Los inconvenientes se centran en su sensibilidad a la humedad, necesidad de alimentación, frágiles y elevado precio. Se aplican en prácticamente todas las captaciones profesionales.
Micrófonos Electret
Es una variante común de los micrófonos de condensador, que emplea un material que confiere carga permanentemente al diafragma. Este material suele ser algún tipo de plástico, y se le denomina Electrito. A menudo manipulamos plásticos cargados permanentemente cuando desenvolvemos un paquete retractilado. Muchos plásticos son conductores cuando están calientes y aislantes cuando está fríos. El plástico es un buen material para fabricar diafragmas por su fiabilidad reproduciendo especificaciones bastante precisas (algunos de los micrófonos más populares llevan incorporados diafragmas de plástico). Por esto no necesitan alimentación aunque sigue siendo preciso el uso de un preamplificador que sigue solicitando corriente, pero en este caso es suficiente con una pila encerrada en la carcasa del propio micrófono. Las ventajas son un precio más asequible y menor sensibilidad a la humedad. El mayor inconveniente de los electritos es que pierden la carga después de algunos años y dejan de ser operativos, además de tener peores respuestas de agudos y menor sensibilidad en general.
Especificaciones de los micrófonos
No existe ninguna ventaja inherente al uso de un tipo de micrófono sobre otro en cuanto a la fidelidad de captación. Los de condensador requieren el uso de baterías desde la mesa (alimentación fantasma) para funcionar, lo que, en ocasiones, supone una traba en el trabajo; los dinámicos necesitan protección por la dispersión de los campos magnéticos, que los hace un poco duros a veces. Sin embargo, se pueden encontrar micrófonos muy buenos en ambos estilos. El factor más importante en la elección de un micrófono es cómo suena en la aplicación para la que se va a utilizar. Deben considerarse los siguientes apartados:
• Sensibilidad: Esta es la medida de la cantidad de salida eléctrica que se produce por la toma de un sonido. Esta es una especificación vital si estamos intentando captar sonidos muy tenues, como por ejemplo, una tortuga haciendo burbujas con la boca en su jaula, pero es un asunto que debe tenerse en cuenta siempre. Si colocamos un micro poco sensible frente a un instrumento que produzca un sonido tenue, como podría ser una guitarra acústica, tendremos que incrementar la ganancia en la mesa, añadiendo ruido a la mezcla. Por otro lado, un micrófono muy sensible para las voces podría saturar las entradas electrónicas de la mesa o el multipistas, produciendo distorsión.
• Características de la saturación: Cualquier micrófono distorsionará si se sobrepasa su umbral de captación con sonidos muy fuertes. Esto sucede por varios factores. Con un dinámico, la bobina puede salirse del campo magnético; en uno de condensador, el amplificador interno puede recortar la señal. Una saturación mantenida o sonidos extremadamente intensos pueden distorsionar permanentemente el diafragma, degradando la respuesta a niveles ordinarios. Los sonidos fuertes se encuentran más a menudo de lo que pensamos, especialmente si colocamos el micrófono cerca de los instrumentos (¿quién se atreve a poner el oído en la campana de una trompeta?) Normalmente debemos elegir entre alta sensibilidad y altos puntos de saturación, aunque, en ocasiones existen interruptores en los micrófonos para afrontar estas situaciones diferentes.
• Linealidad o distorsión: Esta es la característica que aumenta el precio de los micrófonos. Las características de la distorsión de un micrófono están determinadas, sobre todo, por el cuidado con que se ha construido y montado el diafragma. Los altos volúmenes pueden arruinar un micrófono perfectamente válido, pero la distorsión de funcionamiento es un asunto de suerte. Muchos fabricantes tienen numerosos modelos para lo que es el mismo componente. Ellos fabrican una
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 46
partida y luego realizan los controles de calidad para poner un precio "premium" a los que pasan dicho control. Las firmas grandes desechan cápsulas que no cumplen con sus normas internas (si compramos un Neumann, realmente estamos pagando por cinco). Ningún micrófono es perfectamente lineal; lo mejor que podemos hacer es conseguir uno cuya distorsión complemente el sonido que estamos intentando grabar. Este es un de los factores que convierten una grabación doméstica en una profesional.
• Respuesta en frecuencia: Una respuesta de frecuencia plana ha sido el principal acierto de los fabricantes de micrófonos en las últimas cuatro décadas. En los años cincuenta, los micrófonos eran tan malos, que los fabricantes de mesas de mezclas comenzaron a añadir ecualizadores a cada entrada para compensar las desviaciones. Este esfuerzo ha sido recompensado ahora hasta el punto que los micrófonos más profesionales son respetablemente planos, incluso con sonidos captados frontalmente. La mayor excepción son los micrófonos que enfatizan deliberadamente ciertas frecuencias que son usuales en ciertas aplicaciones.
• Ruido: Los micrófonos producen una muy pequeña cantidad de corriente, que toma sentido cuando consideramos como electricidad las partes móviles que deben preceder con exactitud a las ondas sonoras. Para ser operativa tanto en el sentido de la grabación como en otros procesos electrónicos, la señal debe ser amplificada por un factor que oscila alrededor del millar. Cualquier ruido eléctrico producido por el micrófono será también amplificado, por eso, pequeñas cantidades de ruido son intolerables. Los dinámicos están libres de ruido, pero el circuito electrónico integrado en los de condensador es una potencial fuente de problemas, y debe ser cuidadosamente diseñado y construido con piezas de calidad excelente. El ruido además incluye captaciones indeseadas de vibración mecánica a través del cuerpo del micrófono. Diseños muy sensibles requieren monturas elásticas para las sacudidas, y los micrófonos concebidos para ser llevados en la mano necesitan poseer este tipo de monturas encajadas en su interior. La más común fuente de ruido asociada a los micrófonos es el cable que los conecta a la mesa de mezclas o al multipistas. Un micrófono preamplificado es muy similar a un receptor de radio, por eso, debe prevenirse que el cable se convierta en una antena. La técnica básica es rodear el cable que lleva la corriente desde el micro hasta la mesa con una malla metálica que desvía una gran cantidad de energía de radio (la conocida jaula de Faraday). Una segunda técnica, que es más efectiva para los zumbidos en bajas frecuencias inducidos por las compañías de distribución eléctrica en el equipo, es balancear la línea. La corriente producida por el micrófono fluirá por uno de los cables del par entrelazado, y regresará por el otro. Cualquier corriente inducida en el cable desde una fuente externa tenderá a fluir de la misma manera por ambos cables, y las corrientes se cancelarán unas a otras en los transformadores. Este método es caro.
• Niveles: La salida de los micrófonos tiene, por necesidad, una señal muy débil, del orden de -‐60 dB (la potencia producida por una presión de 9,87 µatm ejercida por un sonido). La impedancia de salida dependerá de la existencia de un transformador balanceado a la salida. Si no es así, el micrófono se llamará de "alta impedancia" o "alta Z" y tendrá que ser conectado a una entrada apropiada. El cable empleado debe ser corto, menor a tres metros, para evitar problemas de ruido. Si el micrófono tiene transformador, se etiquetará como de "baja impedancia", y trabajará mucho mejor con una entrada balanceada de micro preamplificada. El cable puede tener decenas de metros sin ningún tipo de problemas (salvo que los propios cables estén en mal estado). Los micrófonos de baja impedancia y salida balanceada son caros, y generalmente se utilizan para aplicaciones profesionales. Las salidas balanceadas deben tener tres conectores (enchufes tipo "canon") pero no todos los micrófonos con estos conectores están balanceados.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 47
Los que tiene clavijas normales tipo jack o miniaturizadas, son de alta impedancia. Un micrófono balanceado puede ser usado en una entrada de alta impedancia mediante un adaptador apropiado. La diferencia fundamental entre un equipo doméstico y otro profesional es la inclusión de un transformador en la mesa de mezclas. Los transformadores no son caros, por lo que se pueden comprar para añadirlos al equipo, siempre que sepamos lo que estamos adquiriendo y no nos confundamos con un adaptador para los conectores. Con esta configuración, se puede trabajar con micrófonos de calidad profesional, tirar cables de hasta 30 metros sin zumbidos y, si los transformadores elevan la señal un poco, realizar grabaciones con mucho menos ruido. Este sistema no funcionará con la mayoría de multipistas, porque la señal fuerte produce distorsión. Aunque la mesa tendrá otros problemas, es un buen punto de partida para afrontar grabaciones de alta fidelidad.
Modelos de captación
Mucha gente tiene la concepción errónea que los micrófonos sólo captan el sonido de fuentes colocadas frente a ellos, como sucede con las cámaras fotográficas y sus lentes. Esta sería una maravillosa característica si fuese cierta, pero la verdad es que lo único que podemos hacer es aproximarnos a este ideal en detrimento de otros matices igualmente deseables.
Los tipos de micrófonos responden a gráficas polares de la salida producidas contra el ángulo de la fuente sonora. La salida se representa por el radio de curvatura en el ángulo de incidencia.
Omnidireccional (de presión)
El diseño más simple de micrófono captará todos los sonidos, sin tener en cuenta el punto de origen. Este es el conocido micrófono omnidireccional. Son fáciles de usar y tienen excepcionales respuestas de frecuencia.
Bidireccional (de gradiente)
No es difícil producir un tipo de captación que acepte sonidos provenientes frontalmente o desde la parte de atrás del diafragma, pero que no recoja nada proveniente de los laterales. Esta es la manera en que cualquier diafragma se comportará si el sonido lo golpea anterior y posteriormente de igual modo. El rechazo de sonido indeseado es la característica más factible de cualquier diseño, pero el hecho que el micrófono capte sonido desde ambos extremos complica su uso en algunas situaciones. A menudo se coloca por encima del instrumento. La frecuencia de respuesta es tan buena como en un omnidireccional, incluso para sonidos que no están demasiado cerca del micrófono, aunque presentan efecto proximidad, que dificulta su uso en tomas de poca distancia. Potencian los graves (suelen ir provistos de un selector de filtro de graves).
Cardioide (concentrador de haz)
Este tipo es popular para reforzar el sonido de conciertos donde el ruido de la audiencia es un problema presente. El concepto es muy bueno, un micrófono que capta los sonidos hacia los que está enfocado. La realidad, lamentablemente es distinta, el primer problema es que esos sonidos que llegan desde detrás no están completamente anulados, sino simplemente atenuados entre 10 y 30 dBs; y esto puede sorprender a usuarios descuidados. El segundo problema (muy importante) es que este tipo de captación varía con la frecuencia. Para bajas frecuencias, se comporta como un omnidireccional. Un micrófono direccional en el rango de las bajas frecuencias será equitativamente grande y caro. Además, la respuesta de frecuencia para señales que lleguen desde la parte anterior y laterales, será distinta; añade una coloración indeseada a los instrumentos ubicados en los extremos de la orquesta, o a la reverberación de la sala.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 48
Una tercera circunstancia, que puede ser un problema o un efecto deseado, es que el micrófono enfatizará las los componentes de bajas frecuencias provenientes de cualquier fuente situada cerca del diafragma (efecto proximidad). Muchos cantantes y locutores se aprovechan de este efecto para añadir algo más de cuerpo a una voz poco potente.
También hay que destacar el tamaño del micrófono, de manera que los diseños largos son más precisos en el equilibrio de la respuesta de frecuencia anterior y lateral pero también son los más enfatizadores del efecto proximidad. Muchos micrófonos cardioides llevan incorporado un interruptor que activa un filtro pasa bajos muy abierto, para compensar el efecto proximidad. Olvidar esto puede causar efectos angustiosos. Los micrófonos bidireccionales también presentan este fenómeno.
A mayor radio del diafragma, menor es el efecto amplificador de las bajas frecuencias debido al efecto proximidad.
• Hipercardioide: Es posible exagerar la orientación de la captación en los micrófonos cardioides, si no nos importa exagerar también algunos problemas. El tipo hipercardioide es muy popular porque ofrece una respuesta de frecuencia más plana y mejor rechazo global a costa de un pequeño lóbulo trasero de captación. Este es, a menudo, un buen compromiso entre el cardioide y los micrófonos bidireccionales. Un micrófono del tipo "escopeta" lleva esas técnicas a extremos montando un diafragma en mitad del tubo (bastidor). Es extremadamente sensible a lo largo del eje principal, pero posee lóbulos extras que varían drásticamente con la frecuencia. De hecho, la respuesta de frecuencia de este tipo es tan mala que, normalmente, está electrónicamente restringido al rango de la voz humana, donde se usa para grabar diálogos y narraciones en cine y video.
• Escopeta (o cañón): Caracterizados por una alta directividad. La diferencia de caminos de la onda que provoca el desfase se produce en un largo tubo situado frente al diafragma. Este tubo dispone de unas ranuras por las que recibirá la señal, de modo que finalmente el diafragma recibirá señales cortas por el frente, señales medias laterales a medio tubo y señales laterales largas al final del mismo. Son especialmente útiles para exteriores o lugares de escasa reverberación.
• Estéreo: No se necesita un micrófono especial para grabar en estéreo; con un par de micrófonos normales basta. En realidad, los denominados micrófonos estéreo, son dos cápsulas montadas en el mismo bastidor. Existen dos tipos: los profesionales y carísimos montados en una misma caja, con ángulos de cápsula ajustables e interruptores de control remoto sobre los tipos de captación, y las unidades más económicas (a menudo con las cápsulas orientadas 180 grados) que pueden venderse a altos precios porque llevan impresa la palabra estéreo sobre la montura. [Hay un artículo en este sitio que se ocupa de las técnicas de grabación estéreo].
Técnicas de microfonía: estéreo
Si el cerebro humano contase solamente con un oído, sería prácticamente imposible situar una fuente sonora a ojos cerrados. Con un sólo oído podríamos escuchar un tren acercándose a nosotros, pero deberíamos mirar a un lado y otro para localizar en qué dirección se encuentra el peligro. Pero la naturaleza es sabia y si nos ha cedido dos oídos, es por un motivo de peso. Gracias a las diferencias de tiempo que se perciben entre los dos oídos cuando escuchamos un sonido, al estar ambos oídos físicamente separados, podemos dilucidar de qué lugar proviene la fuente, aunque también entran en juego otros factores, como es la direccionabilidad respecto a la frecuencia.
Existen técnicas de microfonía que tratan de emular la manera con la que percibimos los sonidos, que consisten en captar la señal a través de varios micrófonos que registran esas pequeñas diferencias de tiempo, reflexiones y ecualización, posibilitando así una posterior reproducción de la fuente con un
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 49
resultado que guarda una coherencia estéreo acorde con la escucha binatural que caracteriza al ser humano, junto a la mayoría de animales. En esta ocasión trataremos de desglosar cómo funcionan este tipo de técnicas, para que cada uno experimente a su antojo en busca de tomas de grabación que se ajusten a la imagen estéreo real que los humanos percibimos, o bien en busca de efectos en concreto que faciliten el posicionamiento de las pistas a la hora de realizar la mezcla.
A-‐B Estéreo
Dos micrófonos separados creando una imagen estéreo: La técnica A-‐B estéreo (o estéreo por diferencia de tiempo, como también se llama en ocasiones) hace uso de dos micrófonos separados (a menudo omnidireccionales) para grabar señales de audio. La distancia entre los micrófonos supone pequeñas diferencias en la información de tiempo o fase contenida en las señales de audio (según las direcciones relativas de las fuentes de sonido).
De igual manera que el oído humano puede apreciar diferencias de tiempo y fase en las señales de audio y usarlas para la localización de las mismas, la diferencia de tiempo y fase actuarán como señales estéreo para permitir a la audiencia captar el espacio en la grabación y experimentar una intensa imagen estéreo de todo el campo de sonido, incluyendo la posición de cada señal individual y los límites espaciales de la propia sala
Distancia entre micrófonos
Una consideración importante cuando preparamos una grabación A-‐B estéreo es la distancia entre los micros. Desde que el carácter acústico de la grabación estéreo es principalmente una cuestión de gusto personal, es imposible apuntar reglas inmediatas y eficaces para la técnica estéreo por distancia de micros; sin embargo, es interesante tener en mente algunos factores acústicos importantes
Puesto que la amplitud estéreo de una grabación depende de la frecuencia, cuanto más profunda sea la calidad tonal que deseemos reproducir en el estéreo, mayor distancia ha de haber en la separación entre micrófonos. Usando una distancia recomendada entre micrófonos de un cuarto de la longitud de onda del tono más bajo, y teniendo en cuenta la reducida capacidad del oído humano para localizar frecuencias por debajo de 150 Hz, llegamos a una distancia óptima entre 40 y 60 cm. Distancias menores se usan a menudo para captar fuentes de sonido próximas, para prevenir que la imagen del sonido de un instrumento concreto sea demasiado ancha y poco natural. Distancias por debajo de 17 o 20 cm son detectables para el oído humano porque es la separación equivalente a los oídos.
Debería apuntarse también que un incremento en la distancia ente micrófonos disminuirá la capacidad del sistema para reproducir señales ubicadas justo entre ellos. Esto conduce también a una reducción en la calidad de la grabación estéreo cuando se reproduzca en mono.
Distancia entre los micrófonos y la fuente de sonido
La distancia ideal desde el par de micrófonos a la fuente de sonido no depende solamente de tipo y tamaño de la fuente y el entorno en la que se ha realizado la captación, sino también del gusto personal. La posición desde la que la audiencia experimenta el evento (y de aquí la posición desde la cual el micrófono lo registra) debería ser elegida con gusto y cuidado
Las grabaciones musicales críticas, tales como una orquesta al completo en una sala de conciertos, suponen buenos ejemplos de la importancia del posicionamiento correcto de los micrófonos. Aquí los micrófonos se colocarían típicamente por encima o detrás del director. Y aunque la mayoría de los instrumentos proyectan su sonido hacia arriba, los micrófonos deberían estar colocados suficientemente elevados para que cada músico por separado no ensombrezca a los demás.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 50
La mezcla de sonido directo y difuso en una grabación es además de importancia crucial, por lo que suele emplearse mucho tiempo en establecer la posición óptima de los micrófonos. Es aquí donde la versatilidad de nuestro sistema A-‐B estéreo entra en juego. Usando los diferentes emplazamientos acústicos para los micrófonos, la cantidad de ambientación y el color tonal de la grabación, el sistema se puede ajustar sin añadir ningún ruido. La elección del suelo y la cubierta apoyados de la reverberación puede permitirnos añadir flexibilidad cuando coloquemos los micrófonos.
Los micrófonos omnidireccionales y el sistema A-‐B estéreo son, a menudo, la elección más usada cuando la distancia entre los micrófonos y la fuente de sonido es grande. La razón es que los micrófonos omnidireccionales son capaces de captar las verdaderas frecuencias bajas de la señal con indiferencia de la distancia, mientras que los micrófonos direccionales están influenciados por el efecto proximidad. Los micrófonos direccionales, por tanto, mostrarán pérdida de bajas frecuencias a grandes distancias. Según el fabricante, se pueden encontrar micrófonos cardioides con respuestas bajas enriquecidas, con lo que son una interesante alternativa a los omnis cuando se prefiere o necesita una pequeña direccionalidad.
X-‐Y Estéreo
Dos micros cardioides de primer orden en el mismo punto (coincidentes) con un ángulo entre sus ejes para crear una imagen estéreo. El sistema XY estéreo es una técnica de coincidencia que usa dos micros cardioides situados en el mismo punto y con un ángulo típico de 90º entre sus ejes para producir una imagen estéreo. Se han usado ángulos de apertura entre las cápsulas de 120º a 135º, e incluso hasta 180º, lo cual cambiará el ángulo de grabación y la propagación estéreo. Teóricamente, las dos cápsulas necesitan estar exactamente en el mismo punto para evitar problemas de fase producidos por la distancia entre los micrófonos. Como esto no es posible, la mayor aproximación para colocar los micros en el mismo punto, consiste en poner uno sobre otro, con los diafragmas alineados verticalmente. De este modo, las fuentes sonoras en el plano horizontal se recogerán como si los dos micros estuvieran colocados en el mismo punto.
La imagen estéreo se produce por la atenuación de la desviación del eje de los micrófonos cardioides. Mientras que el A-‐B estéreo es un estéreo por diferencia de tiempo, el sistema XY estéreo es un estéreo por diferencia de volumen. Pero como la atenuación por desviación del eje de un cardioide de primer orden es solamente de 6 dB en 90º, la separación del canal está limitada, y no son posibles amplias imágenes estéreo con este método de captación. Por tanto, el XY estéreo se usa a menudo cuando se necesita alta compatibilidad mono (por ejemplo en emisiones radiofónicas donde la audiencia utiliza receptores mono para escucharlas).
Ya que las fuentes de sonido son principalmente captadas fuera del eje cuando se usa el sistema XY estéreo, hay mucha información en la respuesta fuera del eje de los micrófonos empleados. Y como se comentaba anteriormente, el uso de micros direccionales a grandes distancias reduce la cantidad de información de bajas frecuencias en la grabación, debido al efecto proximidad mostrado por estos micros. La configuración XY es, por tanto, la elección utilizada a menudo en aplicaciones cercanas. Por ejemplo, como overheads de batería, mediante el uso de esta técnica se consigue que la caja no quede panoramizada por una mala colocación de los micrófonos ambientales, y se garantiza que ésta se reproduzca en el centro de la imagen sonora. De todos modos, con este método la imagen estéreo no suena tan abierta y grande en comparación con otras técnicas de grabación estéreo.
M-‐S Estéreo
Un micrófono cardioide de primer orden y otro bidireccional en el mismo punto con un ángulo de 90º entre sus ejes creando una imagen estéreo a través de la llamada matriz MS.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 51
El sistema MS utiliza una cápsula cardioide como canal central y un micro direccional (figura de ocho) en el mismo punto, pero abiertos 90º, como el llamado canal ambiente (surround). La señal MS no puede ser monitorizada directamente en un sistema convencional izquierdo-‐derecho. La matriz M-‐S utiliza la información de fase entre el micrófono central y el ambiental para producir una señal L-‐R compatible con un sistema estéreo convencional. Debido a la presencia del micro central, esta técnica es bastante indicada para grabaciones estéreo donde se necesita una buena compatibilidad con sistemas monofónicos, y es extremadamente popular en emisiones de radio.
Como detalle, reseñar que la técnica M-‐S usada generalmente en masterización aprovecha este modo de registrar la información para poder actuar individualmente sobre el canal central (mono), y las pistas que estén ligeramente panoramizadas o posean información estéreo, con el fin de poder solventar problemas aislados que de otro modo no podrían ser depurados. Esto sirve de ejemplo para comprender cómo funciona esta técnica que en la grabación de señales, se basa en el mismo principio.
Estéreo binatural
Dos micros omnidireccionales colocados en los oídos de la cabeza de un maniquí creando una imagen estéreo. La técnica de grabación binaural hace uso de dos micrófonos omnidirecionales que se colocan en los oídos de un maniquí. Estos sistemas de doble canal emulan la percepción del sonido, y proveen a la grabación de una importante información aural sobre la distancia y la dirección de las fuentes sonoras. Cuando estas grabaciones se reproducen con auriculares, la audiencia experimenta una imagen sonora esférica, donde todas las fuentes de sonido son reproducidas con la dirección espacial correcta.
Las grabaciones binaurales se usan a menudo para sonido ambiente o en aplicaciones de realidad virtual. En una mezcla, nunca está de más contar con una o varias pistas capturadas en "estéreo real", mediante el uso de esta técnica. De este modo, contaremos con una referencia espacial realista que nos permita situar el resto de las pistas a partir de una "anchura" estéreo ya dada.
Estéreo Blumlein
Dos micrófonos bidireccionales colocados en el mismo punto y con ángulo de 90º entre sus ejes creando una imagen estéreo. El estéreo Blumlein es una técnica estéreo de coincidencia que usa dos micrófonos bidireccionales situados en el mismo punto y con un ángulo de 90º entre sus ejes. Esta técnica estéreo dará normalmente los mejores resultados cuando se use en pequeñas distancias hasta la fuente de sonido, puesto que los micrófonos bidireccionales emplean la tecnología de gradiente de presión y, por tanto, está bajo la influencia del efecto proximidad. A distancias mayores, estos micrófonos perderán las frecuencias graves. El estéreo Blumlein produce información estéreo puramente relacionada con la intensidad. Tiene una separación de canal más grande que el sistema X-‐Y estéreo, pero con la desventaja que las fuentes de sonido localizadas detrás del par estéreo también serán captadas y se reproducirán posteriormente siempre con la fase invertida.
DIN Estéreo
Dos cardioides de primer orden separados 20 cm y con un ángulo de 90º entre sus ejes creando una imagen estéreo. El estéreo DIN usa dos micrófonos cardioides separados y con un ángulo de 90º entre sus ejes para crear una imagen estéreo. El estéreo DIN produce una mezcla de dos señales estéreo de intensidad y retardo de tiempo, debido a la atenuación de la desviación del eje de los micrófonos cardioides junto con 20 cm de separación. Si se usa a grandes distancias de la fuente sonora, la técnica DIN
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 52
estéreo perderá las bajas frecuencias debido al uso de micrófonos de gradiente de presión y la influencia del efecto proximidad en ese tipo de micros, como vimos en el párrafo anterior. La técnica DIN estéreo es más útil en pequeñas distancias, por ejemplo, en pianos, pequeños conjuntos o para crear una imagen estéreo de una sección instrumental de una orquesta clásica.
NOS Estéreo
Dos micrófonos cardioides de primer orden separados 30 cm con ángulo de 90º entre sus ejes creando una imagen estéreo. La técnica NOS utiliza dos micrófonos cardioides separados 30 cm y con un ángulo entre sus ejes de 90º para crear una imagen estéreo, lo cual supone una combinación de estéreo por diferencia de volumen y por diferencia de tiempo. Si se utiliza en grandes distancias hasta la fuente sonora, la técnica NOS perderá las bajas frecuencias debido al uso de micrófonos de gradiente de presión y la influencia del efecto proximidad en ese tipo de micros. La técnica NOS estéreo es bastante similar a la técnica DIN que vimos en el párrafo anterior, por lo que su uso también se adecúa a pequeñas distancias y se recomienda también para grabaciones de orquestas, pianos acústicos, etc.
ORTF Estéreo
Dos cardioides de primer orden separados 17 cm y con un ángulo de 110º entre sus ejes creando una imagen estéreo. La técnica ORTF estéreo usa dos pequeños micrófonos cardioides de primer orden, con una separación entre sus diafragmas de 17 cm y un ángulo entre los ejes de sus cápsulas de 110º. La técnica ORTF estéreo (llamada así por ser ideada en la Office de Radiodiffusion Télévision Française) es muy apropiada para reproducir señales estéreo muy similares a aquellas que usa el oído humano para percibir información en el plano horizontal, y el ángulo entre los dos micrófonos direccionales emula el efecto sombra de la cabeza humana.
La técnica ORTF proporciona una grabación con una imagen estéreo más amplia que la técnica X-‐Y, y sigue preservando una razonable cantidad de información monofónica. Puesto que el patrón polar cardioide rechaza el sonido fuera del eje, las características ambientales de la sala son menos captadas. Esto significa que los micrófonos pueden ser ubicados a cierta distancia de las fuentes sonoras, resultando una mezcla que puede ser más atractiva. Además, la técnica ORTF es fácil de llevar a cabo, en la medida que van apareciendo micros construidos con características apropiadas para ella. Hay que tener cuidado cuando se usa esta técnica en grandes distancias, pues los micros direccionales muestran el efecto proximidad y el resultado será de nuevo una pérdida de frecuencias bajas. Se puede, no obstante, colorear el sonido posteriormente a base de EQ.
Estéreo apantallado ("baffled stereo")
Técnicas estéreo de micrófonos separados usando una pantalla de material absorbente.
Estéreo apantallado es un término genérico para un buen número de técnicas diferentes que usan una pantalla aislante para realzar la separación entre los canales de la señal estéreo. Cuando se colocan ente los dos micros en un sistema espaciado como A-‐B, DIN o NOS, el efecto sombra provocado por la pantalla tendrá una influencia positiva de atenuación de las fuentes de sonido desviadas del eje, y por ello se realza la separación de canales. Las pantallas deberían estar construidas con un material acústicamente absorbente y no reflexivo, para prevenir las reflexiones en su superficie que puedan colorear el sonido.
Un caso particular de esta técnica es el denominado "Jecklin Disk", que consta de dos micros omnidireccionales separados unos 15 cm y una pantalla de unos 30 cm situada entre ellos. La pantalla es un disco rígido recubierto de material absorbente. El ángulo desde el eje central a cada micro es de unos 20º. La pantalla también puede ser una esfera rígida con los micros empotrados formando el mismo ángulo y distancias opuestas. Otra variante es usar micros de gradiente de presión separados la distancia de los oídos con la pantalla absorbente entre ellos, etc.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 53
Árbol Decca ("Decca tree")
Tres micrófonos omnidireccionales en triángulo. Configuración con gran aceptación en el mundo de la grabación orquestal. Originalmente introducido por el sello Decca, el árbol consiste en una figura de tres puntos formada por micrófonos omnidireccionales en un triángulo (casi equilátero) apuntando hacia la fuente sonora.
Los dos micros exteriores están bastante apartados, de manera que aparece un agujero central si no se coloca un micro en ese lugar. Ese micro central debería ser mezclado para rellenar el hueco, teniendo cuidado de no enturbiar la perspectiva del sonido haciéndola demasiado monofónica. Las distancias exteriores oscilan entre 60 y 120 cm. El tercero, el del centro puede estar ligeramente por debajo y por delante del par externo. Dependiendo de las variables acústicas de la sala donde el conjunto o la orquesta sean grabados, el árbol puede ser alzado o bajado par lograr el mejor resultado. Es una colocación con mucho éxito porque asegura un sonido natural, sin fisuras para la audiencia, y les permite experimentar la interpretación en un contexto de dinámica total. A menudo, el árbol se coloca justo detrás o encima del director, lo cual da como resultado un balance muy cercano a la intención musical. Además, los tres micrófonos se aproximan más a las secciones de la orquesta que los sistemas A-‐B, proporcionando mucha más claridad y definición de la imagen estéreo, logrando así una reproducción más intensa y detallada.
Conclusiones
La utilización de este tipo de técnicas es verdaderamente importante si pretendemos conseguir producciones grandes, abiertas y espaciosas. Grabaciones de overheads de batería, percusiones, guitarras estéreo, pianos de cola, orquestas completas, micros de ambiente de conciertos... son ese tipo de grabaciones en las que se hace un uso constante de estas técnicas.
Debemos tener en cuenta que existen micrófonos estéreo que albergan dos cápsulas en una sola unidad, al igual que pares de micros que se entregan con un soporte especial para colocar éstos sobre un sólo pie de micro, y que posibilitan su orientación para poder realizar grabaciones estéreo A-‐B, X-‐Y... con menor trabajo que haciéndolo por los métodos tradicionales. Tendremos esto en cuenta a la hora de escoger un set de micrófonos que se adecue a nuestras necesidades.
Haciendo uso de los datos que genera incesantemente la evolución del mundo de la grabación de audio, debemos ir logrando acercarnos poco a poco a las producciones que realmente transmiten emociones, factor fundamental para que la música se haya convertido en lo que es hoy día.
Uso de micrófonos: guitarra, bajo y voz
Hoy saldamos una deuda que teníamos con vosotros desde hace demasiado tiempo. Con este artículo completamos la serie sobre uso de micrófonos que arrancó en febrero de 2006 con la parte dedicada a baterías. En esta ocasión, nos ocupamos del microfoneo de guitarras acústicas y eléctricas, bajo eléctrico y voz. Se incluyen 17 ejemplos en MP3 de tomas realizadas con Shure SM57, AKG C41, AKG D112, Sennheiser 421 y Neumann U87. Tampoco faltan capturas de la ecualización recomendada, buenos consejos técnicos y fotografías de la posición y distancia de los micros.
Tomáoslo como una introducción al trabajo con micrófonos. Recordad que, para conseguir un buen sonido, no basta con seguir al pie de la letra unos cuantos consejos y tener un buen material; hay muchos otros factores que influyen: la calidad del instrumento y la destreza del ejecutante, la acústica de la sala, vuestra habilidad con los ajustes...
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 54
Guitarra eléctrica
En el registro sonoro de la guitarra eléctrica se suele poner el micrófono perpendicularmente al altavoz o con un ángulo de 45 grados, entre otras posibilidades. Cabe destacar que la afinación, el guitarrista, la guitarra, pastillas, amplificador y altavoces son tan importantes como el micrófono y la propia grabación.
Bajo eléctrico
El bajo eléctrico rinde más con las cuerdas nuevas, siempre que se busque un sonido brillante. Normalmente, los micrófonos que funcionan mejor son los colocados a unos 10 cm. del altavoz, entre el centro y la circunferencia. Es aconsejable también utilizar una toma de bajo directa de una D.I., aparte de los micrófonos y/o de la salida balanceada del amplificador o previo de bajo.
Guitarra acústica
Suponiendo que el sonido de la guitarra sea muy bueno, que está afinada, con las cuerdas nuevas o casi nuevas y que la técnica del ejecutante es buena, nos ponemos en marcha para elegir micrófonos. Un micrófono a unos 15/30 centímetros de la boca de la caja de resonancia nos dará un sonido puro, natural, con mucho cuerpo. Se puede añadir otro micrófono a 1 ó 2 metros de distancia. A veces, también se puede colocar un micrófono detrás de la caja de resonancia, para buscar otro tipo de cuerpo, aunque no es muy habitual. También juega un papel importante la acústica del lugar.
Voz
En el registro de la voz humana hay muchas cosas a tener en cuenta; sobre todo, que el cantante no se mueva mucho, no llevar el ritmo con el pie, no usar los auriculares a un volumen excesivo, y que éstos sean siempre cerrados. El uso del popfilter o antipop es imprescindible, para que las "P" y "B" no suenen como un golpe en el diafragma del micrófono y arruinen la grabación.
El micrófono más clásico para grabar voces es el Neumann U87. El cantante se situará normalmente a unos 15/20 centímetros. También puede usarse un AKG C414 a un metro de distancia, siempre que la acústica del lugar sea muy buena.
Diagrama polar
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 55
Cadena de la señal de audio del micro al altavoz
Conexionado de un equipo de producción sonora
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 56
Circuitos de un canal (5 tipos)
Interfaces y superficies de control
http://www.thomann.de/es/equipo_de_estudio_y_recording.html
Audio InterfacesSuperficies de control
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 57
Conexionado y soldadura El cableado es el eslabón más débil de cualquier equipo; están por el suelo, los retorcemos, tiramos de
ellos, sufren pisotones, les pasamos por encima con los fligth-‐cases…un montón de maltratos que nos pueden complicar la vida en medio de una grabación o durante un bolo.
Conectores
Llamamos conector a la conexión que tenemos en los extremos de los cables; piezas metálicas (a veces recubiertas de plástico) que son las que formarán parte de lo que queramos interconectar. Existen en el mercado multitud de conectores, destacando el XLR como estrella del catálogo seguido por los conectores TRS (Jack). Veamos en el siguiente cuadro los conectores de audio que podemos encontrarnos:
Aéreo simplemente nos indica que el conector está diseñado para ser instalado en un cable, al igual que el acodado, con la diferencia que este último se usa en aplicaciones donde el espacio es reducido y el conector no puede ocupar el espacio habitual.
Los conectores de chasis son aquellos que nos encontramos en aparatos (mesas de mezcla, previos, compresores, puertas…); en definitiva, son los que están instalados en la carcasa de un aparato.
XLR, también conocido como CANON, es la conexión estrella entre los micrófonos y las mesas de mezcla (o previos, o cajetín…). Tiene 3 pines; 1 malla, 2 vivo y 3 frío (return, hot, cold) Estos números nos los podemos encontrar dentro del conector al lado de cada patilla para identificarlo.
TRS, también conocido como Jack: en ningún caso deberíamos llamar a este conector como jack estéreo (ver apartado “La confusión entre el mono y el estéreo”). Tiene 3 puntos de conexión; punta, anillo y malla (tip, ring, sleeve).
El TS es igual que el TRS pero carece de anillo (ring), lo cual lo convierte en un conector con 2 puntos de conexión; punta y malla (tip, sleeve). El diámetro en ambos casos es de ¼ de pulgada (6,35 mm).
RCA (cinch) es el más común de los conectores de audio que nos podemos encontrar en sistemas domésticos, mini cadenas hifi, reproductores de CD…sólo tiene 2 puntos de conexión, punta y cuerpo.
Minijack: popularizado por las salidas de auriculares de los reproductores portátiles; walkmans, minidiscs, reproductores de MP3…no se considera una conexión estándar o profesional, pero entendemos que es común al público en general y es positivo conocerlo. Tiene 3 puntos de conexionado, al igual que el TRS (tip, ring, sleeve). Su diámetro es de 1/8 de pulgada (3,175 mm).
El conector combo se está estandarizando en pequeños interfaces de audio y mesas pequeñas. Este conector nos permite conectar un XLR macho, un TRS macho o un TS macho en el mismo conector hembra. Sin duda un acierto y ahorro de espacio.
La última novedad en conectores es el Silent Plug. Sirve para los cables de guitarras, bajos y demás instrumentos con pastillas, y llevan un mecanismo que se encarga de “mutear” la señal mientras no está
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 58
conectado, evitando los temidos “chisporroteos” en los equipos, que pueden llegar a ocasionar averías. Esta es sin duda la forma segura y rápida de enchufar y desenchufar nuestras guitarras “en caliente”, sin estar pendiente de que los técnicos muteen el canal.
Los conectores normalmente se compran en paquetes de 10, 25, 50, 100… y hay multitud de marcas que los comercializan: Destacamos en este aspecto a [ Neutrik ] como líder del sector.
También cabe destacar la existencia de adaptadores que intercambian la terminación de un cable con cualquier conector en otra que nosotros elijamos, siendo esta una forma rápida y segura de convertir, por ejemplo un RCA –RCA en RCA-‐TS.
Adaptadores
Cables
Los cables que todos nosotros manejamos no son otra cosa que la agrupación de otros cables en un interior (que a partir de ahora llamaremos minicables). Llamamos malla al cable que en vez de viajar de punto a punto normalmente va rodeando el resto de cables. Esto se hace para crear un campo alrededor del cable, intentando protegerlo de interferencias externas.
El cable normalmente se adquiere en bobinas de 25,50 metros, y se corta al gusto de la longitud que queramos.
Balanceado y no balanceado
Por un cable balanceado viaja la misma señal 2 veces, pero en una de ellas cambiada de polaridad. El fin de la señal balanceada es evitar ruidos e interferencias que distorsionen la señal original. O lo que es lo mismo, tenemos la misma señal 2 veces sin interferencias, ya que estas se anulan al ser sumadas con polaridades contrarias.
La confusión del mono y el estéreo
Por lo general, no existen cables mono y cables estéreo, es decir: no por ver un conector TRS en un extremo del cable diremos que ese cable es estéreo. En todo caso, podríamos decir que es balanceado, y siempre atendiendo a lo que haya en el otro extremo, como se explicó anteriormente. Existen cables estéreo, pero reservamos este término para cuando obligamos a viajar por el mismo cable 2 señales distintas, como en el cable de los auriculares. En el cable de los auriculares, en un solo conector TRS o minijack viaja la señal de L y la señal de R. Esto es posible porque por la punta (tip) se envía la señal de L y por el anillo (ring) la señal de R, y ambas señales comparten retorno por el cuerpo (sleeve). De manera que por un cable balanceado (2 minicables y malla) con un conector de 3 puntos de conexión podemos hacer viajar 2 señales NO balanceadas independientes.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 59
Proceso para la postproducción de sonido del rodaje al master Este es el procedimiento para sonorizar una escena.
1-‐ Captación del audio en grabación en Fostex u otro grabador, siempre usando la claqueta.
2-‐ Captura de las secuencias de vídeo válidas e importación de los correspondientes audios grabados en el Fostex al programa de edición (Avid o Final Cut).
3-‐ Con los materiales, hacer carpetas de vídeo/audio y sincronías.
4-‐ Hacer una secuencia de cada toma (o por tipos de plano), sincronizando vídeo y audio con la referencia de la claqueta. Hay que sincronizar el audio antes de empezar a cortar, porque si no perdemos la referencia de la sincronía. Al hacerlo por planos, el encargado de audio sólo tiene que ecualizar una vez el audio, y le quedan todas las tomas del mismo plano (tomadas en las mismas condiciones) arregladas.
5-‐ Editar el material con el audio sincronizado de cada plano, vinculando vídeo y sonido.
6-‐ Una vez finalizada la edición exportamos por separado el vídeo del audio.
7-‐ El vídeo es suficiente con un archivo quick-‐time pequeño, como 240px, porque sólo nos importa la referencia y que pese poco, la calidad es lo de menos.
8-‐ Exportamos el audio como OMF. Es un archivo donde aparecen todos los audios separados pero sincronizados. La ventaja del OMF es que así se puede exportar con colas de audio. Parámetros para exportar en OMF: incluir todas las pistas en la sección y “Consolidate Media Handle Length” 250 frames (esto se refiere a la longitud de las colas, por si hay que hacer encadenados o arreglos)
9-‐ Abrimos el editor de audio que vamos a usar (ProTools, Logic, Nuendo…) e importamos el archivo de vídeo y el de audio.
10-‐ Importamos todos los archivos que necesitamos para la edición y conformación del audio.
11-‐ Organizamos los audios en diferentes pistas, cada una para un plano.
12-‐ Hacemos la limpieza de los diálogos.
13-‐ Ajustamos los Fade y Crossfade.
14-‐ Ecualizamos si es necesario.
15-‐ Insertamos Room Tone y los efectos.
16-‐ Metemos la música.
17-‐ Pasamos a realizar la mezcla en estéreo o en 5.1.
18-‐ Una vez que tenemos una mezcla idónea hacemos un Bounce para tener un archivo estéreo WAV o AIFF.
19-‐ Este archivo lo importamos al proyecto en el editor de vídeo y lo ajustamos a la secuencia.
20-‐ Una vez que exportemos la secuencia con ese audio, ya tenemos el proyecto finalizado.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 60
Guía para compresión
Vídeo
Códec H.264
El códec es el formato en que se codificará el vídeo. Los distintos códec tienen características distintas y calidades variables. Para los mejores resultados, recomendamos H.264 (a veces referido como MP4)
Frame rate 24, 25 o 30 FPS
Lo mejor es codificar a la misma velocidad que se grabó. Si la velocidad excede los 30 FPS, deberá codificar el vídeo a la mitad de la velocidad (por ejemplo, para 60 FPS deberá codificar a 30 FPS).
Data rate 2000 Kbps (SD), 5000 (HD)
Esta característica controla la calidad visual del vídeo y el tamaño del archivo. Los mejores editores de vídeo se señala en kbps. Los 2000 Kbps se utilizan para la definición estándar y los 5000 Kbps para la alta definición.
Resolution Es la cantidad de píxels y el ratio de aspecto. Por ejemplo, un vídeo de 64x480 correspondería a un 4:3 y un 640x360 a un 16:9, ambos en definición estándar. Para la alta definición se usarían tamaños superiores a 1280x720 píxels.
Deinterlacing Si se ha grabado con una cámara antigua, debería seleccionar esta opción para evitar líneas horizontales. En las cámaras modernas no es necesario.
Audio
Códec AAC (Advanced Audio Códec). Es el más recomendado para buenos resultados.
Data rate 320 kbps es la mayor calidad que soporta Vimeo
Sample rate 44.1 KHZ es el simple rate más alto que soporta Vimeo
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 61
Podcast Podcasting: Sindicación de archivos de sonido, generalmente en formato MP3 (ver diapositiva en el
campus). Podcasting es la sindicación de archivos de sonido, normalmente MP3, con un sistema RSS, que permite suscribirse y descargarlos de forma automática y periódica. Sindicación significa que no necesitas visitar otra página web individualmente para escuchar el mensaje (archivo de sonido) simplemente tienes que pulsar en un botón para escucharlo.
Para la creación de un Podcast se hace una grabación básica en estudio. Luego incluimos los efectos, música… con algún programa de edición de audio y lo exportamos a WAV, para convertirlo después a MP3 con cualquier conversor (o exportarlo directamente a MP3 si el programa lo permite).
Creamos un blog donde poder colgar nuestros contenidos y una cuenta en algún sitio de FTP (divshare, blip.tv…). Creamos una entrada nueva (así haremos público ese nuevo podcast) en la que introduciremos el enlace al archivo subido.
Los Podcast se distribuyen por RSS, que es lo que permite a nuestros oyentes que se suscriban a nuestro Podcast sin necesidad de ir al Blog (mediante iTunes, Google Reader…).
Si hacemos el blog con Blogger, es conveniente solucionar los posibles problemas de RSS con Feedburner. Para ello, entramos en FeedBurner con nuestra cuenta de Google, introducimos la URL del blog y marcamos “I am a podcaster”. En la siguiente página seleccionamos cualquiera de las dos (ATOM o RSS) y en la siguiente página elegimos un título y metemos una URL. Luego, en "Create podcast enclosures from links to (selection) : "any rich media", y rellenamos la información para iTunes.
Luego habrá que actualizar el feed en Blogger (Configuración > Feed del sitio > “Publicar URL redireccionada del feed” > ponemos la URL de feedburner).
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 62
Charles Chaplin y los inicios del cine sonoro
Los críticos con el advenimiento del sonoro
Para algunos cineastas USA de los años 1920, el sonido degeneraba el cine como arte. Esta postura fue defendida por muchos directores, que tardaron en aceptar el sonido o que no lo hicieron. Por ejemplo, Griffith no fue capaz de superar la aparición del sonido, y sólo realizó dos películas sonoras.
Hitchcock el mayor exponente de esta postura. Sus grandes secuencias son mudas, sin diálogo. Como para Chaplin, para Hitchcock el cine se convertía en una copia de una obra de teatro. Así, Chaplin afirmaba que con el cine sonoro se volvía el teatro hablado; se volvía a filmar algo que ya conocíamos de antes (en los teatros), y que toda la evolución del cine como “arte visual” se perdía con el sonoro.
Luces de la ciudad
-‐ Los créditos iniciales: • Tienen 3 músicas distintas: al principio utiliza metales jazzísticos (como un claxon largo de la
ciudad o una sirena de fabrica en su imitación. Es una música urbana norteamericana, jazz, Broadway). Al final se repite este carácter urbano de la música, pero en el medio la música toma un carácter español, anticipando "La violetera“, una copla (curioso que Chaplin se viese obligado a incluir en créditos a José Padilla, al que había obviado en la primera versión, diciendo que la música era suya. Es el primer caso de copyright que se gana por la música). El tercer tema es un romance, un vals.
• Aunque en los títulos de crédito se señala que es una comedia, la música de fondo no es ni de comedia ni de romance, sino más bien de tensión, como parodiando el género.
• También se señala en los créditos que se trata de una pantomima (arte del mimo). Así queda patente la influencia del teatro.
- Secuencia inicial: • Los diálogos están hechos con un kazoo (son onomatopéyicos). Es la primera vez que se oye a
Chaplin, a pesar de su oposición al sonido. Uso expresivo del sonido distorsionado como idioma universal. Los diálogos se "entienden" por el intertítulo inicial que marca el carácter del discurso, pero también se subraya lo vacuo del discurso; nada de lo que dicen es importante (parodia a la clase política o rica del momento, a su pomposidad).
• El diálogo es como el que haría un ruidero, no aporta nada. Pretende parodiar el cine sonoro. Su intención es cómica.
• Música extradiegética o diegética en esta primera secuencia; Himno USA , diegético. • Durante el himno, todos están quietos salvo Chaplin.
- Escaparate: • Escaparate: En el momento en el que Chaplin observa el maniquí se detiene la música. Tras esto,
la música va a trompicones, acompañando los movimientos de Chaplin y creando tensión sobre si caerá en el agujero o no. En esta secuencia se aprecia un notable uso de los silencios para marcar vacilaciones, dudas, interés… juega mucho con las pausas de la música.
- Cuando encuentra a la mujer ciega: • La música se ralentiza (leitmotiv). No oímos la puerta del coche, pero la chica ciega sí. La música
se torna más dulce, como si representara la situación amorosa y el carácter de la muchacha. Las
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 63
frases musicales parecen acompañar las intenciones de cada personaje, como si se estuviera produciendo un diálogo.
• Se trata del mismo vals que al inicio, pero más romántico. Cuando él se acerca a hurtadillas, la música es más baja y más lenta.
Cabe destacar que en el fragmento analizado no existe ningún efecto de sonido además del abucheo de la multitud cuando Chaplin está colgado de la estatua: ni el agua, ni los coches, ni las puertas hacen ruido. No existe el universo sonoro en el film tal y como lo entendemos hoy en día.
- La fiesta: • La música crea la fiesta, acompaña los movimientos sinuosos de Chaplin. Los efectos sonoros se
hacen con la música, como los spaguetti. En la pelea, la música marca los golpes. • Aparece el silencio premonitorio. • Música diegétia (la banda), los personajes oyen la música. • Chaplin es el mayor exponente de los slapsticks.
Luces de la ciudad se extiende su rodaje casi a dos años y se va desarrollando con mucha lentitud, típico de los rodajes de Chaplin. Rodada independientemente de lo que ocurría con el cine sonoro. Hay una plena efervescencia de la música en la película, pero en cuanto a su presencia diegética esta película tenemos un baile y muy poco más (el himno).
El punto de partida de la película en cuanto a historia es el encuentro entre el vagabundo y la florista.
Muestra la autosuficiencia de un cine que se quiere mudo pero que ya tiene en sí mismo el sonido. Convoca un sonido aludiendo a su presencia natural, en ningún caso lo manipula. Hay juegos Sinestésicos. Hace intrascendente la presencia concreta del sonido, porque el sonido no hace falta que se oiga, porque se siente, lo “oímos” mentalmente como espectadores aunque no se oiga. La razón de ser del arte del cine viene dado por la visibilidad de un mundo audible; nosotros no lo oímos, pero el sonido está ahí está ahí y los personajes lo escuchan. Chaplin, en relación con el sonoro, lucha más en el campo estético que en el político.
Tiempos modernos
Chaplin intenta universalizar el guión para que todos lo entiendan, como ocurría con el cine mudo (por ejemplo, en la escena de las pancartas hay varios idiomas), y utiliza ciertas cosas del sonido de forma estética.
Aunque sea la primera película hablada de Chaplin, los diálogos sólo se oyen cunado salen de artilugios mecánicos, no son pronunciados por personas (videófonos del presidente de la factoría, el fonógrafo del vendedor de máquinas de comer, la radio en el despacho del alcaide de la prisión…). La tecnología es símbolo de la deshumanización.
Se oyen los cantantes de la cafetería y sus voces, las risas y los aplausos de los espectadores del restaurante... Los efectos se oyen sobre todo en las secuencias de la factoría (las máquinas hacen ruido, las personas casi no).
En la secuencia semifinal (Charabia o gibberish), se oye cantar a Chaplin por primera vez. Él quería un lenguaje universal que “entendiese todo el mundo”. Utiliza gestos para apoyar la canción y hacerla más entendible y cómica, es casi imposible entender lo que dice la canción sólo con gestos.
En la fábrica, la música y el ruido se funden.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 64
Tiempos modernos es una crítica tanto por el maquinismo como la revolución industrial y la aparición del sonido. Se estrenó cinco años después de Luces de la ciudad, cuando el sonido estaba ya consolidado. El efecto disonante de esta película en su época es más pronunciado si atendemos a que no hay voz, pero sí mucha riqueza musical y de ruidos. Chaplin es el compositor de las partituras de casi todas sus películas. Aquí no renuncia al resto de sonidos pero sí a la voz, a la palabra teatro, a la gente que habla sin más.
La película tiene dos tipos de roles del sonido en cuanto a dialogo: los emitidos en directo por los personajes, pero que no oímos (en intertítulos; esquema típico del cine mudo) y los transmitidos por la tecnología (radio, sistema interno de la empresa) que tiene la cualidad de oírse. Los aparatos tecnológicos y mecánicos son los que transmite la voz.
La película vulnera sus leyes de no oír diálogos cuando en un momento álgido del film oímos la voz de Charlot cantando; el vagabundo, hasta entonces, no había hablado. Así, Chaplin desmiente los rumores de que no es capaz de hablar en público y que su renuncia al sonoro no es una carencia, sino una decisión propia. Pero utiliza una mezcla entre francés e italiano, cuando el inglés era el idioma mayoritario en salas, porque quiere demostrar que no necesitamos la voz para el conocimiento: todo está en su interpretación. Los sonidos, desprovistos de todo potencial comunicativo, se reducen al efecto cómico.
- Créditos: música que provoca tensión en contraposición con la película, que es una comedia; pero por otro lado tiene mucho que ver con lo que vamos a ver después, con el ambiente de la fábrica. Emplea la misma música para dos imágenes diferentes como metáfora, comparando a las ovejas con los trabajadores.
- Fábrica: Música extradiegética para acompañar las acciones de la fábrica, proceso de montaje, crea los efectos sonoros de la maquinaria (el compás de la música marca la actividad laboral). La única voz que se escucha del presidente cuando habla a través de la megafonía, y cuando habla y la escena transcurre en su despacho la música desaparece, primando su voz (es el único que tiene voz,, lo que también establece cierta jerarquía empresarial); son diálogos “limpios”. En el baño suena música romántica hasta que aparece el presidente, que es cuando deja de estar relajado Chaplin. Cuando presentan la máquina, las dos veces, suena música en tono triunfal y ponen un tocadiscos que reproduce una voz diegética que presenta la máquina. A veces existe un intercambio de frases musicales a modo de diálogos.
- La representación del diálogo en la película se da en tres formas:
• Silencio: Hablan, pero no les oímos. Les vemos mover labios y gesticular.
• A través de las máquinas: Las voces y efectos provienen de las máquinas, y a través de ellas es también de la única forma que oímos el diálogo.
• Rótulos: Se utilizan los rótulos para diálogos necesarios que no se dan a través de las máquinas, como es el caso de la afirmación del jefe de que la máquina para comer no es práctica.
El gran dictador
El Gran Dictador es una parodia de Hitler, una broma irónica y burlona sobre el dictador. Su trama despliega dos líneas de acción paralelas que se encuentran al final, y responde a la idea del evidente parecido facial entre Charlot y el tirano. Es la primera vez que Chaplin escribe un guión "estándar”, con diálogos. Su cine era antes deslavazado, de secuencias autónomas que se unían porque lo cómico era lo más característico de Chaplin. El montaje de Chaplin se resiste al analítico en continuidad de Hollywood (no hay plano contraplano apenas hay insertos…) porque él busca la libertad de la actuación de los planos secuencia.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 65
El Gran Dictador se crea al contacto de los acontecimientos. Chaplin investigó rigurosamente sobre el nazismo durante dos años. El 9 de septiembre de 1939 comienza el rodaje, pocos días después de la invasión de Polonia, en un momento de máxima tensión. Cuando la película se está montando hay bombardeos en Gran Bretaña. Chaplin es inglés y se ve afectado por lo que ocurre allí. Hay un contexto histórico que ha quedado reflejado en el film. Precisamente por estas referencias, tuvo muchos problemas para estrenar la película en España.
El barbero no es Charlot pero tiene características de él, es anónimo y tiene una escueta intervención hablada. Es Charlot en cierta manera. Tiene amnesia y ha olvidado el pasado, no sabe cuanto tiempo transcurrió desde el accidente. La película supone la última aparición de Charlot (el vagabundo), que resulta ser un judío que desaparece en los campos de concentración. No hace ya falta ni su sombrero ni su bastón. Sigue haciendo uso de la pantomima y de una gestualidad excesiva que busca un efecto cómico. Además, el barbero apenas habla (murmullos, suspiros…).
Hynkel es el primer personaje que Chaplin se crea para él desde Charlot, y es antecedente de todos los que vienen después. Tanto Hinkel como el asesino de Monsieur Verdoux son personajes “de la vida real”. Además, habrá otros personajes “increíbles”.
Significa la desaparición de Charlot y la aparición de Chaplin hablando. Es el hombre (Chaplin), en sustitución del personaje (vagabundo/barbero judio). Todo este proceso tiene su momento trascendente en la secuencia final del film, donde la interpretación es tomada por un personaje bastardo, pues no es el personaje del barbero ni tampoco es Hynkel. Es la presencia del propio Chaplin, que se despoja de los dos personajes. Habla Chaplin como ciudadano, muere Charlot, el personaje, y Chaplin, el hombre, toma la iniciativa.
Es un discurso postizo porque no sólo es que no podemos relacionarlo con los otros personajes, sino que se escapa de los acontecimientos de la película. Habla a los ingleses. Es una llamada a la esperanza. En el primer final original se anunciaba el desarme total de Tomania y con todos los soldados bailando
El final es ambiguo porque Hannah oye lo que dice Chaplin-‐Vagabundo-‐Hynkle. La palabra tiene una trascendencia absoluta. El gesto de tomar la palabra del autor (Chaplin) es como el destino final de un viaje del vagabundo hacia el mundo real. Todo esto tiene lugar en un entorno con otras cuestiones de interés. El film da la espalda y hace caso omiso a todo lo que se está haciendo en Hollywood. Mantiene una anacrónica vigencia de los principios de puesta en escena del cine mudo. Prevalencia del actor sobre el montaje.
En el primer discurso, el discurso verbal es desactivado como informador, no es reconocible y se pone el acento en lo humorístico y todo queda supeditado a la caracterización del personaje. Es el contradiscurso del discurso final. En el primero hay un traductor para hacer entendible lo que habla Hynkel, también con efecto cómico. Frases largas de Hynkel se traducen con frases cortas y viceversa. Se diría que habla alemán, aunque realmente es un idioma inventado. Chaplin ridiculiza a Hitler (grita, tose, se atraganta... tiene una voz tan irritante que ni los micros le soportan). Por eso tampoco es realmente alemán, porque realmente lo único que dice son tonterías.
El segundo discurso está justo en la mitad del film, cuando Hynkel da por terminado el periodo de distensión. El momento crucial es cuando el barbero empieza a coreografiar gestualmente las barbaridades que el dictador dice. Es un doblaje por gestos. El planeamiento es igual que el del principio, pero ahora no hay speaker que traduzca, sino los gestos del barbero. Un gesto actoral y artístico que busca criticar los cimientos del cine sonoro. Es el único momento de la película en que Hynkel y el barbero comparten encuadre, aunque sea uno en imagen y otro en voz. Resulta imposible la relación entre Hynkel y el judío, pero más difícil será la aparición del final en la que vemos el cuerpo del barbero y la supuesta voz de Hynkel. Chaplin "Criticaba" el sonoro y lo acepta en el discurso final, habla a cámara. En El Gran Dictador se
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 66
rompe su lucha anterior contra el sonoro. En el momento en el que Chaplin habla desaparece Charlot, y ya no aparecerá en filmes posteriores.
Se crea un universo sonoro, aunque no será como el actual (no es un universo sonoro “perfecto” o “real”): no hay room tone presente, los efectos son casi musicales, no están todos los sonidos (por ejemplo, al principio, durante la guerra, se oyen las bombas y los aviones, pero no los pasos)… aunque sí hay música diegética, cuando Hynkel toca piano, y efectos sonoros (ruido de la máquina de escribir, por ejemplo). Tienen mucha importancia los silencios que remarcan la presencia de otros sonidos más fuertes: bombas, disparos…
Sigue buscando el lenguaje universal. Por ejemplo, utiliza el esperanto en los carteles. El sonido también se escribe (intertítulos). Sigue usando la música para acompañar los movimientos, como en la barbería, que se oye la radio mientras él afeita al hombre a ritmo de la música (danza húngara). También hay leitmotiv, cada vez que Hannah aparece.
Se rompe la diégesis cuando Hanna habla sobre los polis buenos: está interpelando al espectador, rompiendo la cuarta pared. Es un monólogo, deja de ser personaje para ser narrador y haciéndonos partícipes de la historia. Es una técnica de distanciamiento marxista; de desalienamiento; se le dice al espectador “despierta, sal de la película”; es la opinión del narrador, de Chaplin.
En la secuencia de guerra inicial, los diálogos reflejan de manera muy clara la cadena de mando existente en el ejército (los personajes se sitúan en fila y van gritándose hacia atrás hasta que llegan a Chaplin, que no tiene subordinados).
Desde el primer momento escuchamos un narrador en off que cuenta la historia, sustituyendo el papel de los intertítulos.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 67
Bienvenido Mr. Marshall (1953), Luís García Berlanga La famosa canción de esta película se trata de "Coplillas de las divisas", una canción escrita por los
maestros Ochaíta, Valerio y Solano para una de las voces más sevillanas de la Copla: Lolita Sevilla ("La Venus de Sevilla") nacida en el barrio de San Lorenzo, el del Gran Poder. (sic transit).
- Créditos: La música tiene carácter de comedia, hay muchos temas distintos mezclados (carácter español entremezclado con melodías y tonos de comedia y melodía orientalizantes – Tchaikowsky, Prokofiev – que remarcan el tono de “cuento de tesoros” de la película). No hay ambientes ni efectos cuando pasa el coche cerca de cámara, no hay ruidos de exteriores, solo música pura extradiegética, pero que introduce con su carácter musical los temas que van a prevalecer en la película. La música se para cuando quiere el narrador, con efectos sonoros muy musicales, y se reinicia de la misma manera. Música jocosa con la llegada del delegado. La música inicial, que aparece durante los créditos, es bastante rítmica y repetitiva, y, una vez pasados los créditos, se integra en la historia. Parece música de suspense por el ritmo que mantiene durante los créditos.
- Presentación del pueblo y los personajes: Lo hace el narrador. No hay efectos ni ambientes, sólo voz en off grabada en estudio. No se intenta que la voz tenga un raccord sonoro de los exteriores. No; es la voz perfecta del narrador perfecta; es la voz de Dios, que además dice “erase una vez”. Hace referencias al narrador de las películas mudas, que describe todo lo que ve para que los espectadores de aquella época, sin cultura visual, puedan seguir la narración. Este narrador para la película para que podamos conocer a los personajes (nunca se les oye hablar aunque hay planos de los personajes hablando o haciendo ruido que no se oyen físicamente pero sí como sinestesias sonoras de las imágenes, igual que en el cine mudo). El narrador es natural, amable, nos cuenta un cuento a nosotros, espectadores-‐niños. Hace referencia al tono de los narradores de Hitchcock y en general a los narradores de moda en casi todas las películas de los años 40; es también, por ello, una parodia del uso de los narradores. El narrador sabe más que el espectador, es omnisciente, conoce el pasado presente y futuro de los personajes. El tono jocoso se remarca con frases como “pasar lo que va a pasar”; conoce el futuro se para y no lo desvela, se ríe de su superioridad y de la idea de conseguir cosas, regalos, sueños (referencias a Milagro en Milan, de De Sica, o a Lo viejo y lo nuevo de Eisenstein, Pasaporte para Pimlico de Henry Cornelius y La Kermesse Heroica de Jacques Feyder en el tono de comedia general del narrador y del film). La voz en off de Fernando Rey presenta el pueblo de Villar del Río en todas sus facetas, desde los lugares más representativos hasta los habitantes, de modo que esta voz inicial sirve para asentar el funcionamiento interno del espacio en el que va a tener lugar la acción, así como sus personajes más representativos. Esta voz en off está caracterizada por un tono informal, jocoso, casi dubitativo y ligeramente infantil, como de fábula. Hace preguntas, se detiene, rectifica, carraspea, utiliza deícticos constantemente para hacer alusión a la imagen (aquí, allí, ésta), y también emplea elementos descriptivos y enumeraciones. Pero lo que más resalta, es que alude al espectador, se dirige a él buscando una interactuación y rompiendo la cuarta pared, y de igual modo, interactúa con los personajes de la película, llegando a pedirle disculpas a uno de estos por hacerle esperar mientras éste está cargado, o bajar el volumen y susurrar cuando esta voz se encuentra con un personaje que está durmiendo.
- Secuencia de diálogo inicial (búsqueda del alcalde y conversación con el delegado): Sonido natural, con ruidos, efectos, música para remarcar jocosamente la llegada del delegado y conversación “natural”, perfectamente entendible, aunque jocosa por el hecho de ser un alcalde sordo y un político que “siempre habla del tren” o “hable con ellos (mueva los labios) como si los recibiera (Americanos); no le van a entender”. Los diálogos no están hechos con sonido natural, sino que están doblados en estudie, algo que era infrecuente en la época.
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 68
Los planos sonoros, en “Bienvenido Mr.Marshall”, aparecen en la secuencia primera del café “...Del río”. No es la primera y única vez en la película; también antes, cuando el pregonero va a buscar al alcalde en el carro.
Llama la atención el momento en que la cámara apunta a Don Cosme, mientras duerme, y vemos lo que sueña; al principio es una música "celestial" como bien se dice, música típica de Iglesia, de Semana Santa...de buenos; pero justo después, varía a un Jazz, o algo similar, una música más relacionada con el pecado...y, en éste caso, con los americanos. Hace una relación cómica entre el KKK y el jazz como dos elementos propios nortemaericanos. En el sueño del alcalde habla en un idioma que parece inglés pero que no lo es (inventado como Chaplin); aún así, entendemos lo que dicen. En el café, durante el momento del duelo, la música se para, y el silencio resulta ser un elemento dramático, junto con los efectos (pasos diegéticos pero reforzados). En el sueño con temática western notamos que hay una gran cantidad de efectos sonoros: disparos, botellas, cristales rotos, el vaso que se desliza por la encimera...
Los personajes no hacen ruido al llevar a cabo acciones comunes como puede ser andar, mover una mano...un ejemplo claro es cuando Carmen entra en el camerino y comienza a quitarse la peineta, los pendientes, las flores del pelo... Notamos que no existe importancia sonora, es decir, que da igual la distancia a la que se encuentren los personajes, todos hablan desde la misma posición. Únicamente notamos un ligero cambio en un momento en el que dos personajes están hablando desde el balcón, pero bien podría ser algo fortuito. Cuando el pueblo se reúne en la plaza, los aplausos son muy cortantes, como muy "enlatados".
Magdalena Adrover Gayá Banda Sonora – Curso 2011/12 69
Tratamiento del audio en los 70: La Guerra de las Galaxias (1977), George Lucas Presencia de audios “orgánicos” en los efectos sonoros: no son audios creados digitalmente, sino que
están grabados de lo natural y recreados para que no resulten tan reconocibles. Ej.: Las puertas de las naves deberían sonar como oxidadas o los motores deberían sonar como si estuviesen desajustados. Se grabaron sonidos “acústicos, analógicos, mundanos, naturales” para los efectos para que el mundo de SW sonase creíble, natural.
RD-‐D2 (ArtooDeetoo) no habla inglés; no tiene boca; necesitamos que se mueva de alguna manera para saber que esta hablando (rota la cabeza, enciende luces cuando habla), un poco como Darth Vader, que para hablar necesita mover la cabeza y o las manos. Es el principio básico del teatro de marionetas; la marioneta que se mueve es la que habla; las otras están quietas; de otro modo sería mucho mas difícil saber quien habla y crearía confusión
La voz de R2 es un poco creada con un sintetizador de la época (sonido digital, no analógico, creado), y se combinó con voces humanas, imitando a bebés, para crear la parte más melancólica y “entrañable” del personaje. Se reprodujo todo con un altavoz en un hall, en exteriores en un aseo para dar a todo una calidad “natural”, lo que se llamaría “mundializar” los audios, reproducirlos en el mundo real, para quitar esos aspectos digitales del audio.
A pesar de que se usaba a C3PO con su voz original durante la filmación, esta tuvo que ser reemplazada, (ADR) en estudio, doblada, lo que obligo a doblar también a los actores que compartían escenas con el, o con R2D2.
El sonido base de la espada láser (room tone) es el sonido del motor de un proyector de 35 mm, como un “humm”. Acercando y alejando el micro o moviéndolo más o menos rápido se consigue el sonido base; el sable al chocar es el sonido de los carbones de luz del proyector y el arco voltaico que surge al acercarlos. Se combinó con un sonido de encender una Televisión de tubo con un cable de micro mal apantallado, lo que produce esa especie de interferencia, de chasquido. También hay un sonido de “hielo seco” fundiéndose en metal.
La música está presente todo el tiempo, excepto en el momento que atrapan a la Princesa Leia y cuando R2D2 y C3PO están en el desierto. De estos dos, hay un personaje que no habla (R2D2), solo emite sonidos, y otro que le traduce (C3PO). La música nos recuerda a las grandes orquestas; hace referencia al poder, a la grandeza, a la magestuosidad de la galaxia... Pero también, en ocasiones, disminuye y baja de intensidad; por ejemplo, en la entradilla. Es bélica por momentos, otras veces más de aventuras (por ejemplo cuando los droides están por el desierto). Acompaña a la acción y anuncia que el peligro acecha.
Información con respecto a los “protagonistas” del sonido de Star Wars
Recibió 7 Oscars: dirección artística, banda sonora (John Williams), sonido (Don McDougall, Ray West, Bob Minkler y Derek Ball), montaje, vestuario, efectos visuales. Premio especial a los efectos de sonido (dado por primera vez, es una categoría nueva en los Óscars, a Benjamin Burtt Jr.).
Top Related