Tecnologia de La Imagen y Sonido - Apunte UNLA

80
Ciclo de Licenciatura en Audiovisión Tecnología de la Imagen y el Sonido Apunte-1 Rev.2005-08

Transcript of Tecnologia de La Imagen y Sonido - Apunte UNLA

Page 1: Tecnologia de La Imagen y Sonido - Apunte UNLA

Ciclo de Licenciatura en Audiovisión

Tecnología de la Imagen y el Sonido

Apunte-1

Rev.2005-08

Page 2: Tecnologia de La Imagen y Sonido - Apunte UNLA

La imagen electrónica

Sistemas simultáneos y secuenciales

El primer paso que permite la manipulación, transformación y reproducción de imágenes es su captura otoma. Según el método de captura podemos caracterizar arbitrariamente a los sistemas y catalogarloscomo simultáneos o secuenciales.

Si por el momento nos referimos a la captura o adquisición de imágenes fijas diremos que la fotografíaes un sistema simultáneo, pues cuando se abre el obturador toda la película que está frente a laventanilla se expone a la luz (produciendo una imagen latente) al mismo tiempo; mientras que latelevisión emplea un sistema secuencial donde se "explora" el cuadro y se recoge la información depequeñísimas partes una por vez.

Con estos datos podemos esbozar dos definiciones:

Sistemas simultáneos

Son aquellos que registran, manipulan y reproducen la información de imagen en todo el cuadro almismo tiempo. Esto es muy fácil de lograr con sistemas ópticos pero extremadamente difícil parasistemas electrónicos. El ejemplo por excelencia es la fotografía.

Sistemas secuenciales

Son aquellos que registran, manipulan y reproducen la información de imagen en forma progresiva (pasoa paso) de acuerdo a una organización predeterminada. Un ejemplo válido es la televisión

El ojo y la visión

Cuando hablamos del ojo humano nos referimos a la percepción visual sin distinguir qué parte de dichofenómeno tiene lugar en el ojo y qué parte en el cerebro, ya sea como proceso biológico o comocompetencia cultural de quien ve. El ojo con sus virtudes y defectos es el responsable de muchos de loscriterios de formación de imágenes de los sistemas creados por el hombre. Sin duda las mayorescontribuciones del ojo a la reproducción de imágenes son sus limitaciones, por el momentomencionaremos dos limitaciones relevantes:

Limitación de resolución

El ojo humano tiene una resolución limitada. Dicho de otro modo no puede distinguir entre dos puntossuficientemente próximos y los confunde como una sola entidad.

Limitación de la persistencia retiniana

El ojo humano cree seguir viendo durante un breve tiempo un estímulo que ya cesó.

Estas dos limitaciones crean el campo propicio para que los sistemas de reproducción de imágenescreados por el hombre produzcan exitosamente dos ilusiones, la ilusión de la imagen contínua y la ilusiónde la imagen en movimiento.

©1998-2005 Adrián A. Costoya Rev-2005-08 1

Page 3: Tecnologia de La Imagen y Sonido - Apunte UNLA

.

Ilusión de la imagen contínua

Capturar la información de los infinitos puntos que forman una imagen es un despropósito ya que, por unlado no existe tecnología creada por el hombre capaz de hacerlo y por el otro lado no se justificaría suaplicación ya que el ojo humano tiene una resolución limitada. Por ello, todos los métodos de registro,manipulación y reproducción de imágenes creados por el hombre muestran una porción muy pequeña dela realidad.

En televisión la ilusión de la imagen contínua (en el espacio) se logra mediante una trama de líneasseparadas entre sí (elementos discretos). Cuanta mayor cantidad de líneas se presenten para unasuperficie dada mejor será la resolución aunque, inevitablemente, mayores serán los costos del sistema.Esta es la razón por la que, según el propósito y el modelo económico de cada necesidad dereproducción de imágenes, se emplean distintas resoluciones.

Debido a la limitación de resolución del ojo antes mencionada, la distancia del observador a la pantallapermitirá que se le presente una trama de líneas separadas entre sí pero que éste vea la imagen deforma contínua; mientras que si se acercara lo suficiente adviertiría las distintas líneas que componen latrama.

Por ejemplo, si nos acercamos sólo un poco más que la distancia normal de lectura a las páginas de undiario veremos que las fotografías en él representadas se presentan ante nosotros como una sucesiónlimitada de puntos, mientras que si aplicamos el mismo criterio a una reproducción de arte deberemosacercarnos muchísimo más e incluso recurrir a algún sistema que ópticamente magnifique la imagen(lupa, cuentahilos, microscopio, etc) para encontrar la trama de puntos.

©1998-2005 Adrián A. Costoya Rev-2005-08 2

Page 4: Tecnologia de La Imagen y Sonido - Apunte UNLA

La conclusión de la observación anterior es que la trama siempre está presente, pero ésta será másdensa (tendrá mayor cantidad de elementos por unidad de superficie) en algunos casos que en otros. Lasituación del diario es clara: hay que imprimirlo rápido y a bajo costo. Por lo tanto, la mayor o menordensidad de líneas o puntos de la trama surge de un equilibrio costo/beneficio cuyas prioridades hanvariado a lo largo de la historia.

Volviendo entonces al tema de las tramas de líneas, se concluye que los distintos medios emplean lacantidad de líneas que hace viable a cada sistema.

En tal sentido, la televisión en su forma convencional (definición standard) emplea las siguientes tramasde líneas horizontales:

Sistema NTSC: 525 líneasSistema PAL: 625 líneas

El sistema NTSC (National Television System Comitee) es el sistema de codificación de señales de videopara TV color desarrollado para los EE.UU. y adoptado por Japón y la mayor parte de las Américas. PAL(Phase Alternation Line) es el sistema de codificación de señales de video para TV color desarrollado enAlemania y adoptado por la mayor parte de Europa.

En cuanto a las tramas en televisión, los valores indicados más arriba permiten introducir el concepto deresolución estática, que es la que se aplica a una imagen fija, y decir que el sistema PAL tiene mejorresolución estática que el NTSC.

Por otra parte, es importante anticipar que el número de líneas activas (las que contienen información deimagen) es algo menor que las hasta aquí mencionadas en ambos sistemas.

Barridos

El barrido es la exploración del cuadro de TV en forma secuencial. Dicha exploración se realiza de unmodo convenido y arbitrario por lo que esta organización requiere de la sincronización del extremoemisor y el extremo receptor. Para lograrlo se introducirá una información adicional que conocemoscomo sincronismo (SYNC).

©1998-2005 Adrián A. Costoya Rev-2005-08 3

Page 5: Tecnologia de La Imagen y Sonido - Apunte UNLA

Si consideramos la adquisión o captura de la imagen, la naturaleza secuencial del sistema impodrá quese registre un punto a la vez sujeto a una organización que describe un desplazamiento análogo al de lalectura de un texto, se recorre primero una línea de lado a lado y luego se pasa a la línea siguiente. Acontinuación se grafica el recorrido del haz electrónico en un sistema de barrido progresivo.

En la reproducción sucede lo mismo, se presenta la información de un punto a la vez.

Desde el punto de vista de la geometría de la imagen, la arbitrariedad de su exploración con lainformación de sincronización incorporada resuelven la necesidad de presentar una imagen coherente,pero si decimos que en el tubo de rayos catódicos (TRC ó CRT en inglés) iluminamos un punto a la vez,cómo se logra que veamos toda la pantalla iluminada al mismo tiempo?. Una parte de la respuesta laconstituye el fósforo que recubre internamente al tubo, ya que tiene la propiedad de prolongar duranteun tiempo la emisión de luz, pero la parte decisiva corre por cuenta de la otra limitación del ojo humanoque mencionamos más arriba: la persistencia retiniana. Esta permite que aunque se ilumine un punto ala vez en el tubo de rayos catódicos (TRC) la sensación sea de iluminación simultánea en toda lapantalla.

Con los procedimientos expuestos más arriba podemos decir que se ha resuelto la necesidad depresentar una sola imagen monocromática en un tubo de TV, pero aún queda mucho camino porrecorrer para presentar imágenes en movimiento y en color.

Ilusión de la imagen en movimiento

Hasta aquí se analizó brevemente el caso de una imagen fija, pero muchos de los sistemas dereproducción de imágenes tienen por objeto representar la imagen en movimiento.

Para lograr la ilusión de la imagen en movimiento la reproducción está compuesta por una sucesión deimágenes individuales (cuadros, fotogramas o frames) presentadas a una cadencia razonable. Dichacadencia es lo que se denomina frecuencia de cuadro y ésta expresa la cantidad de cuadros por segundoque presenta un determinado sistema de reproducción de imágenes en movimiento.

©1998-2005 Adrián A. Costoya Rev-2005-08 4

Page 6: Tecnologia de La Imagen y Sonido - Apunte UNLA

Una frecuencia de cuadro suficientemente alta producirá, debido una vez más al fenómeno depersistencia retiniana, la sensación de movimiento continuo.

Las frecuencias de cuadro se expresan en frames per second (fps) o cuadros por segundo.

El primer sistema práctico de visualización de imagen en movimiento fue el cine. No es extraño que encine se haya comenzado con 18 fps, frecuencia de cuadro menor que la que utilizamos actualmente, yaque la novedad de la ilusión de imágenes en movimiento (moving pictures) era tan sorprendente quesuperaba el juicio crítico sobre la calidad de esa representación. Sin embargo, a medida que el medio sevolvió más popular y el formato de películas producidas fue creciendo en duración, se hizo evidente queaún faltaba recorrer mucho camino para lograr dos objetivos: fluidez de movimiento y confort visual. Elprimero es el que se refiere más estrictamente al logro de la ilusión de movimiento ya que supone lacapacidad de presentar el movimiento de manera creible, aunque sepamos que en realidad estádescompuesto en una sucesión de fotogramas. Esta fluidez de movimiento se relaciona directamente conla frecuencia de cuadro.

La determinación de la frecuencia de cuadro ideal surge de un método estrictamente empírico, emplearvalores progresivamente mayores hasta lograr la satisfacción del espectador promedio. Esto se logró con24fps.

Sin embargo, aunque el movimiento a 24fps resultaba creible y fluido, producía excesivo esfuerzo a lavista y consecuentemente no se lograba el confort visual que permite que un espectador permanezca 3horas en una sala de cine y mantenga la atención puesta en los contenidos. Una vez más la experienciadictó que era aproximadamente el doble de frecuencia de cuadro la que permitía “ver cine”confortablemente.

Este problema así planteado hubiera afectado seriamente a la producción, distribución y exhibición depelículas ya que imponía una duplicación en los metros de film requeridos en rodaje, lo que hoy seríafácilmente tolerado por una superproducción y comprometería la factibilidad de otras de menorpresupuesto, pero lo absolutamente inaceptable era que también se duplicaría el metraje, peso y costode las copias de distribución por lo que se debía encontrar una solución a esta instancia de difícilconcreción.

La solución no se hizo esperar y fue a la vez ingeniosa y extremadamente barata. Como 24 imágenesdistintas eran suficientes pero la sucesión de 24 iluminaciones y 24 apagones de la pantalla en unsegundo no alcanzaban, con gran tino se optó por duplicar las paletas del obturador rotativo para quecada fotograma (de los 24fps) que se estacionaban en la ventanilla de proyección fuera obturado dosveces con lo que se logró (con un costo ínfimo) que la pantalla se encendiera y apagara 48 veces porsegundo proporcionando el confort visual requerido. Estas son las condiciones de filmación y proyecciónque se emplean desde hace varias décadas y esta proyección a 24fps es la que explica por qué en laspelículas muy viejas, filmadas a 18fps, la acción parece transcurrir a gran velocidad.

Por su parte, en los sistemas de televisión prácticos de la actualidad se emplean frecuencias de cuadrode 25fps en PAL y 30fps en NTSC. Estos valores no son nuevos y se determinaron décadas atrás cuandose estableció y perfeccionó el sistema de televisión monocromático y tan viejas son estas frecuencias decuadro como los problemas que trajeron aparejados.

Así como el cine tuvo que superar la barrera del disconfort que se producía por ofrecer 24 encendidas yapagones de la pantalla en un segundo, la televisión tuvo que vencer un escollo afín.

Cuál era el problema de la TV a, por ejemplo, 25 cuadros por segundo? El parpadeo de la imagen (oflicker) que explicamos a continuación.

Tomemos el caso del sistema monocromático; como sabemos, el haz electrónico que produce el tubo de

©1998-2005 Adrián A. Costoya Rev-2005-08 5

Page 7: Tecnologia de La Imagen y Sonido - Apunte UNLA

rayos catódicos (TRC ó CRT) recorre la pantalla de modo análogo a la lectura de este texto, línea a líneade izquierda a derecha y luego pasa a la línea siguiente. Si pensamos en este sistema reproduciendo unaimágen sencilla y que no varía en el tiempo, tal como un cuadro completo de un tono gris parejo, el hazlo recorrerá con la organización que mencionamos y producirá la iluminación paso a paso de cada puntode la imagen. A esta forma de barrido se lo llama progresivo.

Lo que podemos analizar es que para que cada cuadro de imagen pueda ser distinto, tal como sucederíaen el momento de producir un corte por conmutación en un switcher o en un corte por edición, elsistema deberá entregar una imagen durante un cuadro y otra imagen completamente distinta al cuadrosiguiente por lo que el tiempo que el fósforo que recubre internamente el tubo debe entregar la luz quecorresponde al valor de gris de cada sección de la imagen se vuelve importante. Este es un concepto quea menudo menciono como “la velocidad del fósforo” y se refiere al tiempo que éste entrega luz desdeque recibe el estímulo del haz electrónico interno hasta que se extingue razonablemente y la luz no esperceptible.

Entonces, para lograr que un corte de blanco a negro se represente como un cuadro blanco seguido deuno negro apropiadamente y no se transforme un corte en estudios en un fundido o dissolve “en casa”(o en cualquier monitor) necesitamos un fósforo rápido, que se extinga en aproximadamente 1/25vo. desegundo.

Volviendo a nuestro problema, esta característica que le pedimos al fósforo hará, desde otro punto devista, que una imagen gris como la planteada más arriba nunca sea completamente gris parejo, sino quecuando el haz está iluminando la última línea activa de la imágen, la primera esté completamente oscura.Y pensandolo un poco mejor podríamos decir que la zona inferior del cuadro estará clara cuando la zonasuperior esté oscura.

Como este es un proceso contínuo podríamos observar desde otro punto de vista que existe una zonaclara, seguida de otra oscura que se desplaza de arriba hacia abajo. Así entoces, hemos explicado lasrazones del defecto que antes mencionamos como parpadeo de la imagen.

Entonces tenemos una vez más un problema de confort visual y, lamentablemente, la solución másindicada es aumentar la frecuencia de cuadro.

Como el problema de duplicar la cantidad de metros de película para el cine tiene su correlato en duplicarla cantidad de información en el medio electrónico, traducido en duplicar el ancho de banda se derivó enuna resistencia similar a la planteada en la cinematografía. La solución adoptada, el barrido entrelazado(interlaced), no fue tan feliz como la empleada ante un problema similar por la cinematografía aunque sucosto también fue ínfimo.

El barrido entrelazado se logra manteniendo la cantidad de líneas y cuadros por segundo, con lo que lacantidad de información y el ancho de banda se mantienen invariables, pero recorriendo la pantalla demanera distinta. En el barrido entrelazado se producen primero las líneas impares y luego las pares y seforman consecuentemente dos “medios cuadros” que conocemos como campo impar y campo parrespectivamente.

Entonces, campo impar (odd field) es el conjunto de las líneas impares del cuadro y campo par (evenfield) es el conjunto de las líneas pares del cuadro.

El siguiente gráfico representa la exploración de cuadro en el barrido entrelazado.

©1998-2005 Adrián A. Costoya Rev-2005-08 6

Page 8: Tecnologia de La Imagen y Sonido - Apunte UNLA

La solución reside en que el haz electrónico llega al borde inferior de la pantalla en la mitad del tiempo yaque recorre la mitad de las líneas, y en ese momento sube a la zona superior para iluminar las líneaspares cuando las anteriores aún no se han extinguido significativamente. En conclusión, se varía lasecuencia y distribución en el cuadro de las zonas que se aclaran y oscurecen y de este modo lapersistencia retiniana logra, manteniendo el confort visual integrar esta sucesión y ver una imagencompleta con una iluminación pareja, o dicho de otro, modo sin parpadeo.

En lo que respecta a las frecuencias de cuadro, los sistemas que hemos estudiado hasta ahora operan dela siguiente manera:

Cine: 24fps (doble obturación)PAL: 25fps (50 campos con barrido entrelazado)NTSC: 30fps (60 campos con barrido entrelazado)

Imagen activa

Ahora que conocemos los pormenores de la formación de la imagen podemos entrar en mayores detallesy decir que no todas las líneas de barrido ni toda la extensión de cada línea se emplea para lainformación de imagen.

Al área dedicada a la imagen propiamente dicha se la llama imagen activa, entonces el sistema NTSCtiene 525 líneas de barrido y 487 líneas activas mientras que el sistema PAL tiene 625 líneas de barrido y576 líneas activas. Por otra parte, la extensión de cada línea se expresa en el sistema analógico por eltiempo que ocupan; así en el sistema NTSC la duración de cada línea es de 63.5 microsegundos y laporción correspondiente a la imagen activa es de 53.3 microsegundos mientras que en el sistema PAL laduración de cada línea es de 64 microsegundos y la porción correspondiente a la imagen activa tambiénes de 53.3 microsegundos como lo muestra el siguiente gráfico.

©1998-2005 Adrián A. Costoya Rev-2005-08 7

Page 9: Tecnologia de La Imagen y Sonido - Apunte UNLA

El conjunto de líneas que no se utilizan para información de imagen conforman el denominado intervalode borrado vertical o VBI (Vertical Blanking Interval) durante ese tiempo el haz electrónico de los TRCsen los monitores o televisores cancela su emisión.

Del mismo modo, el tiempo de las líneas que no se utiliza para la información de imagen conforma eldenominado intervalo de borrado horizontal o HBI (Horizontal Blanking Interval) y durante ese tiempo elhaz electrónico de los TRCs en los monitores o televisores cancela su emisión.

La señal de video analógico

El gráfico de imagen activa presentado más arriba corresponde a una representación espacial de loscontenidos de los barridos o, en última instancia, de los contenidos de la señal de video de valorconceptual pero, ante todo se debe destacar que la señal de video analógico consiste esencialmente envariaciones de tensión en función del tiempo y que concretamente está compuesta por una sucesión deHBIs, líneas activas y VBIs en el orden que el esquema de barrido dicta.

La línea activa contiene información sobre los valores de gris de la imagen monocromática y muchasveces a esta parte de la señal se la conoce como video simple y su amplitud según las normas de de700mV.

La organización del barrido se expresa mediante la señal de sincronismo (SYNC) compuesta por lospulsos de sincronismo horizontal y los pulsos de sincronismo vertical y su aplitud es de 300mV.

©1998-2005 Adrián A. Costoya Rev-2005-08 8

Page 10: Tecnologia de La Imagen y Sonido - Apunte UNLA

El enclavamiento (o clamping) de la señal de video se efectúa en el valor 0V (cero Volt) y la presencia devideo que se puede desarrollar hasta +700mV y de sync hasta -300mV permite decir que el video tieneuna amplitud de 1Vpp (o un Volt pico a pico). Se entienden por "picos" a los extremos de amplitud de laseñal que van desde el sync tip hasta el white clip como se ve en el siguiente detalle del intervalo deborrado horizontal.

En el siguiente gráfico se detallan un par de ejemplos de intervalos de borrado verticales o VBI.

©1998-2005 Adrián A. Costoya Rev-2005-08 9

Page 11: Tecnologia de La Imagen y Sonido - Apunte UNLA

Señal de barras de color PAL vista en un waveform monitor

Señal de barras de color PAL vista en un vectorscope

©1998-2005 Adrián A. Costoya Rev-2005-08 10

Page 12: Tecnologia de La Imagen y Sonido - Apunte UNLA

La televisión color

Ancho de banda (bandwidth)

Antes de abordar el proceso de evolución del sistema de televisión monocromático al sistema detelevisión en color debemos conocer algunos parámetros y técnicas aplicables a las señales de audio,video y otras que intervienen en la realización de proyectos audiovisuales por medios electrónicos. Unode ellos es el ancho de banda y nuestro interés radica en las relaciones que se establecen, a la hora deemitir señales de televisión por aire, entre las señales y la porción del espectro electromagnético queconocemos como espectro de radiodifusión.

Para el estudio del comportamiento de las señales o radiaciones en función de las frecuencias se utiliza elanálisis de espectro. En esta forma de representación, las señales o radiaciones se presentan comomanifestaciones de energía caracterizadas por su intensidad (amplitud en el eje y) y su frecuencia(posición en el eje x); y por tratarse de un análisis dinámico, sus variaciones en función del tiempo.

La utilización del análisis de espectro de un sistema bajo observación lleva a la obtención de parámetrostales como la curva de respuesta en frecuencia y su interpretación arbitraria al ancho de banda. Se debeentender al sistema bajo observación en términos amplios, es decir que se puede tratar de un equipo, unconjunto de equipos y sus vínculos e incluso un simple cable (o línea de transmisión).

En términos estrictos y a los fines de este curso, entendemos por ancho de banda al parámetro queexpresa los límites de frecuencia de operación de un sistema dado.

Así, diremos que el sistema bajo observación tiene la capacidad de operar en una zona de frecuenciascomprendida entre la frecuencia límite inferior y la frecuencia límite superior y expresaremos el ancho debanda como la diferencia de ambas en ciclos por segundo o Hertz (Hz: unidad de medida de frecuencia).

Si tomamos en cuenta el espectro audible (lo que podemos escuchar) de una persona muy joven; éste seextiende desde unos pocos ciclos por segundo o Hertz hasta alrededor de los 18KHz o Kilohertz oKilociclos por segundo (es decir 18.000Hz), diremos entonces que el oido (o la percepción auditiva) tieneun ancho de banda de aproximadamente 18KHz (va de alrededor de 0 a 18.000 ciclos por segundo).

Se ejemplifica con el espectro audible ya que es más sencillo de comprender por todos la relacián entreel sonido de los instrumentos y las frecuencias en las que se manifiesta. Así podríamos decir que en laformación de una filarmónica tendremos que los bombos, timbales y contrabajos producen sonidos deunos pocos cientos de Hz mientras que los platillos se acercarán a los 10KHz. Técnicamente, estosinstrumentos tienen sentido en esa formación ya que producen energía dentro del ancho de banda delespectro audible del público al que se dirigen.

Del mismo modo, es válido decir que no tiene sentido crear un instrumento musical que produzca unsonido inaudible, o fuera del ancho de banda del oido humano. Sin embargo, la vida cotidiana nos daalgunos ejemplos, el más común es el silbato ultrasónico empleado para llamar perros. Los perros tieneun espectro audible mayor que los humanos y por ello pueden escuchar estos silbatos que funcionan másallá de los 20KHz sin que nosotros lo percibamos.

El conocimiento de las magnitudes de ancho de banda nos permiten un primer acercamiento a latecnología involucrada en cualquier sistema electrónico ya que da idea de los recursos técnicos puestosen juego para lograr la operación dentro del ancho de banda necesario en su uso previsto. Esto pareceuna verdad de perogrullo; pero su interpretación por contraste revelará aún más: no ha puesto esfuerzode investigación ni costo de implementación más allá de lo necesario.

©1998-2005 Adrián A. Costoya Rev-2005-08 11

Page 13: Tecnologia de La Imagen y Sonido - Apunte UNLA

La razón fundamental de esta observación es el significado esencial del ancho de banda: cantidad deinformación. La regla práctica dice que dado un determinado estadio de desarrollo tecnológico, los costosde equipamiento y su infraestructura complementaria tienen relación directa con el ancho de banda;cuanto mayor ancho de banda se deba manejar más costosa será la implementación técnica.

Armónicos (harmonics)

El pensamiento expresado anteriormente dictaría, si se lo aplicara literalmente, que se debe suministrarel ancho de banda necesario para cada aplicación pero no más. Por lo que encontrar el valor de ancho debanda “necesario” se vuelve esencial y hacerlo de modo correcto lleva a un análisis más elaborado parael cual se debe contemplar la intervención de los armónicos.

La forma de onda de las señales complejas (el audio y el video correspondiente al 99.9% de lasutilizadas por los medios) no se pueden representar fácilmente por una función como se podría hacer conuna señal de test generada. En el análisis de señales complejas se demuestra que éstas se puedendescomponer en infinitas señales senoidales de frecuencias crecientes que combinadas dan comoresultado la original. A esta sucesión de señales senoidales se las denomina armónicos. Quiere decir queen términos matemáticos sólo sistemas de ancho de banda infinito permitirán preservar la integridad deuna señal, ya que tolerarían la presencia de infinitos armónicos. De más está decir que el ancho debanda infinito es técnicamente inalcanzable por lo que una ponderación de la intervención de losarmónicos hace al correcto desarrollo de cada tecnología.

Explicar en qué medida contribuyen los armónicos a la preservación de la forma de onda original implicaun desarrollo matemático que esta fuera del alcance de este texto. El enfoque a emplear en los sistemasaudiovisuales indica que se puede establecer de modo convenido cuántos armónicos (o cuánto ancho debanda) son necesarios para una razonable preservación de la forma de onda y esta respuesta tienerelación directa con los límites de la percepción visual y auditiva.

Un ejemplo por todos conocido y utilizado de implementación de ese enfoque, se relaciona con lapercepción auditiva. No cabe ninguna duda de que no podemos calificar como sonido de alta fidelidad alas comunicaciones telefónicas. Esto se debe a que el propósito principal de ese sistema es la transmisióny recepción de la voz humana por lo que opera con un ancho de banda tal, que se logra que el mensajesea inteligible y además exista cierta posibilidad de reconocer la voz de una persona, pero no más.

La voz humana no es en ningún caso tan aguda como un platillo sino que la mayor parte de su energíase manifiesta en lo que en audio se considerarían frecuencias medias, es decir algunos miles de ciclospor segundo, así la telefonía logra su cometido con un ancho de banda de 3KHz (de 0 a 3000 ciclos porsegundo).

Tal como se indicó más arriba, los sonidos complejos (la inmensa mayoría de los que percibimoshabitualmente) están compuestos por un sinnúmero de frecuencias cada vez mayores que se conocencomo armónicos, y la reproducción perfecta de estos sonidos sólo es posible cuando se opera con todoslos armónicos. La telefonía logró su cometido con 3KHz, lo que no es perfecto pero cumple con susnecesidades y la tecnología de sonido doméstico de alta fidelidad (Hi-Fi) opera con 24KHz, o dicho deotra manera, que pueden manejar las frecuencias que van de 0 a 24.000 ciclos por segundo, dentro delas que están todos los sonidos puros audibles y un muy respetable número de armónicos parareproducir adecuadamente sonidos complejos.

El gráfico muestra la descomposición de una forma de onda de un sonido complejo (la de abajo) en unaserie de frecuencias entre las que se destaca la fundamental y sus armónicos.

©1998-2005 Adrián A. Costoya Rev-2005-08 12

Page 14: Tecnologia de La Imagen y Sonido - Apunte UNLA

A la hora de decidir qué respuesta en frecuencia se va a adoptar es necesario conocer a qué contenidoscorresponden las distintas frecuancias. Vale la pena recordar que las bajas frecuencias de las señales deaudio corresponden a sonidos graves tales como un bombo mientras que las altas frecuencias de audiose corresponden con sonidos agudos tales como un platillo. Por otra parte, en lo que respecta a lascaracterísticas de la imagen monocromática diremos que en las bajas frecuencias se manifiestan laspartes de las imágenes que tienen poca definición, transiciones suaves y poco contraste; mientras que enlas altas frecuencias se manifiestan los detalles finos y las transiciones abruptas.

Este desarrollo sobre los anchos de banda de audio apunta a sentar una base para entrar en detallessobre el ancho de banda en video y las características del espectro de radiodifusión.

En términos prácticos podemos decir que el ancho de banda de video adoptado para las imágenes en elestudio de televisión alcanza valores de entre 4.2MHz (NTSC) y 5.5MHz (PAL) según los sistemas deoperación adoptados y definiremos arbitrariamente a esos valores como referentes de lo que seconsidera “ancho de banda completo” de las video en un sistema dado.

Una interesante observación surgirá de la comparación del ancho de banda completo de video (5.5MHz)con el ancho de banda completo del audio (24KHz), se puede decir que el ancho de banda que puedealcanzar la señal de video es aproximadamente 230 veces mayor que el que puede alcanzar la señal deaudio y llegar a la conclusión que la cantidad de información que se maneja en video es alrededor de 230veces mayor que la cantidad de información que se maneja en audio.

©1998-2005 Adrián A. Costoya Rev-2005-08 13

Page 15: Tecnologia de La Imagen y Sonido - Apunte UNLA

El espectro radioeléctrico

El espectro radioeléctrico es la porción del espectro de frecuencias que se emplean para la transmisiónde diversos tipos de comunicaciones por aire, tanto públicas como privadas y entre ellas se encuentra laradiodifusión.

El espectro electromagnético es infinito en términos teóricos pero, como las implementaciones técnicasque lo utilizan presentan serias limitaciones en términos prácticos, debemos considerar que la porciónutilizable como espectro radioeléctrico es un bien finito y muy codiciado debido al gran número deinteresados. Decimos que es infinito pues existen infinitas frecuencias por definición, pero existen límitesprácticos impuestos por radiaciones nocivas y costos, ya que dentro de las frecuencias que podemosseleccionar para un determinado propósito la tecnología es casi invariablemente más cara cuanto másalta es la frecuencia de operación requerida. En consecuencia, los sistemas se vuelven progresivamentemás caros a medida que se aumenta su frecuencia de operación hasta el punto en que dejan de serútiles para la mayoría de las aplicaciones de consumo masivo.

Las autoridades y comités que establecieron los sistemas de televisión monocromáticos en los distintospaises varias décadas atrás, fueron muy concientes de asignarle a estos servicios de radiodifusión unancho de banda apropiado a las necesidades del momento y adoptaron un “ancho de canal” de 6MHz enEE.UU. y Argentina y de 8MHz en la mayor parte de Europa. Al tomar esta decisión determinaron quéporción del espectro sería utilizada por la televisión, y otros servicios tomaron posiciones a su alrededor.Esta es la razón por la que es inimaginable en estos días ampliar la porción de espectro asignado a esteservicio sin restárselo a otros servicios de comunicaciones tales como telefonía celular, pagers,comunicaciones civiles y militares en VHF y UHF, etc.

Concretamente, en la Argentina tenemos que ocupando 6MHz de ancho de canal el canal 2 opera en laporción del espectro que va desde 54MHz a 60MHz y que en el otro extremo el canal 13 opera entre210MHz y 216MHz señalando de este modo los límites de la banda de TV en VHF (very high frequency).Una observación certera dirá que esta banda no es continua ya que, por ejemplo, se interrumpe entre88MHz y 108MHz donde se desarrolla la FM (frecuencia modulada) y de hecho hay otros casos similares.

La multiplexación

Como hemos planteado la escases como la dominante en lo que se refiere al espectro, vale la penadesarrollar brevemente la multiplexión o multiplexación (multiplexing) ya que su aplicación es unaconsecuencia casi inevitable. En términos muy amplios podemos decir que la multiplexación es unatécnica empleada para hacer que varios mensajes compartan un mismo canal y lleguen a destino, esdecir es un uso múltiple de un canal.

Entre las multiplexaciones existen algunas mejores que otras en términos de calidad. El caso másfavorable es el de la Multiplexación por División de Tiempo (TDM Time division multiplexing) y otro casopráctico que ofrece buenos resultados es el de la Multiplexación por División de Frecuencias (FDMFrequency Division Multiplexing), pero lamentablemente no son las únicas.

TDM: un canal dado se emplea durante un cierto período para transmitir una señal, luego durante unperíodo siguiente se transmite una segunda señal y así sucesivamente hasta volver a comenzar. Sepodría tomar como ejemplo una conferencia con varios oradores y un solo micrófono, uno de ellos tomala palabra y durante un tiempo cuenta con el sistema de amplificación para su voz, luego le pasa elmicrófono a un segundo orador y así sucesivamente. La ventaja de este sistema es que cada mensajedispone del total del canal con toda la calidad y no existe posibilidad de interferencia ya que los múltiplesmensajes suceden en tiempos distintos, la desventaja consecuente es que sacrifica la simultaneidad delos mensajes.

©1998-2005 Adrián A. Costoya Rev-2005-08 14

Page 16: Tecnologia de La Imagen y Sonido - Apunte UNLA

FDM: una porción del espectro de frecuencias se subdivide en múltiples canales. Las bandas detransmisión de televisión constituyen un claro ejemplo de esta multiplexación. Como dijimosanteriormente, en la banda baja de VHF el canal 2 ocupa el rango de frecuencias que van desde 54MHzhasta 60MHz, entonces el canal 3 ocupará un rango de frecuencias de 60MHz a 66MHz y asísucesivamente. Se gana en simultaneidad ya que todos los canales transmiten al mismo tiempo enrangos de frecuencias distintas y, como esta separación ideal no es perfecta, se pierde en términos deposibilidad de interferencias.

Más adelante se verá otro caso de multiplexación por división de frecuencia de peores característicastécnicas empleado por la señal de video del sistema de televisión en color.

Desarrollo del sistema de televisión color

La imagen electrónica como se la ha descripto hasta este punto prevé el manejo de imágenesmonocromáticas; es decir, distintos valores de gris para formar las imágenes. Masivamente se conoce aeste sistema como Blanco y Negro aunque es una denominación incorrecta ya que éstos son sólo dos delos colores que se reproducen pues el blanco es el caso particular del gris más claro y el negro es el casodel gris más oscuro, pero todos podemos comprobar que entre ellos se encuentran muchos valoresintermedios habitualmente conocidos como medios tonos (half tone).

Desde el punto de vista técnico, vale la pena recordar que estas imágenes monocromáticas quecorresponden a los valores de gris de la imagen, ocupan un ancho de banda en transmisión en laArgentina de 6MHz. Es decir que un canal de televisión, para transmitir en monocromático utiliza (le hasido asignado) 6MHz del espectro de radiodifusión.

Entrando en materia, el sistema de televisión color se respalda en dos pilares, la retrocompatibilidad y lasuma aditiva de color.

La retrocompatibilidad

La retrocompatibilidad es un requisito impuesto cuando se estableció el sistema de televisión color yseñala que un viejo televisor blanco y negro debía ser capaz de recibir y reproducir una imagen decalidad por lo menos igual a la conocida proveniente de la nueva transmisión de televisión color y, comocontrapartida, un nuevo televisor color debe recibir y reproducir adecuadamente una transmisión de unatelevisora equipada sólo con capacidad de transmisión monocromática (blanco y negro).

El planteo de la retrocompatibilidad tiene dos aspectos claramente positivos, por una parte, ofrece a lastelevisoras que emitan en color, el parque total de televisores blanco y negro instalado con su audienciapotencial y, por otra parte, asegura que la oferta de información y entretenimiento sea pareja, evitandopartir a la sociedad horizontalmente con contenidos para aquellos que económicamente puedan accedera un televisor color diferenciados de la programación para quienes posean un televisor blanco y negro. Elaspecto negativo no es menos importante ya que, en general, cuando al avance tecnológico se le imponecompatibilidad con el pasado como requisito, las tecnologías resultantes no son tan avanzadas osuperiores como podrían ser sin este condicionamiento y la televisión en color es un ejemplo más.

El principio tricromático

El otro pilar, más específico, en el que se basa el sistema de televisión en color es el principiotricromático, que dice que en base a tres colores primarios el sistema puede reproducir cualquier color.

Los colores adoptados son rojo, verde y azul, más conocidos por sus siglas en inglés RGB (red, green and

©1998-2005 Adrián A. Costoya Rev-2005-08 15

Page 17: Tecnologia de La Imagen y Sonido - Apunte UNLA

blue) y la manera de combinarlos es la suma aditiva de color representada en el siguiente gráfico.

Se puede observar que si realizamos la suma aditiva de color para tres círculos con cada uno de estoscolores primarios y presentan zonas de intersección se producirán algunos casos relevantes: la ausenciade los tres colores será negro, la presencia de tres colores dará blanco mientras que las superposicionesde rojo y azul dará magenta, la de azul y verde cian y la de rojo y verde amarillo. Los colores magenta,cian y amarillo son los complementarios de los colores pimarios del sistema, entonces magenta es elcomplentario del verde, cian es el complementario del rojo y amarillo es el complementario del azul.Dicho de otro modo, no hay nada de azul en el amarillo y viceversa, no hay nada de verde en el magentay viceversa y no hay nada de rojo en el cian y viceversa. Este conjunto de 8 colores blanco, negro, rojo,verde, azul, magenta, cian y amarillo forman una muestra relevante para la performance de los sistemasde color y por ello son los colores que todos hemos visto alguna vez en la señal “barras de color”.

En este punto podemos suponer correctamente que el logro de los objetivos para el establecimiento delsistema de televisión color consiste en alcanzar la capacidad de entregar a los hogares con televisoresmonocromáticos una señal que represente los valores de gris de la imagen como ya se conocía, quellamaremos luminancia, y a los hogares con televisores color otras tres nuevas señales R, G y B.

El factor que aún no hemos considerado, en realidad el más duro de los condicionamientos planteados,fue la necesidad de llegar a buen puerto con el nuevo sistema manteniendo el mismo ancho de canal. Enprincipio, podríamos decir que se deberían “poner’’ cuatro señales de ancho de banda completo dondeantes se ubicaba una sola, por lo que de aquí en adelante desarrollaremos el penoso camino mediante elcual se logra una nueva señal resultante de la codificación de otras señales que responde a lasnecesidades planteadas y es conocida como video compuesto.

©1998-2005 Adrián A. Costoya Rev-2005-08 16

Page 18: Tecnologia de La Imagen y Sonido - Apunte UNLA

Del RGB al video compuesto

Como el principio detrás del sistema supone el manejo de RGB, no sorprende que los dos extremos de lacadena de televisión, la cámara y el televisor (o monitor) se basen en estas tres señales. Así tenemoscámaras de tres canales (tres tubos o tres CCDs) y televisores o monitores con tres cañones electrónicosque estimulan luminíferos (fósforos) que producen emisiones de rojo, verde y azul.

Con el diagrama en bloque simplificado de la cámara de tres canales como guía analizaremos este pasede RGB a video compuesto.

La luz de la escena ingresa a la cámara a través de la lente y se descompone mediante un prismaespecializado en sus contenidos de rojo, verde y azul para alcanzar a cada uno de esos sensores (tubos oCCDs). El prisma cuenta con espejos dicroicos en sus caras interiores, los espejos dicroicos secaracterizan por permitir pasar algunas longitudes de onda y reflejar otras. En el siguiente diagrama serepresentan las características de respuesta espectral de los filtros empleados.

El total de la distribución espectral de la luz que ingresa a la cámara alcanzará alguno de los tressensores y, como ya se mencionó, los espejos dicroicos se encargan de distribuirla por lo que se debedestacar que aunque los sensores están designados R, G y B no operan con un solo color o una solalongitud de onda sino con un rango de longitudes de onda.

©1998-2005 Adrián A. Costoya Rev-2005-08 17

Page 19: Tecnologia de La Imagen y Sonido - Apunte UNLA

En el plano focal de cada sensor se forma una imagen real que representa los valores de rojo, verde yazul y los sensores la transforman en corriente eléctrica. Por esta razón conocemos a estos sensorescomo transductores luz-corriente ya que transforman una forma de energía en otra.

Quiere decir que a la salida de cada sensor se obtienen tres señales, R G y B, de ancho de bandacompleto. Se debe precisar que aunque las características espectrales varían por la intervención delprisma, el nivel de detalle o cantidad de información que puede alcanzar cada canal sigue siendo elmismo por lo que cada uno de ellos presentará señales de ancho de banda completo.

Esta implementación del sistema tricromático sienta las bases para el sistema de color pero no resuelvela retrocompatibilidad, pues ninguna de estas tres señales representa adecuadamente los valores de grisde la escena. Esta necesidad puede llevar a pensar en la conveniencia de utilizar un cuarto sensor querepresente los valores de gris, pero una eficaz ecuación puede reemplazarlo. Así tenemos que la ecuaciónpara obtener luminancia (Y) a partir de los contenidos de RGB de una imagen es:

Y= 0.59G + 0.3R + 0.11B

Estos coeficientes que determinan la participación de cada señal se obtienen a partir de la curva derespuesta espectral ojo a las distintas longitudes de onda.

El gráfico señala que el ojo es más sensible al verde, ubicado en la zona media del espectro visible,menos sensible a los rojos en la zona de 600nm a 700nm y todavía menos sensible al azul ubicados en lazona de los 400nm a 500nm. De curva también se puede interpretar que el verde es el color “más facil”de ver, o dicho de otro modo que menor cantidad de energía de una emisión de verde provocará lamisma respuesta que cantidades de energía mucho mayores en los azules y eso explica también por quélos primeros displays de computadoras monocromáticos utilizaron fósforo verde y los sistemas actualessistemas de visión nocturna también.

©1998-2005 Adrián A. Costoya Rev-2005-08 18

Page 20: Tecnologia de La Imagen y Sonido - Apunte UNLA

Quedan así sentadas las bases para satisfacer las necesidades finales de ambos sistemas, RGB para elsistema color e Y (luminancia) para el sistema monocromático.

El encargado de producir esta señal de luminancia Y es el circuito de matriz (matrix o MTX) y esimportante mencionar que, si bien cualquier manipulación en el dominio analógico plantea una pérdida,las sumas y multiplicaciones realizadas por este circuito no comprometen seriamente la calidad de lasseñales.

Hemos llegado a un punto en el que contamos con cuatro señales de ancho de banda completo YRGB yno podemos satisfacer el requisito de mantener el mismo ancho de canal de 6MHz, deberíamos emplearel espacio disponible para cuatro canales de televisión monocromática distintos para colocar un canal deTV color retrocompatible. Por esta razón, analizaremos a continuación las soluciones de compromisoadoptadas para lograrlo.

Como es de suponer, no se puede deteriorar la señal de luminancia pues se debe ofrecer al menos lamisma calidad de reproducción monocromática a la que los televidentes de blanco y negro ya estabanacostumbrados ya que el ojo es muy sensible al detalle fino de la imágen por sus valores de gris.

A primera vista, la mayor parte del ancho de canal estaría ocupado por la señal de luminancia por lo quese presenta como un callejón sin salida y desde el punto de vista ortodoxo es así. Sin embargo,realizando un análisis de espectro minucioso de la distribución de energía producida por la luminancia, sepuede comprobar que ésta se manifiesta a intervalos regulares. Estos intervalos no tienen una extensióncaprichosa sino que presentan separaciones iguales a la frecuencia de línea de cada sistema, 15750 enNTSC y 15625 en PAL (surge de multiplicar 525 x 30 y 625 x 25 respectivamente). Lo que resulta reñidocon la realidad, es suponer que los intersticios entre manifestación de energía y manifestación de energíaestán vacíos y que este espacio abre una posibilidad genuina para poner otra u otras informaciones. Porsupuesto, la necesidad superó al rigor técnico y el uso de los espacios intermedios, esta forma de“multiplexación en frecuencia”, se propuso como la única alternativa válida para transportar más de unaseñal en el mismo ancho de banda.

Paso a paso se adoptaron soluciones para llegar al objetivo de colocar todas las señales en tan pocoespacio. Primero que nada se sabe que se puede operar con cuatro señales pero transmitir sólo tressiempre que la ecuación que relaciona a las cuatro sea conocida en ambos extremos, transmisor yreceptor y así llegó el momento de decidir qué tres señales se manejarán. Luminancia (Y) es mandatoriay no se debe comprometer, entoces se debieron escoger dos señales entre R G o B. La ecuación utilizadapara luminancia deja claro que el verde participa mayoritariamente por lo que la selección de las otrasdos señales se inclinaría a R y B, pero la experimentación indicó que en muchos casos de escenas realeséstas presentan muy poca amplitud o nivel de señal y, consecuentemente, gran vulnerabilidad por lapoca relación señal/ruido. Entonces se optó por crear dos señales más robustas llamadas R-Y (erremenos y) y B-Y (be menos y) que se conocen como diferencias color y éstas, moduladas en cuadratura,permiten producir la señal de crominancia (C).

Podemos decir que si Y es la señal que representa los valores de gris de la imagen, R-Y y B-Y serán lasresponsables de representar la información de color, entonces otra consideración sobre las limitacionesdel ojo resulta pertinente.

El ojo tiene muy poca capacidad para apreciar los detalles finos de color en la imagen, la razón es que enel ojo los conos (sensores de color) tienen mucha menor densidad que los bastones (sensores de valoresde gris). Entonces, una vez más la tecnología imita a la biología y prescinde de detalles finos de color o,en términos técnicos, reduce significativamente el ancho de banda de las señales que representen elcolor mediante la incorporación de un filtro pasabajos (LPF low pass filter).

De este modo se logra que la señal de crominancia ocupe los intersticios dejados por la señal deluminancia en un ancho de banda menor, ya que la realidad dice que cuando estas señales conviven

©1998-2005 Adrián A. Costoya Rev-2005-08 19

Page 21: Tecnologia de La Imagen y Sonido - Apunte UNLA

multiplexadas de la paupérrima manera que las reunimos se molestan, dejan una huella o contaminaciónuna en la otra y producen lo que técnicamente se llama crosstalk.

Otra manera de apreciar estos defectos es la incertidumbre que se produce en el sistema por su falta decapacidad para distinguir entre detalles finos de luminancia e información de crominancia (croma ochroma). El ejemplo clásico es el de un actor, conductor o invitado que usa un saco con motivos talescomo tweed en blanco y negro; en los planos cortos se aprecia claramente que el vestuario es tweedblanco y negro, pero si la lente hace un zoom back (o zoom out) a cierta distancia focal de la lente (enun plano general) se verá que el saco es cruzado por flashes de color, típicamente rojo y verde o amarilloy magenta. Resulta inexplicable para el espectador, conciente de que el saco sólo tiene blanco y negro,que por momentos vea el saco coloreado y queda claro para nosotros que cuando el motivo del sacopasó de detalles gruesos y medios de la imagen a detalles finos el sistema se confunde y no puedereproducir adecuadamente pues en las altas frecuencias están conviviendo entremezcladas croma yluminancia.

Más allá de esta limitación que afecta también a los bordes de los objetos en el cuadro el sistema semostró efectivo para el propósito inicial de los años cincuenta que fue el logro de la televisión color y suproducción para programas en vivo o pregrabados pero con un mínimo de valor agregado de edición ypostproducción.

Entonces Video compuesto (VBS) se denomina al conjunto que integran: información de luminancia (Y)y de crominancia (C) multiplexadas en el mismo ancho de banda mediante la introducción de unasubportadora de color (SC o subcarrier). Esta señal, además contiene el sincronismo (SYNC) y unamuestra de SC llamada BURST que permite "enganchar" la fase de chroma en cada línea de barrido.

Video compuesto es la señal que se encuentra disponible en la mayor parte de los equipos en el conectorBNC o RCA identificado generalmente como VIDEO OUT.

No es extraño que durante años el tratamiento de las imagenes en el montaje de televisión haya sidocasi lineal y las historias se narraran basándose principalmente en la articulación de la secuencia detomas y su duración por limitaciones técnicas. La búsqueda de recursos expresivos resultó encorsetadapor estas restricciones que se reflejaban principalmente en la imposibilidad de aplicarle múltiplesgeneraciones de videograbación y consecuentemente enriquecerlas aún más o reunir mayor cantidad detomas (capas) para formar una nueva toma mucho más compleja. Si bien la distribución y transmisión alos hogares aún hoy no varió, estas limitaciones impulsaron tres décadas después del lanzamiento de laTV color el desarrollo de tecnología para procesar señal en sus componentes originales antes de laemisión. Consecuentemente, en la actualidad la producción y postproducción de los contenidos está casidominada por distintas variantes de video de componentes, tales como RGB o Y, R-Y, B-Y e inclusoalternativas intermedias como Y/C. Esta última no es tan utilizada en ese ambiente pues presenta laparadoja de ser un formato de señal de componentes (con reducción de ancho de banda en croma) perolos formatos de VTR que la graban se pueden catalogar como formatos de video compuesto.

©1998-2005 Adrián A. Costoya Rev-2005-08 20

Page 22: Tecnologia de La Imagen y Sonido - Apunte UNLA

Los mercados y las aplicaciones

Segmentación de mercados

Existen diversos criterios para categorizar el desenvolvimiento de cualquier actividad económica y, desdeluego, muchos de ellos se aplican a la industria audiovisual. Uno de los criterios es el de la segmentaciónsegún pautas que permiten distinguir estratos que determinan agrupamientos que expliquen elcomportamiento de una franja del sector.

La primera segmentación que consideraremos aplicada a la tecnología audiovisual es la segmentación demercados, ésta deriva de la capacidad de producir facturación de sus integrantes y consecuentementedetermina su poder adquisitivo en relación a sus compras de tecnología.

El criterio para la segmentación de mercados empleado por la Cátedra determina la existencia de cuatrosegmentos, conocidos en inglés por los términos: Broadcast, Professional, Industrial y Consumermencionados según su orden de importancia. El siguiente cuadro muestra algunos casos de compañías einstituciones que se podrían clasificar en cada uno de ellos y presenta, a manera de ejemplo, lareferencia de los gastos que cada uno de ellos realiza en tecnología de cámara y VTRs.

Segmento Argentina Internacional Cámara VTRBroadcast Canales Bs.As., Estudios

Top (proveedores de loscanales de Bs. As.),TyC, Metrovisión,Videocolor, Ideas del Sur,Pol-ka

ABC, CBS, NBC, Fox (cadenasnacionales), CNN, ESPN, E!,TNT, HBO, (programadoresnacionales), BBC, TVE, RAI ysus proveedores

$150.000 $80.000

Professional TV de aire de capitales deProvincias, CableVisión,Multicanal, productoras quelos proveen

Canales locales y susproveedores $40.000 $30.000

Industrial Canales TV y CATV depequeñas ciudades,Universidades

Cable local, Universidades,Corporaciones

$15.000 $15.000

Consumer --- --- $800 $300

Desde luego, esta clasificación es arbitraria y se presentan casos en los que se dificulta elencuadramiento como así también situaciones en las que la tecnología ofrece alternativas de mejorcalidad y prestaciones en productos de menor costo que el ejemplificado con lo cual queda claro quealgunas fronteras se vuelven difusas. Tanto es así que en los últimos años se ha acuñado el término“prosumer” para referir a tecnología de la alta gama de productos de consumidor que, en algunos casos,se puede utilizar en aplicaciones industriales o profesionales.

©1998-2005 Adrián A. Costoya Rev-2005-08 21

Page 23: Tecnologia de La Imagen y Sonido - Apunte UNLA

Segmentación de Aplicaciones

Si bien la segmentación de mercados se determinó por la capacidad económica de compra de tecnologíaes evidente que ya sea que empleen productos de mayor o menor costo, los diferentes actores de laindustria deben producir formatos y géneros comunes y enfrentar el mismo tipo de situaciones. Paraestablecer estas diferencias es que se emplea la segmentación de aplicaciones.

El criterio para la segmentación de aplicaciones empleado por la Cátedra determina la existencia de tressegmentos, conocidos en inglés por los términos: Studio, EFP (Electronic Field Production) y ENG(Electronic News Gathering).

Las características generales que se pueden reconocer en cada segmento son:

Studio: corresponde a la utilización de tecnología en el estudio de TV donde se presenta un ambientecontrolado diseñado para tal fin, cuenta con provisión de energía de la red pública, piso nivelado,acondicionamiento de aire y personal con dotaciones completas entre otras características.

EFP: es el entorno de trabajo de la cobertura de eventos medianos y las realizaciones de exterioreselaboradas que pueden corresponder al registro en locaciones de un programa que en su mayor parte serealiza en estudios.

ENG: se refiere a la cobertura de noticias en las que se privilegia el valor periodístico por encima de lacalidad técnica y ésta se pone al servicio de proveer las facilidades necesarias para que una dotación depersonal mínima obtenga el registro con la menor cantidad de logística posible y en condicionesdescontroladas que muchas veces, incluso, se vuelven adversas.

Para la mejor comprensión de esta segmentación se deben tomar ejemplos de alguna tecnología yanalizarla desde este punto de vista, el siguiente capítulo, dedicado a la cámara de video, se planteadesde un enfoque afín a la segmentación de aplicaciones para completar su interpretación.

Por último, vale la pena destacar que la posibilidad de clasificar a la tecnología según el segmento delmercado al que está dirigida y la aplicación para la cual se diseñó y desarrolló permite una mejorcomprensión de las hojas de datos de los productos y la apropiada evaluación de la relacióncosto/prestaciones.

Los términos empleados en este texto son los mismos que aparecen en los folletos de los productos y enla bibliografía sobre el tema por lo que es de gran utilidad su conocimiento ya que en esas fuentes deinformación no es habitual que se explique su alcance o sus diferencias y mucho menos las siglasempleadas.

©1998-2005 Adrián A. Costoya Rev-2005-08 22

Page 24: Tecnologia de La Imagen y Sonido - Apunte UNLA

La cámara de video

Las cámaras de video se presentan en distintas configuraciones, tanto por sus características técnicasespecíficas como por su morfología y por la funcionalidad que ofrecen de acuerdo a su aplicación.

Así podemos distinguir entre cámaras de estudio, cámaras para EFP (Electronic Field Production) ycámaras para ENG (Electronic News Gathering).

Estos tres tipos de cámaras constituyen un buen ejemplo de la segmentación de aplicaciones. Se puedegraficar un cuadro y comparar cámaras para cada aplicación en base a algunos atributos distintivosescogidos arbitrariamente. En la tabla aparecen subrayados los atributos que operan como premisas dediseño de acuerdo a cada aplicación ya que, más allá de la idealización de un producto que hace todobien, estas premisas se satisfacen en buena medida en detrimento de otros atributos.

Calidad Portabilidad Peso Consumo

Studio MUY ALTA BAJA ALTO ALTO

EFPElectronicFieldProduction

ALTA MEDIA MEDIO MEDIO

ENGElectronicNewsGathering

REGULAR ALTA BAJO BAJO

Todos los usuarios desearían contar con una cámara de excelente calidad, muy portátil, que pese poco yconsuma muy poca corriente. Pero, las soluciones de compromiso adoptadas en el diseño deequipamiento se aplican considerando no sólo el mercado al que se dirige el producto (lo quedeterminará en gran parte su nivel de refinamiento) sino además en qué aplicación se lo va a utilizarpara establecer las prioridades.

La cámara de estudio

Las cámaras de estudio deben ofrecer la mejor calidad alcanzable por la tecnología disponible dentro delrango de precio y a la vez todas las facilidades de uso propias del trabajo en estudio. Esto trae aparejadoun tamaño mayor debido al tamaño de la lente, la cantidad de placas de procesamiento de señales abordo de la cabeza de cámara y el tamaño del visor o viewfinder entre otras consideraciones.Consecuencia inevitable del tamaño alcanzado será su peso por lo que queda claro que en una cámarade estudio se sacrifica la portabilidad. Por otra parte, al tener que alimentar tanta electrónica, viewfindery luces de tally potentes y de buen tamaño este equipo drena mayor cantidad de corriente eléctrica. Sin

©1998-2005 Adrián A. Costoya Rev-2005-08 23

Page 25: Tecnologia de La Imagen y Sonido - Apunte UNLA

embargo, ésta se obtiene fácilmente en su ámbito de operación ya que en los estudios la provisión deenergía en cantidad está asegurada para atender a los mayores consumidores que son la iluminación y elaire acondionado.

Dando por sentado estas características, se implementa toda una “logística” alrededor de una cámara deestudio: se cuenta con pedestales para el apoyo y traslado de una cámara de gran porte, un asistentepara los desplazamientos durante la grabación o emisión en vivo y, entre otros elementos distintivos, uncable de cámara que además de enrutar las señales relevantes de video cumple varias otras funcionesentre las que figura proveer la alimentación de energía.

Componentes de las cámaras de estudio

Las cámaras de estudio están compuestas, en general, por:

Cabeza de cámara: es el corazón de la cámara que alberga el prisma que descompone la luz, la rueda defiltros compensadores o de efecto, los sensores y todas las placas de electrónica para el procesamientode señales de video y señales complementarias.

Lente: una lente zoom o lente de distancia focal variable con relaciones de magnificación de hasta 50X.Esta lente cuenta en su interior con motores para actuar sobre el variador del conjunto de zoom y sobreel conjunto de enfoque.

Viewfinder: es el visor de la cámara para que el camarógrafo vea la imágen que la cámara estáproduciendo y pueda operar sobre encuadre y enfoque. En él también puede observar imágenes que sele envíen desde el control de estudio mediante el video de retorno (return video).

©1998-2005 Adrián A. Costoya Rev-2005-08 24

Page 26: Tecnologia de La Imagen y Sonido - Apunte UNLA

Comandos de zoom y foco: se trata de comandos montados en los manubrios de la cámara. Pueden serde tipo manual, en cuyo caso una tripa transmite el movimiento de una rueda en el mando hasta elmecanismo de la lente o de tipo servo, en los que los mandos tienen botones para pulsar y producir lasvariaciones de zoom en forma contínuamente variable y una rueda para producir el enfoque. Cabedestacar que en los sistemas servo se opera comandando motores a distancia.

Luces de tally: son las luces que se iluminan cuando la cámara está en el aire. La que toman comoreferencia los conductores de programa. Son habitualmente luces rojas y se encuentran repetidas envarias caras de la cámara, dentro del compartimento de la lente y en el viewfinder en ambos lados.

Cable de cámara: también llamado manguera por tratarse históricamente de un cable grueso, actúacomo umbilical de la cabeza de cámara ya que la vincula con un equipo que no suele estar a la vista peroforma parte de la cadena de cámara que es la CCU (camera control unit o unidad de control de cámara).

El cable de cámara y la CCU

Cadena de cámara es la denominación dada al conjunto de equipamiento requerido para que una cámarade estudio opere con todas sus posibilidades.

La cadena de cámara tiene dos componentes principales que son la cabeza de cámara (lo quenaturalmente tendemos a llamar “la cámara”) y la unidad de control de cámara o CCU por sus siglas eninglés y entre ellas se tiende un cable de cámara comúnmente conocido como “manguera”.

CCU

La CCU es un equipo que ofrece telecomando de la cabeza de cámara además de un panel de conectoresapropiado para que la cadena de cámara se vincule a los demás equipos del estudio (generador desincronismo, switcher, intercom, etc.).

La CCU opera como telecomando porque desde ella se pueden controlar varios dispositivos o la respuestade la cabeza de cámara a saber:

Control de la selección de IRIS automático o manual. Control manual de la apertura de diafragma (IRIS). Control de la rueda de filtros compensadores. Control del master pedestal. Control del pedestal de R, G y B independiente. Control de la ganancia de R, G y B independiente. Control de la ganancia electrónica: 0dB, 9dB o 18dB. Generación de barras de color. Control automático de balance de negro y balance de blanco. Almacenamiento y recuperación de memorias de settings de cámara.

El panel de conexiones de la CCU cuenta, en general, con los siguientes conectores:

Video out (compuesto) Video out (RGB) Microphone out Return video in (compuesto) Reference in (black burst) Intercom

©1998-2005 Adrián A. Costoya Rev-2005-08 25

Page 27: Tecnologia de La Imagen y Sonido - Apunte UNLA

Tally

Cable de cámara

El cable de cámara actúa como un umbilical entre la CCU y la cabeza de cámara. Esta recibirá señalestales como Return Video, Intercom, Tally, Power y enviará señales tales como Video compuesto, VideoRGB, Intercom y micrófono.

Existen dos tipos de cable de cámara más comunes, se los conoce como MULTICORE y TRIAX.

Cable Multicore

El cable multicore es un agrupamiento de varios cables en su interior, cada uno de ellos es un cableespecífico para la señal que encamina y todos están cubiertos por una vaina o jacket general por lo que asimple vista parece tratarse de un solo cable grueso.

El cable multicore es bastante costoso por sus características distintivas, cada fabricante emplea un tipodiferente y, en muchas ocasiones, aplica distintos tipos de cables multicore dentro de sus familias deproductos. En los extremos de conexión (la CCU y la cabeza de cámara) se emplean conectoresespeciales con muchos contactos o pines. Son habituales los cables multicore con conectores de 14 y 26pines pero hay casos que alcanzan números mayores.

Los principales problemas de los cables multicore son que cada equipo requiere del cable correcto, sualto costo y la dificultad de reparación (muchas horas de trabajo). Pero además se dan situaciones deuso corriente que impulsan el empleo de otro tipo de cableado entre cámara y CCU. Si tomamos el casode los estadios y teatros donde se realizan habitualmente espectáculos que se televisan, observaremosque dichas transmisiones son realizadas por distintos móviles de exteriores de distintos canales oproductoras, por lo que en cada oportunidad se deben colocar cientos de metros de cable por cadacadena de cámara con tendidos aéreos y a la intemperie en sitios que no están especialmentepreparados para ese fin. Esta y otras razones impulsaron la unificación de criterios en el vínculo físicoentre la CCU y la cabeza de cámara con un cable genérico llamado TRIAX.

Cable TRIAX

El TRIAX es un cable compuesto por un conductor central y dos conductores concéntricos (es decir tresen total). El TRIAX presenta una serie de ventajas: es un cable más barato, utiliza un tipo de conectorgenérico sin importar el fabricante o modelo de cámara y se puede reparar en minutos. Por esta razón envarias ciudades del mundo los estadios deportivos y muchas salas de teatro poseen cableado TRIAXcomo instalación fija vinculando los emplazamientos de cámara habituales y la zona de estacionamientode las unidades móviles. Esto beneficia a las televisoras y productoras que cubren esos eventos ya quese evitan el tiempo, el riesgo y el costo operativo que el tendido y recolección de los cables de cámara.Sin embargo, no todos lo han adoptado porque la tecnología con la que deben contar la CCU y la cabezade cámara para utilizar este tipo de cable es mucho más costosa y sólo se encuentra disponible en losequipos broadcast y profesionales de alto nivel.

Cabe destacar que, desde el punto de vista del equipamiento, el uso de cable multicore o triax norepresenta ninguna diferencia funcional ya que ambos enrutan el mismo tipo de señales por lo que secumplen exactamente las mismas funciones.

©1998-2005 Adrián A. Costoya Rev-2005-08 26

Page 28: Tecnologia de La Imagen y Sonido - Apunte UNLA

La cámara EFP (Electronic Field Production)

Las cámaras EFP son las que se utilizan en los exteriores de un programa que en interiores se realiza concámaras de estudio. Es decir, deben tener algunas virtudes que las hagan aptas para el trabajo enexteriores pero no pueden resignar una alta calidad técnica para matchear o empatar con el materialrealizado “en piso”.

Las cámaras EFP deben tener la posibilidad de utilizar accesorios como los de la configuración de estudio,tales como viewfinder externo, controles de zoom y foco, montura para trípode, etc pero constituir unconjunto más fácilmente transportable y además se deben poder operar montadas al hombro delcamarógrafo.

El ejemplo clásico de cámaras EFP es la cámara que se utiliza para realizar los exteriores de las tirasdiarias, móviles en vivo o coberturas de deportes secundarias. Estas mismas cámaras son, en algunoscasos, las denominadas “companion” de las cámaras de estudio ya también son empleadas dentro delestudio para colocar en gruas, steadicams o al hombro de camarógrafos en especial en programasmusicales o grandes shows en vivo.

©1998-2005 Adrián A. Costoya Rev-2005-08 27

Page 29: Tecnologia de La Imagen y Sonido - Apunte UNLA

La cámara ENG (Electronic News Gathering)

Gracias a la evolución de los formatos de VTR, hoy es casi impensable considerar una camara ENG parala adquisición de noticias que no sea una camcorder.

Las cámaras o camcorders ENG privilegian la obtención de la noticia y en esa aplicación es muyimportante un mínimo de consumo de batería y el menor peso posible. En las situaciones de alto riesgoen la cobertura de noticias, como algunas corresponsalías de guerra, llegan a emplearse cámaras de bajocosto con el fin de poder abandonar el equipo y llevar el videocassette ante una situación extrema.

La cámara de tres canales

Todas las cámaras broadcast, profesionales e industriales operan actualmente con la arquitectura de trescanales.

Históricamente se las conoció como cámaras de tres tubos, pero la evolución de otros dispositivos decaptura de imagen, nos lleva a conocerlas hoy como cámaras de tres CCDs.

Cuando desarrollamos el paso del RGB al video compuesto se detallaron las características del manejo deseñales dentro de la cámara de tres canales por lo que en las próximas páginas nos concentraremos enlas características de los sensores CCD y los fundamentos de la operación de cámara.

©1998-2005 Adrián A. Costoya Rev-2005-08 28

Page 30: Tecnologia de La Imagen y Sonido - Apunte UNLA

Estos gráficos y fotografías muestran conclaridad las principales diferencias detamaño y forma existente entre los tubosde cámara y los sensores del tipo CCD.

Es evidente los CCDs son más pequeños ylivianos que los tubos de cámara peroentre otras ventajas que se puedenapreciar, debemos notar que son fijadosal prisma con mucha precisión por elfabricante y allí permanecen durante todasu vida útil.

©1998-2005 Adrián A. Costoya Rev-2005-08 29

Page 31: Tecnologia de La Imagen y Sonido - Apunte UNLA

Sensores CCD

Las cámaras de tres canales se pueden equipar con distintos tipo de sensores o dispositivos de capturade imágenes: tubos o CCDs. Como se mencionó, en la actualidad no se fabrican cámaras prácticasequipadas con tubos, por lo que desarrollaremos algunos conceptos referentes a los CCDs.

CCD es la abreviatura de Charge Coupled Device y se puede traducir como “Dispositivo Acoplador deCargas” o “Dispositivo Acumulador de Cargas”. Se trata de un dispositivo fabricado con tecnología desemiconductores que actúa como transductor luz-corriente.

En una cámara de 3CCDs se forma una imagen real en el plano focal trasero de la lente, es decir que,luego de la intervención del prisma que descompone la luz según sus contenidos de energía en relación adiferentes longitudes de onda, se forman tres imágenes en un área predeterminada expuesta a la luz delCCD, el “target”.

La siguiente imagen muestra el área expuesta a la luz de dos CCDs. Uno de ellos tiene un target cuyarelación de aspecto es de 4:3 (4 a 3) y el otro 16:9 ya que el primero está preparado para operar con latelevisión convencional como la conocemos en nuestros días (SDTV) y el segundo produce imágenespara televisión de pantalla ancha (widescreen) o, probablemente, para televisión de alta definición(HDTV).

La imagen de estos CCDs permite apreciar su aspecto afin a los circuitos integrados y justifica lareferencia habitual a los CCDs como chips.

©1998-2005 Adrián A. Costoya Rev-2005-08 30

Page 32: Tecnologia de La Imagen y Sonido - Apunte UNLA

El siguiente cuadro aporta los elementos relevantes que durante los últimos años fueron tomados encuenta para reemplazar a los tubos por CCDs.

CCDCCD TUBOTUBO

Duración y confiabilidadDuración y confiabilidad Larga vidaLarga vida Se desgasta y empeoraSe desgasta y empeoraprogresivamenteprogresivamente

QuemadoQuemado EliminadoEliminado Inevitable si se toma unaInevitable si se toma unaimagen con excesivaimagen con excesivailuminacióniluminación

DistorsionesDistorsionesgeométricasgeométricas EliminadasEliminadas

El barrido del haz parejoEl barrido del haz parejoen toda el target es muyen toda el target es muydificultosodificultoso

Resistencia aResistencia agolpes y vibracionesgolpes y vibraciones

Robusto como unRobusto como unsemiconductorsemiconductor DelicadoDelicado

Tamaño y pesoTamaño y pesoCompacto y livianoCompacto y liviano

Ocupa espacio paraOcupa espacio paradeflexión, foco y ladeflexión, foco y latrayectoria del haztrayectoria del haz

Inmunidad a camposInmunidad a camposeléctricos y magnéticoseléctricos y magnéticos

InmuneInmune Los haces electrónicosLos haces electrónicosson afectadosson afectados

Consumo de potenciaConsumo de potencia MínimoMínimo Alto por filamentos,Alto por filamentos,bobinas y altas tensionesbobinas y altas tensiones

Smear verticalSmear vertical TieneTiene No tieneNo tiene

Basándonos en esta tabla podemos ver que, en todos los atributos considerados, excepto smear vertical,el CCD aventaja al tubo claramente.

Smear vertical

El smear vertical es una línea que cruza el cuadro verticalmente en muchos CCDs en los sitios donde seproducen muy altos contrastes. Se la puede ver de color blancuzco o rojizo y un ejemplo clásico ennuestros días son las líneas verticales que aparecen en los videos familiares cuando se ve una torta decumpleaños con las velas encendidas en un ambiente con poca o ninguna otra iluminación. Donde seproduce una situación de muy alto contraste aparece la línea vertical aunque esa no sea la geometría dela fuente de luz.

©1998-2005 Adrián A. Costoya Rev-2005-08 31

Page 33: Tecnologia de La Imagen y Sonido - Apunte UNLA

Tecnología de sensores CCD

Los CCDs debieron superar una serie de barreras antes de su amplia adopción por parte de losfabricantes de cámaras. La primera fue la resolución y le siguió la calidad de reproducción de color, peroaún así eran criticados por el smear vertical. Los CCDs actuales emplean diferentes tecnologías pararesolver este problema. En algunos casos tiene que ver con su principio de funcionamiento y en otroscasos con refinamientos de manufactura alcanzados luego de varios años.

Existen entonces diferentes tecnologías de sensores CCD, ellas son:

IT: Interline TransferFT: Frame TransferFIT: Frame Interline Transfer

Como se ve, éstas se distinguen principalmente por la manera en que realizan la transferencia de cargas.

Recordemos que el target o área expuesta a la luz de los CCDs está compuesta por un gran número dediminutos fotosensores vulgarmente llamados pixels. Se cuentan entre 400.000 y 600.000 fotosensoresen cada CCD de las cámaras broadcast, profesionales e industriales para televisión convencional (SDTV:Standard Definition Television) y hasta 2.000.000 en los CCDs de las cámaras para televisión de altadefinición. Cuanto más fotosensores acomoda un CCD en una misma superficie (target), mayor es laresolución que esperamos de él. Por otra parte, así como la dimensión de las pantallas de los televisoresdomésticos se determina por la diagonal de la pantalla, expresada en pulgadas, en los CCDs enproducción por estos días los targets cuentan con una diagonal de los siguientes valores de menor amayor: 1/3”, 1/2” y 2/3”.

La esencia del principio de funcionamiento de todas las tecnologías CCD es que los fotosensoresacumulan una cantidad de cargas que es directamente proporcional a la cantidad de luz que incide sobrecada uno de ellos. Esta proporcionalidad los hace particularmente adecuados como transductores luz-corriente y esa variedad de valores que cada fotosensor individual puede alcanzar nos permite afirmarque el dispositivo CCD es eminentemente analógico.

Ese patron de cargas acumuladas en la superficie expuesta a la luz de los CCDs conforma la imagen yesta característica, como dijimos, se presenta en todos los CCDs, lo que varía es la forma en que realizanel transporte de esa información en forma de cargas eléctricas (la transferencia) para entregar la señalde video de cada canal a la salida del dispositivo.

CCD IT (Interline Transfer)

Es el más popular de los CCDs y equipa desde cámaras broadcast hasta las camcorders domésticas dealgunos cientos de dólares.

El siguiente gráfico muestra la disposición de los fotosensores en el target, los registros de transferenciavertical (VSR: vertical shift register), el registro de transferencia horizontal (HSR: Horizontal ShiftRegister) y el drenaje de sobrecarga (OFD: OverFlow Drain) en el sensor IT.

©1998-2005 Adrián A. Costoya Rev-2005-08 32

Page 34: Tecnologia de La Imagen y Sonido - Apunte UNLA

Para explicar el proceso de operación del CCD consideraremos un sistema ideal de 25 cuadros porsegundo con un barrido progresivo de 625 líneas. Diremos entonces que durante casi 1/25vo. desegundo todos los fotosensores expuestos a la luz acumulan una cantidad de cargas eléctricasproporcionales a la luz incidente. En cuando se cumple el primer 1/25vo. de segundo los sensores debenentregar la información y lo hacen transfiriendo todos juntos a gran velocidad las cargas que hanacumulado al registro de transferencia vertical. Durante el segundo 1/25vo. de segundo, los fotosensoresvuelven a acumular cargas mientras que las que entregaron anteriormente viajan por el registro detransferencia vertical “1 línea a la vez” hasta llegar al registro de transferencia horizontal que cada vezque se llena produce la señal correspondiente a 1 línea de video.

Las cargas que durante cualquier ciclo de 1/25vo. de segundo se hayan producido en exceso sedescargan por el OFD o drenaje de sobrecarga.

El problema surge porque el CCD no tiene un control perfecto de las cargas cuando se produceacumulación excesiva y éstas no solo pasan al OFD sino que una parte se desvía y “contamina” elregistro de transferencia vertical VSR. Esa presencia de cargas en exceso en un sitio donde no se lasespera son la causa del smear y como el registro contaminado es el de transferencia vertical eso es loque determina la geometría del smear.

CCD FIT (Frame Interline Transfer)

Es muy importante fijar la idea de contaminación como causa del smear vertical. De allí surge latecnología que minimiza los efectos del smear vertical, operando sobre la contaminación. La mejormanera de hacerlo sería evitar la presencia del contaminante, pero no se ha logrado hasta el momento.Entonces, ante esta realidad, que es que el contaminante existe se minimiza la contaminaciónexponiendo a las cargas que constituyen la información a la contaminación el menor tiempo posible.

©1998-2005 Adrián A. Costoya Rev-2005-08 33

Page 35: Tecnologia de La Imagen y Sonido - Apunte UNLA

Quiere decir que en el IT no se puede evitar porque las cargas no tienen hacia donde ir, deben esperarsu turno para salir por el registro de transferencia horizontal. Pero la tecnología que resuelve esteproblema, FIT, cuenta con un área de almacenamiento, por lo que luego de la transferencia al registrode transferencia vertical de las cargas, éstas se pueden transferir rápidamente a ese área dealmacenamiento fuera del alcance de la luz a esperar su turno para salir por el registro de transferenciahorizontal.

En el siguiente gráfico se esquematiza ese proceso.

Obturador electrónico (shutter)

Dando por sentado que se está realizando un manejo de cargas acumuladas a intervalos de 1/25vo. desegundo para producir 25 cuadros por segundo se puede considerar otro aspecto del sensor CCD encuanto al manejo de cargas, el shutter electrónico.

El principio de funcionamiento es que se puede fragmentar ese 1/25vo. de acumulación de cargas ydesechar las que se han producido durante un tiempo menor. Así se desechará, por ejemplo, lainformación de las cargas acumuladas durante la primera mitad del 1/25vo. (es decir 1/50vo. desegundo) y conservar la segunda mitad.

El resultado será que produciremos una imagen cada 1/25vo. de segundo, pero la información quecontendrá corresponderá a un intervalo más breve. De este modo, se puede recrear el efecto fotográficode “instantánea” o detención del movimiento ofreciendo una imagen bien definida de un objeto enmovimiento sin motion blur.

En el ejemplo se ve la misma imagen sin la intervención de obturador electrónico y con el obturadorelectrónico operando a 1/500vo. de segundo.

©1998-2005 Adrián A. Costoya Rev-2005-08 34

Page 36: Tecnologia de La Imagen y Sonido - Apunte UNLA

Es muy importante destacar que al obturador electrónico le caben las reglas habituales de la exposiciónfotográfica. Quiere decir que si se aumenta un punto la velocidad de obturación (o dicho de otro modo sereduce el tiempo de exposición) se deberá abrir un punto de diafragma para conservar los niveles devideo de la imagen correctos.

Este recurso se vuelve especialmente útil para reducir la profundidad de campo cuando no se cuenta confiltros de densidad neutra (ND Neutral Density), pero se debe tener mucho cuidado con el "look" queadquieren los objetos en movimiento, ya que la falta de motion blur los vuelve artificiales y se observacierto tironeo.

Lentes zoom en cámaras de TV

Mientras que en cinematografía se prefiere el uso de lentes de distancia focal fija en la mayoría de lastomas, todas las cámaras de TV se equipan con lentes zoom.

La lente del ejemplo es una lente zoom para cámara EFP o ENG con parasol rectangular, lo que sólo esposible cuando la lente tiene un sistema de foco interno (IF Internal Focus) con un extender trasero conuna relación de multiplicación 2X. Como todas las lentes de este tipo, cuenta con zoom motorizado. Sucomando se puede accionar de dos maneras, presionando W (wide) el zoom se pone cada vez másangular y presionando T (Tele) el zoom se vuelve cada vez más telefoto, esta variación se produce deforma contínua y cuanto más abajo se presione el comando mayor será la velocidad de la variación.

Por otra parte, las cámara EFP o ENG tienen las capacidad de controlar el servo iris (apertura dediafragma) para que la lente responda automáticamente a las condiciones de luz del ambiente. Esto esmuy útil en una situación en la que no se cuente con control de las condiciones de iluminación comosucedería en la cobertura de noticias aunque, en general, cuanto más profesional y competente es eltrabajo que se realiza, existe menos predilección por los automatismos.

©1998-2005 Adrián A. Costoya Rev-2005-08 35

Page 37: Tecnologia de La Imagen y Sonido - Apunte UNLA

Principios de operación de cámara de video

Existe una serie de controles que se encuentran en todas las cámaras de video profesionales más allá desu fabricante o calidad.

Las siguientes imágenes corresponden a una camcorder de uso corriente en la actualidad.

©1998-2005 Adrián A. Costoya Rev-2005-08 36

Page 38: Tecnologia de La Imagen y Sonido - Apunte UNLA

En esta imagen se ven algunos de los controles más habituales como el power principal, que determina sila camcorder recibirá energía proveniente de las baterías o el adaptador de corriente, el de ganancia(GAIN) que produce un aumento artificial, electrónico del nivel de video para producir imágenesreconocibles con bajos niveles de iluminación con sacrificio de la calidad ya que la imagen se vuelveruidosa, el control de OUTPUT que determina la señal a la salida del equipo, pudiendo ser barras de coloro cámara y las memorias de balance de blanco con tres posiciones PRESET seteado en fábrica y A y Bseteados por el usuario.

Filtros, balance de blanco y balance de negro

Lo primero que se debe determinar para realizar el ajuste de una cámara en toma es la calidad de la luzde la escena, este es un capítulo puramente óptico que se opera desde la rueda de filtroscompensadores que toda cámara profesional posee.

Las distinciones principales son las habituales, luz de lámpara de 3200 grados Kelvin y luz día.

Como no existe distinta respuesta de los dispositivos de captura de imágenes como podría suceder encinematografía según la utilización de película Tungsteno o Daylight, debemos tomar en cuenta que lossensores CCD fueron creados para operar con luz de lámpara de 3200 grados Kelvin, por lo tanto larueda de filtros tendrá una posición habitualmente designada como [1] para 3200 grados Kelvin que, enrealidad, corresponderá a un orificio por el que la luz pasa sin más.

Cuando se realizan tomas en exteriores existen dos o tres alternativas. Ante todo se utilizará un filtropara 5600 grados Kelvin que es un filtro anaranjado para compensar una luz más azulina. Pero como enel trabajo en exteriores se pueden dar situaciones donde la escena devuelve mucha luz, tales comoplaya, nieve, mar, etc. existen un par de posiciones adicionales designadas como 5600 más una cantidadde ND que incluyen un filtro de densidad neutra que reduce la cantidad de luz que ingresa a la cámarapara tener un mejor control de la exposición y cierto grado de control de la profundidad de campo.

©1998-2005 Adrián A. Costoya Rev-2005-08 37

Page 39: Tecnologia de La Imagen y Sonido - Apunte UNLA

Cumplido el requisito de selección del filtro correcto se deberá proceder al ajuste de balance de negroautomático. Durante este proceso, la cámara cierra el diafragma para que no ingrese luz por la lente yrealiza un ajuste para que su electrónica presente una señal de negro a la salida. Luego se debe realizarel ajuste de balance de blanco automático, para ello es imprescindible contar con las condiciones de luzde la escena y algún objeto blanco colocado en el lugar de la toma que llene el cuadro. La cámaraajustará su electrónica para entregar la señal de blanco a la salida. Es importante recordar que lastemperaturas de color no pueden convivir en una misma toma sin causar problemas, la única alternativaes compensar las fuentes de luz para unificarlas o aceptar que si la iluminación principal es luz delámpara las zonas donde se presente luz día se verán azulinas y por el contrario que, si la luz principal dela escena es luz día la imagen reproducirá más anaranjada donde este presente la luz de lámpara.

Es muy importante incorporar este concepto sobre todo para la realización de tomas en las que no secuenta con monitor color y se juzgan las imágenes sólo a través del viewfinder monocromático de unacamcorder, ya que los problemas serán apreciados al visualizar de regreso al estudio o en la edición delmaterial.

En la fotografía se advierte el comando designado AUTO W/B BAL que se refiere al balance automáticode negro y de blanco. Se trata de una tecla que se puede pulsar en dos sentidos. Cuando se la pulsahacia abajo y se la suelta se realiza el balance automático de negro y cuando se la pulsa hacia arriba yse la suelta se realiza el balance automático de blanco.

©1998-2005 Adrián A. Costoya Rev-2005-08 38

Page 40: Tecnologia de La Imagen y Sonido - Apunte UNLA

Para manejar un mayor detalle en el control de la imagen las cámaras modernas incorporan un menúque se puede ver sólo en el viewfinder o en una salida especial de la CCU con varios parámetros que sepueden ajustar mediante unos pulsadores.

Entre los parámetros más relevantes que se pueden ajustar de esta manera figuran:

Detail (también llamado sharpness o crispening) que determina el grado de enhancer electrónico dela imagen.

Master Pedestal – Actúa sobre los grises oscuros y permite elevar su tono para producir imágenes debajo contraste o reducirlo con el consecuente aumento de contraste.

R Pedestal – Aumenta el tinte rojo en los grises oscuros. G Pedestal – Aumenta el tinte verde en los grises oscuros. B Pedestal – Aumenta el tinte azul en los grises oscuros. R Gain – Aumenta el tinte rojo en los grises claros. G Gain – Aumenta el tinte verde en los grises claros. B Gain – Aumenta el tinte azul en los grises claros.

Estos controles son de gran utilidad para el director de fotografía y el operador de video y esconveniente utilizarlos siempre que se cuente con monitores color confiables e instrumentos de medicióntales como monitor de forma de onda (waveform) y vectorscopio (vectorscope).

©1998-2005 Adrián A. Costoya Rev-2005-08 39

Page 41: Tecnologia de La Imagen y Sonido - Apunte UNLA

El control de Knee o DCC (Dinamic Contrast Control)

Se ha dicho muchas veces que el video tiene poca latitud. Es verdad, las cámaras de televisión operandentro de una relación de contraste menor que la que se puede obtener con la mayoría de las películascinematográficas y fotográficas. Sin embargo, la realidad nos enfrenta habitualmente a situaciones dealto contraste y es necesario manejarlas de la mejor manera posible.

Si trazaramos un gráfico ideal que representara nivel de video en función de la luz que atraviesa la lenteobservaremos que un tramo estará representado por una recta con una pendiente de 45 grados. Es decirque a variaciones de luz se producirán variaciones proporcionales de nivel de video. Sin embargo, cuandoel video alcance su valor máximo no será capaz de representar cantidades de luz mayores y producirásiempre el mismo valor (máximo valor de video).

El control de knee (rodilla) lo que permite es producir un quiebre en esa recta y a cierto punto producirvariaciones menores de video para las variaciones de luz que atraviesan la lente.

En términos prácticos podemos decir que en las porciones de la imagen que deban sobreexponersedeliberadamente para que la acción principal se vea bien, no producirá una carencia total de detalle enlos blancos.

©1998-2005 Adrián A. Costoya Rev-2005-08 40

Page 42: Tecnologia de La Imagen y Sonido - Apunte UNLA

Iluminación

Gráficos sobre características de la luz

©1998-2005 Adrián A. Costoya Rev-2005-08 41

Page 43: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 42

Page 44: Tecnologia de La Imagen y Sonido - Apunte UNLA

Luminarias

Open face

Par: diagrama y aspecto externo

©1998-2005 Adrián A. Costoya Rev-2005-08 43

Page 45: Tecnologia de La Imagen y Sonido - Apunte UNLA

Fresnel: luminaria y sistema de reflector y lente

Fresnel: concentración y desconcentración

©1998-2005 Adrián A. Costoya Rev-2005-08 44

Page 46: Tecnologia de La Imagen y Sonido - Apunte UNLA

Softlight

HMI con balasto

©1998-2005 Adrián A. Costoya Rev-2005-08 45

Page 47: Tecnologia de La Imagen y Sonido - Apunte UNLA

La grabación de video

Magnetismo

La grabación de video se sustenta en los principios del magnetismo y específicamente en un fenómenosegún el cual se puede decir que una corriente eléctrica que circula por un conductor (un alambre decobre) produce un campo magnético. Un paso más allá diremos que este campo magnético varía demodo proporcional a las variaciones de la corriente aplicada. Por lo tanto, si este campo producido por lacorriente que circula por un conductor se encuentra en la proximidad de un material con propiedadesmagnéticas adecuadas (la cinta de video) producirá variaciones en la orientación de sus partículasmagnéticas que reflejen esas variaciones de corriente. Así entonces podemos explicar el proceso degrabación en la cinta magnética.

Tal vez lo más interesante en términos prácticos de esta realidad de la física es que el fenómeno esreversible. Entonces diremos que cuando un conductor se desplaza por un campo magnético se induceen él una corriente eléctrica proporcional a las variaciones del campo aplicado y lo bueno de estacaracterística es que esta propiedad no se agotó, si el mismo conductor u otro conductor se vuelve adesplazar dentro de ese campo se producirá exactamente el mismo efecto.

En el caso más sencillo de recupero de la información, debemos considerar que la cinta grabada presentaun campo magnético permanente y durante la reproducción (playback) se opera disponiendo una cabezade lectura que permanece quieta (cabeza estacionaria) mientras que la cinta es arrastrada frente a ella.Este es el caso de la reproducción del cassette compacto de audio, el cabezal se acerca a la cinta alpresionar el botón de play y el motor del carrete hace avanzar la cinta frente a él. Por su parte, para lasaplicaciones de video se recurre a combinaciones de movimiento del campo magnético (arrastre de cinta)con desplazamiento de la cabeza (cabezas rotativas) siempre basados en el mismo principio defuncionamiento.

La cinta magnética de video

Para aprovechar el fenómeno de magnetismo en la videograbación se emplea cinta magnética. La cintaestá compuesta por las siguientes capas:

La emulsión: del mismo modo que la película fotográfica o cinematográfica cuentan con una capasensible a la luz, la cinta magnética cuenta con una capa de material con propiedades magnéticasllamada “emulsión”. Esta capa es la responsable de variar la orientación de sus partículas de acuerdo alas variaciones del campo magnético aplicado por la cabeza de grabación.

Si bien la emulsión es la capa más importante y es la que cumple con las leyes del magnetismo, se tratade una capa muy delgada y delicada que requiere de otras capas para una operación correcta, estasotras capas son: la base y los recubrimientos.

La base: la mayor parte del volumen de la cinta está ocupado por la base. La base es habitualmente depoliéster y tiene por objeto principal ofrecer el soporte a la emulsión ya que le brinda las propiedadesmecánicas necesarias para soportar los esfuerzos de tracción (por el arrastre de cinta) y torsión (en surecorrido por las guías del paso de cinta) sin que se produzcan deformaciones objetables.

Los recubrimientos: la base y la emulsión no pueden operar correctamente solas sin la intervención delos recubrimientos (coatings). Los problemas que se producirían son diversos, por una parte, la emulsiónal friccionar contra el drum (cabezal) se desgastaría y se desprendería fácilmente; por otra parte, lafricción del poliéster de la base contra las guías y otros elementos metálicos, de goma y de plástico delpaso de cinta produciría mucha electricidad estática y por último, si la cinta permaneciera largo tiempo

©1998-2005 Adrián A. Costoya Rev-2005-08 46

Page 48: Tecnologia de La Imagen y Sonido - Apunte UNLA

almacenada sin bobinar y rebobinar partes de la emulsión podrían desprenderse y quedar adheridas a laparte trasera de la base. En consecuencia, los recubrimientos se aplican para evitar estos problemas.

El recubrimiento trasero, o back coating, tiene por objeto disminuir la fricción con las guías y postes delpaso de cinta y reduce la producción de electricidad estática que atrae las partículas de polvo y pelusasen suspensión en el aire.

Los dropouts

La utilización de cintas magnéticas implica la consideración de una serie de defectos que se puedenproducir incluso en el escenario más favorable compuesto por cinta de buena calidad, VTR (Video TapeRecorder) razonablemente limpia y mecanismo en buenas condiciones.

Un defecto característico de la cinta magnética en las aplicaciones de video consiste en la aparición delos llamados “dropouts” (o pérdidas). Se trata de falta de información y, en general, en aplicaciones devideo analógico se manifiestan como pequeñas áreas de la imagen que se presentan blancas. Debemosreconocer que, por el tamaño y forma de los tracks (pistas) y las características de las emulsiones, cadaformato de VTR presenta en el monitor dropouts que se visualizan de manera diferente. Por ejemplo, undropout característico del formato U-matic se verá como un punto blanco del tamaño de un grano dearroz en un monitor de 14” y, si bien su duración en PAL sería de 1/25vo. de segundo, por su nivel deblanco se percibirá durante un tiempo mayor.

Existen tres tipos de dropouts: dropout de escritura, de lectura y de cinta.

Dropout de escritura (record): se produce cuando la cabeza de grabación está escribiendo en la cinta yalguna partícula se interpone entre la cinta y la cabeza, y por esa razón esta última no logra depositar lainformación en la cinta. Por lo tanto, existe falta de información porque no se la pudo escribir. Se tratade una situación pasajera cuya duración es brevísima y por esa razón sólo afecta a una porción diminutade la imagen.

Dropout de lectura (playback): se produce cuando la cabeza de reproducción está leyendo de la cinta yalguna partícula se interpone entre la cinta y la cabeza, y por esa razón esta última no logra recuperar lainformación de la cinta (aunque la información se encuentra intacta en la ella). En este caso se presentauna falta de información a la salida y se visualiza como un dropout. Sin embargo, si se rebobina el tape yse hace playback de nuevo, el drop no se vuelve a presentar. Una vez más, se trata de una situacióntemporaria cuya duración es brevísima y, a diferencia del drop de escritura, no produce una fallapermanente.

Dropout de cinta (daño físico): una cinta virgen puede tener una pequeñísima sección de su superficie enla que el material con propiedades magnéticas este ausente o defectuoso. En este caso no importa lasveces que se intente la grabación no se podrá depositar información en esa sección y se producirá elllamado “drop de cinta”. Pero no es la única situación en la que se presenta; por ejemplo, una cintacorrectamente manufacturada que se ha grabado correctamente puede sufrir en algún momento unpequeño desprendimiento de emulsión o un rayón que desprenda la emulsión.

En cualquiera de estos casos se produce la falta de información y tiene caracter de falla permanente.

D.O.C. dropout compensator: el hecho de que un dropout sea permanente desde el punto de vista de lapérdida de información no quiere decir que no se pueda evitar su visualización. Las VTRs profesionalescuentan con equipos adicionales, que se encuentran algunas veces incorporados en su interior y otrasveces se trata de dispositivos externos, llamados TBCs (Time Base Corrector). La misión del TBC es

©1998-2005 Adrián A. Costoya Rev-2005-08 47

Page 49: Tecnologia de La Imagen y Sonido - Apunte UNLA

corregir las inestabilidades de la señal de video proveniente de una VTR debidas a pequeñasimpresiciones del transporte mecánico.

El TBC, por su cableado y principio de funcionamiento (que no explicaremos en este texto), tiene laposibilidad de detectar durante el playback de una VTR los dropouts y disimularlos a la salida mediante larepetición de la línea de barrido anterior a la línea que contiene el drop. La parte del TBC que realiza estaactividad se denomina D.O.C. o Drop Out Compensator.Advertencia: si el drop se copia de un videocassette a otro sin compensar ya pasa a formar parte de laimagen (no es falta de información sino información “blanco”) y ningún TBC con D.O.C. lo podrá corregir.

Breve historia de la grabación en cinta magnética

La televisión es un medio que se desarrolló en términos prácticos como un sistema de tiempo real desdesus comienzos cuando se la utilizaba para la cobertura de eventos “en vivo” como los Juegos Olímpicosde Berlín en 1936 o la coronación en el Reino Unido de 1937. La única manera de realizar un registropara propósitos de archivo o retardo de programación por esa época (también válido por varios añosmás) fue el sustento de la imagen en film con dispositivos que “filmaban” un monitor de televisión paraque, luego de revelada (y a veces copiada), la película se reprodujera en sistemas de telecine. Estosdispositivos de captura se conocían como Kinescopio (kinescope) y, en los EE.UU., registraban 24fpsfrente a monitores que operaban a 30fps por lo que se empleaba una serie de artilugios para lograralguna forma de sincronización entre el intervalo vertical del video y el arrastre de la película, cuandoesto no se alcanzaba satisfactoriamente, aparecía una barra horizontal oscura desplazandose por lapantalla.

Es evidente que el interés en la grabación en cinta magnética de imágenes era muy grande, pero en losinicios se topó con severas limitaciones técnicas para mover grandes longitudes de cinta a gran velocidadfrente a cabezas estacionarias. Estas dificultades estaban determinadas por una serie de relacionesfísicas entre las propiedades de las señales a grabar y las características mecánicas de cabezas y lavelocidad de cinta. Concretamente, existe una relación entre la frecuencia máxima que puede tolerar unagrabación magnética (ƒ), la velocidad de paso de la cinta frente a la cabeza (V) y el ancho delentrehierro o gap (e) determinado por la ecuación:

e < V /(2•ƒ) o dicho de otro modo: V > e•(2•ƒ)

Aplicando estas ecuaciones a las señales de audio se llega a valores habituales en la tecnología degrabación magnética del sonido en las que se emplean gaps de 5µm a 10µm (cinco a diez micrómetroso 5•10-6m) con velocidades de entre 9.5cm/s (3.75 ips) y 38.1cm/s (15 ips) para registrar un anchode banda analógico cuya frecuencia de corte superior teórico consecuentemente va de 9.5KHz a38.1Khz con gaps de 5µm.

Para comprobarlo aplicamos la ecuación antes presentada: V > e•(2•ƒ)

V > 5•10-6 • (2 • 9.5•103) => V > 9.5cm/s

Esto fue y sigue siendo muy útil para la grabación de señales de baja frecuencia como el audio, pero siutilizáramos el mismo criterio para señales de video de ancho de banda de 5.5MHz la velocidad sería:

V > 5•10-6 • (2 • 5.5•106) => V > 55m/s

Es más que evidente que a razón de 55 metros por segundo no se puede construir un sistema degrabación de video práctico con cabezas estacionarias.

©1998-2005 Adrián A. Costoya Rev-2005-08 48

Page 50: Tecnologia de La Imagen y Sonido - Apunte UNLA

Esto obligó a establecer un nuevo criterio, en vez de mantener la cabeza fija y desplazar la cintasolamente se introdujo la idea de cabeza rotativa para lograr grandes velocidades cinta/cabeza sin tenerque desplazar la cinta a grandes velocidades.

Las implementaciones de cabeza rotativa se originaron disponiendo cuatro cabezas (tips) separadas a 90grados en un cabezal (drum) que giraba perpendicular a la cinta por lo que se describían pistas (tracks)transversales. De esta manera no se lograba escribir la cantidad de información correspondiente a uncuadro (o al menos un campo) con cada cabeza lo que determinaba una familia de formatos de VTRdenominados segmentados. Ante este problema y los inconvenientes que traía aparejados, tales comoimposibilidad de pausa con imagen (STILL) o velocidades variables particularmente slow-motion, lasinvestigaciones continuaron para luego evolucionar a cabezas rotativas dispuestas en drums coninclinaciones menores que 90 grados y mayor superficie de contacto con la cinta describiendo trackshelicoidales.

En la actualidad los formatos de VTR profesionales digitales en uso operan con velocidades de cinta quevan de 5.78cm/s hasta 28.66cm/s mientras que los analógicos

Los tracks en videograbación

Existen diferentes modos de escribir tracks (pistas) en la cinta durante la grabación de video.

Tracks longitudinales: un track longitudinal se escribe a lo largo de la cinta mediante la intervención deuna cabeza estacionaria y la componente de velocidad de arrastre de cinta. El ejemplo cotidiano másclaro es el cassette compacto; un deck a cassette acerca a la cinta un cabezal que contiene las cabezasde grabación (o reproducción) de audio y el mecanismo arrastra la cinta frente a ellas. Los tracks quequedan determinados durante esta grabación son por consiguiente longitudinales.

Tracks helicoidales: un track helicoidal se escribe en la cinta como sucesión de pistas con cierto grado deinclinación mediante la intervención de una o más cabezas rotativas dispuestas en la circunferencia de undrum y la componente de velocidad de arrastre de cinta. La mayoría de los sistemas de videograbaciónemplean estos tracks para la información de imagen y, si bien los tracks son invisibles a simple vista, lacomprobación se efectúa al observar el tambor de aluminio inclinado que se encuentra en el interior delas VTRs, pues allí se advierte la presencia de cabezas rotativas y el angulo de inclinación de su giro conrespecto a la cinta que avanza horizontalmente.

Todas las VTRs al escribir sus diferentes tracks dejan una “huella” invisible a los ojos que en inglés seconoce como el footprint del formato de VTR. Entonces consideraremos un footprint típico de un formatode VTR genérico.

Cabe destacar que el footprint graficado y detallado a continuación se presenta para ejemplificar el tipode tracks y las señales que se graban en cada uno de ellos y no se debe asociar con un formato de VTRen particular.

El footprint de la figura siguiente representa el esquema empleado en la actualidad por muchos formatosde VTR que utilizan cintas de anchos que van desde ¼ de pulgada (6.4mm) hasta ¾ (19mm) depulgada.

©1998-2005 Adrián A. Costoya Rev-2005-08 49

Page 51: Tecnologia de La Imagen y Sonido - Apunte UNLA

En el gráfico se distinguen los siguientes tracks:

2 tracks longitudinales de audio grabados del mismo modo que lo haría un deck.1 track longitudinal de control track, habitualmente abreviado como CTL.Tracks helicoidales de video separados por guard-bands (banda de resguardo).

Los tracks helicoidales son escritos por el drum inclinado que poseen las VTRs en el que se encuentrancontenidas las cabezas de borrado, grabación y lectura rotativas. Según el formato, la misma cabezapuede cumplir más de una función en distinto modo de operación y en el caso de las VTRs sinposibilidades de edición no se proveen cabezas de borrado rotativas.

La razón por la que se emplea el track helicoidal para la grabación de video es que, debido a la mayorcantidad de información (ancho de banda) de la señal de video comparada con la señal de audio, serequiere tanto de mayor superfice para escribirla, de mayores relaciones de velocidad cinta-cabeza ymenor tamaño de gap (entrehierro) en la cabeza propiamente dicha. Si se quisiera resolver esta situacióncon disposición de tracks longitudinales nos encontraríamos con cintas angostas de varios cientos demetros siendo arrastradas en modo de grabación o reproducción a gran velocidad por lo que se vuelvepoco práctico desde varios puntos de vista: el factor de forma del cassette, el factor de forma de la VTRy de los mecanismos de arrastre.

En la figura también se puede observar la presencia de un track identificado como CTL. El control-trackes una señal muy elemental que se escribe en la cinta en los modos RECORD y ASSEMBLE únicamente ydeja una huella que consiste en un pulso por cada cuadro.

Al escribir un pulso en un momento preciso del cuadro se está dejando un registro en la cinta delinstante en que la cabeza rotativa de video comienza a escribir la información correspondiente a dichocuadro.Como la distancia entre la cabeza de control-track y el lugar de inicio de la grabación de video estádebidamente estipulado por cada formato de VTR, este sistema asegura que en una cinta grabada(donde aparentemente no se puede distinguir la ubicación de las pistas) la VTR encargada del playbacklas encuentre para asegurar la reproducción.

Por definición el control-track permite enganchar los servos de giro del drum y capstan para arrastre decinta de modo que las cabezas de video pasen justo por encima del sector de la cinta donde la grabadora(sea la misma u otra VTR) escribió la información y a esta actividad de la VTR se la llama tracking.

©1998-2005 Adrián A. Costoya Rev-2005-08 50

Page 52: Tecnologia de La Imagen y Sonido - Apunte UNLA

Como la distancia antes mencionada entre cabeza de CTL y drum de video está dada por el formato,pero cada VTR se fabrica dentro de pequeñas tolerancias y su utilización produce pequeños desajustescon el paso del tiempo, la distancia mencionada no es exactamente igual entre distintas VTRs o entre lamisma VTR en distinta fecha. Para compensar estas pequeñas variaciones lógicas y conocidas es que sedispone de la perilla de control de tracking.

Varios de los modelos más recientes de VTRs domésticas no cuentan con el control de tracking a la vista,pero cada vez que inician la reproducción igualmente efectúan la corrección de tracking en formaautomática.

Por otra parte, como se ve en el gráfico entre track de video y track de video varios formatos de VTRdejan un área de seguridad sin grabar llamado guard-band para evitar que, con un ajuste de trackingdefectuoso, se lea una parte del track correcto y una parte no deseada del track contiguo.

A continuación se reseñan imágenes y footprints o enhebrados de algunos formatos que han marcadohitos en la historia de la grabación de VTR y la asignación de bits del time-code.

©1998-2005 Adrián A. Costoya Rev-2005-08 51

Page 53: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 52

Page 54: Tecnologia de La Imagen y Sonido - Apunte UNLA

Playback Lines/FramesIntrod. Manufacturer Tape Width Video Type Seg/non-seg Video Tracks Tape Speed Time (max) per track

Quadruplex B&W 1956 Ampex 2 inch Composite Analog Segmented Transversal 15 ipsQuadruplex Color 1958 Ampex 2 inch Composite Analog Segmented TransversalHelical 1961 --- 2 inch Composite Analog non-segmented HelicalU-matic 1971 Sony 3/4 inch Composite Analog non-segmented Helical 9.53 cm/s 60 min. 1-fieldDigital TBC 1973 --- --- Composite Analog --- --- --- --- ---U-matic [BVU-series] 1975 Sony 3/4 inch Composite Analog non-segmented Helical 9.53 cm/s 60 min. 1-fieldBetamax 1976 Sony 1/2 inch Composite Analog non-segmented Helical 1-field1inch B-format Bosch 1 inch Composite Analog Segmented Helical1inch C-format 1977 Ampex/Sony 1 inch Composite Analog non-segmented Helical 24.4cm/s 180 min. 1-frameVHS 1977 JVC 1/2 inch Composite Analog non-segmented Helical 2.39 cm/s [*]M 1981 Panasonic 1/2 inch Component Analog non-segmented HelicalBetacam 1981 Sony 1/2 inch Component Analog non-segmented HelicalHDVS 1984 Sony 1 inch Composite Analog non-segmented HelicalM-II 1985 Panasonic 1/2 inch Component Analog non-segmented Helical 6.77 cm/sVideo 8 1986 Sony 8 mm Composite Analog non-segmented HelicalU-matic [SP-series] 1986 Sony 3/4 inch Composite Analog non-segmented Helical 9.53 cm/s 60 min. 1-fieldBetacam SP 1986 Sony 1/2 inch Component Analog non-segmented HelicalD-1 1987 Sony 19 mm Component Digital Segmented HelicalD-2 1988 Ampex/Sony 19 mm Composite Digital Segmented HelicalS-'VHS 1988 JVC 1/2 inch Composite Analog non-segmented Helical 2.39 cm/s [*]D-3 1990 Panasonic 1/2 inch Composite Digital Segmented Helical 248 min.DCT 1992 Ampex 19 mm Component Digital Segmented HelicalDigital Betacam 1993 Sony 1/2 inch Component Digital Segmented HelicalD-5 1994 Panasonic 1/2 inch Component Digital Segmented Helical 124 min.

Sony Sony Sony Panasonic Panasonic JVC AmpexD-1 Digital Betacam Betacam SX D-5 DVC PRO 50 Digital S DCT

VideoY Sampling Rate 13.5 MHz 13.5 MHz 13.5 MHz 13.5 MHz 13.5 MHz 13.5 MHz 13.5 MHzPb, Pr Sampling Rate 6.75 MHz 6.75 MHz 6.75 MHz 6.75 MHz 6.75 MHz 6.75 MHz 6.75 MHzSample resolution 8 bits 10 bits 8 bits 10 bits 8 bits 8 bits 8 bitsY Bandwidth 5.75 MHz 5.75 MHz 5.75 MHz 5.75 MHz 5.75 MHz 5.75 MHz 5.75 MHzPb, Pr Bandwidth 2.75 MHz 2.75 MHz 2.75 MHz 2.75 MHz 2.75 MHz 2.75 MHz 2.75 MHzY S/N 56 dB 62 dB >60 dB 62 dB >60 dB >55 dB 55 dBRecorded lines per frame 500 507 507 510 487.5 480 504Compression Ratio 1:1 2.34:1 10:1 1:1 3.3:1 3.3:1 2:1Compression Type None DCT Intra-Frame MPEG-2 4:2:2 None DCT + VLC DCT Intra-Frame DCTTape Data Rate 225 Mb/s 127.76 Mb/s 40 Mb/s 300 Mb/s 100 Mb/s 99 Mb/s 124.7 Mb/sVideo Bit Rate 172 Mb/s 95 Mb/s 18 Mb/s 220 Mb/s 50 Mb/s 50 Mb/s 88 Mb/sAnalog I/O Interfaces Y/G, Pb/B, Pr/R NTSC, CAV NTSC, CAV NTSC, CAV NTSC, CAVNTSC, CAV, S-Video NTSC, CAVDigital I/O Interfaces SMPTE 125M SMPTE 259M SMPTE 259M SMPTE 259M SMPTE 259M SMPTE 259M SMPTE 259M

SMPTE 305M SMPTE 305M

AudioAudio Sampling Rate 48 KHz 48 KHz 48 KHz 48 KHz 48 KHz 48 KHz 48 KHzSample Resolution 20 bits 20 bits 16 bits 20 bits 16 bits 16 bits 20 bitsBandwidth 20Hz - 20KHz 20Hz - 20KHz 20Hz - 20KHz 20Hz - 20KHz 20Hz - 20KHz 20Hz - 20KHz 20Hz - 20KHzS/N (dB) 90 dB 90 dB 90 dB 90 dB 90 dB 90 dB 90 dBAudio Channels 4 4 4 4 4 4 4Analog I/O Interfaces Balanced XLR Balanced XLR Balanced XLR Balanced XLR Balanced XLR Balanced XLR Balanced XLRDigital I/O Interfaces AES/EBU AES/EBU AES/EBU AES/EBU AES/EBU AES/EBU AES/EBU

GeneralTape Speed 28.66 cm/s 9.67 cm/s 5.9575 cm/s 16.7228 cm/s 6.764 cm/s 5.78 cm/s 13.17 cm/sMaximum Playback Time 76 min. 124 min. 180 min. 123 min. 93 min. 124 min. 208 min.Tape Width 3/4 inch 1/2 inch 1/2 inch 1/4 inch 1/4 inch 1/2 inch 3/4 inchPlayback compatibility None Betacam SP Betacam SP D-3 DVC PRO S-VHS None

©1998-2005 Adrián A. Costoya Rev-2005-08 53

Page 55: Tecnologia de La Imagen y Sonido - Apunte UNLA

Quádruplex

©1998-2005 Adrián A. Costoya Rev-2005-08 54

Page 56: Tecnologia de La Imagen y Sonido - Apunte UNLA

Quadruplex: Características del formato

El formato quadruplex marca el inicio de la grabación práctica de video por medios electrónicos en unmedio magnético.

Se trata de un formato desarrollado por la compañía Ampex de Redwood City, California presentado en laConvención de la NAB (National Association of Broadcasters) en 1956.

El formato Quadruplex a partir de esta VTR, denominada VR-1000, empleaba cinta de 2 pulgadas oalrededor de 5cm de ancho. El método de grabación segmentada aplicada en este formato, en el cualcada cabeza graba un reducido número de líneas se debió a las limitaciones de la época para en lasformulaciones de la cinta magnética que años más tarde se superarían aumentando la densidad deempaque (pack density) que representa la cantidad de información por unidad de superficie.

©1998-2005 Adrián A. Costoya Rev-2005-08 55

Page 57: Tecnologia de La Imagen y Sonido - Apunte UNLA

Servomecanismos, Base de Tiempo y TBCs

La grabación de VTR desde su introducción se respalda en una combinación de sistemas mecánicos queincluyen el enhebrado y arrastre de la cinta como así también la rotación del drum o cabezal. Según sepuede ver en la tabla de formatos de VTR las velocidades de arrastre de cinta prácticas se encuentran enun rango aproximado de 3cm/seg a 30cm/seg, y en ese tiempo el drum enfrenta las cabezas rotativas ala cinta desarrollando velocidades relativas entre ellas del orden de metros por segundo para grabar lasucesión de líneas que forman la señal de video.

En las VTRs se debe hablar de servomecanismos ya que se trata de mecanismos controladoselectrónicamente con lo cual se logra un grado de precisión elevado, pero si se toma en consideraciónque la duración de una línea es del orden de 64 millonésimas de segundo queda claro que aún brevesalteraciones en el desempeño de estos mecanismos puede provocar defectos considerables en el cortoplazo aunque en el mediano plazo se siga cumpliendo la métrica del sistema (25 cuadros por segundo ensistemas de 625 líneas y 29.97 cuadros por segundo en sistemas de 525 líneas).

Las normas de radiodifusión exigen tolerancias muy pequeñas que son alcanzables por los generadoresde sincronismo y todos los equipos de originación y procesamiento de señal (cámaras, switchers, etc.)que operan en gen-lock (enganchados) en un sistema, pero están más allá del alcance razonable de losservomecanismos. En pocas palabras, se puede dedir que en la señal recuperada de una cinta enplayback en una VTR analógica algunas líneas de TV pueden durar algo más de 64 microsegundos yotras algo menos.

Por esta razón, desde los albores de la videograbación, los correctores de base de tiempo (en inglésTBCs o Time Base Correctors) han estado asociados a las VTRs para lograr el cumplimiento de lasreglamentaciones mediante el agregado de este relevo electrónico en la señal que entrega la VTR.

Los TBCs digitales, que se utilizan desde principios de los años '70, siempre han tenido un costo elevado(a principios de los '80 su precio era de u$s 25.000). Este costo era relativamente accesible para lasaplicaciones broadcast de una VTR de estudio de u$s100.000 a u$s150.000 pero impedía la proliferaciónde la videograbación en aplicaciones de televisión de menor envergadura económica (edición de noticias,oficinas del canal, agencias de publicidad, investigación periodística, etc.) y mucho más la posibilidad depensar en VTRs domésticas.

En conclusión, con los elementos descriptos hasta aquí sólo se puede pensar en dos caminos pararesolver el problema de base de tiempo de la videograbación analógica: mejorar significativamente losmecanismos o utilizar TBCs con cualquier VTR en playback y ninguna de las dos permite pensar enmáquinas compactas y económicas por lo que se recurrió a la técnica de heterodinación para hacerloposible.

Heterodinación

En su aplicación a la grabación de VTR se entenderá que la heterodinación es una técnica por la cual serealizan sumas o restas de valores fijos de frecuencia a una señal provocando su desplazamiento en elespectro.

En el caso de las VTRs que emplean la técnica de heterodinación, el tratamiento consiste en restarle a laseñal de crominancia que se encuentra en la señal de video en banda base un valor del orden de los Mhzpara ubicarla en la porción más baja del espectro previo a su grabación en la cinta magnética. Por estarazón los formatos que emplean heterodinación son comúnmente llamados "color under" o "under color".Durante la reproducción de esa cinta la VTR que actúe como player volverá a sumar exactamente elmismo valor de frecuencia.

©1998-2005 Adrián A. Costoya Rev-2005-08 56

Page 58: Tecnologia de La Imagen y Sonido - Apunte UNLA

El resultado de esta manipulación es, como se verá más adelante en la explicación detallada, que loserrores de chroma que presente el mecanismo se trasladarán en una proporción mucho menor a la señalen banda base que se obtenga a la salida de la player y esta disminución de la influencia del error selogra con circuitos de costo muy inferior a los de un TBC y sin necesidad de mejorar el mecanismo.

Los formatos más difundidos que utilizan heterodinación son: VHS, S-VHS, U-matic, Video8 y Hi8.

U-matic

El primer formato de VTR de amplia difusión en aplicar la heterodinación fue el U-matic, que se introdujoen 1971 por lo que se lo tomará como base para la explicación detallada. El empleo en el formato U-matic de esta técnica trazó el rumbo para la introducción unos años después de los primeros formatosdomésticos: Betamax (1976) y VHS (1977).

En 1971 el nombre dado al formato fue U-matic, pero debido a su evolución posterior se especificará queéste se trató del U-matic Low Band.

La señal de video compuesto PAL en banda base a la entrada de la grabadora U-matic contiene lainformación de crominancia alrededor de una subportadora o subcarrier que se ubica en 4.43MHz. En undiagrama en bloques simplificado del formato se ve que la primera etapa es un separador de crominanciay luminancia [Y/C Sep] desde donde la crominancia se encamina hacia la etapa de Heterodinación, enella se le resta el valor de frecuencia fijo 3.745MHz con lo que se obtiene la información de crominanciaen 685KHz y ésta, junto con la luminancia que ha pasado por un delay [DLY] para mantenerlas entiempo entre ellas, se graba en la cinta.

En el playback sucede el proceso inverso, la información de crominancia que se lee de la cinta en 685KHzpasa a la etapa de heterodinación en la que se le suma el valor de frecuencia fijo 3.745MHz con lo que sevuelve a obtener la información de chroma en 4.43MHz en banda base a la salida.

El fundamento es el siguiente, los errores del mecanismo en los sistemas de grabación directos se aplicanen su totalidad a la señal recuperada y la intervención de los TBCs los compensa. Quiere decir que en unsistema de grabación directo un error de, por ejemplo, el 10 por ciento en más o en menos haría que lachroma recuperada de la VTR varíe en 443KHz con lo que se obtendrían frecuencias desde un mínimo de3.987MHz hasta un máximo de 4.873MHz mientras que una VTR U-matic Low Band que presente elmismo error mecánico del orden del 10 por ciento produciría variaciones de chroma del orden de68.5KHz por lo que presentaría mínimos de 616.5KHz y máximos de 753.5KHz recuperados de la cintaque luego de heterodinarlos (sumarle un valor fijo de 3.745MHz) se mantendrían entre los valores de4.361MHz y 4.499MHz que representan alejamientos mucho menores del valor nominal de 4.430MHz queel sistema directo.

Al dividir 443KHz por 68.5KHz se pone en evidencia que el error se ha reducido aproximadamente 6.5veces sin empleo de TBC ni mejoramiento del transporte.

Cabe destacar que el valor de error del orden del 10 por ciento se adopta solamente para simplificar loscálculos pero que de ninguna manera las VTRs prácticas presentan errores tan severos en suscondiciones de operación normal.

©1998-2005 Adrián A. Costoya Rev-2005-08 57

Page 59: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 58

Page 60: Tecnologia de La Imagen y Sonido - Apunte UNLA

1” formato C

©1998-2005 Adrián A. Costoya Rev-2005-08 59

Page 61: Tecnologia de La Imagen y Sonido - Apunte UNLA

VHS

©1998-2005 Adrián A. Costoya Rev-2005-08 60

Page 62: Tecnologia de La Imagen y Sonido - Apunte UNLA

Betacam SP

©1998-2005 Adrián A. Costoya Rev-2005-08 61

Page 63: Tecnologia de La Imagen y Sonido - Apunte UNLA

D-1

©1998-2005 Adrián A. Costoya Rev-2005-08 62

Page 64: Tecnologia de La Imagen y Sonido - Apunte UNLA

D-2

©1998-2005 Adrián A. Costoya Rev-2005-08 63

Page 65: Tecnologia de La Imagen y Sonido - Apunte UNLA

Time Code

Sistema de time code

El time code es un sistema de direccionamiento absoluto que permite identificar cada cuadro de videotape de manera inequívoca.

Se debe destacar la mención como sistema más que como señal ya que su contribución a las operacionesde televisión fue muy significativa desde los inicios de su desarrollo, en 1967, pues permitió tantosistematizar los procesos de producción y postproducción como aumentar su precisión.

Direccionamiento relativo vs. direccionamiento absoluto

La definición indica que se trata de un sistema absoluto debido a que identifica realmente a cada cuadromediante la grabación “efectiva” en la cinta de una dirección (address) independiente de cualquierconvención o referencia cruzada.

Los sistemas de direccionamiento relativo, por el contrario, no escriben información en la cinta y sebasan en el conteo de alguna referencia indistinguible una de otra tales como las vueltas del eje de algúnmotor en un transporte o los pulsos de la señal de control track (CTL). Este es el procedimiento queemplean las VTRs domésticas, en ellas se puede poner en cero (RESET) el contador (de tiempo ovueltas) en cualquier posición de la cinta las veces que se quiera y obtener referencias diferenciales paralos puntos de interés. No se conoce la posición exacta, pero si se trabaja metódicamente se puede sabera que distancia (o tiempo) “aproximada” de una posición conocida, se encuentra ubicada la cinta.

Si establecemos una analogía con el cuentakilómetros de un automóvil, éste indica cuántos kilómetros sehan recorrido pero no indican dónde se encuentra el vehículo, claro ejemplo de direccionamiento relativo.

Características técnicas generales del time code

La traducción literal de time code es, obviamente, código de tiempo y si bien no expresa totalmente suscapacidades, introduce conceptos relevantes en cuanto a los métodos de direccionamiento apropiadospara la tecnología de VTR y afines.

Por una parte, la noción de tiempo indica la relación que establecen las personas con respecto a loscontenidos almacenados en una cinta magnética y su preferencia por declarar su ubicación expresada entiempo; así, un objetivo que se debe alcanzar con el time code es conocer la posición de una toma (uncuadro más precisamente) expresada en horas, minutos, segundos y cuadros o frames (HH:MM:SS:FF).

Por otra parte, se menciona la existencia de un código, es decir que en la cinta se escriben señales queexpresan HH:MM:SS:FF pero no se hace mediante formas de modulación (amplitud, frecuencia, fase,etc.) de los diez valores discretos que permiten formar los números requeridos, sino que se aplica unaforma de codificación previa. La codificación elegida es binaria, más precisamente BCD, por lo que lasseñales de time code que se graban en la cinta contienen valores máximos y mínimos bien diferenciadosque son interpretados como unos y ceros por la lógica correspondiente.

El sistema de time code fue desarrollado desde 1967 para mejorar la precisión de edición de las VTRsque hasta entonces se basaban en CTL (direccionamiento relativo) y desde 1972 fue utilizado ademáspor controladores de edición computarizados.

El primer tipo de time code utilizado fue el longitudinal (LTC).

©1998-2005 Adrián A. Costoya Rev-2005-08 64

Page 66: Tecnologia de La Imagen y Sonido - Apunte UNLA

LTC - Longitudinal Time code

Por las características de baja frecuencia de la señal de time code, las primeras aplicaciones del código seimplementaron sin dificultad sobre los tracks longitudinales existentes en las VTRs; es decir, los tracks deaudio. De este modo, los usuarios de VTRs Quadruplex, U-matic y 1” formato-C destinaron un canal deaudio sin modificar para esta señal que, vale la pena destacar, además es perfectamente enrutable porcableados, patch panels y matrices de audio analógico standard.

Por otra parte, en los comienzos de la utilización del time code en la grabación de video se emplearongeneradores (TCG) y lectores de time code (TCR) externos que se asignaban según las necesidades yeran producidos por terceras partes. Más adelante, los fabricantes de VTRs introdujeron TCGs y TCRsincorporados opcionales y luego, con su adopción generalizada y la baja de precios, se transformaron enequipo standard.

La evolución de los formatos de VTR posteriores a la introducción del time code tomaron en cuenta suutilización sin restar capacidades de audio y desde su concepción destinaron un track longitudinaldedicado a la señal de time code que fue denominado comúnmente address track (actualmente seidentifica como TC). Fabricantes de ATRs (Audio Tape Recorders) también introdujeron un address tracken sus dispositivos y como en algunos de ellos se dispuso en el centro de la cinta, la industria del audiolo conoció en sus orígenes como center track. En todos los casos se trata de LTC.

En la edición de video, la utilización del time code permite organizar los procesos de selección y ubicaciónde los contenidos con mayor facilidad y confiabilidad a la vez que aumenta la precisión de edición.

En teoría, el time code ofrece precisión absoluta (zero frame), pero el análisis del comportamiento delLTC en los sistemas reales deja claro que esto no siempre es posible.

El LTC se basa en la grabación de la señal de time code en un track longitudinal mediante la intervenciónde una cabeza estacionaria y la componente de velocidad del arrrastre de cinta. Según las normas envigencias el time code correspondiente a la identificación de un frame (address code) contiene 80-bits (ounidades de información binaria) y se escriben en la cinta uniformemente ocupando toda la longitudcorrespondiente a un frame y modulado mediante un esquema denominado bi-phase que permite sulectura tanto en forward como en reverse.

De esta información se deduce que, cuando la VTR se encuentra en STILL con un cuadro detenido, nohay lectura de time code y otro tanto sucede a muy baja velocidad, la alternancia entre estas doscondiciones representa claramente el escenario habitual para la selección de puntos de edición en modoJOG en islas de edición lineal.

En conclusión, el LTC tiene buena lectura a velocidades cercanas al PLAY y un rango respetable deavance rápido y rebobinado pero no ofrece garantías en pausa y a bajas velocidades.

Para cubrir las falencias del LTC se desarrolló el VITC.

Modulación bi-phase

Este método único de codificar información permite que el código se lea marcha adelante y marcha atrásen un amplio rango de velocidades.

El standard estipula que el método de modulación debe ser tal que en el comienzo del período de cadabit se produzca una transición. El “uno” se representa por una segunda transición a ½ del período del bitdesde su comienzo. El “cero” es representado cuando no existe transición dentro del período del bit.

©1998-2005 Adrián A. Costoya Rev-2005-08 65

Page 67: Tecnologia de La Imagen y Sonido - Apunte UNLA

Es decir que cada cambio de estado a intervalos de 1 período de bit crea un nuevo bit valor cero, paracrear un bit valor uno se requiere de un segundo cambio de estado dentro del período del bit como se veen la figura.

VITC – Vertical Interval Time Code

El time code de intervalo vertical se introdujo en 1978 y se estandarizó en 1980. Según la norma la señaladdress code debe ser insertada en dos líneas no-adyacentes del intervalo de borrado vertical (VBI) enlos dos campos y la representación de los datos se hace mediante mínimos y máximos dentro de la líneaactiva, de este modo sus bits se visualizan como negros y blancos que se corresponden con los ceros yunos lógicos ya que no existen variaciones dentro del período de un bit.

Queda claro que una vez que se codificó time code como VITC y se insertó en el VBI éste pasa a formarparte de la señal de video y por lo tanto es enrutable y grabable como tal. En la grabación de VTR, eltime code de intervalo vertical se escribe en la cinta en los tracks helicoidales de video mediante cabezasrotativas.

Las principales contribuciones del VITC son:Buena lectura en pausa y bajas velocidades en cualquier VTR capaz de entregar una imagen reconocibleen esas condiciones por lo que complementa el uso del LTC en edición y permite alcanzar la precisióntotal (zero frame).Distribución de información de time code sin necesidad de disponer de un canal dedicado, esto esespecialmente útil en grandes centros de broadcasting y vínculos remotos (satélites, microondas, etc.).

Asignación de bits del LTC

La cantidad de información estrictamente requerida para el time code es bastante reducida por lo que, altiempo de establecer el standard de codificación, se previó una capacidad algo superior a laestrictamente necesaria sin mayores contratiempos totalizando 80-bits para el LTC.

Los 80-bits se dividen en grupos de 4-bits que, mediante la codificación BCD (Binary Coded Decimal),permiten representar los números decimales (0 a 9).

En principio, se destinan ocho grupos o 32-bits para codificar HH:MM:SS:FF y se los conoce comoaddress groups, pero como en la sintaxis temporal existen dígitos que no exceden el valor 3 y otros queno excenden el valor 2 sólo se requieren 26-bits para representar la información de tiempo por lo quequedan 6-bits disponibles para otros propósitos o no asignados.

Otros ocho grupos denominados binary groups (totalizando 32-bits) se destiman a información delusuario y se los conoce como “user bits”, los comités de standards no establecen limitaciones sobre suuso por lo que se los puede codificar tanto en BCD y alcanzar valores de 0 a 9 como en HexaDecimal yvariar entre 0 y F.

Otros bits permiten establecer condiciones según su estado cero o uno por lo que actúan como flagssegún el siguiente detalle: en el segundo address group (decenas de frames) quedan vacantes los bits#10 y #11 y son asignados a condición Drop Frame (en NTSC) y condición Color Frame, en el cuartoaddress group no se utiliza el bit #27 y se destina a marca de corrección de fase de bi-phase (en NTSC),el bit #43 vacante en las decenas de minutos y el bit #59 vacante en las decenas de horas juntos formanuna tabla de verdad (en NTSC) mediante la que se pueden especificar algunas condiciones decodificación previstas (por ejemplo ambos en cero indican “sin restricciones”) para los binary groups,finalmente el único bit no asignado es el #58 que también quedó vacante en las decenas de horas.

©1998-2005 Adrián A. Costoya Rev-2005-08 66

Page 68: Tecnologia de La Imagen y Sonido - Apunte UNLA

En el caso de PAL, como el modo Drop Frame carece de aplicación el bit #10 no es asignado y su valorsiempre es cero. Por su parte, la EBU designó a los bits #27 y #43 para indicar la tabla de verdad queespecifica el tipo de codificación de los binary groups.

Los restantes 16-bits son ocupados por la palabra de sincronización o SYNC WORD que aparece al finaldel código correspondiente a cada cuadro y como la modulación bi-phase permite la lectura en avance yretroceso, de este modo los lectores de time code saben si la cinta está en FORWARD o REVERSE. Lapalabra de sync es una combinación única de ceros y unos que no se podría dar en el address code yconsta de 2 ceros (bits #64 y #65), 12 unos (bit #66 a bit #77), 1 cero (bit #78) y 1 uno (bit #79).

Asignación de bits del VITC

El VITC consta de 90-bits y su asignación de bits es ligeramente diferente al LTC. Sus principalesdiferencias conceptuales son que no existen variaciones de nivel dentro del período de un bit, que seintroducen nueve pares de bits uno-cero dejandro 8-bits entre ellos a intervalos dentro de la línea parapropósitos de sincronización (comenzando en los bits #0 y #1), que no existe palabra de sincronizaciónfinal y en su lugar se destinan 8 bits para código de detección de error del tipo Cyclic Redundancy Checkproducido por un polinomio generador.

Time code en NTSC – Drop Frame y Non Drop Frame

Los ocho dígitos de información temporal corresponden a números enteros y la cuenta de framesconsecuentemente varía entre 00 y 29. Por otra parte, el sistema NTSC tiene una frecuencia de cuadro oframe rate de 29.97fps de lo que se desprende que una VTR en PLAY presenta menos de 30 cuadros porsegundo por lo que un programa de una hora de duración con un time code de inicio de 00:00:00:00habría llegado a la hora de reloj (tiempo real) cuando su código mostrara 00:59:56:12. La diferencia esde 108 cuadros.

El principal problema es que el editor que se guía por el display de su VTR o controlador de edición paraproducir un material de una duración requerida no puede determinarlo con solo mirar el display sino quedebería realizar cálculos o disponer de una tabla de equivalencias; desde luego se buscó una soluciónmás práctica: Drop Frame Time Code.

La codificación de time code Drop Frame establece que cada vez que se cumple un minuto el contadorsaltea dos cuadros, así una cinta grabada con el standard Drop Frame pasa de 08:16:59:29 en un cuadroa 08:17:00:02 en el siguiente (los números 08:17:00:00 y 08:17:00:01 no existen). No obstante, a doscuadros por minuto este planteo pierde 120 números de cuadro en vez de 108 como se requiere por loque, además de la condición que establece que se pierden dos cuadros en cada minuto, se plantea laexcepción en los minutos 00, 10, 20, 30, 40 y 50 por lo que los números 08:20:00:00 y 08:20:00:01cercanos a los ejemplos antes mencionados existirán.

Debe quedar claro que la falta de los números planteados por el código Drop Frame va acompañado deun uno en el bit #10 y que toda camcorder, VTR, controlador de edición y demás equipo que opera contime code considerará este time code así presentado como contínuo.

Por último, como la señal NTSC tampoco es exactamente 29.97fps sino 29.97002617fps al cabo de 24horas de programación aún habrá un error del orden de 75 milisegundos (más precisamente 75.442mS).

©1998-2005 Adrián A. Costoya Rev-2005-08 67

Page 69: Tecnologia de La Imagen y Sonido - Apunte UNLA

Procedimientos de utilización de time code

Es incorrecto pensar que el sólo acceso a tecnología que emplea time code por si mismo aumentará laprecisión o mejorará la articulación de los procesos, es sólo un habilitante, ya que la efectividad delsistema de time code dependerá de lo bueno que sea el uso que se haga de él. En su apropiadautilización la definición se cumplirá en un ciento por ciento.

Para lograr un uso adecuado del time code se debe conocer y operar correctamente el TCG (Time CodeGenerator) durante la grabación y el TCR (Time Code Reader) durante el playback.

Controles del TCR – Time code leído e interpolado

La lectura que realiza el TCR se manifiesta habitualmente en un display en el frente de la VTR, en lasalida de video monitor con el time code sobreimpreso y por el puerto de comunicaciones RS-422 con elque se conecta a los controladores de edición y dispositivos similares. El TCR es el encargado de entregarinformación por esas tres vías pero, no necesariamente quiere decir que es correcta o que proviene de laseñal de time code. Esto dependerá de las características de grabación de la cinta que se estéreproduciendo y de la decisión que se haya tomado con respecto al principal control del TCR.

El lector de time code tiene como control fundamental una llave de tres posiciones: LTC, VITC, AUTO. Enel primer caso entregará números generados en base a la señal LTC que lea de la cinta, en el segundocaso lo hará en base a la señal VITC y en el tercer caso, el más correcto y habitual, según las siguientesprioridades.

1 Lectura de LTC2 Lectura VITC3 Información de CTL (que no es time code)

De acuerdo a este orden de prioridades, con la llave en AUTO, el TCR utiliza en primera instancia y comomáxima prioridad la señal de LTC y mostrará el número leído de esa fuente, si en algún momento seinterrumpe el LTC utilizará la señal de VITC y mostrará el número leído de esa fuente pero quedarásiempre atento a la recuperación de la señal LTC, si esta reaparece volverá a mostrar LTC. Estaalternancia es la habitual en una isla de edición en la cual se pasa frecuentemente de velocidadescercanas al PLAY a modos JOG o STILL para marcar puntos de edición y luego se recupera velocidad enel PRE-ROLL.

Por otra parte, si en algún momento el TCR pierde lectura de LTC y VITC permanecerá atento alcomportamiento de la información de CTL y si esta indica que se avanza un cuadro, incrementará el valormostrado en los displays y entregado por el puerto de comunicaciones al número siguiente. Si lainformación de CTL indica que se ha retrocedido un cuadro, retrocederá el valor mostrado y entregado alpuerto RS-422.

Durante esta condición (la tercera prioridad) el TCR también permanecerá atento a cualquier novedad deVITC o LTC que pudiere aparecer para conmutar inmediatamente si recupera lectura de alguno de ellosdentro del mismo esquema de prioridades, pero mientras no lo haga y se mantenga actualizando elnúmero informado de acuerdo a las variaciones de CTL se dice que suministra valores interpolados.

No se puede decir que un valor interpolado sea incorrecto lo que parece una buena noticia, perotampoco se puede asegurar que sea correcto por lo que en esa condición no se puede dar garantíassobre la precisión que alcanzará una decisión de edición.

En una cinta bien grabada con LTC y VITC idénticos entre sí y una VTR profesional en buenascondiciones el modo AUTO ofrece las mejores posibilidades de operar correctamente. Si el editor conoceel equipamiento y sabe interpretar las lecturas puede estar seguro que no tomará referencias o realizará

©1998-2005 Adrián A. Costoya Rev-2005-08 68

Page 70: Tecnologia de La Imagen y Sonido - Apunte UNLA

marcas de edición sobre lecturas interpoladas y alcanzará la precisión de edición zero frame para la quese concibió el sistema en última instancia.Por el momento se consideró una cinta bien grabada, más adelante se analizarán los comportamientosdel TCR ante errores comunes en la operación con time code, su interpretación y el manejo de lasolución si fuera posible.

Controles del TCG

El éxito o fracaso de la aplicación del sistema de time code a la grabación de video se juega totalmenteen el uso que se haga del generador de time code (TCG). Son varios los controles que se debenmanipular como así también las distintas situaciones en los que se requiere opearar de modos distintos.El siguiente es un sumario de comandos y funciones.

Llave INT - EXTEXT: el generador de time code escribirá en la cinta los números que correspondan a la señal detime code suministrada en el conector TC ININT: el generador de time code escribirá en la cinta los números determinados por lasselecciones de sus otros controles

Llave FREE RUN – REC RUNFREE RUN: el generador de time code cuenta sin parar desde el momento en que el usuariosetea un número de time code, aún cuando se apague el equipo.REC RUN: el generador de time code cuenta cada vez que la VTR se encuentra en un modo degrabación válido. Para estos fines se entiende que los modos de grabación válidos son REC,ASSEMBLE, INSERT VIDEO e INSERT TC.

Llave PRESET – REGENPRESET: el generador de time code cuenta (en FREE RUN o REC RUN) desde un número seteadopor el usuario (TC SET).REGEN: el generador de time code cuenta desde el número inmediato siguiente al último leídopor el TCR en el momento que alcanza el punto de edición en un modo de grabación válido.

Llave VITC ON – VITC OFFDetermina si en un modo de grabación válido se escribirá time code VITC enla cinta

Recomendación sobre uso de los números de time code

Existen diversos métodos y convenciones sobre la manera de utilizar el código de tiempo en un proyectoaudiovisual o en la operativa de una determinada compañía. Sin embargo, se puede establecer unarecomendación general apta para un gran número de situaciones que luego se podrá adaptar a los casosque presenten demandas específicas.

Como regla mnemotécnica se puede decir que se recomienda que los números de time code que seutilizan cumplan con la condición C.C.D. según el siguiente detalle. El time code debe ser:

C Contínuo En la toma C Creciente En el cassetteD Distinto En el proyecto

©1998-2005 Adrián A. Costoya Rev-2005-08 69

Page 71: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 70

Page 72: Tecnologia de La Imagen y Sonido - Apunte UNLA

Manejo de señales en postproducción

En un sistema de postproducción de alto nivel se manejan en la actualidad gran cantidad de señales decaracterísticas muy distintas.

Comenzando con una categorización muy grosera se puede decir que se maneja audio, video y datos. Sinembargo, se darán casos en los que estas etiquetas no sean suficientes o incluso puedan resultarengañosas.

Es sabido por todos que los sistemas de postproducción de alto nivel operan en video de componentesdigitales, audio digital y poseen control de VTR. En términos generales, esos son sus únicos vínculos conel mundo exterior además de los cableados internos que pudieren integrar sus distintos componentes.Sin embargo, en muchos casos deberemos considerar además una conexión de red con otrascomputadoras o conexiones de transmisión de datos de alta velocidad con otros periféricos.

Señales de video

Comenzando con el video, podríamos determinar cuatro variantes que surgen de la combinación decompuesto, componentes, digital y analógico y agregar una sub-categoría cuando hablemos de digitalserie o digital paralelo.

Los siguientes son los detalles de cada uno de ellos:

Video compuesto analógico: sus líneas de transmisión son desbalanceadas, constan de un sólo cablecoaxil de 75 ohms y emplean conectores BNC. La máxima longitud que se puede alcanzar con cable devideo de precisión de doble malla (p.ej.: Belden 8281) sin ecualización es de 300mts.

Video componentes analógico: sus líneas de transmisión son desbalanceadas, constan de tres cablescoaxiles con una impedancia de 75 ohms y emplean conectores BNC. Las señales que se enrutan porcada uno de ellos son Y, R-Y y B-Y (Y, Pr, Pb). La máxima longitud que se puede alcanzar con cable devideo de precisión de doble malla (p.ej.: Belden 8281) sin ecualización es de 300mts.

Cable Coaxil

El cable coaxil o coaxial recibe su nombre de su forma, ya que cuenta con un conductor central dealambre de cobre y una malla de alambres de cobre más finos que lo rodean de manera concéntrica porlo que se dice que comparten el eje o son co-axiales. Al espacio entre el conductor central y la malla selo llama dieléctrico y puede ser de polietileno o de espuma de polietileno.

Los cables coaxiles de buena calidad poseen una geometría muy precisa, es muy importante que elconductor central este en el centro exacto del cable en todo su recorrido y que la malla tenga untrenzado apretado y uniforme. En el primer caso para asegurar sus propiedades eléctricas y en elsegundo para lograr el blindaje contra señales externas no deseadas. Por otra parte, se emplea cobre degran pureza y sus propiedades son constantes a lo largo del rollo.

En las aplicaciones más exigentes se emplea cable con doble malla, mayor diámetro y mayor rigidez. Laevaluación más importante de los cables coaxiles se relaciona con su respuesta en frecuencia por lo quelos cables de mayor calidad suelen presentar menor atenuación y ésta se extiende a frecuencias másaltas.

©1998-2005 Adrián A. Costoya Rev-2005-08 71

Page 73: Tecnologia de La Imagen y Sonido - Apunte UNLA

Una propiedad característica del cable coaxil es su impedancia. Todas las líneas de transmisión de videoemplean cable coaxil de 75 ohms de impedancia.

Conectores BNC

Los conectores habituales en los usos profesionales del cable de video son del tipo BNC. Los conectoresBNC ofrecen una conexión confiable y segura, confiable pues hacen muy buen contacto y segura, puestienen un sistema de sujección que impide que se desconecten por efecto de su propio peso o tironesaccidentales de baja intensidad. Existen conectores BNC de distinto tipo, los que se emplean en las líneasde transmisión de video presentan una impedancia característica de 75 ohms.

DAs – Distribution Amplifiers

Los DAs (Distribution Amplifiers) o Amplificadores Distribuidores, son dispositivos activos utilizados paraproducir múltiples señales idénticas entre sí, con muy poca distorsión, a partir de una señal originalinyectada a la entrada.

©1998-2005 Adrián A. Costoya Rev-2005-08 72

Page 74: Tecnologia de La Imagen y Sonido - Apunte UNLA

Cuando los DAs operan con señales de video analógico se los denomina VDA y la aplicación del mismocriterio lleva a otros casos según la señal. Así se conocen los ADA (Audio Distribution Amplifier) oAmplificadores Distribuidores de Audio, los PDA (Pulse Distribution Amplifier) o AmplificadoresDistribuidores de Pulsos y los SDA (Subcarrier Distribution Amplifier) o Amplificadores Distribuidores deSubportadora de color.

VDAs

Entonces, los VDAs (Video Distribution Amplifiers) o Amplificadores Distribuidores de Video sondispositivos activos utilizados para producir múltiples señales idénticas entre sí, con muy poca distorsión,a partir de una señal de video original.

Existen distintos usos de los VDAs, en el caso que la función principal sea la de distribuidor se requierefundamentalmente de varias señales a partir de una sola y los VDAs más comúnmente utilizados en elmercado para este fin ofrecen relaciones tales como 1x6, 1x8 o 1x10 (expresando como número deentradas x número de salidas).

En esta aplicación como distribuidor se espera que el VDA presente ganancia unitaria, es decir que losniveles de señal a la salida se correspondan exactamente con los niveles de señal a la entrada.

VDA-EQ

Por su característica de activo con ganancia variable, es común que se utilicen los VDAs comoamplificadores. Como se vió anteriormente, el cable coaxil es un pasivo que atenúa las señales enproporción directa a los metros de cable empleados por lo que un amplificador puede resolver elproblema de ganancia unitaria "del sistema" cuando se emplean líneas de transmisión de video de granlongitud (entre 100 y 300 metros para el cable de video de precisión) que introducen atenuacionesapreciables.

Es importante destacar que se amplifica antes de inyectar la señal en una larga línea de transmisión paraminimizar las distorsiones al mejorar la relación señal a ruido (SNR – Signal to Noise Ratio). También sedebe tomar en cuenta que cuando se realiza el ajuste de ganancia (GAIN) correspondiente al VDAcolocado al comienzo de una línea de transmisión la medición de los niveles con monitor de forma deonda (waveform) se efectúa al final de la línea.

Por otra parte, también es sabido que la atenuación del cable coaxil es mayor a mayor frecuencia, por loque un control de ganancia general, si bien es imprescindible, no resolvería el problema en su totalidadante una señal que alcanza altas frecuencias como el video compuesto. Además, esta situación tiene unaspecto "visualizable" ya que en la zona de alta frecuencia se ubica la subcarrier (SC) por lo que sepodrían compensar niveles de la señal en general pero se percibiría una falta de saturación en CHROMA.

Para satisfacer este requerimiento, existen VDAs que además del control de ganancia general (GAIN) quese aplica a toda la señal, incluyen un control de ganancia específico (EQ) que opera sobre alta frecuenciapor lo que se denominan VDAs con EQ (ecualización). En el WAVEFORM (monitor de forma de onda) secomprueba claramente cómo las variaciones del control EQ inciden directamente sobre los niveles deCHROMA.

En resumen, podemos decir ahora que los VDAs pueden cumplir tres funciones: distribuidor, amplificadory ecualizador y que éstas se pueden combinar entre sí según las necesidades de las señalestransportadas.

©1998-2005 Adrián A. Costoya Rev-2005-08 73

Page 75: Tecnologia de La Imagen y Sonido - Apunte UNLA

Señales en Cascada

Como se mencionó anteriormente, con un VDA se pueden distribuir señales, es decir producir variasseñales a partir de una sola y, como se ejemplificó, existen VDAs 1x6, 1x8 o 1x10 por lo que se debeconsiderar el camino a tomar ante un requerimiento de un número de señales superior a las posibilidadesde los VDAs con los que se cuente.

Así se podría hacer el ejercicio de requerir 11 señales idénticas; en este caso, ninguno de los equiposmencionados puede cubrir las necesidades por lo que una alternativa que se podría plantear es la detomar una salida de un VDA y enviarla a la entrada de otro VDA como se ve en la figura.

La solución planteada funcionará, pero no responderá a la premisa fundamental que es la de producir unnúmero de señales idénticas entre sí, ya que las primeras 5 señales (1-5) son producto de la intervenciónde un VDA mientras que las siguientes 6 señales (6-11) fueron producidas por dos VDAs y, aunque seobtengan iguales niveles con un ajuste adecuado de los controles de ganancia, se puede afirmar queestas últimas han acumulado mayores distorsiones debido a la configuración "en cascada".

En conclusión, la principal consecuencia de la cascada es el aumento de la distorsión y cuanto mayor seael número de equipos en cascada mayor será la distorsión acumulada.

Por lo antes mencionado, los diseñadores de sistemas de video tratan de evitar las cascadas y en loscasos que debieren aplicarlas procuran establecer una topología que las minimice tanto como sea posiblemanteniendo al mismo tiempo un nivel de distorsión parejo entre los destinos de las señales comoaproximación a la premisa de señales idénticas entre sí.

En la figura siguiente se plantea la distribución de señales de video para una pequeña planta deduplicación o multicopiado con 36 recorders con dos variantes de cascada.

Continuando con el ejercicio de producir un número de señales idénticas se puede decir que en sistemasmedianos y grandes se distribuyen decenas y hasta cientos de señales por lo que es evidente que elpequeño aumento en la distorsión del caso 1x11 es tolerable comparado con la grave distorsión queplantearía una distribución 1x128 por citar un caso de distribución de BLACK BURST en una casa depostproducción mediana o el caso de 1x1000 señales de video de un largometraje en una planta deduplicación. Atendiendo a esta necesidad hace décadas que se introdujo la entrada de video loop enmuchos equipos profesionales.

Entrada de Video Loop

En casi la totalidad de los equipos domésticos y en la inmensa mayoría de los equipos profesionales decosto moderado la entrada de video está compuesta por un solo conector (BNC o RCA) y es obvio que allíse debe inyectar la señal que alimentará a ese equipo. Una comprobación accesible para todos de lascaracterísticas de la entrada de video es la conexión por video de una videocassettera a un televisor, yaque mediante un solo cable se toma la señal en el video out de la VCR y se inyecta en el video in del TV.Queda claro que esta entrada de video no tiene ninguna propiedad especial visible; sin embargo,conociendo las características de las líneas de transmisión de video, podemos decir que en el interior dela VCR existe un terminador con una Impedancia de 75 ohms o de lo contrario la línea quedaríadesadaptada. Esto es válido en toda la gama de equipos que tienen una entrada de video con un sóloconector.

Por su parte, la entrada de video loop tiene características muy distintas de una entrada de videoconvencional como la antes ejemplificada o lo que intuitivamente se interpretaría que es elcomportamiento de una entrada.

©1998-2005 Adrián A. Costoya Rev-2005-08 74

Page 76: Tecnologia de La Imagen y Sonido - Apunte UNLA

Para comenzar, se debe destacar que una entrada de video loop es una entrada de alta Impedancia queestá compuesta por dos conectores (habitualmente BNC) y que, en general, el uso de estos conectoreses indistinto.

La posibilidad que abre la entrada de video loop es la de alimentar con una misma señal dos o másequipos con una sola línea de transmisión desde una sola salida o fuente de señal.

La principal consideración para el buen uso de las entradas de video loop (de alta Impedancia) es elcumplimiento de las características requeridas para las líneas de transmisión de video que, como se haestudiado, deben presentar una impedancia característica de 75 ohms. Por esta razón, en el caso de lautilización de entradas loop no basta con realizar el cableado correcto sino que además la señal de videocon la que se alimenta un número de equipos dotados de entradas loop debe terminarse una y sólo unavez.

Los fabricantes de equipos ofrecen distintos tipos de entradas loop: con BNCs convencionales paracolocar terminadores externos, con BNCs convencionales y terminadores internos accionados por unallave (identificados como ON/OFF o 75/HiZ) y con conectores BNC especiales que desactivan elterminador interno cuando se conecta un cable.

Los problemas que se producirían por mala utilización de las entradas de video loop son: falta determinación de la línea de transmisión de video o terminación múltiple. En el primer caso habrá excesode niveles a la entrada de los equipos y se introducirán distorsiones y posibles saturaciones de lasentradas; en el segundo caso, también habrá distorsiones e incluso se corre el riesgo de falta dedetección de pulsos de sincronismo o del burst (en el caso de video compuesto). Cabe destacar queestos inconvenientes no se dan en ningún caso de uso de entradas convencionales correctamentecableadas.

Nota: las entradas de video loop se aplican a cualquier linea de transmisión de video analógico, ya seacompuesto PAL o NTSC como componentes, black burst y otras.

©1998-2005 Adrián A. Costoya Rev-2005-08 75

Page 77: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 76

Page 78: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 77

Page 79: Tecnologia de La Imagen y Sonido - Apunte UNLA

©1998-2005 Adrián A. Costoya Rev-2005-08 78

Page 80: Tecnologia de La Imagen y Sonido - Apunte UNLA

Enrutamiento de señales por Patch Panels y Routing Switchers

Tanto los patch panels como los Routings switchers son utilizados para facilitar la conexión entre equiposcuendo se cuenta con un gran número de equipos y se deben relacionar de diferente manera segúnoperaciones cambiantes. Mediente cables se llevan todas las entradas y salidas de los dispositivos a unamatriz de conexión. La diferencia entre los patch panels y los routing switchers se encuentra en el modoen que se conectan los equipos.

Los Routing Switchers trabajan mediante teclas con ellas se selecciona a dónde va la señal y se presionaTAKE para realizar el enrutamiento. Otra característica de éstos es que pueden servir la misma señal amás de un dispositivo pero en paralelo, esto se logra porque es un dispositivo activo. La desventaja esque tiene una probabilidad de falla mucho mayor que un patch panel. Debido a esto es que antes ydespués de un routing switcher se colocan Patch panels.

El patch panel, al ser pasivo no modifica la señal solo la enruta según el patch cord colocado por elusuario. Se organiza con señales fuente (sources) y destinos (destinations) o los OUTs y los INs de losequipos que se conectan al panel trasero del patch panel que está vinculado eléctricamente con el paneldelantero. La diferencia con el Routing Switcher es que éste al ser activo tiene la capacidad de amplificaruna señal y enviarla a varias salidas simultáneamente, es más rápido, más eficaz y con menos cablerío yaque las uniones o crosspoints se hacen electrónicamente.

Los dos hacen el cableado más prolijo y práctico y concentran señales y destinos para facilitar lasasignaciones.

Estos equipos se pueden utilizar para señales de audio, video, control y time-code.

©1998-2005 Adrián A. Costoya Rev-2005-08 79