INSTITUTO POLITÉCNICO NACIONAL - DSpace...

147
INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MÉCANICA Y ELÉCTRICA. UNIDAD PROFESIONAL “ADOLFO LÓPEZ MATEOS” ANÁLISIS DE FORMATOS DE AUDIO Y VIDEO PARA TRANSMISIÓN SOBRE DEMANDA VIA INTERNET T E S I S QUE PARA OBTENER EL TÍTULO DE INGENIERO EN COMUNICACIONES Y ELECTRÓNICA PRESENTAN: ROMERO GARCÍA JOSÉ LUIS TERAN FIGUEROA JOSÉ EMMANUEL ASESOR: ING. JOSÉ JAVIER MUEDANO MENESES MEXICO D.F 2011

Transcript of INSTITUTO POLITÉCNICO NACIONAL - DSpace...

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA

MÉCANICA Y ELÉCTRICA.

UNIDAD PROFESIONAL “ADOLFO LÓPEZ MATEOS”

ANÁLISIS DE FORMATOS DE AUDIO Y VIDEO PARA TRANSMISIÓN SOBRE DEMANDA VIA INTERNET

T E S I S

QUE PARA OBTENER EL TÍTULO

DE

INGENIERO EN COMUNICACIONES Y ELECTRÓNICA

PRESENTAN:

ROMERO GARCÍA JOSÉ LUIS

TERAN FIGUEROA JOSÉ EMMANUEL

ASESOR: ING. JOSÉ JAVIER MUEDANO MENESES

MEXICO D.F 2011

INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELECTRICA

UNIDAD PROFESIONAL "ADOLFO LÓPEZ MATEOS"

TEMA DE TESIS

INGENIERO EN COMUNICACIONES Y ELECTRÓNICA QUE PARA OBTENER ELTITlJLO DE TESIS COLECTIVA y EXAMEN ORAL INDIVIDUAL POR LA OPCIÓN DE TITULACIÓN C. JOSE LUIS ROMERO GARCIADEBERA(N) DESARROLLAR C. JOSE EMMANUEL TERAN FIGUEROA

"ANÁLISIS DE FORMATOS DE AUDIO Y VIDEO PARA TRANSMISIÓN SOBRE DEMANDA VÍA INTERNET"

ANALIZAR Y DETERMINAR LOS MEJORES FORMATOS DE AUDIO Y VIDEO PARA LA TRANSMISIÓN SOBRE DEMANDA VÍA INTERNET.

• INTRODUCCIÓN • EL AUDIO DIGITAL Y SUS TÉCNICAS DE COMPRESIÓN, MEDICIÓN Y

MASTERIZACIÓN • EL VIDEO Y SUS TÉCNICAS DE COMPARACIÓN, COMPRENSIÓN Y EDICIÓN • CONVERGENCIA DE MULTIMEDIOS PARA STREAMING y SUS APLICACIONES • CONCLUSIONES • APENDICE A.- EQUIPO Y LUGAR REQUERIDO PARA LA REALIZACIÓN DEL

VIDEO BAJO DEMANDA • APENDICE B.- REDES ORIENTADO A DIRECCIONAMIENTO IP • APENDICE C- DISEÑO DE LA PAGINA WEB • GLOSARIO • BIBLIOGRAFÍA •

MÉXICO D.F. A 18 DE MARZO DE 2011

i'

1\1,

1I

Índice

i

INDICE

OBJETIVO........................................................................................................................1

OBJETIVO PARTICULAR................................................................................................1

JUSTIFICACIÓN...............................................................................................................1

INTRODUCCIÓN..............................................................................................................2

CAPITULO NO. 1 EL AUDIO DIGITAL Y SUS TÉCNICAS DE COMPRESIÓN, MEDICIÓN Y MASTERIZACIÓN.

1.1.- INTRODUCCIÓN......................................................................................................5 1.2.- FUNDAMENTOS DE AUDIO DIGITAL....................................................................6 1.3.- BASES DE CONVERSIÓN PARA DIGITALIZAR UNA SEÑAL...............................7 1.3.1.- Formación de una Señal PCM......................................................................7 1.3.2.- Resolución.....................................................................................................8 1.4.- TRANSMISIÓN DEL AUDIO DIGITAL: MONOFÓNICO, ESTEREO Y MULTICANAL...................................................................................................................9 1.5.- LA PSICOACUSTICA DEL OIDO.............................................................................9 1.5.1.- Umbral de Audibilidad...................................................................................9 1.5.2.- Enmascaramiento Temporal y Codificación................................................10 1.6.- CODECS PARA AUDIO.........................................................................................10 1.6.1.- Advanced Audio Coding ( Codificación de Audio Avanzado )....................11 1.6.2.- WAV...........................................................................................................11 1.6.3.- WMA ( Windows Media Audio )..................................................................12 1.6.4.- MIDI............................................................................................................12 1.6.5.- MPEG ( Grupo de Expertos en Imágenes en Movimiento ).......................12 1.6.6.- MP3............................................................................................................13 1.6.7.- El Bitrate..............................................................................................…...13 1.6.8.- MP3 Lame..................................................................................................13 1.6.9.- AC3 Códecs 0.68b……………………………………………………………..14 1.6.10.- Real Networks………………………………………………………………....14 1.6.11.- OGG VORBIS…………………......……………………………….........……14 1.6.12.- ATRAC………………………..........…………………………………….........15

Índice

ii

CAPITULO NO. 2 EL VIDEO Y SUS TÉCNICAS DE COMPARACIÓN, COMPRESIÓN Y EDICIÓN.

2.1.- INTRODUCCIÓN............................................................................................17

2.2.- LA TELEVISÓN..............................................................................................17 2.2.1.- Formatos de Video Analógico.............................................................17 2.2.2.- Cuadros por Segundo.........................................................................18 2.2.3.- Captación y Representación de Imágenes.........................................18 2.2.4.- Video Compuesto...............................................................................19

2.3.- CODIFICACIÓN DE COMPONENTES DIGITALES NORMA 601.................20

2.4.- MONITORES Y TARJETAS DE VIDEO.........................................................20

2.5.- FORMATOS DE ALMACENAMIENTO...........................................................25 2.5.1.- Medios Analógicos de Almacenamiento..............................................25 2.5.2.- Medios Digitales de Almacenamiento..................................................25 2.5.3.- Cableado e Interconexión de Interfaces..............................................26

2.6.- CARACTERÍSTICAS Y AJUSTES DE CALIBRACIÓN, MEDICIÓN Y COMPARACIÓN DE VIDEO.....................................................................................28

2.6.1.- Temperatura de Color.........................................................................28 2.6.2.- Balance de Blancos............................................................................28 2.6.3.- Realización de un Balance de Blancos..............................................28 2.6.4.- Balance de Negros.............................................................................29 2.6.5.- Color Adecuado vs Color Verdadero..................................................30 2.6.6.- Vectorscopio.......................................................................................30 2.6.7.- Monitor de Forma de Onda (MFO).....................................................31

2..7.- ERRORES FRECUENTES EN LAS SEÑALES DE AUDIO Y VIDEO..........32 2.7.1.- Errores Frecuentes en el Audio Digital...............................................32 2.7.2.- Errores de Cuantización.....................................................................33 2.7.3.- Jitter....................................................................................................35 2.7.4.- Errores en el Video Digital..................................................................35 2.7.5.- Congelamiento o Freezing..................................................................36 2.7.6.- Pixeleado o Blurring............................................................................36 2.7.7.- Efecto de Moire...................................................................................37 2.7.8.- El Video no se Visualiza pero el Audio se Escucha...........................37

2.8.- PRODUCCIÓN Y POST PRODUCCIÓN.......................................................38 2.8.1.- Un Buen Guión y la Conectividad en una Producción........................38 2.8.2.- Consideraciones para el Audio...........................................................39 2.8.3.- Conociendo el Medidor de Volumen...................................................39 2.8.4.- Medidas a Prevenir Sobre el Rango Dinámico...................................40

Índice

iii

2.8.5.- Silbalancia...........................................................................................40 2.8.6.- Popeo..................................................................................................41 2.8.7.- Efecto de Promixidad..........................................................................41 2.8.8.- Consideraciones para Video...............................................................42 2.8.9.- La Luz es Critica................................................................................42

2.8.10.- Recomendaciones Finales Antes de Comenzar a Grabar...............43

2.9.- GRABACIONES DE PRUEBA...............................................................................43 2.9.1.- Calibración de Audio y Video...........................................................43

2.10.- REPRODUCTORES ESPECÍFICOS DE AUDIO Y VIDEO STREAMING...........47 2.10.1.- Real Networks.........................................................................................48 2.11.- CODIFICACIÓN DE AUDIO EN REAL PRODUCER...........................................53

2.12.- WINDOWS MEDIA PLAYER Y ENCODER.........................................................54

2.13.- ARQUITECTURA QUICK TIME……………………………………………………...59

2.14.- FLASH………………………………………………………………………........……..62 2.15..- ANÁLISIS DEL AUDIO Y VIDEO........................................................................65 2.15.1.- Análisis del Audio...................................................................................65 2.15.2.- Resultado del Análisis............................................................................67 2.15.3.- Windows Expresión Encoder.................................................................68 2.15.4.- Resultados del Análisis..........................................................................70 2.15.5.- Quick Time.............................................................................................70 2.15.6.- Resultados del Análisis..........................................................................72 2.15.7.- Adobe Flash...........................................................................................73 2.15.8.- Resultado del Análisis............................................................................74 2.15.9.- Conclusiones del Audio..........................................................................75

2.16.- ANÁLISIS DE VIDEO...................................................................................75 2.16.1- Real Networks.................................................................................76 2.16.2.- Análisis de Video.............................................................................79 2.16.3.- Resultados.......................................................................................79

2.17.- WINDOWS EXPRESIÓN ENCODER...........................................................80 2.17.1.- Resultados del Análisis....................................................................82

2.18.- MÁS RESULTADOS Y EXPLICACIÓN DEL ANÁLISIS...............................84

2.19.- QUICK TIME.................................................................................................84 2.19.1.- Resultados del Análisis...................................................................87

2.20.- Flash Video...................................................................................................89

Índice

iv

2.20.1.- Resultados del Análisis...................................................................91

2.21.- ELECCIÓN DEL CÓDEC ADECUADO........................................................92 CAPITULO NO. 3 CONVERGENCIA DE MULTIMEDIOS PARA STREAMING Y SUS APLICACIONES 3.1.- CONVERGENCIA DE MULTIMEDIOS..................................................................95 3.2.- ¿QUÉ ES EL STREAMING?..................................................................................96 3.3.- ANTECEDENTES DEL STREAMING....................................................................96 3.4.- VIDEO EN INTERNET...........................................................................................97 3.5.- PROCESOS PARA LOGRAR STREAMING..........................................................98 3.6.- COMPONENTES NECESARIOS DEL STREAMING............................................99 3.6.1.- Servidor de Streaming................................................................................99 3.6.2.- Compresión y Codificación “ CODEC “.....................................................100 3.6.3.- Red de Difusión.........................................................................................101 3.6.4.- El Internet..................................................................................................102 3.7.- APLICACIONES POTENCIALES DEL STREAMING..........................................102 APÉNDICE “ A “

EQUIPO Y LUGAR REQUERIDO PARA LA REALIZACIÓN DEL VIDEO BAJO DEMANDA ( STREAMING )

- ÁREA DE MONITOREO Y EQUIPO DE MEZCLA...........................................106 - SALA O ÁREA DE LA EDICIÓN DE LA GRABACIÓN DE VIDEO Y DE

AUDIO...............................................................................................................111

- SALA DE GRABACIÓN....................................................................................113 APÉNDICE “ B “

REDES ORIENTADO A DIRECCIONAMIENTO IP

- DIRECCIONAMIENTO IP..........................................................................119

- TIPOS DE CLASES IP...............................................................................121

Índice

v

- DETERMINACIÓN DE LA CLASE DE DIRECCIÓN..................................123

- SUBDIVISIÓN DE UNA RED.....................................................................124

- MASCARAS DE SUBRED.........................................................................125

- ESTRUCTURA DE LAS MÁSCARAS DE SUBRED.................................125

- ASIGNACIÓN DE DIRECCIONES TCP/IP...............................................126

- DHCP........................................................................................................127

- RTSP ( REAL STREAMING PROTOCOL )..............................................128 APÉNDICE “ C “

DISEÑO DE LA PAGINA WEB

- CARACTERÍSTICAS DEL DISEÑO...........................................................131

- ANÁLISIS DEL PROYECTO......................................................................132

- FASES DE EJECUCIÓN............................................................................133

- TECNOLOGÍA Y DISEÑO.........................................................................134

CONCLUSIONES.................................................................................................136

GLOSARIO...........................................................................................................137

BIBLIOGRAFÍA....................................................................................................140

Objetivo

1

Objetivo Analizar y/o Determinar los mejores formatos de audio y video para la transmisión sobre demanda por Internet. Objetivo particular Almacenar dentro del servidor de ESIME Zacatenco un contenido sobre demanda (on-demand). Justificación Dada la necesidad dentro de ESIME Zacatenco de la falta de información acerca de lo que ocurre dentro del campus: logros de la escuela, temas de investigación e información de tipo administrativa como la de realizar un trámite; por lo que esto nos conduce a proponer un sistema de información por medio del video transmitido por internet lo cual es conocido como “streaming” con lo que se lograra poner a la vanguardia a la escuela además de mantenerla informada.

Introducción

2

Introducción El campo del video transporte constantemente esta evolucionando y nuevas tecnologías emergen para la transportación de señales de video. La tecnología actual está enfocada para los multimedios y por tanto se puede transportar video sobre IP sobre muchas variedades de formatos. Los medios de comunicación convergen y en la actualidad dentro de Internet pueden ser encontradas nuevas tecnologías que involucran al audio y video para la transmisión de televisión sobre demanda. Actualmente gracias al formato MPEG-4 además de la tecnología inalámbrica puede lograrse una amplia gama de servicios multimedia, aunque la pantalla solo sea de 320x240 pixeles y a todo color; el ancho de banda puede ser mucho menor que cientos de kilobits pero es posible descargar un contenido multimedia con una conexión de modem o de tipo ADSL sin ningún problema y de manera continua esto hace que el autor de la transmisión tenga muchísimos recursos de creatividad. La convergencia de medios tiene muchos retos entre los cuales cabrían mencionar los costos de producción, manejo de contenidos, transmisión en alta definición, costos efectivos del proyecto, etc. Existen muchos tipos de aplicaciones para el streaming como videoconferencia, sistemas de seguridad vigilados remotamente, producción de video profesional, entre algunas otras; pero el objeto de estudio particular es realizar un canal de televisión en el cual podamos transmitir contenido sobre demanda. Debido al crecimiento de las telecomunicaciones en los últimos años y la adopción de tecnologías de gran ancho de banda hacen viable la capacidad de transporte del video para comunicar ideas, compartir avances, realizar negocios y en nuestra pretensión darle fines educativos. Video sobre demanda (on-demand) Generalmente, permite a un usuario pedir una determinada secuencia de video almacenada en un servidor. Tiene también otra característica en la que generalmente se acompaña del uso de datos para la visualización y la tarifación de los servicios o tiempo de video. Aunque el video sobre demanda se puede usar para visualización en tiempo real, generalmente se utiliza para archivos almacenados de video. Esta tecnología se usa para capacitación, mercadeo, entretenimiento, broadcasting, y otras áreas donde el usuario final requiere visualizar los archivos con base en su propio itinerario y no en el horario del proveedor de videos.

Introducción

3

Una aplicación típica de video sobre demanda sobre una red IP contiene los siguientes elementos: • El servidor de video (puede ser un servidor de archivos o un cluster de servidores). • El servidor controlador de aplicaciones, que inicia la transmisión (puede estar incluido en un servidor de archivos). • Un punto terminal con un convertidor para responder a la petición de visualización y control de reproducción. • Software de administración y/o software de tarifación. • PC o dispositivo de red para registrar/convertir los archivos de video.

Capitulo 1

4

CAPITULO 1

El AUDIO DIGITAL Y SUS TÉCNICAS DE

COMPRESIÓN, EDICIÓN Y MASTERIZACIÓN

Capitulo 1

5

1.1.- INTRODUCCIÓN El audio digital es la codificación de una señal eléctrica que representa una onda sonora. Consiste en una secuencia de valores enteros y se obtienen de dos procesos: el muestreo y la cuantificación digital de la señal eléctrica. Para comenzar el capítulo podemos decir que un gran precedente anterior quizás a la transmisión de video por Internet es la transmisión de audio, la cual tuvo una gran aceptación por las personas y se popularizo rápidamente a principios de la década, el gran éxito de esto fue debido las emisoras de radio por Internet y a programas de fácil acceso como el conocido “plug-in shoutcast” del reproductor de multimedios winamp que te permitía y aun permite tener una estación de radio basada sobre una dirección de ip y un puerto de salida por el cual se da a los usuarios el acceso al contenido de nuestro reproductor, en ese tiempo MP3 fue la revolución total en cuestión de la transmisión de audio por Internet ya que es el estándar de archivos de audio para computadora por excelencia, aunque poco a poco y conforme ha pasado el tiempo ha comenzado a ser desplazado por otros formatos de audio como lo es el códec AAC que es aun mas eficiente que el primer mencionado. Lógicamente también han ido evolucionando las estaciones de radio por Internet y las posibilidades de transmisión se han multiplicado ya que la mayoría de los reproductores dedicados a la transmisión por Internet soportan estos tipos de enlaces tal es el caso de Windows Media, tecnologías basadas en MPEG-4, Quick time y Real véase en la Fig. 1.1.

Figura 1.1 Plug-in para transmisión de audio por internet (shoutcast).

Capitulo 1

6

1.2 FUNDAMENTOS DE AUDIO DIGITAL Es importante conocer la teoría del audio digital para comprender los alcances que tiene dentro de este proyecto, por lo cual se enuncian a continuación los tres procesos básicos que se necesitan para codificar audio: Digitalización. Codificación y compresión. Paquetización.

El formato de grabación profesional para audio AES-3 que tiene una velocidad de datos de 3 Mbits/s para un muestreo stereo a 48 Khz. de frecuencia es la mayoría de las bases para la digitalización en el ámbito profesional, pero por lo general para la grabación de un disco compacto o una grabación de calidad se utiliza el formato WAV el cual tiene una velocidad de muestreo de 44.1 Khz. y 16 bits de resolución para su conversión, ahora bien; dado que nuestro interés es transmitir vía Internet y que los formatos antes mencionados son de alta calidad, lo cual para nuestro fin es una desventaja, nosotros tenemos que reducir el tamaño de archivo aproximadamente en una relacion de 100:1 con lo cual tenemos que utilizar forzosamente una compresión para lograr transmitir desde un ancho de banda de 56 kbits/s hasta un dsl o quizás un T1. Los sonidos son capturados de una señal acústica la cual es transformada por un micrófono a una señal eléctrica. Para convertir esta señal a un formato correcto para transmisión por Internet esta debe de pasar por varios procesos para adecuarla véase la Fig. 1.2. Pre-énfasis (este es opcional). Muestreo. Conversión A/D. Compresión. Paquetización y codificación.

Figura 1.2 Conversión de una señal acústica en audio digital.

Capitulo 1

7

1.3 BASES DE CONVERSIÓN PARA DIGITALIZAR UNA SEÑAL La base del audio digital es la modulación por codificación de pulsos mejor conocida como PCM. 1.3.1.- Formación de una señal PCM Muestreo La frecuencia de muestreo esta dada en base a la respuesta en frecuencia, la teoría del muestreo dicta que la frecuencia de muestreo debe ser mayor al doble de la frecuencia mas alta que será capturada esto es debido al teorema de Nyquist, por lo cual se forma un compromiso para asegurar toda la información de la señal. El oído humano tiene un ancho de banda de aproximadamente 20 Khz. por lo tanto se utilizan 22.05 Khz. para realizar el muestreo pero debido al teorema de Nyquist-Shannon como lo mencionamos obtenemos una frecuencia de muestreo de 44.1 Khz., si nosotros quisiéramos una mayor calidad para efectos profesionales podríamos muestrear la señal a 48 Khz. véase la tabla 1.3.1 a la Fig. 1.3.1 . En resumen, el teorema de muestreo demuestra que toda la información de una señal contenida en el intervalo temporal entre dos muestras cualesquiera está descrita por la serie total de muestras siempre que la señal registrada sea de naturaleza periódica (como lo es el sonido) y no tenga componentes de frecuencia igual o superior a la mitad de la tasa de muestreo; no es necesario inventar la evolución de la señal entre muestras. La tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman de una señal continua para producir una señal discreta, durante el proceso necesario para convertirla de analógica en digital.

Frecuencia de Muestreo

(Khz.)

Respuesta en Frecuencia

Aplicación

8 Khz. 200 hz. – 3.3 Khz. Telefonía

16 Khz. 100 hz. – 8 Khz. Ancho de banda de la voz

44.1 Khz. 20 hz. – 20 Khz. Discos compactos

48 Khz. 20 hz. – 20 Khz. Profesional y de transmisión

192 Khz. Mayor a 96 Khz. DVD y Blu-Ray

Tabla 1.3.1 Frecuencias de muestreo y sus aplicaciones

Capitulo 1

8

Figura 1.3.1 Teoría del muestreo.

1.3.2.- Resolución La resolución es la capacidad que tiene un conversor A/D para convertir las muestras a un valor digital codificado, esencialmente se dan un numero de valores predefinidos o discretizados lo que nos refiere al proceso de cuantización. El numero de niveles que es capaz de convertir nuestro ADC determina la resolución que esta dada en bits. Por lo general aplicaciones típicas como la grabación de discos compactos utiliza una resolución de 16 bits, mientras que para el ámbito profesional se utilizan resoluciones de 20 o 24 bits, en base a estas resoluciones es que se puede calcular el rango dinámico que se tiene para trabajar con la señal de audio, en la practica siempre esta presente el ruido en la conversión análoga a digital por lo general mientras mayor rango dinámico tengamos el ruido de fondo nos perjudicara menos y obtendremos resultados de mejor calidad, algunos defectos que tiene la conversión es que el proceso se vuelva no lineal, o que el circuito tenga ruido o el reloj no este sincronizado esto ocurre sobre todo en tarjetas capturadoras de sonido de baja calidad lo cual por lo general produce distorsiones que no son placenteras al oído y usualmente son interrupciones en el sonido, debido a esto es importante tener una tarjeta capturadora de audio de mediana calidad al menos para evitar lo antes mencionado, a continuación se muestra una tabla entre el rango dinámico véase la tabla 1.3.2.

Capitulo 1

9

Longitud de palabra (bits)

Numero de niveles Rango Dinamico (dB)

8 255 -48.16 16 65535 -96.33

24 16777216 -144.49

Tabla 4.2 Niveles de conversión y rango dinámico.

1.4.- TRANSMISIÓN DEL AUDIO DIGITAL: MONOFONICO, ESTEREO Y MULTICANAL El audio puede ser transmitido por un solo canal el cual es el caso del monofónico o puede contener información en múltiples canales de los cuales stereo es el mas popular ya que la mayoría de los sistemas de audio para computadora usan dos altavoces para la reproducción de sonido. Existen mas formatos multicanal tal es el caso de AC3 que es un códec para 5.1 lo que quiere decir que utiliza cinco canales mas un canal para efectos de bajas frecuencias, en consecuencia se mejora la calidad del audio ya que se crean efectos de envolvencia, a pesar de ello el ancho de banda de las comunicaciones actuales y las altas cantidades de bits que afectan en la cantidad de Mbytes que ocupara un archivo no hacen viable utilizar audio para 5.1 al menos por el momento. 1.5.- LA PSICOACUSTICA DEL OIDO La mayoría de las características antes descritas por lo general son explotadas en función de una codificación perceptual que nos permite que el oído interprete la información de un archivo de audio y que no note una gran diferencia entre una grabación digital y una analógica de calidad superior, los factores que se explotan dentro de este ámbito son los siguientes: Umbral de audibilidad. La frecuencia y el enmascaramiento simultaneo. Enmascaramiento temporal y codificación.

1.5.1.- Umbral de audibilidad El oído humano relativamente no es sensible a sonidos de muy altas y muy bajas frecuencias a bajos niveles de presión sonora, esto lo podemos notar dentro de las curvas de Fletcher y Munson que nos permiten entender el comportamiento del oído en función de la frecuencia, además de la intensidad de presión sonora que el oído puede manejar siendo 120 dB el umbral del dolor del oído, 100 dB un umbral de molestia.

Capitulo 1

10

Para entender la grafica presentada tal como se dijo el oído necesita de niveles de presión sonora mucho mas altos para muy bajas y altas frecuencias; y manteniendo el espectro de frecuencias medias en niveles bajos, con lo cual se puede observar que el rango de la voz es perfectamente distinguible y es el mejor aprovechado por el oído, lo que para la compresión de audio significa que se requiere una menor resolución en un códec para reproducir las frecuencias bajas. 1.5.2.- Enmascaramiento temporal y codificación El enmascaramiento cae dentro de los estudios psicoacústicos que buscan determinar de qué manera la presencia de un sonido afecta a la percepción de otro sonido. Hablamos de enmascaramiento cuando un sonido impide la percepción de otro, es decir, lo enmascara. Se produce una modificación del umbral de audibilidad del escucha. Podemos definir el umbral de audibilidad como “el mínimo nivel de presión sonora a partir del cual somos capaces de escuchar, en condiciones no ruidosas”. La mayoría de los códecs de audio utilizan este efecto de enmascaramiento para remover la información enmascarada de la señal de audio. Existe otro fenómeno que es conocido como enmascaramiento temporal que es cuando se encuentran dos señales de frecuencias relativamente cercanas, la señal de mayor intensidad hace subir el umbral de audición en sus proximidades, cuyo efecto es disminuir la sensibilidad del oído alrededor de estas frecuencias. La variación del umbral de audición es lo que denominamos umbral de enmascaramiento, lo cual referido al audio nos generaría un corto Pre-enmascaramiento que es menor a 50 ms y que viene después del tono enmascarante. Los codificadores perceptuales aprovechan las limitaciones en la percepción del sistema auditivo humano (umbral de audición, enmascaramiento temporal y/o frecuencial) para codificar el flujo de datos. Para codificar las muestras en formato PCM (audio digital sin comprimir) se realiza una transformada al dominio frecuencial y se cuantifican y codifican a partir de un conjunto de datos obtenidos en un modelo psicoacústico. La implementación de este modelo psicoacústico es lo que determina la calidad final y es dónde se aprovecha el enmascaramiento temporal o frecuencial, siendo el umbral de enmascaramiento el que controla la cuantificación. 1.6.- CODECS PARA AUDIO Dentro de los códecs a tomar en cuenta debemos procurar conocer los tres tipos que existen los primeros que son estándares internacionales, después vienen los sistemas propietarios y por últimos los códecs de software libre. Cada uno tiene sus ventajas y desventajas, por lo cual dentro del capitulo se hará un análisis para discernir cual es el mas adecuado para la compresión del audio que se grabara. En la siguiente tabla se enuncian algunos formatos que son muy comunes de encontrar en Internet y que son

Capitulo 1

11

compatibles para la compresión de video y audio en conjunto. Aquí se muestra una descripción de los formatos de compresión de audio más usados hoy en día, sus ventajas, extensiones y principales usos: 1.6.1.- Advanced Audio Coding (Codificación de Audio Avanzada) AAC Extensión .aac Codificación estándar para audio reconocida por ISO en el patrón MPEG-2. En teoría, almacena más que el MP3 en menos espacio, esta basado en las capas 1,2 y 3 del estándar MPEG y la meta de este tipo de ficheros es producir una compresión de datos menor a 384 Kbits/s que fuera indistinguible de un archivo de CD. Dentro de sus características están las siguientes: Bancos con filtros adaptativos lo cual nos permite adaptar un banco de filtros a la

entrada para maximizar la ganancia de la codificación. Predicción de los coeficientes espectrales lo cual elimina la redundancia con

señales Cuasi-estacionarias. Codificación con reducción de ruido.

1.6.2.- WAV Extensión: wav Fue desarrollado por Microsoft e IBM y apareció por primera vez para el ambiente Windows en el año 1995. Los archivos de audio guardados en el formato de sonido Microsoft tienen esta extensión. Con el tiempo se convirtió en un estándar de grabación para música de Cd´s. Su soporte de reproducción es uno de los más importantes pues funciona en cualquier aplicación Windows y en equipos domésticos comunes con reproductor de Cd´s admite archivos mono y estéreo a diversas resoluciones y velocidades de muestreo. Para tener calidad CD de audio se necesita que el sonido se grabe a 44100 Hz y a 16 bits. Por cada minuto de grabación de sonido se consumen unos 10 megabytes de espacio en disco. Una de sus grandes limitaciones es que solo se puede grabar un archivo de hasta 4 gigabytes, que equivale aproximadamente a 6,6 horas en calidad de CD de audio. Es una limitación propia del formato, independientemente de que el sistema operativo donde se utilice sea MS Windows u otro distinto, y se debe a que en la cabecera del fichero se indica la longitud del mismo con un número entero de 32 bit, lo que limita el tamaño del fichero a 4 GB.

Capitulo 1

12

1.6.3.- WMA (Windows Media Audio) Extensión: .wma Es la abreviación de Windows Media Audio. Es la Versión de Windows para comprimir Audio, muy parecido a MP3. No solo reduce el tamaño de archivo grandes, sino que también se adapta a diferentes velocidades de conexión en caso de que se necesite reproducir en Internet en Tiempo Real. Compite con el MP3, antiguo y bastante inferior técnicamente; y Ogg-Vorbis, superior y libre, usando como estrategia comercial la inclusión de soporte en el reproductor Windows Media Player, incluido en su popular sistema operativo Windows. Aunque el soporte de este formato se ha ampliado desde Windows Media Player y ahora se encuentra disponible en varias aplicaciones y reproductores portátiles, el MP3 continua siendo el formato más popular y por ello más extendido. A diferencia del MP3, este formato posee una infraestructura para proteger el Copyright y así hacer más difícil el "tráfico P2P" de música. 1.6.4.- MIDI Extensión: .midi Por sus siglas en ingles, quiere decir instrumento musical de interfaz digital, y es considerado el estándar para industria de la música electrónica. Es muy útil para trabajar con dispositivos como sintetizadores musicales ó tarjetas de Sonido. Por el tamaño resultante que ofrece su compresión, este formato es muy usado para reproductores que necesitan combinar archivos de audio y video, como los karaoke. 1.6.5.- MPEG Moving Pictures Experts Group (Grupo de Expertos en Imágenes en Movimiento). Extensión: mpeg, mpg, m1v, mp1, mp3, .mp2, .mpa, .mpe Es el formato más importante de todos. Creado por un grupo de desarrolladores, cuyo fin era crear un sistema de compresión con la intención de reducir los archivos de video y audio. Opera bajo el auspicio de la Organización Internacional de Estándares (ISO). Por ejemplo, las películas en DVD, las transmisiones de tv digital y las de tv satelital utilizan el sistema de compresión MPEG, para llevar las señales audio y video en pequeños espacios. Incluye un subsistema de compresión de sonido llamado MPEG Layer 3, conocido por el mundo entero como MP3.

Capitulo 1

13

1.6.6.- MP3 El mp3 (Mpeg layer 3) es un códec de audio muy extendido. Los archivos creados con este códec tienen la extensión .mp3, por lo que también se le llama formato mp3. Su peculiaridad es su tamaño de compresión: 11 a 1, lo que quiere decir, que si un CD de música normal contiene unas 13 canciones, en un CD con mp3, tendríamos 143. Aparte del ahorro del espacio hay que añadir que no se pierde apenas calidad de sonido en bitrates normales o incluso, en un archivo mp3 del máximo bitrate sacado de un disco de vinilo, puede tener mayor calidad de sonido que un archivo de CD. Tal reducción de tamaño se realiza por eliminación de sonidos que el oído humano no puede oír. Al eliminar escalas de sonidos no audibles se reduce la cantidad de bytes necesarios en el archivo final. El mp3 tiene unas técnicas de compresión digital diferentes al CD. Por ejemplo, en los archivos digitales de CD, si dos sonidos tienen la misma frecuencia de onda, se elimina una de ellas. En cambio, hay otros parámetros que influyen en los mp3, por ejemplo, si hay un ruido fuerte, se eliminan los datos de los débiles, pues el oído humano solo escuchará el fuerte. Existen muchas versiones del códec mp3. Cada una de ellas dictamina que sonidos se han de eliminar y cuales no, por este motivo, no todas las versiones y configuraciones son iguales. 1.6.7.- El bitrate Uno de los aspectos técnicos mas conocidos del mp3 es el bitrate. Es una especie de escala del tipo de compresión. A menor bitrate de compresión de un archivo, más datos se eliminan y menos ocupa el archivo, pero naturalmente peor se escucha. 1.6.8.- Mp3 Lame Existen varias versiones hechas por distintos programadores del códec mp3, aunque actualmente la más rápida y la que ofrece mayor calidad es la versión Lame. Versiones que siempre debes descartar son Fraunhofer, Xing y QDesign MVP. El Sistema operativo Windows, a partir de la versión 98SE, instala por defecto el códec mp3 Fraunhofer. Otros programas como el Nero o el Musicbox también usan esta versión de códec. Hay que procurar descartar todos los programas que usan por defecto el códec mp3 de Windows, como el Windows Media Player. Si queremos mejorar la creación, conversión y reproducción de los archivos mp3, debemos instalar y usar siempre la versión Lame. Mejor Versión Lame: Se dice que a pesar de no ser la ultima, la mejor versión es la 3.90.3. Decimos se dice, pues para notar la diferencia has de tener un buen equipo de música, unos buenos auriculares y tener un buen oído, aparte de seleccionar los temas apropiados donde poder apreciar diferencias acústicas. Cada cierto tiempo, ciertos grupos dedicados a

Capitulo 1

14

este tema, hacen audiciones y comparaciones de las diferentes versiones del códec mp3. Son estos grupos los que recomiendan que actualmente (dic-2003) la mejor versión es 3.90.3 1.6.9.- AC3 Códecs 0.68b Estos códecs son necesarios para poder reproducir y crear archivos de audio en el sistema Dolby Digital AC3. Dolby Surround o Dolby Prologic es un sistema de cuatro canales de audio que se introdujo, en los años 70, en las principales salas de cine. El sistema, con únicamente dos canales, codificaba las cuatro señales de los cuatro altavoces. El Dolby Digital 5.1, llamado técnicamente AC3, es un sistema de audio que nació en los años 90. Este sistema incorpora 5 o seis canales independientes de sonido. Cada canal es independiente para cada altavoz y reproduce todo tipo de frecuencias, menos el sexto, que solo se encarga de las más bajas. Novedades de la nueva versión 0.68b: Esta nueva versión incluye novedosas características como soporte de salida multicanal, soporte de compresión de rango dinámico (DRC), control de nivel de ganancia, información de la cadena de bits, descompresión de DolbySurround/ProLogic/ProLogicII para cada canal, etc. 1.6.10.- Real Networks ™ RealAudio® and RealVideo® Extensión: .ra, .ram, .rm, .rmm Soporte multimedia creado por la empresa Real Network, con una alta taza de comprensión y algoritmos especiales que reducen considerablemente el tamaño de los archivos de sonido y video. No tan famoso como el MP3 su capacidad de streming lo hace ideal para trasmitirse en vivo a través de la red. 1.6.11.- OGG VORBIS Extensión: ogg El funcionamiento de este formato de compresión es similar al de los otros, pues también se utiliza para guardar y reproducir música digital. Lo que diferencia a Ogg Vorbis del resto de grupo es que es gratuito, abierto y no esta patentado. Su principal atractivo es la importante reducción que hace de un archivo de audio sin restarle calidad. Así mismo, se distingue por su versatilidad para reproducirse en prácticamente cualquier dispositivo y por ocupar muy poco espacio.

Capitulo 1

15

1.6.12.- ATRAC Este formato se utiliza en tecnología de compresión y reproducción para minidisc. Se emplea en el sector de audio y algunos dispositivos portátiles como PDA, y muy pronto, en teléfonos inteligentes. De lo anterior descrito se puede observar en la siguiente tabla los tres tipos de arquitecturas de los códecs.

Tipo Nombre Extensión

Propietario Windows Media .wma

Real Media .rm

Quicktime .aiff

Dolby Digital .ac3

Sony ATRAC .atrac3

Estandarizado MPEG mpeg, mpg, m1v, mp1, mp3, .mp2, .mpa, .mpe

MIDI .mid

WAV .wav

Libre OGG Vorbis .ogg

Capitulo 2

16

CAPITULO 2

EL VIDEO Y SUS TÉCNICAS DE

COMPARACIÓN, COMPRESIÓN Y EDICIÓN.

Capitulo 2

17

2.1.- INTRODUCCIÓN El Video es un proceso de grabación de imágenes fijas o en movimiento por medios electrónicos en lugar de fotoquímicos como en el caso de la película fotográfica. Las técnicas utilizadas para grabar imágenes en una cinta de vídeo son similares a las utilizadas para la grabación y reproducción de sonido. Las señales eléctricas procedentes de una cámara de televisión (o de una cámara de televisión a través de un receptor de televisión) se almacenan como secuencias de zonas magnetizadas de óxido férrico sobre una cinta magnética. Al reproducir la cinta grabada se regeneran las señales originales. Estas señales se pueden difundir entonces mediante una antena emisora o por cable a los receptores de televisión capaces de traducir las señales a imágenes y sonidos. Dado que existen muchas similitudes entre la televisión y los formatos de video para computadora, en este capítulo se tomara en cuenta como breviario los formatos y las interconexiones que se necesitan para lograr la captura de video. 2.2 LA TELEVISIÓN La televisión en si puede ser vista como una interpretación en dos dimensiones de imágenes en movimiento, la cual comenzó como video monocromático ( es decir , blanco y negro) aunque posteriormente se añadió color, cuando esto sucedió se le agrego la luminancia dentro de la misma señal sin requerir un ancho de banda mayor. Captura La captura de video se realiza por medio de un lente con sensores CCD („dispositivo de cargas [eléctricas] interconectadas)básicamente es un arreglo de sensores que detectan la intensidad de la luz y en base a eso se les asigna un valor de voltaje, el cual se transmite la imagen capturada hacia una memoria dentro de la cámara la cual después de pasar por un procesamiento es transmitida hacia una salida de video compuesto. 2.2.1.- Formatos de video analógico La cámara y la mayoría de los aparatos relacionados con la televisión manejan algunos estándares los cuales se mencionan en la tabla 2.2.1.

Duración de Linea

(µs)

Longitud de imagen

(líneas)

Frecuencia de línea

(hz.)

Cuadros por

segundo

Área de video activa

RS-170 525 15750 30 486

NTSC 63.49 525 15734.26 29.96 486

PAL, SECAM

64 625 15625 25 576

Tabla 2.2.1 Formatos de video analógico

Capitulo 2

18

De estos formatos presentados en la tabla se hace uso del NTSC debido a que en México se sigue este estándar para televisión y las cámaras en el estudio de grabación de ESIME Zacatenco en lo particular se rigen bajo esta norma; ahora bien la señal que nosotros tenemos de la cámara se transportara a un monitor (sistema de monitoreo) para nosotros poder tener un control de lo que se esta enfocando con la cámara y por ende de lo que se estaría capturando. 2.2.2.- cuadros por segundo El patrón NTSC sigue por norma frecuencia de presentación en pantalla de 29.96 hz. lo cual es suficiente para realizar un efecto óptico de movimiento; dentro de estos cuadros o campos existen 262.5 líneas horizontales para cada uno, las que deben seguir cierta secuencia para mostrarnos la coherencia de la imagen debido a eso se divide en un campo par y otro impar como se muestra en la Fig. 2.2.2.

Figura 2.2.2 Formación de una imagen para TV.

2.2.3.- Captación y presentación de imágenes La percepción de nuestros ojos es que tienen dos tipos de sensores: los bastones y los conos, los primeros nos dan la percepción del nivel de luz existente y los conos que son sensores que trabajan con tres bandas espectrales las cuales son los colores primarios dentro del espectro de la luz que puede ser percibida; Rojo, Azul y Verde ( o RGB como es conocido) en base a esto la presentación de video en un monitor o pantalla de computadora es basada en este sistema teniendo ya sea un TRC (Tubo de

Capitulo 2

19

Rayos Catódicos) el cual contiene estos tres colores base al igual que cualquier tecnología que se maneje para presentación de imágenes tal es el caso actual del LCD. Para la presentación de un video a color este se matriza por colores dándonos como resultado un video por componentes el cual su primera componente es la de luminancia ( señal Y) la señal de colores R-Y ( señal V) además de la señal B-Y ( señal U) este proceso de matrizado se realiza tanto para la captura ( con la cámara) como para la presentación (en un monitor). La siguiente tabla muestra otros parámetros importantes de la señal de video:

Asignación Notas

RGB Rojo, Azul y Verde Colores Primarios

CYMK Cyan,Amarillo,Magenta y Negro

Colores Secundarios

HSB Contraste, saturación y Brillo

Relacionado a la percepción de la imagen por el ojo.

Parámetros de la señal de video.

2.2.4.- Video por componentes y video compuesto Por lo general para realizar pruebas se tienen tres cables los cuales portan las señales RGB hacia el monitor y opcional un canal de sincronía, pero este método de transmisión no es viable debido a lo que supone, entonces los ingenieros de NTSC pensaron en combinar las tres señales y mandar la señal por un canal simple. Básicamente el truco de esto consistía en modular la señal portadora con la información de color, lo hicieron por medio de la modulación de cuadratura en amplitud, ésta señal dentro del argot de televisión es conocido como “color burst o ráfaga de color” . Para transmisión se opto por la propagación en RF véase la Fig. 2.2.4..

Figura 2.2.4 Matrizado de video

Capitulo 2

20

2.3.- CODIFICACION DE COMPONENTES DIGITALES NORMA 601 El estándar ITU-R BT601 nos ayuda a entender que se necesita para hacer entrega en video digital. Dentro de el estándar NTSC que usa un limitador de banda para la señal I y Q el sistema 601 tiene la misma característica para la información de color y para las muestras de color dentro de una baja resolución espacial menor a la luminancia. Este estándar utiliza la mitad de la frecuencia de muestreo y en los sistemas digitales se utiliza cuatro veces la frecuencia de muestreo de la señal portadora de color. Dentro de la nomenclatura que existe para video digital YUV (señales compuestas) un ejemplo es 4:2:2 aquí los canales de crominancia son muestreados a la mitad. Otro ejemplo es donde la resolución vertical para la luminancia y crominancia es la misma por lo tanto tenemos un sistema simétrico, este sistema es conocido como 4:2:0 y fue adoptado por MPEG para sus estándares MPEG-1 y MPEG-2. Otro ejemplo de muestreo es el 4:1:1 donde se muestrea el color a un cuarto de la frecuencia de luminancia, el cual fue adoptado por el formato DV véase la Fig. 2.3.

Figura 2.3 Codificación de video por componentes digital.

El rango de codificación usa una escala de colores de 0 a 255 ( codificación de 8 bits ) aquí el valor mas alto es el blanco el cual es la suma de todos los colores con el valor 255 y cero es el valor del color negro o la resta de los colores. La mayoría de las computadoras actuales manejan resoluciones mayores como la de 32 bits con lo cual se manejan mucha mas variedad de colores alrededor de 4,294,967,296 y con un solo circuito integrado, lo cual nos da una gran posibilidad de representar imágenes de alta calidad y una mejor resolución. 2.4.- MONITORES Y TARJETAS DE VIDEO Dentro del tema del video digital no se pueden olvidar a los monitores ya que básicamente el objeto de este estudio es para mostrar imágenes en video digital, ahora

Capitulo 2

21

bien los monitores son la interfaz entre la computadora y el usuario para mostrar datos y resultados.

Las principales características de un monitor son:

Tamaño Como en los televisores, el tamaño se suele expresar en pulgadas de diagonal (1 pulgada = 25,4 mm) Los mayores tamaños disponibles a precios cada vez más asequibles deben ser tenidos en cuenta ya que se puede cambiar de ordenador cada dos o tres años pero no hace falta cambiar la pantalla. Los tamaños más recomendables son 17" y 19" en la mayor parte de los casos. Los tamaños de 14" y 15" resultan demasiado pequeños, válidos tan solo para un uso ocasional del ordenador.

Resolución No es una característica de la pantalla sino de la tarjeta. No obstante, las resoluciones altas no se aprecian con pantallas pequeñas. 14" - Resolución máxima apreciable: 800x600 15" - Resolución máxima apreciable: 800x600 ó 1024x768 dependiendo del paso de punto. 17" y superiores: a partir de 1024 x 768 Cuanto más alta es la resolución más pequeños aparecen el texto y las imágenes. También se pueden mostrar más cosas en la pantalla. Para una computadora que se utilice mucho para Internet, conviene que su resolución esté en 800x600 ya que la mayor parte de webs se construyen para esta resolución aunque actualmente se están utilizando 1024x768. Esta resolución es también adecuada para la mayor parte de trabajos de oficina.

Paso de punto (dot pitch)

El paso de punto determina el mínimo tamaño de un detalle que es capaz de resolver una pantalla. Veamos algunos cálculos. La resolución máxima distinguible en una pantalla de 800x600 es de 72 ppp y en una de 1024x768 es de 93 ppp. Éstos son valores teóricos y en la práctica son algo mayores según el primer cálculo de mi página "72ppp". Los valores que uso son los "prácticos" que se ajustan más a la realidad. Para 800x600: En una pulgada hay 74 puntos. Luego, cada punto ocupará 0,34 mm. - Basta una

Capitulo 2

22

pantalla con paso de punto 0,28 mm que son las más corrientes. Para 1024x768: Cada punto ocupará 0,26 mm. Se necesita una pantalla de paso de punto 0,25 mm.

Fósforo Si el tipo de trabajo lo requiere (imprenta) hay que elegir una pantalla que reproduzca los colores lo más exactamente posible. Para trabajo general basta elegir la que resulte más conveniente, no importa tanto la exactitud del color ni la geometría de la imagen.

Temperatura de color

El color blanco absoluto es uno solo pero no lo vemos de la misma manera con luces diferentes. Con luz de día su temperatura de color es cercana a 9.300 ºK (ºK: grados Kelvin o absolutos). Con luz incandescente equivale a unos 5.000 ºK. Si se ha de usar la pantalla para trabajos relacionados con Artes Gráficas, conviene que la temperatura de color sea ajustable entre estos dos valores, empleando generalmente 5000 ºK.

Frecuencias H y V

(horizontal y vertical)

Multifrecuencia, Multisync, etc. El monitor debe ser capaz de adaptarse a las diferentes frecuencias que resultan de las diferentes resoluciones con las que se trabajará y, además, debe ser capaz de una frecuencia de refresco alta (es normal que los monitores de calidad lleguen hasta 100 o más). Al comprar hay que especificar con qué resoluciones se quiere trabajar y elegir una frecuencia de refresco de 75 Hz o más. Todo ello en modo no entrelazado.

Full screen (pantalla completa)

En algunos monitores baratos los mandos de amplitud horizontal y vertical no consiguen llenar totalmente la pantalla con algunas resoluciones. En estas condiciones la imagen se ve más pequeña; es como si hubiéramos comprado una talla menos.

Las principales características de una tarjeta gráfica son:

Bus Históricamente, las tarjetas gráficas han ido

Capitulo 2

23

conectadas primero al bus ISA de 8 bits, luego al ISA de 16 bits. Luego vinieron las de bus local VESA de 32 bits, actualmente hay tarjetas que se pueden conectar al bus PCI de 32 bits pero la mayor parte ya son para bus AGP (Accelerated Graphics Port). Para usar una de éstas hay que tener una placa base moderna que disponga de un slot AGP. La ventaja es la rapidez de transferencia, útil para imágenes en movimiento (video a pantalla completa y juegos). Para trabajos de oficina también se agradece siempre un poco más de rapidez. Las esperas se acumulan y afectan a los nervios.

Memoria La cantidad de memoria determina la combinación de la resolución con número de colores. Las primeras resoluciones son las siguientes: 640 x 480 - Está cayendo en desuso 800 x 600 - La más frecuente 1024 x 768 - Interesa para trabajos especiales El número de colores viene dado por la longitud (en número de bits) del número que define cada color. Número de 4 bits de longitud = 16 colores Número de 8 bits de longitud = 256 colores Número de 16 bits de longitud = 65.000 colores Número de 24 bits de longitud = 16,7 millones de colores. Numero de 32 bits de longitud = 4,294,967,296 millones de millones de colores La resolución más habitual es de 800 x 600 El número de colores más satisfactorio es de 16,7 millones. Para esta combinación se precisa una memoria mínima de 2 MB La memoria puede ser más o menos rápida. Si es lenta no permitirá que se redibujen rápidamente las imágenes. Windows aparenta funcionar más lento y no se pueden ver bien las imágenes en movimiento de videos y demás. Por orden de antigüedad y rapidez, hay memorias RAM, EDO RAM, SRAM, VRAM, etc.

Procesador Muchas tarjetas gráficas llevan un procesador que está especializado en cierto tipo de tareas. Por ejemplo, las tareas habituales de Windows, renderizar (llenar con color), imágenes 3-D, etc. El

Capitulo 2

24

procesador confiere rapidez a una tarjeta.

Descripción Resolución Arreglos

VGA 640x480 Arreglo grafico de video

SVGA 800x600 Súper arreglo de gráficos de video

XVGA,XGA 1024x768 Arreglo de gráficos de video extendido

SXGA 1280x1024 Súper XGA

UXGA 1600x1024 Ultra XGA

WUXGA 1920x1200 Ultra XGA Panorámico

Tabla Tipos de monitores

Actualmente se utilizan por lo general monitores LCD del tipo UXGA o WUXGA de alta resolución junto con tarjetas de video de alrededor de 2 GB de memoria interna pero dentro del mercado mundial por lo general un usuario promedio tiene monitores a partir de SVGA y tarjetas desde 32 MB de memoria interna.

Figura Diferentes resoluciones de monitores.

2.5.- FORMATOS DE ALMACENAMIENTO Cuando se habla de formatos de almacenamiento para video streaming debido a que se utilizan medios analógicos para hacer una grabación esta puede ser almacenada en

Capitulo 2

25

una video cinta, un disco compacto, un DVD o incluso en el nuevo formato Blu-Ray. Por lo general dentro de las emisoras de televisión se manejan “testigos” los cuales son por lo general grabaciones hechas y que son almacenadas en algún formato de los antes mencionados, las ultimas generaciones de computadoras y la evolución tecnológica nos han permitido descubrir que también es posible almacenar videos dentro de discos duros para su reproducción, utilización y fácil localización. 2.5.1.- Medios analógicos de almacenamiento Los medios analógicos a pesar de su antigüedad siguen siendo utilizados para almacenamiento tal es el caso del VHS o formatos de 8 mm para cámaras de grabación. VHS El VHS data de 1976 y este fue uno de los formatos para almacenamiento mas difundido para el almacenamiento domestico aunque no es viable utilizarlo para aplicaciones profesionales o aplicaciones de edición. S-VHS Este formato es una versión mejorada del VHS se utilizó en conjunto con la adopción de la tecnología del S-Video, donde la señal de crominancia es separada de la de luminancia, como el caso del video compuesto. Betacam y Beta SP Este formato usa la tecnología de multiplexación por división de tiempo para los canales R-Y y B-Y canales de croma, haciendo una verdadera componente de grabación con la señal de Y-C. Por lo general este tipo de formato aun es usado por las emisoras de televisión y en su versión SP fue mejorado. 2.5.2.- Medios digitales de almacenamiento. Digital Betacam Es un medio de grabación para video de alta calidad en formato digital el cual se utilizo como reemplazo para la Betacam SP que utilizaba formato analógico. Este medio es muy popular en producciones de televisión debido a la fácil edición del video. DV El formato DV tiene un muestreo de video en relación 4:1:1 o 4:2:0 se basa en la DCT usando una compresión de 5:1 en cuestión de los datos, dándonos una velocidad de

Capitulo 2

26

datos de 25Mbits/s para una película de definición estándar, tiene dos canales digitales de audio en stereo y consistía en una cinta normal de metal. En el momento que las televisoras expresaron interés en este formato se crearon dos nuevos formatos basados en la cinta tipo DV estos fueron DVCPRO y DVCAM cada uno de Panasonic y Sony respectivamente, los cuales contenían el doble del ancho de banda del DV (50 Mbps) y un muestreo de relación 4:2:2. 2.5.3.-Cableado e interconexión de interfaces Para cualquier estudio de grabación sea profesional o amateur son necesarias las conexiones entre dispositivos para transferencia de información entre ellos, otro factor a tomar en cuenta es que casi todos los dispositivos deben estar a una distancia corta, para evitar atenuaciones, el cambio tecnológico también ha ido modificando lo estándares de interconexión, en la actualidad la mayoría de las conexiones de video llegan a un switcher o directamente a una computadora esto ha generado que se creen interfaces que ayuden a una mayor fluidez en cuestión de conectividad, a continuación se explicaran algunos tipos de conexiones útiles en video. Conexiones analógicas Las conexiones analógicas utilizan el cable de tipo coaxial con impedancia característica de 75 Ω y con conectores de tipo BNC. Algunos equipos utilizan conectores de tipo RCA. S-Video, Y/C S-Video es un tipo de conector que se utilizó con el formato S-VHS. Aquí la componente del croma esta modulada en una señal portadora o la cual la separa de la señal de luminancia. Utiliza un conector de cuatro pines y es utilizado aun en televisores, tarjetas capturadoras de video o incluso videocaseteras. IEEE 1394 Originalmente conocido como Firewire, es un estándar que adopto la IEEE debido a que puede soportar anchos de banda muy amplios desde los 100 Mbits/s hasta actualmente los 800 Mbits/s puede enlazar a 17 dispositivos diferentes y la señal no solo puede transportar audio y video sino también señales de control. Es muy práctico cuando por ejemplo se tiene una interconexión entre una cámara y una tarjeta capturadora de video o una estación de trabajo.

Capitulo 2

27

Figura 2.5.3. Conectores de video

2.6.- CARACTERÍSTICAS Y AJUSTES DE CALIBRACIÓN, MEDICIÓN Y COMPARACIÓN DE VIDEO

2.6.1.- Temperatura del Color

La Temperatura de color de una fuente de luz se define comparando su color dentro del espectro luminoso con el de la luz que emitiría un Cuerpo Negro calentado a una temperatura determinada. Por este motivo esta temperatura de color se expresa en grados kelvin, a pesar de no reflejar expresamente una medida de temperatura, por ser la misma solo una medida "relativa. Las temperaturas mas comunes para video son 3200 K y 9300K véase en la Fig. 2.6.

Cada muestra de color se codifica en señal Y-U-V (Y- luminancia, U y V crominancia) partiendo de los valores del sistema RGB. Con este sistema las diferencias de color pueden ser muestreadas sin resultados visibles, lo que permite que la misma información sea codificada con menos ancho de banda.

Capitulo 2

28

Fig. 2.6 Ejemplo de las temperaturas del color

2.6.2.- Balance de blancos

La temperatura de color de las cámaras profesionales se ajusta seleccionando el filtro correspondiente. El de 3200 grados kelvin es para luz profesional de interior.

El balance de blancos nos ayuda a ajustar la señal de crominancia, mientras que la selección de filtros la de luminancia.

Muchas cámaras ( tal como con la que se grabara) cuentan con una función de balance automático de blancos que procura determinar el color de la luz y corregirlo acorde al cálculo. Si bien este proceso solía ser poco fiable, ha mejorado sustancialmente con las cámaras digitales actuales, que permiten generar el correcto balance de blancos en diferentes situaciones de iluminación. El balance de blancos puede también ser corregido en post-producción de una manera similar a como se hace con las cámaras, sin embargo en algunos casos puede perderse la calidad de la imagen.

2.6.3.- Realización de un balance de blancos

Es relativamente fácil balancear a blanco (balance del color) una cámara profesional para producir un color exacto.

Con la cámara enfocada sobre una tarjeta totalmente blanca, el operador presiona el botón de balance de blanco y los canales de color de la cámara se ajustan automáticamente para producir blanco "puro". La cámara, en efecto, supone: "perfecto, si tu dices que esto es blanco balancearé mis circuitos electrónicos de modo que esto sea blanco."

Capitulo 2

29

Aunque el foco no es crítico, la tarjeta debe ocupar todo el encuadre con la fuente de luz dominante de la escena. Este proceso es lo que se conoce como balance de blanco de la cámara.

En condiciones de trabajo profesionales, cuando la fuente de luz dominante en una escena cambia, la cámara debe balancearse nuevamente (debe reprogramarse el balance de blanco). Si se pasa de la luz del sol a la sombra, la cámara necesitará un nuevo balance de blanco. Igual ocurre, si pasamos de interiores a exteriores, y cuando transcurren varias horas grabando bajo la luz del sol.

No hacer el balance de color de la cámara puede provocar cambios de colores (en tonos de piel en particular) entre una escena y otra. Esto será particularmente objetable durante la edición cuando intente unir dos escenas con tonalidades diferentes. (Por ejemplo, tonos de piel que cambian en cada corte de manera desagradable) véase en la Fig.2.6.3.

Fig. 2.6.3 Percepción de la temperatura del color

2.6.4.- Balance de negros

Las cámaras profesionales también tienen ajustes para el nivel de negro y balance de negro. Estos son usualmente configurados tapando el lente (para que no entre ninguna luz) o cerrando el iris completamente, y permitiendo a los circuitos automáticos balancear adecuadamente los tres colores para lograr el negro óptimo, mientras, a la vez, se establece el nivel de video para el negro.

Capitulo 2

30

2.6.5.- Color adecuado vs. Color Verdadero

Podemos asumir que los televidentes quieren ver colores reproducidos de la manera más precisa y fiel posible. Algunos estudios han demostrado, sin embargo, que las preferencias de color se inclinan hacia la exageración. Los espectadores prefieren ver tonos de piel más saludables de lo que ellos realmente son, así como también el pasto más verde, y el cielo más azul. Desde el punto de vista del vectorscopio, esta preferencia no significa que los matices son imprecisos, sino que son "más fuertes" y más saturados.

2.6.6.- Vectorscopio

El Vectorscopio, instrumento de medida utilizado en televisión para ver y medir la componente de color de la señal de vídeo el monitor vectorscopio es en realidad un osciloscopio especializado en la representación de la parte de crominancia de la señal de vídeo.

La crominancia, o señal de color, es la parte de la señal de vídeo en la que se codifica la información de color. Esta información tiene dos parámetros, uno es la cantidad de color, o saturación y otro es el tipo del color, o tinte (hue en inglés). Tanto en el sistema PAL o NTSC estos dos parámetros se codifican sobre una misma señal mediante una modulación en cuadratura. Esta señal recibe el nombre de portadora de color y se modula en amplitud con la información de la saturación y en fase con la información del tinte. El resultado es un vector que tiene por módulo la saturación y por argumento el tinte (es decir el tip de color, rojo, amarillo...) Para su representación se utiliza el vectorscopio, que viene a ser y osciloscopio trabajando en representación X - Y (es decir sin base de tiempos) al que se le aplica en su canal vertical y en el horizontal las señales de diferencia de color. El resultado es una serie de vectores que tienen como origen el centro de la pantalla y en donde su módulo coincide con la saturación y el argumento con el tinte de la señal aplicada. La carátula de este instrumento viene marcada normalmente con unas casillas para la ubicación de los vectores correspondientes a la señal de barras de color. Estas casillas son de dos tamaños diferentes correspondiendo, el más pequeño, a una tolerancia del 5% y el mayor a una del 10%. También está representado el sincronismo de color para los dos estándares de barras más comunes, del 75% y del 100%.

El vectorscopio suele tener canales de entrada y una serie de funciones para la sincronización de la croma, bien con sigo misma o con una señal de referencia es normal que el instrumento incluya una serie de funciones y características que sirven para realizar una serie de medidas estándar sobre la señal de vídeo como la ganancia diferencial y la fase diferencial. Su base de tiempos está diseñada para adaptarse a los tiempos típicos de esa señal y ver las partes de interés de la misma de una forma fácil y sencilla véase la Fig. 2.6.6.

Capitulo 2

31

Fig. 2.6.6. Imagen de un vectorscopio

2.6.7.- Monitor forma de onda (MFO)

Es un instrumento de medida utilizado en televisión para ver y medir la señal de vídeo. El monitor forma de onda o MFO es en realidad un osciloscopio especializado en la señal de televisión. Su base de tiempos está diseñada para adaptarse a los tiempos típicos de esa señal y ver las partes de interés de la misma de una forma fácil y sencilla.

La base de tiempos proporciona diferentes tiempos para los barridos del haz en la pantalla. Se divide en 2 partes fundamentales, los correspondientes a la representación de las líneas, mostrando una o dos líneas por cada barrido del haz, y la representación de campos, donde también se pueden mostrar uno o dos campos por cada barrido del haz. A estas partes fundamentales de la base de tiempos se unen ciertas posibilidades destinadas a la realización de algunas medidas concretas o a facilitar la visualización de alguna zona concreta de la señal. Así pues, se puede ampliar el barrido magnificando la señal representada y facilitando la observación y medida de alguna de sus partes, como puede ser el sincronismo.

Normalmente existe la posibilidad de poder seleccionar línea a línea e incluso una línea en concreto. Esta posibilidad de selección se completa con una salida de monitoreado, normalmente llamada "pix monitor" donde se ve resaltada, sobre un monitor de TV, la línea que se representa en la pantalla del instrumento. Se suele poder seleccionar de esta misma forma un grupo de 15 líneas. Algunos aparatos incorporan cursores y posibilidad de comparación por sectores de la onda representada véase la Fig., 2.6.7.

La sección vertical del aparato consta únicamente de un amplificador vertical al cual se le conmutan dos entradas de vídeo, opcionalmente una tercera de alta impedancia, las cuales pueden ser acopladas en continua o en alterna. El control de la amplitud está diseñado de tal forma que en su posición normal la señal de vídeo ocupa cómodamente la pantalla con unas barras de color (recordamos que la señal de vídeo tiene una amplitud de un voltio pico a pico, correspondiendo de 0V a 0,7V la amplitud

Capitulo 2

32

propia de la señal de imagen y de 0V a -0,3V a la amplitud del sincronismo), Tiene varias posiciones de una determinada ganancia así como un control lineal de la misma, que facilita la realización de las diferentes medidas estándar que se suelen realizar.

Una batería de filtros pasa bajos y pasa banda nos permiten ver las diferentes señales que componen la señal de vídeo, en particular la luminancia y la crominancia así como la realización de alguna medida concreta. Se complementa con un sistema de restauración de la componente de continua que pueda portar la señal.

Figura Monitor forma de onda

2.7.- ERRORES FRECUENTES EN LAS SEÑALES DE AUDIO Y VIDEO

Para entender mejor el comportamiento de las señales de audio y video se pretenden enunciar los errores mas comunes dentro de codificación y compresión de archivos ya que es muy importante para obtener buenos resultados y evitar a toda costa perdida de tiempo, dinero y esfuerzo.

2.7.1.- Errores frecuentes en el audio digital

ALIASING

En todo sonido complejo, como el que produce un instrumento de cuerda, las frecuencias que se generan pueden ir más allá de los 20.000 Hz en forma de armónicos que, aunque no son audibles para el oído humano, están presentes.

Cuando se digitaliza un sonido que contiene frecuencias superiores a las que puede codificar, según Nyquist, se produce el fenómeno del aliasing, que convierte esas frecuencias no cuantizables en otras que sí lo son, pero que no están presentes en el sonido original, lo que introduce unos artefactos indeseables. La imagen más clara para entender el aliasing es recordar lo que ocurre cuando vemos la rueda de un carro en un película del oeste; aunque el carro va hacia delante vemos la rueda girar en sentido inverso. No hay concordancia entre el periodo de rotación de la rueda y la frecuencia de "muestreo" del cine (24 imágenes por segundo). Para evitar

Capitulo 2

33

este problema hay que añadir un filtro paso-bajo que corte por encima de la frecuencia que se corresponda con la mitad de la frecuencia de muestreo. Este filtro es conocido como filtro anti-aliasing. Como un filtro paso-bajo teórico con una pendiente infinita no existe y, además, generan problemas de desplazamiento de fase en las frecuencias cercanas al corte (igualmente indeseables), se estandarizó que la frecuencia de muestreo fuese de 44.100 hz. para poder usar unos filtros con una pendiente menos acusada desde los 22.050 hz. véase en la Fig. 2.7.1.

Fig. 2.7.1 Efecto del aliasing

2.7.2.- Errores de Cuantización

Otro problema con el que nos encontramos, inherente al sistema de digitalización, es que, cuando la amplitud de una muestra no se ajusta a un valor múltiplo de 6 dB, el bit que ocupa se resuelve por proximidad, con lo se introducen constantes redondeos que añaden distorsión. Ésta es especialmente audible (y, por ende, desagradable) en pasajes con muy baja amplitud (cola de reverberaciones, pasajes muy suaves de un instrumento,etc). No sólo la digitalización añade estos errores de cuantización. Con la señal ya digitalizada realizamos todo tipo de operaciones, mezclamos pistas, aplicamos plug-ins, cambiamos la ganancia, etc. Todos estos procesos se realizan con operaciones matemáticas que hacen que las muestras individuales se redondeen hasta el bit más cercano, añadiendo la consecuente distorsión. La solución, paradójicamente, es la de añadir un cierto tipo de ruido digital, a muy bajos niveles, para que sea éste el que se elimine fundamentalmente en el proceso de redondeo. Este proceso se conoce como dithering y añade el mínimo nivel de ruido digital necesario para minimizar los problemas por redondeo. Se pueden mejorar los resultados de los algoritmos del

Capitulo 2

34

dithering con técnicas de noise shaping, es decir, añadiendo el ruido en aquellas zonas para las que el oído humano es menos sensible, haciendo que el ruido añadido sea prácticamente inaudible. Aunque es importante resaltar que, en teoría, deberíamos aplicar dithering en todos los procesos sujetos a errores de cuantización, en la práctica el ruido que se obtiene en la cadena de grabación es suficientemente adecuado como para usarlo. Por otra parte, los programas que hay en el mercado suelen aplicarlo cada vez que se realiza un proceso con la señal (normalizaciones, plug-ins ) véase la fig. 2.7.2.

Es especialmente aconsejable no usar la normalización salvo al final, cuando hayamos procesado completamente el material, ya que hay que tener en cuenta que, cada vez que lo hacemos, elevamos tanto el nivel de la señal como el del ruido y, además, añadimos nuevo ruido con el dithering aplicado. Es realmente un error del que debemos huir. Un proceso en el que aplicar dithering es extremadamente recomendado es cuando reducimos la resolución de un material, por ejemplo de 24 bit a 16 bit. Como consejo, siempre que se pueda, se recomienda trabajar a 24 bit, desde la grabación hasta justo la obtención del fichero masterizado. El incremento que se tiene del margen dinámico permite que los ruidos introducidos por los errores de cuantización sean realmente despreciables. Sólo habría que aplicar dithering al pasar el archivo master a 16 bit para ir a CD.

Fig. 2.7.2. Errores de cuantización

Capitulo 2

35

2.7.3.- JITTER

La toma de muestras se realiza según la frecuencia de muestreo, fn muestras por segundo. Eso significa que, teóricamente, la separación temporal entre muestras debería ser de 1/fn segundos. Esto, en la práctica, no siempre es así, introduciendo un tercer tipo de distorsión: la dependiente de los errores de wordclock, conocida como jitter. El wordclock es una señal de reloj que viaja junto con la señal de audio digital (aunque también puede viajar de forma independiente) y que marca la pauta de cuándo deben procesarse las muestras, tanto en grabación como en reproducción. Cuando las muestras sufren pequeños retrasos o adelantos, respecto al momento en que deberían ser procesadas, generan una modificación de las frecuencias que codifican, produciéndose unas fluctuaciones o modulaciones, análogas en cierta manera, a las que se producen en una cinta cuando la velocidad de giro de la misma no es constante. Es un efecto muy sutil, difícil de describir, pero que se manifiesta en una pérdida de definición y una imagen estéreo más pobre. Un sistema digital con un buen equipo externo de reloj, que suministre wordclock y sincronice todos los equipos, es la mejor garantía para evitar este problema, especialmente en el momento de la conversión A/D. Con posterioridad, se pueden "recolocar" las muestras, pero ya no representarán la realidad muestreada y el indeseable efecto lo arrastraremos en toda la cadena véase la fig. 2.7.3.

Fig. 2.7.3 Efectos del Jitter

2.7.4.- Errores en el video digital

Para comprender mas sobre las consideraciones a tomar en cuenta se observan también los posibles errores que se pudieran tener en el video.

Capitulo 2

36

2.7.5.- Congelamiento o Freezing

Este es un efecto que se da sobre todo al no tener un buen procesamiento de datos por parte de cualquier computadora se observa que si nosotros tenemos una baja cantidad de memoria, un procesador lento y una tarjeta de video de no muchos MB se esta propenso a tener este tipo de errores sobre todo con videos de alta calidad y esto es debido a la cantidad de datos tan grande que reciben los dispositivos de la computadora y si no se esta preparado con suficiente memoria, procesador y tarjeta de video suelen ocurrir con frecuencia. Este error también se da para streaming al momento de no tener un buen ancho de banda, ya que los datos tienden a distorsionarse o a llegar con errores la mayoría del tiempo véase en la Fig. 2.7.5.

Fig. 2.7.5 Error de congelamiento

2.7.6. Pixeleado o Blurring

Este error se da por una codificación defectuosa y lo que sucede es que se mete ruido digital en nuestro video lo cual no nos permite una visualización correcta de la imagen generando problemas al reproducirse véase la Fig. 2.7.6. Puede solucionarse con filtros anti blurring, aunque por lo general un archivo mal codificado tendría que volver a codificarse

.

Fig. 2.6.7. Error de blurring

Capitulo 2

37

2.7.7. Efecto Moire

El efecto Moirè, es una sensación visual que se genera en la interferencia de dos rejillas de líneas a partir de determinado ángulo, o cuando éstas tienen un tamaño distinto véase la Fig. 2.7.7.

El origen de esta expresión es de un tejido llamado así, que es un tipo de seda que se caracteriza por tener este aspecto ondulado. El error se da debido a que los sensores por lo general de la cámara no tienen el suficiente detalle o resolución para interpretar una imagen, por ello en televisión se evitan usar ropas con rayas o lugares con demasiadas franjas.

Fig. 2.7.7 Efecto Moire

2.7.8. El video no se visualiza pero el audio se escucha

Este error es debido a que nuestra computadora no dispone del códec adecuado para reproducir un archivo de video de determinada índole, por eso se debe tener una lista de códecs o tener noción de que formato de video se esta reproduciendo, para descargar el códec adecuado para visualizarlo véase la Fig. 2.7.8.

Fig. 2.7.8. Video que no se visualiza

Capitulo 2

38

Debido a que existe una amplia gama de errores en el video digital, solo se han dado los mas resaltantes o los que mas problemas le generan a las personas.

2.8.- PRODUCCIÓN Y POST-PRODUCCIÓN Un aspecto importante es que para comenzar a hacer una grabación de manera al menos semi profesional se deben de tener en cuenta ciertos factores para que esta sea de una calidad aceptable, ya que se necesita un video de alta calidad para después degradarlo en los diferentes formatos para video y audio streaming. 2.8.1.- Un buen guión y la conectividad en una producción Cualquier buena producción que involucre audio y video, debe tener un buen guión o al menos debe haber una descripción general de la interpretación que se debe dar a realizar. El guión es el primer documento a tomar siempre en cuenta para lograr una producción de calidad. Otra cuestión es hacer un análisis de costos de lo que es en si la producción con lo cual se pueden prescindir de ciertas cosas o agregar mas equipo. La conectividad es muy importante ya que si se desea transmitir por Internet debemos de evitar que la conexión se interrumpa continuamente por lo cual debemos contar con un ancho de banda de al menos conectividad DSL, ya que si tenemos una conexión de línea telefónica no se obtendrán buenos resultados y otra cuestión a tomar en cuenta es que por lo general las conexiones mas populares son de tipo asíncronas, lo cual hace diferencia entre las velocidades de conexión de subida y de bajada, por lo general las velocidades de subida son mayores por ejemplo una conexión de 1.5Mbps/768Kbps, para nuestro interés la velocidad de bajada que es menor debe tener un ancho de banda suficiente y realizar las pruebas pertinentes ya que la velocidad teórica no siempre respeta el ancho de banda que tenemos para transmitir o subir un archivo. Para motivos prácticos es necesario establecer conexiones entre dispositivos de tipo físicas, ya que la tecnología inalámbrica aun no es tan confiable y se pueden generar perdidas debidas a transmisión y recepción de archivos lo que podría provocar errores para nuestra señal.

Figura Evitar utilizar conexiones inalámbricas

Capitulo 2

39

2.8.2.- Consideraciones para audio Algunas consideraciones simples para la grabación de audio para un proyecto que incluye video son que en la mayoría de los casos se graba voz, a tener en cuenta se debe tener el dialogo de los participantes en el video bien estudiado para evitar errores de toma, para el operador de audio se debe tener un conocimiento pleno del medidor VU para evitar problemas de saturación. Un paso determinante a tomar en cuenta es revisar al 100 % las conexiones para evitar fallos como falsos contactos, ruido generado por una mala conexión o una falta total de la señal de sonido. Al grabar la voz idealmente necesitamos que este en un pedestal el micrófono o es asi como se pretende grabar, debido a esto debemos tomar en cuenta ciertos factores que serán enunciados a continuación. 2.8.3.- Conociendo el medidor de volumen El concepto mas importante a entender es el nivel de volumen, esto es una medición la cual pretende darnos una idea del nivel de sonoridad que estamos percibiendo, por regla y para calibración se utiliza una señal de 0 VU o +4dBm o 1.22 V, con una frecuencia de 1 Khz. El medidor nos refleja una escala que mide el nivel de volumen de la señal y puede ser encontrado en manera analógica cuando la métrica es dada con el movimiento de una aguja que tiene un offset o retardo de 300 ms otra manera de reflejar estos datos es con barras de leds de manera digital como conclusión los dos reflejarían el mismo resultado.

Figura Imagen de un vúmetro analógico y uno digital

Capitulo 2

40

La idea de tener un medidor de sonoridad es evitar la saturación de la señal de audio que genera un nivel de sonoridad desagradable al oído , otra forma de verlo es la de aprovechar el máximo rango dinámico disponible. 2.8.4.- Medidas a prevenir sobre el rango dinámico Un problema real es el rango dinámico que se maneja, debido a que un factor importante es el sujeto que será grabado, el cual puede provocar que el audio sobrepase el nivel establecido de 0 VU debido al alto nivel sonoro, lo que generara una saturación que a su vez se torna en algo molesto para el oído al reproducir lo grabado. Una solución a esto podría ser utilizar un compresor para evitar cambios súbitos en el nivel de sonoridad, otra propuesta es alejar un poco mas el micrófono de la fuente o evitar ponerlo de frente al orador.

A la izquierda observamos una señal con audio saturado mayor a 0 VU, del lado derecho una señal que entra dentro del rango dinámico utilizado. 2.8.5.- Sibilancia La sibilancia es un efecto que se da sobre todo cuando se graba a altos niveles, algunos micrófonos al grabar contienen picos de altas frecuencias en exceso lo cual afecta al sonido gravemente dándole otro tipo de coloración.

Capitulo 2

41

El problema puede ser solucionado al ecualizar para filtrar las frecuencias mayores a 7 Khz. 2.8.6.- Popeo Este efecto ocurre cuando un micrófono es colocado a una distancia muy corta de la fuente, se incrementa este tipo de fenómeno cuando los micrófonos tienen una baja sensitividad a las bajas frecuencias. Los sonidos mas característicos son sobre todo explosivos o vocales tales como (p,t,k,b,d y g) los cuales crean un sonido de “pop” con una gran cantidad de aire frente al diafragma del micrófono generándonos problemas totalmente perceptuales por cualquier escucha en la señal de audio. Existen tres maneras de atacar este problema la primera es colocar un cubre vientos sobre la rejilla del micrófono, lo cual es un filtro que evitara estos molestos sonidos y además permitirá evitar por ejemplo en un ambiente abierto filtrar algún flujo de aire no deseado, el segundo método es cambiar el tipo de micrófono de uno direccional a Omnidireccional, así se evitaran mas los efectos de sonidos de la índole descrita anteriormente y como ultimo método se colocara el micrófono a un lado del locutor.

Filtro anti-pop

2.8.7.- Efecto de proximidad El efecto de proximidad es algo muy importante y es conocido que a una distancia muy corta de un locutor es mas factible que la grabación contenga un mayor contenido en bajas frecuencias, esto puede ser provechoso o desfavorable dependiendo lo que se quiera lograr grabar, si se usa un micrófono direccional aparecerá este efecto con mayor frecuencia, si se pretende una claridad en la voz se debe alejar al menos al locutor un metro del micrófono, si lo que se busca es un poco mas de “punch “ estará bien acercarse un poco mas para tener una cantidad de armónicos mas abundante.

Capitulo 2

42

2.8.8.- Consideraciones para video Además de tener un script con diálogos es importante también tener un storyboard que es algo así como un bosquejo de lo que se hará en la escena y las tomas que se presentaran, este tipo de ayudas perfeccionan la grabación y se evitan perdidas de tiempo, quedando escenas de mejor calidad y mas realistas. A continuación se mencionaran algunas consideraciones previas antes de realizar una grabación de audio y video. 2.8.9.- La luz es critica La luz lo es prácticamente todo en la grabación de video, las cámaras a pesar de las nuevas tecnologías y los sensores captadores de luz, estos no son tan sensibles como se piensa, por eso es importante ayudar con luz extra a una escena, con lo cual la cámara capturara con mayor detalle el ambiente presentado. Para entender un poco mas la manera en que la luz nos ayuda a se enuncian tres tipos de luz a tomar en cuenta para una correcta grabación. 1. Luz principal.- Este tipo de luz es la que principalmente apunta a la cámara y permite definir contornos y evitar sombras.

2. Luz de relleno.- La luz de relleno es mas tenue que la luz principal y nos ayuda a evitar sombras que quizás sean causadas por la luz principal. 3. Luz de fondo.- Esta es la luz que se emite detrás del sujeto y da un aspecto mas tridimensional a la ambientación.

Una configuración de grabación a tres luces.

Capitulo 2

43

2.8.10.- Recomendaciones finales antes de comenzar a grabar Aquí se enuncian algunos consejos de que hacer y que no hacer durante una grabación que va orientada hacia un publico de Internet. Lo que se puede hacer:

o Acercamientos. o Uno o dos disparos de la cámara. o Patrones simples de ropa. o Fondos estáticos. o Movimientos lentos de cámara. o Elementos de texto o gráficos con baja resolución.

Lo que no se debe hacer: o Muchos disparos de la cámara. o Movimientos muy rápidos. o Evitar usar la luz del sol ante todo. o Gráficos y texto complejos o con alta resolución. o Cambios de escena muy rápidos. o Fondos que cambien constantemente.

2.9.- GRABACIONES DE PRUEBA Se establecieron algunas grabaciones de prueba de audio y video, para comprobar la teoría aprendida y para fines del desarrollo del proyecto, estas fueron capturadas desde la cámara por parte del video, enrutadas hacia la consola de la cual se enruta hacia la computadora, la parte del audio se enruto de una caja de parcheo a la consola y de ahí hacia la computadora. Debido a que un análisis formal de la señal de audio y video no es posible realizarlo sin los instrumentos mencionados en las secciones anteriores como el forma de onda o vectorscopio ya que se carece de ellos, se utilizo el software Adobe Premiere Pro que cuenta con un software que realiza dicha tarea, emulando un forma de onda y un vectorscopio el archivo “fuente” tiene la característica de ser un archivo de calidad optima en formato .avi. 2.9.1.- Calibración del video y audio Para la calibración del video se desplegaron las barras SMPTE la cual es una señal de vídeo que se utiliza en la producción de televisión para la comprobación del estado de los sistemas de producción, que generan, tratan y transmiten la señal de televisión.

Capitulo 2

44

Las barras SMPTE (Society of Motion Picture and Television Engineers asociación de ingenieros de imagen en movimiento y televisión) que referencia su carta de barras como Engineering Guideline EG 1-1990. En esta mira o carta de barras, las barras de color ocupan dos tercios de la imagen de televisión. Son barras al 75% de amplitud tanto en croma como en luminancia, de tal forma que la barra blanca es, en este caso, gris. Estas barras carecen de la barra negra. Debajo de las barras propiamente dichas hay una pequeña porción de barras con los colores, azul, magenta, cian y blanco alternados en donde el color cian esta bajo el magenta y el magenta bajo el cian para facilitar el ajuste de tinte (hue) exclusivo del NTSC. El área inferior esta ocupada por las barras (o pulsos) de PLUGE (picture lineup generating equipament, equipo de generación de señal de ajuste de imagen) para ajustar el brillo y contraste de los monitores de TV. Es un cuadrado saturado al 100% blanco y un rectángulo negro, saturado al 7,5%. Las últimas versiones de estas barras contienen un rectángulo negro (0% de nivel de vídeo) situado debajo de la barra roja. Muchas veces se acompaña a la señal de barras de color una señal de un tono de audio de 1Khz que sirve para testear los canales de audio.

Como mencionamos, es importante mantener niveles óptimos en toda la producción. Esto es un procedimiento por el cual se ajustan los niveles constantemente para optimizarlos. Las fuentes normales de audio deben alcanzar un máximo de 0 VU medidos de la intensidad del sonido cuando el atenuador vertical o el potenciómetro está de un tercio a dos tercios del recorrido hacia arriba (abierto). Si se tiene que llevar al atenuador totalmente hacia arriba para llevar el sonido a 0dB, indica que la fuente original de audio está entrando en la consola a un nivel muy bajo. En este caso la probabilidad de ruido de fondo en la fuente de audio aumenta.

Barras SMPTE y un tono de 1 Khz. a 0 VU

Las señales de barras se obtienen de las cámaras utilizadas seleccionando el switch de “Bars” y la señal de tono se obtiene de la consola de audio la cual en la opción “osc” nos permite calibrar a 0 VU con una frecuencia de 1 Khz.

Capitulo 2

45

Al grabar la prueba utilizamos el software de Pinnacle Edition 8 para realizar la captura de audio y video, la prueba consistió en mandar barras y tono para calibración, inmediatamente después de eso se abre una toma en la cual el dialogo de la escena es “Esta es una prueba para la estación de televisión de ESIME Zacatenco, para la tesis de audio y video streaming”. Se obtuvo un archivo llamado Prueba Video.avi con duración de 25 segundos y un peso total de 23.7 Mbytes, este será el archivo fuente al que le haremos una degradación y compresión en los diferentes formatos utilizados para streaming por lo cuál obtendremos una conclusión de cuál formato tanto de audio y video será el mejor para darle continuidad a la grabaciones correspondientes .

Captura del archivo Prueba Video.avi

Para comprobar la veracidad del análisis se realizo la prueba con el vectorscopio y el forma de onda del software Adobe Premiere Pro, para el audio se utilizo adobe audition para comprobar el tono de 1KHz.en donde con los instrumentos como el vectorscopio y forma de onda analizaremos los parámetros correspondientes de la crominancia y luminancia.

Capitulo 2

46

Archivo Prueba Video.avi en el vectorscopio

El resultado del vectorscopio nos muestra que la señal de crominancia esta calibrada y en fase.

Archivo Prueba Video.avi en el monitor forma de onda

Capitulo 2

47

El monitor forma de onda nos muestra un archivo que esta por debajo de los 100 IRE , donde tendríamos que observar al color blanco, sin embargo la imagen no esta tan desvalorada en luminancia ya que esta alrededor de 90 IRE el color blanco lo cual nos habla de una señal con 10 IRE menos, quizás esto si afecte en la percepción del video aunque no se afecta mucho, si la señal estuviera alrededor de los 50 IRE el cambio si seria muy notorio.

Por ultimo el análisis de audio la imagen como tal, así que podemos decir que este video si cumple con los parámetros de calibración establecidos para video de calidad. 2.10.- REPRODUCTORES ESPECIFICOS DE AUDIO Y VIDEO STREAMING Es cierto y es bien conocido que algunas de las mayores empresas de software de desarrollo tienen dedicada su sección para la transmisión vía Internet de audio y video, la finalidad del proyecto eventualmente nos llevaría a hablar de esto y es por eso que se enumeran las siguientes arquitecturas para la transmisión del video. Al tener acceso a la nueva tecnología es oportuno tener las versiones de software mas actuales, no por gula informática como suele ser común encontrar en el ámbito de Internet, sino por que para audio y video, el tener un reproductor no actualizado, posiblemente no nos permita reproducir archivos de alta calidad o se generarían algunos errores en la reproducción de nuestro archivo. Debido a que para acceder a las versiones completas de las arquitecturas de streaming se necesita pagar una licencia se utilizaran versiones de prueba o gratuitas.

Capitulo 2

48

2.10.1.- Real networks RealPlayer es un reproductor de multimedia, creado por RealNetworks, que reproduce varios formatos multimedia, incluyendo las generaciones múltiples de los códecs de RealAudio y de RealVideo así como MP3, MPEG-4, QuickTime, etc. Es el reproductor más antiguo que aún se utiliza. La primera versión de RealPlayer fue lanzada en abril de 1995 como RealAudio Player, uno de los primeros reproductores de medios con capacidad de streaming por Internet. La versión 6 de RealPlayer fue llamada RealPlayer G2; la versión 9 fue llamada RealOne Player. Se han proporcionado las versiones 'básicas' gratuitas así como versiones 'Plus' de pago, con características adicionales como un ecualizador gráficos con más bandas. En Windows, la versión 9 incluyó las características del programa RealJukebox. La versión actual para Windows es RealPlayer 11.0.2 Las versiones independientes con muchas menos funciones están disponibles para Mac OS X, Linux, Unix, Palm OS y Symbian OS. El programa tiene un programa de código abierto equivalente, llamado Helix Player.

Figura Tecnologías Real Networks

La pagina donde puede ser encontrado el reproductor es la siguiente:

http://mexico.real.com/realplayer/

Capitulo 2

49

Pasos a seguir para la descarga Se descarga el Real Player SP en el link de descarga gratuita .

Al descargarse se abrirá una pantalla y se dará guardar archivo

Capitulo 2

50

Al completarse la descarga se procede a instalarlo con lo cual se debe leer los términos y dar click en aceptar.

Seleccionamos las opciones que deseamos en esta pantalla y damos click en siguiente.

Ya instalado esta es la vista final del reproductor.

Capitulo 2

51

Para el codificador se instalara de igual manera que el programa anterior. Como siguiente paso después de descargar solo nos queda la instalación de este.

Al finalizar nos encontramos con una interfaz de este tipo.

Capitulo 2

52

2.11.- CODIFICACION DE AUDIO EN REAL PRODUCER Los pasos a seguir para la codificación son los siguientes:

1. Abrir Real Producer y confirmar que la opción Archivo de entrada (Input File)

esta seleccionada.

2. En la opción Examinar (Browse) seleccionar el archivo a codificar.

3. Seleccionar el archivo.

4. Dar click en el botón Audiencia (Audiences).

5. En el área de Parámetros de Codificación (Encoding Settings) seleccionar los

parámetros adecuados, además seleccionar el formato de audio con el que se

pretende ser transmitido al publico.

Capitulo 2

53

Figura Seleccionando el Tipo de audio

6. Seleccionar el modo de No video si se pretende codificar solo audio, si se tiene

un video es pertinente seleccionar el audio que le de la perspectiva adecuada a

nuestro video.

7. En el cuadro de audiencias, nótese que se pueden elegir diferentes bit rates, los

cuales dependiendo del ancho de banda del canal que tengamos para transmitir

y el ancho de banda del usuario final, con lo cual se hará el análisis de audio. En

la tabla de lado derecho se pueden agregar los tipos de audiencias a los que se

transmitirá o borrarlos si incluso no nos gustan.

Escogiendo los tipos de audio mas comunes para transmisión por Internet.

Capitulo 2

54

2.12.- WINDOWS MEDIA PLAYER Y ENCODER

Windows Media Encoder es un programa dentro de la arquitectura Windows que nos permite fácilmente realizar una transmisión de audio y video streaming este codificador en su versión mas actual es conocido como Expression Encoder, como breviario cultural este códec fue una respuesta a lo que Real Networks saco al mercado como codificador, esto fue en el año de 1996 y desde entonces Microsoft y Real Networks han sido competidores en este ámbito. El Administrador de Windows Media se instala con los componentes del Servidor de Windows Media. El mismo es un conjunto de páginas Web que se ejecutan en la ventana del explorador y que administra los servicios componentes de Windows Media. Mediante el mismo, es posible controlar el servidor local o conectar con y controlar uno o más servidores remotos de Windows Media. Para ello hay que agregar los mismos a la lista de servidores y después conectarlos con el que se desea administrar.

El Administrador de Windows Media se ejecuta en el sistema operativo Microsoft Windows 2000 Advanced Server, Microsoft Windows 2000 Professional, Microsoft Windows 98 o Microsoft Windows NT versión 4 con Service Pack 4 (SP4) o posterior, también es posible ejecutarlo en Microsoft Windows 95, aunque no se proporciona soporte técnico para esta plataforma.

Es una herramienta avanzada y esencial para edición de video en la Web y para la reproducción en Microsoft Silverlight de escenarios. Silverlight permite la creación Web, y proporciona un ligero soporte de gráficos vectorial, adicionalmente animación 2D, además Silverlight es multiplataforma cross-browser, que trabaja en Windows Vista, Windows XP y Macintosh OS X 10.4.8, incluyendo adicionalmente Microsoft Internet Explorer, Mozilla Firefox, y Apple Safari. Utiliza la tecnología .wmv (Windows Media Video) para embeber audio y video en un solo archivo el formato WMV se empaqueta normalmente en algún contenedor multimedia, como pueden ser AVI o ASF. Los ficheros resultantes reciben la extensión .avi si el contenedor es de este tipo, .wmv si es un fichero de sólo video (.wma sería el equivalente para sonido) o .asf si se trata de un contenedor ASF, con contenido de audio y vídeo. El formato WMV incluye ciertas características relativas a la utilización de Gestión de Derechos Digitales (DRM). Sin embargo, estas características pueden eliminarse con utilidades como Sidda, DRMCreep, drmdbg o drm2wmv. La versión 9 del formato utilizado por Microsoft fue remitida a la Society Motion Picture and Televisión Engineers (SMPTE) para su aprobación como estándar, bajo el nombre en clave VC-1. Este códec es también utilizado en la distribución de vídeo de alta definición sobre DVD estándar en un formato que Microsoft ha denominado WMV HD, el cual puede ser reproducido tanto en ordenadores como en reproductores de sobremesa.

Capitulo 2

55

Para instalar el Windows Media Encoder se necesita seguir los siguientes pasos:

1. Se necesita abrir el navegador de Internet e ir a la siguiente dirección.

2. Se comienza la descarga.

3. Después de finalizada la descarga se comienza la instalación.

4. Se deben aceptar los términos de licencia.

Capitulo 2

56

5. Se selecciona la opción instalar.

6. Finalmente cuando la instalación este completa se da click en finalizar.

Capitulo 2

57

Codificando archivos de audio y video con Expression Encoder 3 Ahora que se ha descargado e instalado este codificador, podemos trabajar con los archivos fuente y para esto lo haremos paso a paso.

1. Iniciamos Expression Encoder 3 en Inicio -> Programas -> Expression Encoder 3

2. Ahora seleccionamos en el menú archivo un nuevo trabajo

3. En el botón importar agregamos el archivo fuente que queremos codificar.

4. Para codificarla cual lleva una pestaña del mismo nombre seleccionamos el

formato de salida de video y audio que necesitemos para la calidad a la que

necesitamos transmitir además del formato de salida como lo es el .wma o el

tipo .mp4 en este mismo menú se selecciona el formato de video ya sea VC-1

avanzado, principal o simple y en las opciones de audio se pueden elegir

codificar audio para aplicaciones profesionales, de voz o sin perdidas.

Capitulo 2

58

5. En la pestaña de video se observan diferentes opciones para codificar tales

como el modo de transmisión ya sea para codificación con un bitrate variable o

constante, selección de la velocidad de fotogramas, la velocidad de transmisión ,

cambiar la relación de aspecto de la pantalla, por resaltar las cualidades de esta

pestaña.

6. Para la codificación de audio es mucho mas sencillo ya que aquí escogemos el

modo, la velocidad de bits, cuantos canales se transmitirán, la velocidad de

muestreo y los bits por muestra, esto nos permite definir la calidad de audio a la

que se transmitirá.

Capitulo 2

59

7. Por ultimo se observa que tanto audio como video se pueden codificar en un

mismo archivo del tipo .wma o por separado con lo cual se pretende lograr .

El reproductor clásico para este tipo de aplicaciones con terminación .wma es el Windows Media Player ya incluido en las distribuciones de Windows a partir de Windows 98, por lo cual se omitió el paso de la descarga pero si se desea alguna actualización la dirección es la siguiente: http://www.microsoft.com/windows/windowsmedia/es/mp10/

Figura Windows Media Player

2.13.- ARQUITECTURA QUICK TIME La arquitectura Quick Time de la cual es propietaria la compañía Apple con su QuickTime 7 Pro permite exportar fácilmente cualquier archivo compatible con QuickTime Player a un formato optimizado para iPod, Apple TV y una amplia gama de otros reproductores. Una de las ventajas que tiene es que utiliza uno de los códecs de alta calidad el cual es el H.264 , esta es la única compañía que mezcla su reproductor y su codificador todo en un solo programa su formato es el (.mov). La instalación del Quick Time Pro 7 se desarrolla como sigue: 1. Se descarga el contenido de http://www.apple.com/quicktime/player/

2. Después de descargado se procede a su instalación dando doble click sobre el

instalador.

Capitulo 2

60

3. En la pantalla después de leer los avisos del fabricante se da click en siguiente.

Capitulo 2

61

4. Se aceptan las condiciones del fabricante.

5. Por ultimo se elige la carpeta donde será instalado y se da en el botón instalar.

Capitulo 2

62

6. Al finalizar la instalación se da click en la opción finalizar con lo cual tendremos

al reproductor y al codificador en nuestra computadora.

7. Al ejecutar el reproductor observamos que tiene la mayoría de las cualidades que los demás reproductores. 2.14.- FLASH Adobe Flash es uno de los formatos actualmente mas populares en audio y video embebidos para una pagina web y ofreciendo servicios de video bajo demanda.

Capitulo 2

63

Flash comenzó teniendo pocos adeptos y siendo una tecnología emergente que pocas veces se utilizaba para la transmisión de multimedios, debido al gran salto de la tecnología, ahora flash también aporta una arquitectura para embeber ( insertar) video y audio en una pagina de internet y con un ancho de banda relativamente reducido usando Adobe Flash Player (anteriormente conocido como Macromedia Flash Player), desde la versión 6 a la 10. Los contenidos FLV pueden ser incrustados dentro de archivos SWF. Entre los sitios más notables que utilizan el formato FLV se encuentran YouTube, Google Video, Reuters.com, Yahoo! Video y MySpace.

La ventaja de Flash Video es puede ser visto en la mayoría de los sistemas operativos, mediante Adobe Flash Player, el plugin extensamente disponible para navegadores web, o de otros programas de terceros como MPlayer, VLC media player, o cualquier reproductor que use filtros DirectShow (tales como Media Player Classic, Windows Media Player, y Windows Media Center) cuando el filtro fdshow está instalado.

Los archivos FLV contienen bit streams de video que son una variante del estándar H.263, bajo el nombre de Sorenson Spark. Flash Player 8 y las nuevas versiones soportan la reproducción de video On2 TrueMotion VP6. On2 VP6 puede proveer más alta calidad visual que Sorenson Spark, especialmente cuando se usa un bit rate menor. Por otro lado es computacionalmente más complejo y por lo tanto puede tener problemas al utilizarse en sistemas con configuraciones antiguas.

El archivo FLV soporta dos nuevas versiones del llamado códec "screenshare" que es un formato de codificación diseñado para screencasts. Ambos formatos están basados en mapas de bits y pueden tener pérdida al reducir la profundidad de color y están comprimidos usando zlib. La segunda versión es reproducible en el Flash Player 8 o superior.

El audio en los archivos FLV se encuentra regularmente codificado como MP3. Sin embargo, los archivos FLV grabados con el micrófono del usuario usa el códec propietario Nellymoser. Los archivos FLV también soportan audio sin comprimir o formato de audio ADPCM.

El programa que utilizaremos para codificar en flash será el Adobe Media Encoder, pudiendo utilizar también Adobe Flash en cualquiera de sus versiones las cuales son descargables de la siguiente pagina. http://www.adobe.com/

Capitulo 2

64

Pagina web de Adobe

Para conseguir el plugin de visualización se encuentra en la siguiente pagina: http://get.adobe.com/es/flashplayer/

Pagina web para descarga del plugin de adobe flash player

Capitulo 2

65

Imagen del programa Adobe Media Encoder

En la siguiente tabla se muestra un breviario de las arquitecturas que se utilizaran y los formatos de archivos que estas manejan.

Arquitectura Extensión del archivo

Real Networks .ra, .rm, .rv

Microsoft .asf, .wma, .wmv

Apple Computer .mov

Adobe Flash .swf, .flv, .f4v

2.15.- ANALISIS DE AUDIO Y VIDEO Debido a la alta importancia y ahora que ya esta comprendido como funciona la transmisión por Internet de multimedios además de tener instaladas en nuestra computadora las arquitecturas para transmisión vía Internet, se explicara el uso y selección de estas herramientas, primero que nada es un factor a tomar en cuenta algunas cuestiones para que la producción del video sea correcta y se eviten sorpresas desagradables con el producto terminado. 2.15.1.- Análisis de audio Dentro del análisis de audio vamos a hacerlo a manera de comparar los diferentes formatos de audio mayormente utilizados dentro de la transmisión por Internet los

Capitulo 2

66

cuales son propiamente de las estructuras ya antes estudiadas, el caso de estudio que se pretende hacer es en base a un archivo de alta calidad de audio (.wav) que será nuestra fuente original de grabación, este será nuevamente codificado en un formato diferente de audio, propio de cada estructura ya enunciada (Adobe,Windows,Real Networks o Apple); para la transmisión de audio por Internet no es conveniente el manejo de archivos de gran tamaño este factor es determinante ya que tendremos que degradar al archivo, para reducirlo de tal manera que sea viable transmitirlo en un ancho de banda reducido. Real Networks Para codificar audio en el Real Producer es necesario primero que todo tener el archivo .wav a codificar el cual seleccionaremos como archivo de entrada dando click en el botón browse, en este caso el archivo seleccionado se llama Prueba Audio.wav.

Se observa en la pantalla en Input File tenemos el archivo a codificar del lado izquierdo, del lado derecho de la pantalla esta el archivo de destino que se almacenara en la misma carpeta del archivo de origen este tiene como nombre Prueba Audio.ra. La terminación del archivo .ra (Real Audio) es característica de la estructura de Real Networks , ahora bien el siguiente paso es seleccionar las opciones para codificar el archivo de tal manera que pueda transmitirse vía Internet, para esto nos vamos al

botón el cual nos permitirá configurar el archivo.

Capitulo 2

67

En la pantalla audiences se nos permitirá elegir las opciones de configuración para nuestro archivo de salida por lo cual en Audio Mode se tiene a escoger entre tres opciones las cuales son Música, Voz y sin audio, debido a que por lo general los programas de televisión utilizan musicalización de fondo, cortes de escena o para la transmisión del algún grupo musical escogeremos la opción de Música. En la siguiente opción escogeremos la opción de No video ya que por el momento solo codificaremos el audio, por ultimo escogeremos la codificación que es de nuestro interés por lo cual escogeremos un archivo que se codifique para una conexión de 56 kbps.

Por ultimo se le da click al botón con lo cual se comenzara la codificación, solo esperaremos un determinado tiempo (dependiendo del tamaño del archivo) y obtendremos el resultado. 2.15.2.- Resultado del análisis Al evaluar el códec de real audio vemos que es eficiente en sentido de la compresión ya que el archivo tiene una cantidad total de 45.4 KB frente al archivo .wav original que teníamos de 914 KB , lo que nos habla de un factor aproximado de 20:1.

Capitulo 2

68

El análisis espectral para este formato es bastante difícil de observar en los programas antes enunciados ya que no se cuenta con un analizador de espectro para este formato solo el de su propio reproductor (Real Player). Se observan lógicamente las perdidas de frecuencias altas y un alto nivel de frecuencias medias y bajas, al reproducir el archivo podemos percibir que existe un corte de frecuencias cercano a los 3 Khz. y quizás si fuera analizado un archivo musicalizado podríamos observar un corte cercano a los 10 Khz. esto para permitirnos ahorrar ancho de banda, aunque sacrifiquemos calidad.

Analizador de frecuencias por bandas de octava

2.15.3.- Windows Expression Encoder Al analizar esta arquitectura esperamos obtener un archivo contenedor el cual tiene la terminación .wma , el cual es el formato nativo de audio de Windows. Nuevamente se parte del archivo Prueba Audio.wav como archivo fuente. El primer paso para codificar es abrir el programa de lo cual seguiremos hacia el menú archivo en el cual esta la opción importar donde escogeremos el archivo fuente a convertir .

Capitulo 2

69

Al introducir el archivo nos aparecerá en donde dice contenido multimedia ahora bien el siguiente paso será configurar las opciones para analizar este nuevo archivo. Como se observa en la pantalla se da referencia a un archivo de tipo .wma el cual fue codificado con el códec WMA Profesional, el modo CBR indica una compresión de bits constante , la velocidad de bits es equiparable a la de la arquitectura de Real Networks para hacer un punto de comparación, la opción de canales estéreo y una velocidad de muestra de 32 Khz. un poco mas baja que la calidad de un CD, los bits por muestra son los comunes 16 para cualquier ADC.

Capitulo 2

70

2.15.4.- Resultado del Análisis En el análisis con el adobe audition que fue el único en el que se logro observar la respuesta en frecuencia, podemos observar que el ancho de banda es recortado nuevamente, las muestras mas importantes ( señaladas en rojo y amarillo) se encuentran dentro del rango de la voz dando un tope cercano a 4 Khz., el archivo resultante tiene un peso total de 52.3 KB y una relación aproximada de compresión de 17:1 con lo cual observamos que no es tan eficiente la codificación.

2.15.5.- Quick time

Es de resaltar de esta arquitectura que prácticamente al usuario le deja pocas libertades de hacer la codificación de archivos y le deja las opciones predefinidas dando pauta a hacer algo mas depurado o quizás mas universal para cualquier tipo de usuario y no solo para algo especializado. Es un software que le permite reproducir y editar video digital, así como otros tipos de archivos, en el ordenador. Quicktime no es en sí ninguna aplicación, sino una tecnología que permite a las aplicaciones llevar a cabo diversas funciones. Consta de una serie de elementos de software que amplían la capacidad del sistema operativo para gestionar archivos dinámicos.

Al igual que con los otros formatos se comienza abriendo la aplicación vamos al menú archivo y seleccionamos la opción Open File, se abrirá un nuevo reproductor en el cual de igual manera se seleccionara el menú File-> Export… y seleccionamos el archivo Prueba Audio.wav para convertirlo a Prueba Audio.mov.

Capitulo 2

71

Dentro de la nueva pantalla seleccionamos las opciones pertinentes, primero seleccionamos en la sección de exportar la opción Película Como Película Quick Time, después en usar seleccionamos conexión telefónica – solo audio finalmente seleccionamos en que carpeta se guardara. Lo subsiguiente lo realiza el propio software.

Capitulo 2

72

2.15.6.- Resultado del Análisis El análisis que se realizo muestra un archivo similar, pero en el que podemos encontrar un ancho de banda mayor ya que se tienen muestras hasta cerca de los 13 Khz. , el archivo es rico en frecuencias que van aproximadamente desde bajas hasta medias altas que significa 4 Khz. aquí no difiere mucho de los demás archivos, aunque el peso del archivo si lo castiga bastante siendo el de mayor tamaño en el análisis con 55.9 KB y una relación 16:1 como factor de compresión.

En un segundo análisis con el software audacity es de notar que su respuesta en frecuencia tiende a ser mejor que los otros códecs (hasta 13 Khz.) pero a costa de un archivo unos cuantos bytes mas pesado.

Capitulo 2

73

2.15.7.- Adobe flash La característica principal de este tipo de archivos es que trabaja con un contenedor conocido el cual es MP3, con lo cual procedemos a realizar las pruebas pertinentes y equiparables a las pruebas anteriormente hechas. El archivo fuente se mantiene y es Prueba Audio.wav y pasara a llamarse Prueba Audio.mp3, como primer paso se pone en marcha el programa de codificación que es Adobe Media Encoder y se selecciona el archivo a importar para su codificación con el

botón . Ya seleccionado el archivo seleccionaremos en format la opción MP3 y en preset escogeremos la opción equivalente a una codificación para 56 Kbps por lo cual

seleccionaremos para modificar la compresión. En la siguiente pantalla tendremos que modificar las opciones y la primera será en Preset donde pondremos la opción Custom, después de eso modificaremos los parámetros a 32 kbps, audio de dos canales en estéreo y la calidad del códec será la opción Fast .

Capitulo 2

74

Para comenzar con la codificación damos click en el botón , después de esto esperamos a que termine la codificación y obtendremos un archivo .mp3. 2.15.8.- Resultado del análisis En el análisis con el adobe audition se observa una respuesta en frecuencia, donde las muestras mas importantes ( señaladas en rojo y amarillo) se encuentran dentro del rango de la voz dando un tope un poco mayor a 4 Khz. se observa mayor cantidad de muestras y distribuidas mas uniformemente dentro del espectro, el archivo resultante tiene un peso total de 44.7 KB y una relación aproximada de compresión de 20:1 lo cual nos arroja un resultado muy parecido al del codificador de Real Networks.

Un segundo análisis permitido se realizo con el software audacity el cual nos muestra un grafico mas detallado de la respuesta en frecuencia y de la amplitud de la señal, donde se observa que la mayor cantidad de frecuencia espectral esta alrededor de los 250 hz. y 3000 hz. con un ancho de banda de aproximadamente 5000 Hz. Un punto a resaltar es que debido a problemas de incompatibilidad entre formatos de audio, el software audacity solo pudo desplegar el análisis espectral con archivos del tipo .mp3. Por lo cuál su respuesta en frecuencia, nos muestra las más importantes ( señaladas en rojo y amarillo) se encuentran dentro del rango de la voz dando un tope un poco mayor a 4 Khz.

Capitulo 2

75

2.15.9.- Conclusiones de audio A mi parecer es resaltante que el códec mp3 que fue el mejor en calidad perceptual y el mas estable lo cual nos hace ver que este estándar aunque antiguo conserva su vigencia dentro de los códecs debido a su alta popularidad pero también a su calidad perceptual y sonora, la cual nos genera archivos con un bitrate respetable y una calidad excelente. 2.16.- ANALISIS DE VIDEO Dentro del análisis de video a manera de comparar mayormente los formatos de las arquitecturas mas utilizados dentro de la transmisión por Internet se pretende observar su comportamiento por medio de un software el cual es el Adobe Premiere Pro , el caso de estudio que se pretende hacer es en base a un archivo de alta calidad de video (.avi) que será nuestra fuente original de grabación, este será nuevamente codificado en los diferentes formatos de video, propios de cada estructura ya enunciada (Adobe,Windows,Real Networks o Apple), este tipo de archivos son los mas representativos para ser embebidos en paginas de Internet, siendo flash el de mayor difusión por el momento aunque con los nuevos formatos emergentes y el cambio de tecnologías en Internet como el HTML 5 que permiten embeber video en una pagina con solo una instrucción y sin necesidad de otro tipo de scripts que existen tales como javascript, actionscript, php, entre otros.

Capitulo 2

76

Para la codificación de video se utilizan los mismos pasos que en audio agregando la configuración misma del propio video, así que en esta parte del análisis nos enfocaremos hacia la calidad de la imagen, la medición de los parámetros se hará por medio de la herramienta vectorscopio y forma de onda del software antes mencionado parra observar la cantidad de saturación de luminancia que tenemos dentro de la imagen y también la crominancia, aunque algunos formatos no son soportados, para ellos nos basaremos en el factor de compresión y la calidad visual subjetiva de la imagen. 2.16.1.- Real Networks La arquitectura Real Networks ,con el Real producer nos generara un proyecto de video con terminación .rv los siguientes pasos serán descritos de igual manera que para la codificación de audio.

1. Abrir Real Producer

2. Asegurar que el botón Archivo de entrada (Input File) este seleccionado

3. En el botón seleccionamos el archivo a codificar, el cual se llama

Prueva Video.avi.

Figura Primeros pasos para codificación de video

4. Ahora haremos click en el botón donde seleccionaremos las

opciones de configuración.

Capitulo 2

77

5. Ahora estamos en una nueva pantalla en la cual seleccionaremos primero que

nada el tipo de audio que seleccionaremos, Música, Voz o sin audio.

6. El modo de video el cual tiene distintos modos de video, normal, sin video, etc.

7. Después tenemos la opción de hacer un video en dos pasadas, la cual

desactivaremos.

8. La opción de reajustar la pantalla del video la seleccionaremos y

seleccionaremos una resolución de 320x240.

9. Las demás selecciones que se pueden realizar se dejaran activadas.

10. Por ultimo seleccionaremos el tipo de conexión para la cual queremos transmitir

el cual es el caso de 56 k para este análisis.

Figura Selección de los parámetros para codificación

Si se hace un doble click sobre el tipo de conexión a transmitir accedemos a un menú de usuario avanzado donde podemos configurar opciones mas especificas de audio y video.

Capitulo 2

78

11. El ultimo paso es regresar a la pantalla principal y dar click en el

botón .

Archivo de video codificándose

Finalmente nos ha quedado un archivo llamado Prueba Video.rv el cual es el archivo a analizar.

Capitulo 2

79

2.16.2.- Análisis de Video Para el análisis de este formato no es posible utilizar las herramientas como el vectorscopio o el forma de onda debido a que no admite este tipo de formato, así que nos basaremos en la percepción de la imagen y su calidad además de la relacion de compresión que tiene el archivo original y el final.

Reproducción del archivo

2.16.3.- Resultados Los resultados del video es que debido a que es para una conexión de muy baja velocidad, de hecho en desuso, la calidad del video es muy pobre, ya que se debe comprimir en un factor muy grande teniendo un archivo fuente de 23.7 MB y obteniendo un archivo de salida de 106 KB el cual nos arrojo un resultado de un factor de compresión de 223:1 , en cuestiones de apreciación es perceptible que el video no tiene tanta resolución como el original, de hecho se pierde muchísima calidad al comprimir, el audio de igual manera perdió muchísima calidad y se nota algo metalizado o como si se hablara por teléfono esto es debido a las perdidas de codificación.

Capitulo 2

80

Comparación y explicación de la codificación en Real Player.

Este video presenta problemas de pixeleado y una baja perceptualidad del movimiento esto quiere decir que se freezea, debido a la alta compresión también se perdió la perspectiva de la luz dándonos un video mas oscuro. Un aspecto un poco menos resaltante es que la compresión de audio no es tan satisfactoria ya que no se puede escuchar la reverberación integrada del archivo fuente, de igual manera esto afecta en la cantidad total de bytes del archivo; lo que lo hace un archivo mas reducido pero con poco compromiso con la fidelidad. 2.17.- WINDOWS EXPRESSION ENCODER Para la arquitectura de Windows obtendremos un archivo de video con terminación .wmv y de igual manera se realizaran las pruebas y pasos equivalentes a los de una codificación para una conexión de 56 k o telefónica. Aquí se enuncian los siguientes pasos para codificación de video en el codificador de Windows:

1. Se elige el menú archivo y elegimos la opción importar.

2. Se muestra el siguiente menú

Capitulo 2

81

3. Seleccionamos el archivo Prueba Video.avi.

4. Ya que tenemos el archivo cargado ahora configuramos las opciones de video y

audio para obtener un archivo para 56 k.

5. El modo es CBR de 1 paso, la ventana del buffer es de 4 segundos la velocidad

de fotogramas es la de origen y los fotogramas clave se presentan cada 10

segundos de intervalo.

6. La velocidad de bits igual que en real player será 34 kbps y el aspecto de la

pantalla será de 320x240.

Configuración de video

7. Para la configuración del audio será CBR de igual manera y la velocidad de bits

es de 8kbps en un canal monofónico y a 16 bits por muestra.

Capitulo 2

82

7.Como ultimo paso se dará click en el botón y comenzara la compresión del archivo.

Pantalla para codificar el archivo en formato .wmv

2.17.1.- Resultados del análisis Los resultados de este análisis no resultan tan distintos del archivo arrojado por Real Player, pero a diferencia de solo hacer el análisis a manera visual en este formato se pudo realizar el análisis con el forma de onda y el vectorscopio, de igual forma resulto un archivo bastante comprimido con una relacion de compresión 148:1 teniendo un archivo sin comprimir de 22.7 MB y un resultado de 153 KB.

Capitulo 2

83

Capitulo 2

84

2.18.- MAS RESULTADOS Y EXPLICACIÓN DEL ANALISIS En el forma de onda se puede ver una cantidad de luminancia de aproximadamente 60 IRE que es algo baja mientras que en el vectorscopio se observa que la imagen tiende mas hacia el azul debido al fondo y a la vestimenta del sujeto de prueba.

Comparación y explicación de Windows Media Encoder

En el análisis visual se puede observar una mayor cantidad de luminancia con respecto a lo que no obtuvo el real player, el resultado se nota igualmente pixeleado , con poca profundidad pero una mejor perceptualidad del movimiento. El audio fue un factor importante debido a que el audio original tiene reverberación lo cual este formato respeto en mayor grado que Real Player, pero sacrificando una mayor cantidad de bits. 2.19.- QUICK TIME La estructura Quick time de Apple nos va a entregar un archivo .mov el cual será codificado para que coincida con los dos análisis hechos anteriormente para una conexión telefónica de 56k. Así que comenzaremos con los pasos para codificar video en Quick Time.

1. Se abrirá el archivo de Prueba Video.avi se abre el menú archivo y se da click en

la opción abrir archivo.

2. Después de esto se seleccionara la opción exportar

Capitulo 2

85

3. A continuación se harán los ajustes para audio y video los cuales deben quedar

muy parecidos a lo que hemos venido haciendo para las otras estructuras.

Ajustes de video

4.El audio será en formato AAC que es un formato que ha pretendido sustituir al

MP3 pero aun no ha mermado su auge a pesar de los años con velocidad de

8Kbps para audio y un canal monofónico.

Capitulo 2

86

5. La velocidad de bits será 34 Kbps , a 15 fotogramas por segundo, tiempo de

los fotogramas clave de 10 segundos.

Capitulo 2

87

8. Por ultimo le damos salvar y esperamos a que lo codifique.

2.19.- Resultados del análisis Los resultados de este análisis resultaron ser muy negativas debido a la calidad de la compresión que fue muy baja, pero a diferencia de solo hacer el análisis a manera visual en este formato se pudo realizar el análisis con el forma de onda y el vectorscopio, de igual forma resulto un archivo bastante comprimido con una relacion de compresión 124:1 teniendo un archivo sin comprimir de 22.7 MB y un resultado de 182 KB a pesar de ser un archivo un poco mas pesado no cuenta con la calidad suficiente para ser transmitido a pesar que es una compresión de menor rango, se observa un pixeleado mayor al de los otros además del deterioro de la imagen esto quiere decir que la imagen se deteriora mucho más que en las demás compresiones realizadas durantes los demás análisis, el audio cabe resaltar que es perceptiblemente mejor que las anteriores codificaciones por lo cuál no es muy recomendable en la realización para videos streaming ya que su formato de audio puede degradarse Apartir de los 56 Kbps .

Capitulo 2

88

Capitulo 2

89

El resultado del vectorscopio y forma de onda nos muestran una imagen con mayor luminancia y una mayor vividez de color.

La calidad de imagen como puede ser observada deja mucho que desear a pesar de una compresión menos estricta, se observa un pixeleado mayor al de los otros además del deterioro de la imagen, el audio cabe resaltar que es perceptiblemente mejor que las anteriores codificaciones, esto es debido al formato .aac. 2.20.- FLASH VIDEO El formato de flash también tiene su partida de video el cual es el .flv este archivo tiene la característica actual de ser uno de los formatos mas utilizados en la red para la difusión de videos. Flash además de eso es una arquitectura de amplia difusión en Internet y soportada por diversos sistemas operativos ya que para cada sistema que existe siempre hay un plug-in para flash, cada navegador entiende videos embebidos en este formato y es al parecer uno de los estándares mas utilizados actualmente. Para codificar un archivo en flash necesitamos el Adobe Media Encoder del cual dispondremos las herramientas y configuraremos los parámetros adecuados los pasos son los siguientes.

1. Se inicializa el software de codificación y se agrega el archivo Prueba Video.avi

dando click en el botón .

2. Ya que tenemos el archivo ahora procederemos a modificarlo para eso damos

click en presets y elegimos Edit Export Settings…

Capitulo 2

90

3. Ahora procedemos a configurar el archivo de video en la pestaña y

seleccionamos el formato .flv (flash video).

4. Procedemos a dar la configuración de igual manera que en los otros

codificadores , para ser mas didácticos se mostrara la imagen con la

configuración adecuada para la comparación, pantalla de 320x240, cantidad de

cuadros por segundo la definimos en 15 .

5. Ahora configuramos los settings para el bitrate que tiene que ser CBR a 34 kbps

y una sola pasada de video, la distancia entre cuadros clave sigue siendo 10.

Capitulo 2

91

6. Ahora se configura el audio, en este codificador es algo mas ambiguo y solo nos

permite codificar en MP3, en modo monofónico y el mínimo bitrate es 16 y no 8

como en los otros formatos, esto puede hacer entrever que el archivo tendrá una

cantidad mayor de Kilobytes.

2.20.1.- Resultado del análisis Como resultado del análisis , este solo se puede hacer perceptualmente y sin algún software, pero es de notar que la calidad del archivo es superior a la de los otros aunque el factor de compresión es menor, 100:1; se hace observable que hay un mayor grado de luminancia, la resolución es mayor y el video tiene un grado de pixelado menor al de sus competidores, el audio es perceptible correctamente aunque con la perdida de muestras habitual a la compresión, se detecta levemente la reverberación.

Video comparación del archivo fuente y un archivo flash.

Capitulo 2

92

2.21.- ELECCION DEL CÓDEC ADECUADO

Los factores estudiados dentro de los 4 formatos mas habituales para la transmisión de video bajo demanda nos arrojan datos interesantes que son agrupados en la siguiente tabla.

Arquitectura Tipo Factor de compresión

Difusión en Internet

Real Networks

Propietaria 223:1 Media – Baja (En desuso debido a la falta de compatibilidad)

Windows Media Encoder

Propietaria 148:1 Media-Baja (Poca difusión y falta de adecuación de las tecnologías en Internet)

Quick Time Propietaria 124:1 Media-Baja

Flash Video Propietaria 100:1 Ampliamente usado en Internet.

El factor determinante de usar uno de los formatos mencionados en la tabla es en principio en función del análisis de audio y video realizado, el cual nos arrojo que quizás real player es el que mejores resultados obtuvo en cuanto al factor de compresión y a la calidad de la imagen en sentido de que no se pixelea tanto como Windows media o como Quick time y que tiene un factor de compresión de mas del doble comparándolo con flash. Una opción viable seria Real Player en función de esos parámetros, pero para Internet no solo se debe considerar quien nos arroja los mejores resultados en compresión, también se debe considerar si nuestro publico usuario, cuenta con los componentes adecuados para la reproducción de nuestro contenido, ese es el lado débil de real player, que es necesario instalar su aplicación para poder observar cierto contenido de algún servidor, además de que este debe de ser especifico para streaming, los peros crecen cuando empezamos a darnos cuenta que esta tecnología esta plenamente en desuso frente a sus otros competidores. Para Windows Media sucede igual, ya que a pesar de que los resultados la muestran como la segunda competidora detrás de real networks, es de observar la deficiencia que tiene Windows frente a otras plataformas y esta es la transportabilidad que tiene

Capitulo 2

93

entre sistemas operativos ya que Windows no tiene un reproductor especifico para los demás sistemas , tal es el caso de Linux que no soporta esta tecnología, lo cual nos deja con un numero mas limitado de usuarios, que aunque en Windows hay mayoría de usuarios, no se descartan los usuarios provenientes de otros sistemas operativos y que deseen visualizar nuestro contenido. Para Quick Time y su formato .mov, este tuvo auge dentro de los años 90‟s pero nunca se llego a popularizar totalmente, aunque es un formato nativo de Apple Inc. Y aunque podría ser un formato candidato, los resultados mostrados por la codificación, no acaban de convencer para su inclusión en un proyecto, ya que el contenido no seria visualizado adecuadamente o se visualizaría muy pixeleado aclarando que esto fue en la calidad de 56 k, ahora un dato importante es que al igual que las otras tecnologías propietarias, el formato no es el de mayor difusión en internet y algunas veces los contenidos tienen derechos de autor . Lo cual nos deja con Flash video que a mi parecer aunque fue el que mostró un mayor sacrificio en cuestión de la compresión y demanda de recursos a la computadora, además de su bajo factor de compresión en relación a calidad, si cumple mas con los parámetros que se buscan para una transmisión bajo demanda dado que la calidad del video es perceptiblemente mejor que sus competidores, con una mejor luminancia, detalle de la imagen y al parecer para los usuarios con conexiones lentas no supone un gasto tan grande en el buffer de su conexión. Flash además de eso es una arquitectura de amplia difusión en Internet y soportada por diversos sistemas operativos ya que para cada sistema que existe siempre hay un plug-in para flash, cada navegador entiende videos embebidos en este formato y es al parecer uno de los estándares mas utilizados actualmente. Por esto y como conclusión de que estructura utilizar se hará con flash ya que por un lado es muy conveniente ya que captamos todo tipo de usuarios de diversos sistemas operativos, tenemos compatibilidad con muchos navegadores de Internet y quizás la desventaja es que el ancho de banda requerido sea un poco mayor a pesar de que codifiquemos para 56 k, por lo pronto y en la actualidad se están transportando las tecnologías y un mayor ancho de banda puede ser demandado aumentando la calidad de los videos.

Capitulo 3

94

CAPITULO 3

CONVERGENCIA DE MULTIMEDIOS PARA STREAMING Y SUS

APLICACIONES

Capitulo 3

95

3.1 CONVERGENCIA DE MULTIMEDIOS

Los multimedios dentro de Internet combinan, la televisión, radio además de contenidos referentes al entretenimiento. La televisión ha tomado gran auge en cuestión de los multimedios ya que muchas veces nos dirigen hacia páginas web con contenidos a mandar e-mails a los programas transmitidos o simplemente a interactuar con los comerciales. Las nuevas tecnologías emergentes como el formato MPEG-4 y las redes inalámbricas de tercera generación, logran que cada vez más haya un mayor interés por parte de los diversos aspectos que están relacionados con la comunicación y que estos migren hacia las redes computacionales; donde cada vez hay un mayor número de usuarios que demandan este tipo de tecnologías. Las redes inalámbricas ahora nos permiten desplegar video dentro de nuestras computadoras con un ancho de banda relativamente pequeño con una pantalla de 320 x 240 píxeles y a todo color. El ancho de banda que manejamos puede llegar a ser de cientos de kilobits y que fácilmente un contenido puede ser descargado a nuestra computadora con tan solo una conexión ADSL. El crecimiento del ancho de banda de la señal de Internet significa en los hogares se tenga una mejor experiencia en la interacción con los multimedios aunque esto dependerá del tipo de conexión que se tenga ya sea por marcación telefónica o ADSL como se ilustra en la siguiente Fig. .

Un fenómeno que se está dando alrededor del mundo es que debido al abaratamiento en las comunicaciones hay un mayor número de usuarios que están prefiriendo el servicio de banda ancha y por tanto pueden acceder a contenidos con mayor cantidad de información tales como el video streaming sobre demanda.

Capitulo 3

96

3.2 ¿QUÉ ES STREAMING? Los términos streaming y webcasting usualmente tienden a ser sinónimos. Esto se refiere a la transmisión de televisión pero entregada por vía Internet. Existe una alternativa a la forma de entrega que es el video sobre demanda en el cual se descargan contenidos interactivos por el usuario hacia su computadora. Este último es el objeto de estudio de este texto. La transmisión sobre la red permite entregar el recurso multimedia que estemos utilizando en vivo. Este proceso es continuo y en muchas maneras se parece a la televisión tradicional. Para el compromiso de la entrega del video sobre demanda el contenido es grabado y almacenado dentro de un servidor el cual en base a una transmisión controlada nos permite observar el contenido multimedia en el momento en que nosotros deseemos véase en la Fig. 3.2 .

Figura 3.2 El streaming y sus aplicaciones. 3.3 ANTECEDENTES HISTÓRICOS DEL STREAMING El concepto del streaming en esencia se conoce hace aproximadamente 70 años. El sistema de televisión original entregaba imágenes en vivo captadas por la cámara y las transmitía por el espectro radioeléctrico hacia el receptor dentro de los hogares. En los años 50 la empresa Ampex almacenaba sus contenidos dentro de una cinta de videograbación con lo cual daba opción a tener programación en vivo o a transmitir un contenido pregrabado anteriormente véase la Fig. 3.3 .

Capitulo 3

97

Antes de que la primera instancia de tecnología streaming apareciera en abril de 1995 (con el lanzamiento de RealAudio 1.0), la reproducción de contenido multimedia mediante el Internet necesariamente implicaba tener que descargar completamente el "archivo contenedor" al disco duro local. Como los archivos de audio y especialmente los de video tienden a ser enormes, su descarga y acceso como paquetes completos se vuelve una operación muy lenta. Sin embargo, con la tecnología del streaming un archivo puede ser descargado y reproducido al mismo tiempo, con lo que el tiempo de espera es mínimo. El streaming hoy en día toma archivos codificados digitalmente los entrega por medio de Internet a las computadoras o por medio de la transmisión por IP. La facilidad que respecta al video sobre demanda es que lo podemos tener al alcance en el momento que nosotros queramos .

Figura 3.3 Evolución de la tecnología de medios. 3.4 VIDEO EN INTERNET En una instalación típica de video en Internet sobre demanda, el proveedor del servicio consta de un sitio el cual nos permite navegar y seleccionar el contenido a descargar. Al seleccionar el usuario el contenido de su preferencia este comenzara a descargarse y reproducirse dentro de la computadora del usuario. Algunas características del video en Internet incluyen: Contenidos de video que pueden tener una duración de unos segundos o que

pueden ser de larga duración.

Se pueden ofrecer una gama variada temas para los contenidos.

Diversos tipos de formatos, que incluyen docenas de diferentes tipos de

compresión de video, que manejan variadas resoluciones y distintas tecnologías.

Es entregado sobre el protocolo de Internet.

Puede ser visto en computadoras, reproductores de video portátiles, celulares,

etc véase la Fig. 3.4.

Capitulo 3

98

Fig. 3.4 Visualización del Video en Internet

3.5 PROCESOS PARA LOGRAR STREAMING Muchos de los sistemas de streaming funcionan en base al modelo cliente/servidor. Todo comienza cuando un cliente hace la solicitud de un archivo a un servidor en una red de computadoras, entonces el servidor entrega los datos los cuales son recibidos por el cliente en cuestión. Después de esto el cliente presenta la información de manera que el usuario pueda comprenderla véase en la Fig. 3.5.

Figura 3.5 Proceso de streaming.

La mayoría de las herramientas para la reproducción, creación y transmisión pueden ser encontradas a un bajo costo o son distribuidas de manera gratuita. Esto es una gran ventaja para el streaming ya que abarata los costos así como también los costos de instalación y de mantenimiento.

Capitulo 3

99

Otra ventaja es que los requerimientos mínimos para la reproducción en tiempo real de streaming actualmente son superados con un amplio margen por las nuevas tecnologías computacionales, eso influye directamente en los costos y en el amplio número de personas que pueden acceder a los multimedios como se muestra en la tabla 3.5.1.

Requerimientos mínimos Procesador Pentium II

64 MB en RAM

56 Kbps modem

Tarjeta de sonido de 16-bits

Pantalla de resolución de 65000 colores

Microsoft Windows 98 o superior

Internet Explorer 5.0 o superior

Requerimientos recomendados Procesador Pentium III o superior

128 MB en RAM

Conexión DSL/Cable o superior

Tarjeta de sonido de 16-bits

Pantalla de resolución de 65000 colores

Microsoft Windows 98 o superior

Internet Explorer 5.0 o superior

Tabla 3.5.1 Requerimientos mínimos y recomendados para video streaming.

3.6 COMPONENTES NECESARIOS DEL STREAMING Para poder proporcionar un acceso claro, continuo y sin interrupciones, el streaming se apoya en las siguientes tecnologías:

3.6.1 Servidor de Streaming El servidor de streaming es el elemento principal en cuanto a calidad del servicio se refiere. El servidor procesa los datos multimedia en cortos espacios de tiempo y soporta funciones de control interactivas siendo además el responsable de suministrar los servicios de audio y video en modo sincronizado. El servidor de streaming espera de la petición del usuario y cuando recibe una petición, el servidor busca en el directorio apropiado el archivo solicitado véase la Fig. 3.6.1.

Capitulo 3

100

Fig. 3.6.1 Servidor de Streaming

La entrega de paquetes del servidor al usuario pueden estar sujetas a demoras conocidas como lag (transmisión a velocidades menores al del ancho de banda, y pierde la calidad de reproducción).

3.6.2. Compresión y codificación “CODEC” Códec es una abreviatura de Codificador-Decodificador. Describe una especificación implementada en software, hardware o una combinación de ambos, capaz de transformar un archivo con un flujo de datos (stream) o una señal. Los códecs pueden codificar el flujo o la señal (a menudo para la transmisión, el almacenaje o el cifrado) y recuperarlo o descifrarlo del mismo modo para la reproducción o la manipulación en un formato más apropiado para estas operaciones. Los códecs son usados a menudo en video conferencias y emisiones de medios de comunicación véase en la figura 3.6.2. La mayor parte de códecs provoca pérdidas de información para conseguir un tamaño lo más pequeño posible del archivo destino. Hay también códecs sin pérdidas, pero en la mayor parte de aplicaciones prácticas, para un aumento casi imperceptible de la calidad no merece la pena un aumento considerable del tamaño de los datos. La excepción es si los datos sufrirán otros tratamientos en el futuro. En este caso, una codificación repetida con pérdidas a la larga dañaría demasiado la calidad. Muchos archivos multimedia contienen tanto datos de audio como de video, y a menudo alguna referencia que permite la sincronización del audio y el video. Cada uno de éstos tres flujos de datos puede ser manejado con programas, procesos, o hardware diferentes; pero para que estos streams sean útiles para almacenarlos o transmitirlos, deben ser encapsulados juntos

Capitulo 3

101

Fig. 3.6.2 representación del CODEC

Esta función es realizada por un formato de archivo de video (contenedor), como .mpg, .avi, .mov, .mp4, .rm, .ogg o .tta. Algunos de éstos formatos están limitados a contener streams que se reducen a un pequeño juego de códecs, mientras otros son usados para objetivos más generales.

3.6.3. RED DE DIFUSIÓN Es un conjunto de computadoras, impresoras, routers, switches y otros dispositivos que son capaces de comunicarse entre sí por un medio de transmisión y de intercambiar información ya sean estos datos, archivos multimedia, etc.

Figura 3.6.3 Representación de los componentes necesarios para el streaming

Capitulo 3

102

3.6.4. EL INTERNET El Internet es una red mundial que proporciona la comunicación basada en IP además de servicios para una amplia gama de usuarios y aplicaciones. Uno de los usos más comunes de Internet es la World Wide Web, que se puede acceder a través de navegadores web, esencialmente en cualquier lugar del planeta. El Internet también es compatible con e-mail, transferencia de archivos, y muchas otras aplicaciones. A muchos usuarios le gustaría ser capaz de transportar señales de vídeo de alta calidad a través de Internet. Esto es ciertamente posible y funciona bien para el contenido pregrabado y el contenido en directo si la calidad de transmisión es perfecta. En este último caso, las redes privadas se utilizan normalmente. El uso de Internet para el transporte de vídeo tiene ventajas y desventajas, tal como se detalla a continuación.

Ventajas Disponibilidad -Las conexiones a Internet están disponibles en todo el mundo (incluso la Antártida), y hoy hay cientos de millones de usuarios habituales de Internet. Bajo costo -El costo de la recepción de datos a través de Internet es transparente para muchos usuarios. Una cuota mensual económica de acceso a Internet a través de su proveedor de servicios Internet (ISP) es todo lo que se necesita para lograr transportar o recibir video.

Desventajas Resultados impredecibles -Dado que la funcionalidad de Internet depende de en la interacción entre distintas redes, la congestión o atraso pueden ocurrir dentro de la misma. Para evitarlo el usuario tendría que solicitar un mayor nivel de prioridad para ciertos tipos de tráfico, como se hace a menudo para el tráfico de vídeo en redes privadas. Estos factores se combinan para hacer que sea muy difícil garantizar un nivel adecuado del rendimiento de cualquier conexión a Internet. No se puede lograr multicasting –Esta es una poderosa herramienta para el envío del mismo contenido a múltiples destinos simultáneamente. Por desgracia, Internet no esta habilitada para la multidifusión, de modo que cada secuencia de vídeo debe ser enviado individualmente a cada destino. 3.7 APLICACIONES POTENCIALES DEL STREAMING El streaming está enfocado a crear enlaces y derribar barreras en cuestiones de comunicación, con esta tecnología podemos lograr diversos usos como cursos de capacitación a distancia, comunicaciones corporativas, marketing y entretenimiento.

Capitulo 3

103

Las organizaciones ahorran dinero al usar este tipo de métodos para por ejemplo una capacitación ya que evitamos el costo de almacenaje y de envío de por ejemplo un curso en cd o en dvd. Si se invita a la gente a usar los contenidos interactivos de una página darán pauta a un ahorro al evitar la duplicación de archivos y la distribución de costos. Mejor distribución de marketing –La distribución de audio y video en medios físicos tales como los cd o dvd tienen otro tipo de costo el cual es el tiempo de entrega, el cual podría tomar días, semanas o meses dependiendo del contenido que queramos distribuir. Con el streaming se soluciona esta cuestión ya que es más fácil poner una liga en nuestra página contenedora, avisar al público sobre el contenido y esperar que el público lo observe desde su hogar véase la Fig. 4.8. Entrega a cualquier parte del mundo –Al transmitir bajo el video streaming nosotros podemos tener alcances hacia cualquier parte del mundo y que una mayor cantidad de personas de distintos países se interesen en el contenido presentado. Se utiliza el ancho de banda con mayor eficiencia –Al utilizar streaming las tecnologías permiten que el ancho de banda de la red no se vea afectado de tal manera que otras actividades relacionadas al uso de internet (ej. Navegación) se vean perjudicadas. Mayor interactividad de los usuarios –El usuario desde el momento que ingresa a una página web se siente envuelto dentro de un mundo de posibilidades diferentes con lo cual se logra la atención del mismo hacia el contenido provisto lo cual para un negocio podría ser beneficioso ya que así captaría clientes hacia su empresa. Entretenimiento al por mayor –El contenidos de entretenimiento dentro de Internet cada vez es mayor con lo cual la demanda de estos crece y se abre un mundo de posibilidades para distintos tipos de creatividad, tales como programas culturales, informativos, deportivos, etc. Muchos tipos diferentes de redes de telecomunicaciones están en uso en todo el mundo hoy en día, y la mayoría de ellas pueden ser utilizadas para el transporte de vídeo o señales. De hecho, no es en absoluto inusual para un tipo de red de tráfico de (por ejemplo, IP) pueda ser transportada a otro tipo de red (por ejemplo, SONET) en algún punto de un circuito de larga distancia. Por eso es importante tener algún conocimiento acerca de cada uno de los tipos de redes y de cómo pueden afectar el tráfico de vídeo. Echemos un vistazo a algunos de los más comúnmente las redes utilizadas.

Capitulo 3

104

Figura 3.7 Utilidades del Amplio Campo del streaming

Conclusiones

105

CONCLUSIONES

Como se ha podido observar a lo largo de este trabajo resalta la importancia de los multimedios dentro de Internet que combinan la televisión, la radio además de contenidos referentes al entretenimiento. La televisión ha tomado gran auge en cuestión de los multimedios ya que muchas veces nos dirigen hacia páginas web con contenidos a mandar e-mails a los programas transmitidos o simplemente a interactuar con los comerciales. Las nuevas tecnologías y las redes inalámbricas de tercera generación, logran que cada vez más haya un mayor interés por parte de los diversos aspectos que están relacionados con la comunicación y que estos migren hacia las redes computacionales; donde cada vez hay un mayor número de usuarios que demandan este tipo de tecnologías. Se concluye que nuestro trabajo se refiere a la transmisión de televisión pero entregada por vía Internet dentro del Instituto Politécnico Nacional en la Unidad Zacatenco dentro del campus de Escuela Superior de Ingeniería Mecánica y Eléctrica. Existe una alternativa a la forma de entrega que es el video sobre demanda en el la cuál nosotros proponemos la descarga en contenidos interactivos por el usuario hacia su computadora. Este último es el objeto de estudio de este texto. El streaming hoy en día toma archivos codificados que digitalmente los entrega por medio de Internet a las computadoras o por medio de la transmisión por IP. La facilidad que respecta al video sobre demanda es que lo podemos tener al alcance en el momento que nosotros queramos. La ventaja que tenemos a través de este sistema es la disponibilidad en donde las conexiones a Internet están disponibles en todo el mundo, y hoy hay cientos de millones de usuarios habituales de Internet. El Bajo costo de la recepción de datos a través de Internet es transparente para muchos usuarios. Una cuota mensual económica de acceso a Internet a través de su proveedor de servicios Internet (ISP) es todo lo que se necesita para lograr transportar o recibir video. La transmisión sobre la red permite entregar el recurso multimedia que estemos utilizando en vivo o para nuestro caso en bajo demanda. Este proceso es continuo y en muchas maneras se parece a la televisión tradicional. Para el compromiso de la entrega del video sobre demanda el contenido es grabado y almacenado dentro de un servidor el cual en base a una transmisión controlada nos permite observar el contenido multimedia en el momento en que nosotros deseemos.

Apéndice A

106

APÉNDICE A

Apéndice A

107

EQUIPO Y LUGAR REQUERIDO PARA LA REALIZACIÓN DEL VIDEO BAJO DEMANDA ( STREAMING )

El equipo requerido y el lugar con el que nosotros contamos para la realización de nuestro video bajo demanda fue en el estudio de grabación del área de acústica que se encuentra ubicado en la Unidad Profesional Adolfo López Mateos del Instituto Politécnico Nacional en la Escuela Superior de Ingeniería Mecánica y Eléctrica, con lo cual enunciaremos nuestro el equipo con el que se realizo dicha prueba y que se encuentra en optimas condiciones de funcionamiento. A las herramientas de trabajo utilizadas se les pretende dar un uso correcto, además de innovador debido a que por lo general algunas de ellas están en desuso a pesar de su correcto funcionamiento de lo cual surge la idea de la transmisión de audio y video para Internet.

- ÁREA DE MONITOREO Y EQUIPO DE MEZCLA.

Aquí Podemos observar el Área de monitoreo en donde se encuentra ubicado el equipo empleado para nuestra grabación de video bajo demanda en donde contamos con un equipo sofisticado el cual se encarga de la manipulación del control de video y audio que se están enviando a través de nuestras cámaras de video grabación y los micrófonos propios, a continuación describiremos cada uno de nuestros equipos empleados junto con sus características y dicho funcionamiento.

Apéndice A

108

Consola de sonido TOPAS de 24 canales

Características:

Mezcladores de 24 ch mic, 4 subgrupos, 4 auxiliares, fader 100 mm, eq: 3 bandas mas paramétrico, fuente externa

Entradas de canales Mono y Balance MIC or line input

Canales de Entrada para Stereo

Frecuencia con la que Trabaja: 20Hz«20kHz +/-1dB

Ganancias : -129.5dB,150¦¸ fuente;-132dB

Ganancia Máxima: MIC(60dB) Linea(20dB)

Control de Ganancia MIC:35dB(25«60dB)Linea:20dB(0«20dB)

IMD :95dB

THD:0.02%(+4dB,1kHz)

EQ HF:10kHz+/-15dB MF:2kHz+/-15dB LF:60Hz+/-15dB

Max Entrada :+20dB

Max Salida: +20dB Balance ,+16dB un balance

Fuente Consumible AC100«120V/200«240V 50/60Hz <30W

Controlador y editador de video SONY fx-100

Apéndice A

109

CARACTERISTICAS:

1 editor / B roll con conmutador integrado y mezclador de audio, controles de hasta 3 VTR (1 grabadora, 2 jugadores) y tiene una entrada auxiliar, conmutable RS-232C o RS-422 control de VTR, 99 edición de la memoria.

1 edición de lista se puede emitir a través de una dedicada puerto RS-232C

1 función de conmutación de entrada acepta 3 T / C y las fuentes de vídeo compuesto sólo 129 pantallas y efectos incluidos posterización, mosaicos, congelar y estrobo.

1 función de sincronizadores de cuadro para el fondo y los autobuses foreground, se desvanecen a negro / corrector blanco, el color, la transición de auto incluido.

1 función de mezclador de audio de audio-sigue-vídeo con la entrada de micrófono, croma interna y manipulador de luminancia, puede operar con un monitor, ideal para trabajar con Hi-8, S-VHS , U-Matic y Betacam VTRs edición.

Reverberador digital Yamaha rev 5

CARACTERISTICAS:

16-bit de tecnología de conversión de analógico a digital y digital a analógico.

Muestreo a 44,1 kHz.

Cuenta con una amplia selección programa preestablecido y un mayor control sobre los parámetros de efecto.

El REV5 contiene efectos de modulación con calidad de estudio con un control independiente de delay, reverb, y los parámetros de difusión en los programas de reverberación.

Hay 30 programas de efectos principales, y 60 posiciones de memoria programables por el usuario.

Apéndice A

110

Ecualizador gráfico: Yamaha q2031a

CARACTERÍSTICAS:

Es un ecualizador gráfico estéreo de 31 bandas ultramusical para aplicaciones en directo y estudio.

Cuenta con el revolucionario Sistema de Detección de Realimentación FBQ (patente pendiente) que detecta instantáneamente frecuencias críticas de realimentación y también puede ser utilizado como analizador de audio.

Utilice la salida mono para subwoofer con frecuencia de corte ajustable para darle más energía a su música. Los filtros pasa bajas y pasa altas en cada canal le permiten eliminar ruidos indeseados, como zumbidos o ruido de cinta (hiss). Ajustar el nivel es muy fácil gracias a los LEDs indicadores de nivel de entrada/salida de alta precisión de 12 segmentos y el control de ganancia de entrada.

Salidas servo balanceadas con conectores XLR bañados en oro y jacks de 6,3 mm. Los faders iluminados de 45 mm de alta calidad, potenciómetros e interruptores iluminados fueron diseñados para soportar los rigores del uso cotidiano.

3 Monitores SONY PVM-14N2U

Apéndice A

111

CARACTERÍSTICAS: 14 pulgadas de visualización simple Color monitor de video CRT Trinitron ofrece una resolución de 500 líneas de TV Compuesto y S / C entradas . Color estabilidad equilibrio. La flexibilidad en las entradas de vídeo y conexión. La flexibilidad en la recepción de la señal. Óptima calidad de imagen. Incorporado en el derecho de audio en la unidad. Volumen, contraste, brillo, saturación, y los menús de fase pueden ser

llamadas con sólo pulsar un botón si fueran los menús utilizado por última vez antes de apagar la unidad.

Sistema: NTSC, PAL, SECAM, NTSC Requisitos de alimentación: AC 100 a 240 V, 50/60 Hz (aprobados por UL

para 120 V) Consumo de energía: 80 W Respuesta de frecuencia: 6 MHz ± 3 dB Línea A: en bucle Phono -5 dBu, impedancia alta, más de 47kÓ Línea B: Phono -5 dBu, impedancia alta, más de 47kÓ

2 Bafles JBL 4412A

CARACTERÍSTICAS:

Con 1 woofer de 12 pulgadas y un tweeter de cúpula de titanio. Con potencia de 150 watts. 8 ohms de carga al amplificador. El woofer de 12 pulgadas, de gama media de cono de 5 pulgadas, y 1-pulgada. Tweeter de titanio puro. El tweeter de cúpula de titanio de 1 pulgada produce frecuencias altas. La red de crossover activo garantiza la transición fluida entre las de gama media

woofer y tweeter.

Apéndice A

112

1 Amplificador CROWM DC-330A

CARACTERÍSTICAS:

Potencia por canal a 1 kHz con 0,1% THD. Modo dual (dos canales): 305 vatios a 4 ohmios, 175 vatios en 8 ohmios, 175 vatios

en 8 ohmios., 100 vatios en 16 ohmios. 100 vatios en 16 ohmios. Modo Puente-Mono: 610 vatios en 8 ohmios y 355 vatios en 16 ohmios. Impedancia de carga: Clasificado para 16, 8 y 4 ohmios uso. Señal de salida de dos canales: no balanceadas. Puente-Mono: equilibrado, de un solo canal. Protección total: la línea de CA fundido. Protección total. Tiene interruptor térmico. Tiene ventilación.

Entrada de protección de sobrecarga. - SALA O ÁREA DE LA EDICIÓN DE LA GRABACIÓN DE VIDEO Y AUDIO

Apéndice A

113

CARACTERÍSTICAS:

SISTEMA: Microsoft Windows XP Professional Versión 2002 Service Pack 2 Registrado a Nombre de: ESIME Zacatenco IPN 55274-647-9588401-23507 EQUIPO: AMD Phenom( tm ) 8450 Triple-Core Processor 2.10 GHz, 3.12 GB de RAM TARJETA DE VIDEO: Ge Force 8300 TARJETA DE AUDIO: Real High Definition Audio SOFTWARE: Pínchale Studio 8.0

Dentro de la PC tiene instalado un software el cuál tiene como nombre Pínchale Studio 8.0; este programa se encarga de capturar el video que le es mandado a través de las video cámaras las cuales envían la señal de video hacia el área de monitoreo el cuál a su vez lo manda a la PC donde captura el video, después que este es capturado el programa se encarga de editarlo a modo que la resolución de video como de audio sean las mejores condiciones optimas para la grabación y visualización de esta grabación de video y audio. El procesador va sobrado dentro del nivel de procesamiento de video en un ambiente Windows con 2.1 GHz de frecuencia de trabajo para tres núcleos lo cual nos da 6.2 GHz de procesamiento total corriendo en una arquitectura paralela, tiene una cache de 2MB que nos permite obtener tiempos de procesamiento superiores debido a que la indexación se realiza mas rápido al no tener que depender de memoria externa.

Procesador Phenom x3 a 64 bits

La memoria de nuestra computadora es suficiente para la codificación de archivos y el soporte de la captura de video ya que son 3 GB de memoria RAM, que también nos permitirá la utilización de multitareas, como la codificación y captura a la vez.

Apéndice A

114

Memoria RAM

La tarjeta de video es una Nvidia 8300 que tiene una memoria de video de 128 MB, lo cual es suficiente para la captura y codificación de video para la transmisión por internet.

Tarjeta capturadora de video

La tarjeta de captura de audio es una Realtek High Definition que maneja 5.1 canales lo cual soporta audio para alta definición y para video con sonido envolvente la cual la hace perfecta para la captura de audio. - SALA DE GRABACIÓN

Apéndice A

115

El estudio de grabación nos da pauta a hacer las pruebas pertinentes ya que ofrece un ambiente cerrado y relativamente sin ruido lo que nos permitirá obtener una mayor calidad de sonido, las cámaras de video grabación serán el parámetro para captura del video y mediante un micrófono de tipo dinámico será capturada la voz, el micrófono estará conectado a la caja de parcheo que nos llevara a la consola topas por medio del canal 1 , el cual será debidamente ecualizado. El cableado utilizado para video es un cable coaxial de tipo RG-58 con una impedancia característica de 75 Ω, el conector característico utilizado aun en nuestros días es el de tipo BNC y es el que admite tanto la cámara, el sistema de monitoreo y la consola controladora y editora de video o switcher, desde el switcher se tiende un cable con un conector BNC en un extremo mientras que en el otro se necesita un conector de tipo RCA para establecer conexión con la estación capturadora de video.

Apéndice A

116

Tipos de conectores BNC (derecha) RCA (izquierda) y cableado para video.

Para audio tenemos cable balanceado con un blindaje para filtrar el ruido, los conectores utilizados para establecer la conexión en la consola y en las cajas de parcheo son de tipo XLR o cannon de 600 Ω de impedancia para audio profesional, de igual manera se utiliza un cable con salidas de tipo jack normal para establecer la conexión entre el reverberador y la consola, además del amplificador. La salida de la mezcla de audio es dada por la consola hacia la tarjeta de captura de sonido por medio de dos cables los cuales son el canal izquierdo y derecho para un sonido estéreo, al otro lado del cable se encontraran con un mini plug el cual conjunta a los dos cables para hacer uno solo que ira dentro de la entrada azul de la computadora. Se utiliza también un pedestal para el micrófono que captara el sonido, con lo cual le daremos una alta direccionalidad.

Apéndice A

117

Conectores en la parte superior mini jack (derecha), XLR (izquierda), pedestal y

cable balanceado. Micrófono unidireccional vocal F-V120

CARACTERÍSTICAS:

Frecuencia: 60 - 12 000 Hz Impedancia: 600 ohm Nivel de salida: -53 Db Toma Uní match (jack 3,5 mm y 6,5 mm) 3 Metros de cable largo

Apéndice A

118

2 Cámaras de videograbación SONY: MODEL CA-537

CARACTERÍSTICAS:

Sistema de banda ancha y se puede cambiar de forma remota entre 16:9 y 4:3 (WAS).

Relaciones de aspecto a través de la RCP-TX7 panel de control remoto, o por RS-232. Ofrece 8 archivos de configuración (3 usuarios) en modo autónomo.

16 archivos de escenas adicionales (de todos los usuarios pueden configurar). Combinación con la RCP-TX7 panel de control remoto. Muelles DXC-

D35/D35WSL a DSR-1 DVCAM y DNV-5 Betacam SX grabadoras para la grabación de vídeo digital, o PVV3 y BVV-5

grabador Betacam SP para grabación analógica.

Apéndice B

119

APÉNDICE B

Apéndice B

120

REDES ORIENTADO A DIRECCIONAMIENTO IP

Direccionamiento IP

La dirección IP identifica la localización de un sistema en la red. Equivale a una dirección de una calle y número de portal. Es decir, es única. No pueden existir en la misma ciudad dos calles con el mismo nombre y números de portal.

Cada dirección IP tiene dos partes. Una de ellas, identifica a la red y la otra identifica a la maquina dentro de esa red. Todas las maquinas que pertenecen a la misma red requieren el mismo número de red el cual debe ser además único en Internet véase en la Fig. B.1.

Fig. B.1 Asignación de la Dirección IP a cada unidad por medio de una red

El número de máquina, identifica a una estación de trabajo, servidor, ruteador o cualquier otra máquina TCP/IP dentro de la red. El número de maquina (número de host) debe ser único para esa red. Cada host TCP/IP, por tanto, queda identificado por una dirección IP que debe ser única véase en la Fig. B.1.1. Un computador puede estar conectado a más de una red. En este caso, se le debe asignar al sistema más de una dirección. Cada dirección identificará la conexión del computador a una red diferente. No se suele decir que un dispositivo tiene una dirección sino que cada uno de los puntos de conexión (o interfaces) de dicho dispositivo tiene una dirección en una red. Esto permite que otros computadores localicen el dispositivo en una determinada red.

La combinación de letras (dirección de red) y el número (dirección del host) crean una dirección única para cada dispositivo conectado a la red. Cada computador conectado a una red TCP/IP debe recibir un identificador exclusivo o una dirección IP

Apéndice B

121

Fig. B.1.1 Representación de una red TCP/IP

Esta dirección puede cambiar cada vez que se conecta; y a esta forma de asignación de dirección IP se denomina una dirección IP dinámica (normalmente se abrevia como IP dinámica)véase la Fig. B.1.2.

Fig. B.1.3 Representación de una asignación de IP Dinámica

Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados, generalmente tienen una dirección IP fija (se aplica la misma reducción por IP fija o IP estática), es decir, no cambia con el tiempo véase en la Fig. 3.1.4. La IP que se obtiene tiene una duración máxima determinada. El servidor DHCP provee parámetros de configuración específicos para cada cliente que desee participar en la red IP. Entre estos parámetros se encuentra la dirección IP del cliente.

Apéndice B

122

Fig. B.1.4 Representación de una asignación de IP Fija

Tipos de clases de IP

Hay tres clases de direcciones IP que una organización puede recibir de parte de la Internet Corporation for Assigned Names and Numbers (ICANN): clase A, clase B y clase C. En la actualidad, ICANN reserva las direcciones de clase A para los gobiernos de todo el mundo (aunque en el pasado se le hayan otorgado a empresas de gran envergadura como, por ejemplo, Hewlett Packard) y las direcciones de clase B para las medianas empresas. Se otorgan direcciones de clase C para todos los demás solicitantes. Cada clase de red permite una cantidad fija de equipos (hosts) véase la Fig. B.2.1.

Fig. B.2.1 Asignación de datos para cada clase

• En una red de clase A, se asigna el 1er. octeto para identificar la red, reservando los 3 últimos octetos (24 bits) para que sean asignados a los hosts, de modo que la cantidad máxima de hosts es 224-2 (las direcciones reservadas de broadcast [últimos octetos a 255] y de red [últimos octetos a 0]), es decir, 16 777 214 hosts véase la Fig. B.2.2.

Apéndice B

123

Fig. B.2.2 Asignación de Octetos para la clase A

• En una red de clase B, se asignan los dos primeros octetos para identificar la red, reservando los dos octetos finales (16 bits) para que sean asignados a los hosts, de modo que la cantidad máxima de hosts es 216 - 2, o 65 534 hosts véase la Fig. B.2.3.

Fig. B.2.3 Asignación de Octetos para la clase B

• En una red de clase C, se asignan los tres primeros octetos para identificar la red, reservando el octeto final (8 bits) para que sea asignado a los hosts, de modo que la cantidad máxima de hosts es 28 - 2, ó 254 hosts véase la Fig. B.2.4.

Fig. B.2.4 Asignación de Octetos para la clase C

Apéndice B

124

• Clases D y E Las clases D y E no se asignan a hosts. Las direcciones de clase D se utilizan para la multidifusión, y las direcciones de clase E se reservan para uso futuro. Determinación de la clase de dirección. El direccionamiento IP en clases se basa en la estructura de la dirección IP y proporciona una forma sistemática de diferenciar IDs de red de IDs de host. Existen cuatro segmentos numéricos de una dirección IP. Una dirección IP puede estar representada como w.x.y.z, siendo w, x, y y z números con valores que oscilan entre 0 y 255. Dependiendo del valor del primer número, w en la representación numérica, las direcciones IP se clasifican en cinco clases de direcciones como se muestra en la véase en la siguiente tabla:

Apéndice B

125

Subdivisión de una red Podemos ampliar una red utilizando dispositivos físicos, como routers y puentes, para añadir segmentos de red. También podemos utilizar dispositivos físicos para dividir una red en segmentos más pequeños para incrementar la eficacia de la red. Los segmentos de red separados por routers se denominan subredes. Cuando creamos subredes, debemos dividir el ID de red para los hosts de las subredes. La división del ID de red utilizado para comunicarse en Internet en IDs de red más pequeños (en función del número de direcciones IP identificadas) para una subred se denomina subdivisión de una red. Para identificar el nuevo ID de red de cada subred, debemos utilizar una máscara de subred para especificar qué parte de la dirección IP va a ser utilizada por el nuevo ID de red de la subred. Podemos localizar un host en una red analizado su ID de red véase la Fig. B.3.1.

Figura B.3.1 Ejemplo de una subred

Los IDs de red coincidentes muestran qué hosts se encuentran en la misma subred. Si los IDs de red no son los mismos, sabremos que están en distintas subredes y que necesitaremos un router para establecer comunicación entre ellos.

A medida que crece el número de equipos y el volumen de tráfico en una red Ethernet, se produce un crecimiento de la colisión de datos y se reduce el rendimiento de la red. Para solucionar este problema, los equipos de una red Ethernet se agrupan juntos en divisiones físicas, denominadas segmentos, separadas por un dispositivo físico, como un router o un puente. En un entorno TCP/IP, los segmentos separados por routers se denominan subredes. Todos los equipos que pertenecen a una subred tienen el mismo ID de red en sus direcciones IP. Cada subred debe tener un ID de red distinto para comunicarse con otras subredes. Basándose en el ID de red, las subredes definen las divisiones lógicas de una red. Los equipos que se encuentran en distintas subredes necesitan comunicarse a través de routers.

Apéndice B

126

Máscaras de Subred En el método de direccionamiento en clases, el número de redes y hosts disponibles para una clase de dirección específica está predeterminado. En consecuencia, una organización que tenga asignado un ID de red tiene un único ID de red fijo y un número de hosts específico determinado por la clase de dirección a la que pertenezca la dirección IP. Con el ID de red único, la organización sólo puede tener una red conectándose a su número asignado de hosts. Si el número de hosts es grande, la red única no podrá funcionar eficazmente. Para solucionar este problema, se introdujo el concepto de subredes. Las subredes permiten que un único ID de red de una clase se divida en IDs de red de menor tamaño (definido por el número de direcciones IP identificadas). Con el uso de estos múltiples IDs de red de menor tamaño, la red puede segmentarse en subredes, cada una con un ID de red distinto, también denominado ID de subred. Estructura de las máscaras de subred Para dividir un ID de red, utilizamos una máscara de subred. Una máscara de subred es una pantalla que diferencia el ID de red de un ID de host en una dirección IP pero no está restringido por las mismas normas que el método de clases anterior. Una máscara de subred está formada por un conjunto de cuatro números, similar a una dirección IP. El valor de estos números oscila entre 0 y 255 véase en la siguiente tabla. B.3.2.

Figura B.3.2 Una máscara de subred

Apéndice B

127

En el método de clases, cada uno de los cuatro números sólo puede asumir el valor máximo 255 o el valor mínimo 0. Los cuatro números están organizados como valores máximos contiguos seguidos de valores mínimos contiguos. Los valores máximos representan el ID de red y los valores mínimos representan el ID de host. Por ejemplo, 255.255.0.0 es una máscara de subred válida, pero 255.0.255.0 no lo es. La máscara de subred 255.255.0.0 identifica el ID de red como los dos primeros números de la dirección IP. Asignación de Direcciones TCP/IP Podemos establecer direcciones IP utilizando el método estático o el método automático. Si decidimos establecer la dirección IP de forma estática, deberemos configurar manualmente la dirección de cada equipo de la red. Si decidimos establecer la dirección IP automáticamente, podremos configurar las direcciones IP para toda una red desde una sola ubicación y asignarlas dinámicamente a cada equipo. Una vez hemos establecido la dirección IP, podemos ver su configuración TCP/IP utilizando el cuadro de diálogo Propiedades del protocolo de Internet (TCP/IP) o la utilidad Ipconfig véase en la siguiente Fig. B.3.3.

Fig. B.3.3 Configuración de la IP

Apéndice B

128

DHCP DHCP es un estándar de TCP/IP para simplificar la administración de la configuración y asignación de direcciones IP en una red interconectada. DHCP utiliza un servidor DHCP para gestionar la asignación dinámica de direcciones IP. Los servidores DHCP contienen una base de datos de direcciones IP que pueden asignarse a hosts de la red. Par utilizar DHCP en una red, los hosts deben estar habilitados para usar DHCP. Para habilitar DHCP, debemos hacer clic en Obtener una dirección IP automáticamente, que está seleccionado de forma predeterminada en Windows 2000. DHCP reduce la complejidad y el trabajo de administración relacionado con la reconfiguración de equipos en redes basadas en TCP/IP. Cuando movemos un equipo de una subred a otra, debemos cambiar su dirección IP para reflejar el nuevo ID de red. DHCP nos permite asignar automáticamente una dirección IP a un host, denominado también cliente DHCP, desde una base de datos asignada a una subred. Además, cuando un equipo está sin conexión durante un determinado periodo de tiempo, DHCP puede reasignar su dirección IP véase la Fig. B.3.4.

Fig. B.3.4 Administración del DHCP

Apéndice B

129

RTSP (Real Time Streaming Protocol) Es un protocolo a nivel de aplicación para el control sobre la transmisión de datos en tiempo real. RTSP proporciona un marco extensible para permitir la transmisión de datos en tiempo real bajo demanda como audio y vídeo. Este protocolo permite controlar múltiples sesiones, y se puede escoger los protocolos de transporte a utilizar como UDP, multicast , TCP y RTP véase en la Fig. B.3.5.

Fig. B.3.5 Representación del RTSP El protocolo es intencionadamente similar en sintaxis y notación a HTTP/1.1. Esto facilita su implementación basándose en los desarrollos de HTTP/1.1. El protocolo soporta las siguientes operaciones:

· Petición de medios7 a servidor. El cliente puede pedir una descripción de presentación vía HTTP u otro método. Si la presentación es multicast, la descripción contienen las direcciones multicast y puertos que pueden ser usados. Si la presentación sólo se va a enviar al cliente , el cliente proporcionará la dirección por motivos de seguridad. · Invitación a un servidor de medios para una conferencia. Un servidor puede ser invitado a unirse a una conferencia existente, bien como participante o simplemente para grabar parte de la conferencia. Este modo es útil para las aplicaciones de enseñanza distribuida. · Adición de medios a una presentación existente. Particularmente en presentaciones en directo es interesante que el servidor pueda avisar al cliente de que nuevos medios están disponibles.

Apéndice B

130

Actualmente existen varias compañías que utilizan este protocolo. Entre ellas está el producto Real Media de Progressive Networks. Este producto implementa tanta la parte cliente como servidor para la distribución y visualización de ficheros multimedia. Está implementado para la mayoría de plataformas disponibles véase la Fig. B.3.6.

Figura B.3.6 Conexión de una red Multicast (RTP)

Apéndice C

131

APÉNDICE C

Apéndice C

132

DISEÑO DE LA PAGINA WEB Características del diseño Imagen: La imagen es mucho más que el aspecto, es un conjunto de características que hacen que su entidad comunique eficazmente las ideas que desea expresar a sus usuarios: modernidad, excelencia, seguridad, liderazgo, confianza y sobre todo información precisa y congruente. En todo tipo de relación con el usuario, nada importa más que la primera impresión. Interacción con el Usuario: El nuevo medio que es Internet permite no sólo expresar ideas a los usuarios, sino provocar sus reacciones, conocer sus intereses y conseguir que su relación sea activa. Cultivar esto fortalece la Información concreta y precisa. Usabilidad y Navegabilidad: Nada sirve si no se sabe utilizar, y los usuarios no suelen dar una segunda oportunidad para sus necesidades. Aunque una web sea muy atractiva, utilice las tecnologías más modernas y ofrezca los contenidos de mayor calidad, si no se tiene en cuenta cómo y quién la usará todo esfuerzo será una pérdida de tiempo y dinero. Planificación y Método: Es importantísimo contar con suficiente información por parte del cliente antes de comenzar un proyecto. Hay que conocer objetivos, estrategias, perfiles de usuarios, etc. Nuestro método reduce los costos del proyecto a través de una planificación estricta y etapas de desarrollo claras. Profesional: Nuestros proyectos son abordados con una política de calidad muy alta. Se tienen en cuenta todos los aspectos posibles, desde el arte a la tecnología y de la Usabilidad hasta las estrategias de streaming.

Apéndice C

133

Análisis de proyecto .- Para conseguir los resultados perseguidos es imprescindible contar con un buen proyecto, que capte los intereses y las inquietudes del usuario y las transforme, de forma ordenada, en la imagen gráfica que se quiere ofrecer en Internet, respetando la funcionalidad exigida y garantizando los tiempos de ejecución y el control del presupuesto. Requerimientos del Cliente: Conjuntamente con el usuario realizaremos el análisis de necesidades para validar los términos de cada propuesta, en la que se definirán las personas, procedimientos y flujo de información a seguir para el desarrollo óptimo del trabajo a realizar. También se tendrá en consideración el presupuesto y otras webs de referencia dentro y fuera de su sector. Diseño Conceptual: Fijados los objetivos generales y particulares del sitio, imagen pretendida, funcionalidades, etc.), pasaremos a definir conceptualmente todos los contenidos que incluirá en el mismo, su jerarquía, esquema de navegación, aplicativos asociados y sistemas de actualización de la información. Estudio Cualitativo: En base al diseño preliminar establecido se definirá la extensión y características de cada uno de los apartados conceptuales de Sitio (tipo de diseño, número de pantallas, tecnologías interactivas a utilizar: Flash, Dhtml, Javascript, etc), necesidades de hospedaje y una primera aproximación del coste de las posibles soluciones, concluyendo conjuntamente la alternativa óptima en consonancia con los objetivos establecidos para el proyecto. Estructura de Contenidos: En este nivel se desarrollara: Imagen gráfica, Diagramas de navegación, uso, Itinerarios con sus objetivos de comunicación, Ergonomía de pantallas de los aplicativos, Etc. En base al plan establecido en este apartado, el Cliente tendrá una idea clara de la totalidad de las aportaciones que deberá realizar en paralelo con nuestro trabajo: fotografías, textos, organigramas, etc.

Apéndice C

134

Fases de ejecución.- Trabajar en equipo con el usuario y coordinar las diferentes fases de desarrollo del proyecto son aspectos fundamentales para garantizar el éxito del mismo. Por eso contamos con un equipo elemental multidisciplinar capaz de llevar a la práctica los proyectos aprobados por nuestros usuarios, ajustándose a los requerimientos exigidos, respetando el presupuesto y los tiempos de ejecución, y realizando un exhaustivo control de calidad a satisfacción de los usuario. Definición del Proyecto: En la etapa de Proyecto, trabajando de un modo interactivo con el usuario, en un tiempo razonablemente breve podremos intercambiar la necesaria información que permita la completa comunicación académica concreta y precisa, como para que las definiciones a las que lleguemos. Propuesta y Análisis: Analizar las distintas alternativas a nivel preliminar en sus tres dimensiones (alcance, costo y plazo) es el mejor modo para lograr adecuar las expectativas del Proyecto con los resultados finales. El hecho de adelantar la tarea de realizar la pagina web, que nos permite a todos una mayor visión de conjunto de trabajo a realizar y al usuario en particular una forma fiable y temprana la información académica que contendrá el proyecto, elementos necesarios para la toma de decisiones. Diseño y Creatividad: Para el Diseño se realizará un estudio exhaustivo de los objetivos académicos expresados por el usuario con el objetivo de optimizarlo al máximo e imprimir dinamismo respetando un entorno de navegación fácil. En este sentido, introduciendo elementos dinámicos, trabajando las imágenes y adaptándolas al entorno web conseguiremos una más fácil y rápida navegación. Producción de Contenidos: Por la experiencia que hemos acumulado en el terreno de la creación de contenidos para Web, consideramos que es fundamental que el usuario identifique claramente la información relativa a la empresa y la información relativa a los productos y servicios. En este sentido, nos parece oportuno proponer una estructuración de contenidos dinámica y acorde con la consecución de los objetivos propuestos. Control de Calidad: Conjuntamente con el usuario revisaremos todo el trabajo realizado, procediendo a la corrección de los errores detectados y al ajuste de los últimos detalles previos a la puesta en producción, realizando el test de prueba en cada proceso del desarrollo de la Web. Entrega y Publicación: Una vez obtenida la conformidad del usuario al proyecto realizado, procederemos a su publicación en la web.

Apéndice C

135

Tecnología y diseño.- Es fundamental disponer de la tecnologías de diseño más avanzadas junto con profesionales que nos garantizan la optima comunicación de nuestros objetivos a través de la Web. Creatividad y Diseño: Nuestra creatividad se pone a su disposición para dar forma a sus necesidades de presencia en Internet, teniendo en cuenta las actuales tendencias de diseño en la red y la consecución de los objetivos de comunicación que se pretenden, dando forma a una serie de Plantillas de Diseño que conformarán la nueva imagen para la ESIME ZACATENCO. Maquetación de Páginas: Atendiendo a los criterios de Usabilidad acordes con el nivel de conocimiento de los usuarios nuestros diseñadores maquetarán los contenidos a partir de las diferentes Plantillas de Diseño construidas, manteniendo la orientación de los usuarios gracias a una navegación intuitiva y la constante identificación de la institución así como también mediante el empleo de los nuevos lenguajes dinámicos. Tratamiento de Imágenes: Es fundamental focalizar la atención de los usuarios en los objetivos propuestos mediante el primer impacto visual, por eso realizamos un tratamiento de imágenes depurado que no sólo persigue una óptima calidad gráfica, sino su máxima ligereza, evitando retardos innecesarios en la carga de las páginas y agilizando así la navegación de los usuarios. Animaciones Gráficas: Las últimas tendencias en la red y la mejora en las comunicaciones con la aparición de la banda ancha han hecho habitual el uso de animaciones gráficas en la web, pero como en el cine o la televisión, estamos ante un nuevo lenguaje de comunicación, que requiere tanto del empleo de las últimas tecnologías, como de los mejores profesionales. Audio y Vídeo Streaming: Gracias la las nuevas tecnologías de Streaming y a la banda ancha es posible la emisión de Audio y Vídeo con garantías de calidad y economía, que ponen al alcance de muchas empresas nuevas posibilidades en el campo de la formación y el entretenimiento. Programación de Scripts: Para convertir la Web en una herramienta de comunicación total para su empresa, se necesita del desarrollo de pequeños programas que sean

Apéndice C

136

capaces de interactuar contra sus bases de datos de gestión interna, ofreciendo así ilimitados servicios a sus usuarios, mejorando los procesos de Atención de los usuarios.

Figura Ejemplo de una pagina web que utiliza video streaming. El futuro en HTML 5 HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión importante del lenguaje básico de la World Wide Web, HTML. HTML 5 especifica dos variantes de sintaxis para HTML: un «clásico» HTML (text/html), la variante conocida como HTML5 y una variante XHTML conocida como sintaxis XHTML5 que deberá ser servida como XML (XHTML) (application/xhtml+xml).[1] Esta es la primera vez que HTML y XHTML se han desarrollado en paralelo. HTML 5 establece una serie de nuevos elementos y atributos que reflejan el uso típico de los sitios web modernos. Algunos de ellos son técnicamente similares a las etiquetas <div> y <span>, pero tienen un significado semántico, como por ejemplo <nav> (bloque de navegación del sitio web) y <footer>. Otros elementos proporcionan nuevas funcionalidades a través de una interfaz estandarizada, como los elementos <audio> y <video>. Mejoras en el elemento <canvas> Algunos elementos de HTML 4.01 han quedado obsoletos, incluyendo elementos puramente de presentación, como <font> y <center>, cuyos efectos son manejados por el CSS. También hay un renovado énfasis en la importancia del scripting DOM para el comportamiento de la web.

Glosario de términos

- 137 - -

GLOSARIO DE TERMINOS

ADSL.- Una línea digital para abonados. Es una conexión de banda ancha que soporta el trafico de voz y datos, por lo general es asimétrica y utiliza un par común de cobre como medio de transmisión. Analógica.- Es una señal que varia continuamente en el tiempo, sufre por lo general de ruidos o distorsión. Analógico a digital.- Es un circuito que toma muestras de una señal analógica para después convertir esa información en una señal digital. Audio.- Es la representación de una señal acústica de manera eléctrica. Ancho de banda.- Es la capacidad en bits de un canal de transmisión . Banda Ancha.- Es el caso de las conexiones de Internet de tipo DSL, T1 tienen anchos de banda muy grandes y pueden transmitir y recibir paquetes de datos a velocidades muy rápidas. Banda Angosta.- Es el caso de las conexiones a Internet de tipo telefónicas a velocidades de 28K o 56K. Utilizan un modem analógico sobre una línea de teléfono regular. Bit.- Es la representación de 0 y 1 para representar ausencia de señal o su presencia, 8 bits consecutivos forman un byte. Captura.- Es la conversión de un formato analógico de audio y video a un formato digital por medio de una computadora. CCD.- Son dispositivos de carga acoplada que son muy populares para la obtención de señales analógicas hacia una cámara. CD-ROM.- Arquitectura o medio físico para almacenar información mediante pulsos ópticos. Crominancia.- La crominancia es el componente de la señal de vídeo que contiene las informaciones del color. Códec.- Un algoritmo de compresión y descompresión. Un codificador de archivos utiliza el códec para comprimir los archivos de multimedios mientras que el reproductor los descomprime y reproduce. Codificación.- Es la compresión y paquetización de video y audio para convertirlos a formato tipo streaming.

Glosario de términos

- 138 - -

Convergencia.- Es la precisión con la que coinciden en un solo punto los tres haces del tubo de rayos catódicos. Si existe una diferencia en ellos observaremos que se pierden las señales y no existe la convergencia. Cuadro o Frame.- Es una sola imagen del video formada como resultado del haz de electrones. Para formarla se necesitan dos campos. DCT.- Hace alusión a la transformada discreta del coseno, es usada para la compresión espacial utilizada en los estándares MPEG. Ecualización.- Es el ajuste de las frecuencias de audio a ciertos niveles, esto se da para dejar pasar por ejemplo sonidos mas graves o mas agudos. Fader.- Es un switch de una consola que permite aumentar o disminuir ya sea una imagen o un nivel sonoro. Firewire.- Es un estándar para transmisión de video para el formato DV hacia una computadora. Intranet.- Es una red privada para ofrecer contenidos similares a los que se ofrecen en Internet pero limitados a uso corporativo o personal. IRE.- Instituto de Radio Ingenieros, es una medición del nivel de video en función de la luminosidad que este tiene, es marcado por unidades de 10 en un medidor forma de onda. Luminancia.- Parte de la señal de video que consiste en el brillo de la señal (blanco y negro). MPEG.- Viene de las siglas de Moving Picture Experts Group. Que seria algo así como Grupo de Expertos en Imágenes en movimiento, es un grupo dentro de los estándares ISO/IEC que marca la pauta en los estándares para la codificación de archivos de audio y video. MPEG-1.- Compresión de audio y video para CD-ROM. MPEG-2.- Estándar de compresión para televisión y DVD. MPEG-4.- Codificación de objetos con multimedios enriquecidos, utilizado para uso en dispositivos móviles. MP3.- Es el códec de audio del estándar MPEG-1, capa 3. Multicast.- Significa que es una transmisión en vivo para una gran audiencia que requiere de un solo flujo de información transmitido por el servidor hacia todos los clientes.

Glosario de términos

- 139 - -

NTSC.- Es el estándar para televisión de color analógica, este es compatible con el antiguo RS-170 que es para televisión monocromática, su frecuencia es de 60 hz. y 525 líneas. PAL.- Es el estándar europeo que consiste en alternar las líneas de fase su frecuencia es de 50 hz. y 625 líneas. Plug-in.- Es un pequeño software que hace interconexión entre un navegador de Internet y ciertos formatos de archivos un ejemplo claro es el de flash. Relacion de aspecto.- Es como esta expresada la pantalla en función del ancho contra el largo por lo general se tienen dos relaciones de aspecto 4:3 y 16:9 RGB.- Red, Green ,Blue son los colores primarios con los que se forman las imagen dentro de un tubo de rayos catódicos. Streaming.- Se refiere a la transportación de información mediante flujos de datos. Generalmente usada para entregar flujos de archivos de audio y video. Video compuesto.- Es la combinación de las tres señales de video por medio de un solo cable.

Bibliografía

- 140 -

BIBLIOGRAFIA [1] Get streaming! : Quick Steps to delivering audio and video online. Joe Follansbee. 2004. Ed. Elsevier. [2] The technology of video and audio streaming. David Austberry. 2005. Ed. Elsevier [3] Streaming Media: Building and implementing a complete streaming system. Gregory C. Deme triades. 2003. Wiley Publishing Inc. [4] Hands-On Guide to Streaming Media, Second Edition : an Introduction to Delivering On-Demand Media (The Focal Hands-on Guide Series.) (Hands-On Guide Series). 2006. Joe Follansbee. Ed. Elsevier. [5] Video Over IP, Second Edition: IPTV, Internet Video, H.264, P2P, Web TV, and Streaming: A Complete Guide to Understanding the Technology (Focal Press Media Technology Professional Series). Wes Simpson. Ed. Focal Press. [6] Hands-On Guide to Webcasting: Internet Event and AV Production (Hands-On Guide Series). Steve Mack, Dan Rayburn. Ed. Wiley Publishing Inc. [7] Principles of Digital Audio, 4th Edition . Ken Pohlmann. McGraw-Hill/TAB Electronics. [8] Art of Digital Audio, Third Edition. John Watkins on. Ed. Focal Press. [9] Digital Audio Technology: A Guide to CD, MiniDisc, SACD, DVD(A), MP3 and DAT, Fourth Edition. Jan Maes, Marc Vercammen. Ed. Elsevier. [10] Estudios y controles para grabación Sonora. Manuel Recuero López. Instituto Politécnico Nacional. 1991. [11] Ingeniería Acústica. Manuel Recuero López. Paraninfo 1999. [12] Fundamentals of Hearing. William A. Yost Ed. Elsevier. [13] How Video Works. Marcus Weise, Diana Weynand. Ed. Focal Press. [14] H.264 and MPEG-4 Video Compression: Video Coding for Next Generation Multimedia . I.E. G Richardson Ed. Wiley 2003. [15] Streaming Media Demystified (McGraw-Hill Telecom) . Michael Topic. 2005. McGraw-Hill. [16] Flash Video for Professionals: Expert Techniques for Integrating Video on the Web. Lisa Larson, Renee Constantine. Ed. Sybex- Wiley 2007. [17] Video Codec Design: Developing Image and Video Compression Systems. Iain Richardson. Ed. Wiley. [18] Redes Locales. RAYA, José Luis, RAYA, Laura Ed. Alfa omega. 2006 [19] Domine XHTML y CSS. José López. Alfa omega 2008. [20] Wireless Networks First-Step (First-Step Series). Jim Geier. Cisco Press. [21] Software Copernic para búsquedas profundas en Internet. [22] http://www.clipbucket.com [23] http://www.youtube.com [24] http://www.videotutoriales.com [25] http://es.wikipedia.org/wiki/Streaming [26] http://www.apple.com [27] http://www.adobe.com [28] http://www.real.com [29] http://www.microsoft.com/windowsmedia