Video y Redes

29
Codificación de video en alta definición para transmisión en redes móviles Generalidades de la compresión y codificación de video Compresión video Las conexiones de alta velocidad actualmente son comunes y la capacidad de almacenamiento de los discos duros, memorias flash y soporte óptico es mayor que nunca. Los precios de transmisión se abaratan continuamente, las aplicaciones multimedia exigen mejor poder de procesamiento y el consumidor exige cada vez más calidades altas en sonido e imagen, en este último es necesaria la compresión de video. La comprensión de video posibilita el uso de imagen digital en entornos escasos de recursos que permitan el uso de video sin comprimir. Por ejemplo, las tasas de rendimiento de Internet son insuficientes para manejar vídeo original sin pérdidas en tiempo real, incluso a bajas velocidades de cuadro y minúsculos tamaños de trama; además, permite un uso más eficiente de los recursos de transmisión y almacenamiento. Una señal portadora de información puede comprimirse mediante la eliminación de la redundancia de la señal. En un sistema de compresión sin pérdida se elimina la redundancia estadística de modo que la señal original puede ser perfectamente reconstruida en el receptor. Estos métodos sin pérdidas sólo pueden alcanzar una pequeña cantidad de compresión de señal de imagen y vídeo. Las técnicas de compresión de vídeo más prácticas se basan en la compresión con pérdida, en la que se consigue una mayor compresión con la desventaja de que la señal decodificada no es idéntica a la original. El objetivo de un algoritmo de compresión de vídeo es lograr compresión eficiente minimizando la distorsión introducida por el proceso de compresión. Los algoritmos de compresión de vídeo funcionan mediante la eliminación de redundancia en los dominios temporales, espaciales

description

historia de codificacion de video y redes móviles

Transcript of Video y Redes

Page 1: Video y Redes

Codificación de video en alta definición para transmisión en redes móviles

Generalidades de la compresión y codificación de video

Compresión video

Las conexiones de alta velocidad actualmente son comunes y la capacidad de almacenamiento de los discos duros, memorias flash y soporte óptico es mayor que nunca. Los precios de transmisión se abaratan continuamente, las aplicaciones multimedia exigen mejor poder de procesamiento y el consumidor exige cada vez más calidades altas en sonido e imagen, en este último es necesaria la compresión de video.

La comprensión de video posibilita el uso de imagen digital en entornos escasos de recursos que permitan el uso de video sin comprimir.  Por ejemplo, las tasas de rendimiento de Internet son insuficientes para manejar vídeo original sin pérdidas en tiempo real, incluso a bajas velocidades de cuadro y minúsculos tamaños de trama; además, permite un uso más eficiente de los recursos de transmisión y almacenamiento.

Una señal portadora de información puede comprimirse mediante la eliminación de la redundancia de la señal. En un sistema de compresión sin pérdida se elimina la redundancia estadística de modo que la señal original puede ser perfectamente reconstruida en el receptor. Estos métodos sin pérdidas sólo pueden alcanzar una pequeña cantidad de compresión de señal de imagen y vídeo. Las técnicas de compresión de vídeo más prácticas se basan en la compresión con pérdida, en la que se consigue una mayor compresión con la desventaja de  que la señal decodificada no es idéntica a la original. El objetivo de un algoritmo de compresión de vídeo es lograr compresión eficiente minimizando la distorsión introducida por el proceso de compresión.

Los algoritmos de compresión de vídeo funcionan mediante la eliminación de redundancia en los dominios temporales, espaciales o frecuencia. En una imagen se realiza una compresión, reduciendo en un 70% de la información de la imagen original, las diferencias se notan por el intento de suavizado en área azul lo que produce anillos, mientras en el área gris estas reducciones de información no son relevantes para el ojo humano.

Page 2: Video y Redes

Imagen sin comprimir

Imagen con el 70% de información menos

Page 3: Video y Redes

En un video se muestra un instrumento musical, que presenta poca variación en el contenido de la imagen y por lo tanto hay redundancia espacial, al ser comprimido algunos detalles del instrumento y del fondo se han eliminado pero la imagen sigue siendo reconocible por el ojo humano.

Imagen tomada de un video musical, detalle de instrumento.

Imagen tomada de video musical comprimida, los detalles en el instrumento y el fondo se reducen.

Page 4: Video y Redes

Video Analógico

En una imagen fija existe una distribución espacial de intensidad constante con respecto al tiempo. El video por lo tanto, es un patrón de intensidad espacial que cambia con el tiempo. Otro término común para el vídeo es una secuencia de imágenes.

El vídeo tradicionalmente ha sido capturado, almacenado y transmitido en forma analógica. El término señal de vídeo analógica se refiere a una señal eléctrica unidimensional de tiempo que se obtiene por muestreo del patrón de intensidad de vídeo en coordenadas verticales y temporales, luego se convierte la intensidad a una representación eléctrica. Este proceso de muestreo es conocido como exploración o barrido.

La exploración de la trama comienza en la esquina superior izquierda y avanza horizontalmente, con una ligera pendiente vertical, a través de la imagen. Cuando llega al borde derecho regresa al borde izquierdo e inicia una nueva línea de barrido. Al llegar a la esquina inferior derecha, un cuadro completo se ha escaneado, regresando al borde superior izquierdo para comenzar un nuevo marco. Durante el retorno hay un instante de supresión y se inserta pulsos de sincronización.

Los métodos de exploración de trama más utilizados son el progresivo y entrelazado. El modo progresivo el barrido para formar un cuadro de imagen se realiza en un solo recorrido (1:1) mientras en el método entrelazado la imagen se forma con el recorrido de una línea par que cubre un campo mientras una línea impar cubre el segundo campo (2:1), al intercalarse los dos campos forman un solo cuadro.

La primera figura es el método de exploración progresivo y la segunda es el método de exploración intercalado

Page 5: Video y Redes

La relación de aspecto, resolución vertical, velocidad de fotogramas, y frecuencia de actualización son parámetros importantes de la señal de vídeo. La relación de aspecto es la relación de la anchura a la altura de un marco. La resolución vertical está relacionado con el número de líneas de exploración por trama (incluyendo los intervalos de borrado). La velocidad de fotogramas es el número de fotogramas escaneados por segundo. El efecto de movimiento suave se puede lograr utilizando una velocidad de unos 25-30 cuadros por segundo. Sin embargo, a estas velocidades de cuadro el ojo humano capta el parpadeo producido. Para evitar esto, la tasa de actualización de la pantalla debe estar por encima de 50 Hz.

Existen diferentes combinaciones de los parámetros de vídeo. Por ejemplo, en la computación se utiliza la exploración progresiva con una velocidad de 72 cuadros por segundo. La televisión utiliza exploración entrelazada. En este caso, el tipo de campo se establece en 50 o 60 cuadros por segundo para evitar el parpadeo por refresco o actualización,  mientras que la velocidad de cuadro (que, en el vídeo entrelazado, es la mitad de la tasa de actualización) es de 25 o 30 cuadros por segundo para mantener el movimiento suave. El ahorro en ancho de banda es a expensas de la resolución vertical. Existen dos principales sistemas de escaneo en televisión: 625/50 (625 líneas de barrido y 50 cuadros por segundo) y 525/60.

Color

La mayoría de las aplicaciones de vídeo digital se basan en la visualización de imágenes en color y por lo tanto necesitan un mecanismo para capturar y representar la información cromática. Una imagen monocromática figura... requiere sólo un número para indicar el brillo o luminancia de cada muestra espacial. Las imágenes en color, por el contrario, requieren al menos tres números por posición de píxel para representar el color con precisión. Figura … El método elegido para representar el brillo (luminancia) y el color se describe como un espacio de color.

El ojo humano percibe el color a través de tres tipos de foto receptores llamados conos, células sensibles al rojo, azul y verde. En consecuencia, un vídeo en color puede ser producido por la superposición de tres señales de vídeo. Cada señal representa uno de los tres colores primarios: rojo, verde y azul (RGB). La televisión y los sistemas de video convierten cada representación RGB a diferentes espacios de color con diferente luminancia relacionada, desde luego, con la percepción de brillo, y crominancia relacionada con la percepción de color y saturación. Esta representación sirve para dos propósitos. En primer lugar, la luminancia asegura la compatibilidad con vídeo monocromo. En segundo lugar, esta representación se presta más fácilmente a la compresión de vídeo.

Page 6: Video y Redes

Imagen a escala de grises

El sistema visual humano (HVS) es menos sensible a color (crominancia) que al brillo (luminancia). En el espacio de color RGB los tres colores son igualmente importantes y por lo tanto generalmente se almacenan en la misma resolución pero es posible representar una imagen en color de manera más eficiente mediante la separación de la luminancia de la información de color y representar este brillo con una resolución superior a la del color.  Por lo tanto, las señales de crominancia pueden ser de banda limitada o submuestreadas sin perder comprensión visual.

El espacio de color YCbCr y sus variaciones (a veces denominado YUV) es una forma de representar imágenes en color. Y es el componente de luminancia (llamado luma en los textos en inglés) y puede ser calculado como una media ponderada de R, G y B:

Y = kr R + kgG + kbB

k es un factor de ponderación.

Sistemas de codificación de color: Línea de Fase Alternada (Phase Alternation Line PAL), Color Secuencial con Memoria (Sequential Couleur Avec Memoire SECAM) y Comité del Sistema Nacional de Televisión (National Television System Committee NTSC). Se

Page 7: Video y Redes

diferencian principalmente en la forma de calcular los componentes de crominancia luminancia de los componentes RGB.

Componentes para el sistema PAL

Y  = +0:299R + 0:587G + 0:114B;

U = Cb = −0:147R − 0:289G + 0:436B =0:493(B − Y);

V = Cr = +0:615R − 0:515G − 0:100B =0:877(R − Y)

Los sistemas NTSC y SECAM calculan Y de la misma manera pero utilizan coeficientes diferentes para la obtención de los componentes cromáticos

Formatos de muestreo

Como la visión humana es menos sensible para el color comparado con el brillo, se puede disminuir la necesidad de ancho de banda para el muestreo de los componentes de crominancia sin afectar la luminancia. Los patrones más utilizados son: patrón de muestreo 4:4:4 significa que los tres componentes (Y, Cb y Cr) tienen la misma resolución y por lo tanto existe una muestra de cada componente en cada posición de píxel. Los números indican la frecuencia de muestreo relativa de cada componente en la dirección horizontal, es decir, para cada cuatro muestras de luminancia hay cuatro muestras de Cb y Cr. 4:4:4 de muestreo conserva la fidelidad completa de los componentes de crominancia. En muestreo 4:2:2 (a veces referido como YUY2), los componentes de crominancia tienen la misma resolución vertical que de luminancia, pero la mitad de la resolución horizontal. Los números 4:2:2 significa que por cada cuatro muestras de luminancia en la dirección horizontal hay dos Cb y Cr dos muestras. 4:2:2 se utiliza para la reproducción de video en color de alta calidad. En muestreo 4:2:0 ('YV12'), Cb y Cr tienen cada uno la mitad resolución de la horizontal intercaladamente.   fig…..

Page 8: Video y Redes

Formato 4:4:4

Formato 4:2:2

Formato 4:2:0

Page 9: Video y Redes

Video digital

El vídeo digital tiene las siguientes ventajas sobre el vídeo analógico: Facilidad de edición, mejora y creación de efectos especiales; Fácil conversión de software desde un estándar a otro, siendo en el video analógico de alto costo por el uso de transcodificadores; Robustez al ruido y la facilidad de cifrado; facilidad de provisión del mismo servicio en un amplio rango de redes y plataformas de hardware;  Interactividad; Facilidad de indexación, búsqueda y recuperación.

Estas ventajas permiten una serie de nuevas aplicaciones y servicios como la interactividad, la búsqueda y recuperación de información, vídeo bajo demanda televisión de alta definición HDTV. Videoconferencia y videoteléfonos Otras aplicaciones incluyen sistemas de carreteras inteligentes de control tráfico, imágenes médicas, vigilancia y simulación de vuelo.

Digitalización

El proceso de digitalización de vídeo consta de tres operaciones básicas: filtrado, muestreo y cuantificación. Si el contenido de frecuencia de la señal analógica de entrada supera el promedio de frecuencia de muestreo, se producirá un efecto aliasing. Por lo tanto, se utiliza la operación de filtrado para limitar la banda de la señal de entrada y acondicionarlo para la siguiente operación de muestreo.

La amplitud de la señal analógica filtrada es muestreada en instantes de tiempo específicos para generar una señal de tiempo discreto. La tasa de muestreo mínimo se conoce como la tasa de Nyquist y es igual a dos veces el ancho de banda de la señal.

Las muestras de tiempo discreto resultantes tienen valores de amplitud infinitos, entonces, para superar esta dificultad se realiza la operación de cuantificación que se utiliza para asignar tales valores en un conjunto finito de amplitudes discretas que pueden ser representados por un número finito de bits.

Un PEL o Pixel es un elemento de imagen (picture element) y es una muestra de  tiempo y amplitud discreto. Los PEL o Pixeles son ordenados en una matriz bidimensional conformando una imagen fija digital, al realizar una secuencia se crea un video digital.

Para vídeo en color, las operaciones anteriores se repiten para cada componente. Por lo tanto, una imagen digital de imágenes fijas normalmente es representada por tres matrices 2-D.

Page 10: Video y Redes

Formatos digitales de video

El video es convertido a un formato intermedio antes de la compresión y la transmisión. El Formato intermedio común (CIF) es la base para  Sub-QCIF, QCIF y 4CIF. La elección de la resolución de la trama depende de la aplicación y de almacenamiento disponible o capacidad de transmisión. Por ejemplo, 4CIF es apropiado para la televisión de definición estándar y DVD; CIF y QCIF son para aplicaciones de videoconferencia; QCIF o SQCIF son apropiados para aplicaciones multimedia móviles donde la resolución de pantalla y la tasa de bits son limitadas.

Un formato ampliamente utilizado de codificación digital de señales de vídeo para la producción de la televisión es la Recomendación UIT-R BT.601-5. El componente de luminancia de la señal de vídeo se muestrea a 13,5 MHz y la crominancia a 6,75 MHz para producir una señal YCrCb 4:2:2. Los parámetros de la señal digital muestreado dependen de la velocidad de fotogramas de vídeo (30 Hz para una señal NTSC y 25 Hz para una señal PAL o SECAM). Cuanto mayor sea la velocidad de fotogramas de 30 Hz de NTSC se compensa con una resolución espacial inferior de modo que la tasa total de bits es la misma en todos los casos (216 Mbps). El área real que se muestra en la pantalla, el área activa, es menor que el total porque excluye intervalos de borrado horizontal y vertical que existen fuera de los bordes del cuadro.

Cada muestra tiene un rango posible de 0 a 255. Los niveles de 0 y 255 están reservados para la sincronización y la señal de luminancia activa se limita a un rango de 16 (negro) a 235 (blanco).

En sistemas de televisión de alta definición  HDTV utilizan una resolución  1440x1050 a 30 fotogramas por segundo con escaneo progresivo y sin submuestreo cromático esto es formato  4: 4: 4.

Estándares de codificación de video

Los sistemas de codificación de video son importantes para lograr una transmisión óptima según la aplicación que se desea. Sin estos sistemas de codificación sería imposible realizar algún tipo de transmisión.

Velocidad necesaria para transmisión de datos en su formato original

Formato Velocidad transmisión

HDTV 1.09 Gbps

CCIR-601 165.89 Mbps

Page 11: Video y Redes

CIF @ 15 f.p.s. 18.24 Mbps

QCIF @ 10 f.p.s. 3.04 Mbps

Aplicaciones

HDTV (6-MHz channel) 20 Mbps

Desktop video (CD-ROM) 1.5 Mbps

Videoconferencing (ISDN) 384 Kbps

Videophone (PSTN) 56 Kbps

Videophone (GSM) 10Kbps

La compresión es el proceso de compactación de datos en un número menor de bits. La compresión de vídeo (codificación de vídeo) es el proceso de compactación o condensación de una secuencia de vídeo digital en un número menor de bits. El vídeo digital sin comprimir requiere normalmente una gran tasa de bits, aproximadamente 216 Mbps para calidad de TV sin comprimir. La compresión es necesaria para el almacenamiento práctico y transmisión de vídeo digital.

Elementos de la compresión

Las señales de vídeo contienen tres tipos de redundancia: estadístico, sicovisual, y la redundancia de codificación. La redundancia estadística está presente debido a que ciertos patrones de datos son más probables que otros. Esto se debe principalmente a la alta correlación tanto espacial (intracuadro) como temporal (intercuadro) entre pixeles

Page 12: Video y Redes

vecinos. La redundancia sico visual es debido al hecho de que el HVS es menos sensible a cierta información visual que a otra. Si el vídeo se codifica de una manera que utiliza cada vez más símbolos de código de lo absolutamente necesario, se dice que contiene redundancia de codificación. La compresión de vídeo se logra mediante la reducción o la eliminación de estas redundancias.

Elementos principales de un codificador de vídeo. Cada elemento está diseñado para reducir uno de las tres redundancias básicas. El mapeador transforma los datos en bruto de entrada en una representación que está diseñado para reducir la redundancia estadística y hacer que los datos sean más susceptibles a la compresión en etapas posteriores. La transformación es un mapeo uno a uno y es, por lo tanto, reversible.

El cuantificador reduce la exactitud de la salida del mapeador, de acuerdo con algún criterio de fidelidad, para reducir la redundancia sicovisual. Este mapeo varios a uno y es, por lo tanto, irreversible.

El codificador de símbolos asigna una palabra de código, una cadena de bits binarios, a cada símbolo en la salida del cuantificador. El código debe ser diseñado para reducir la redundancia de la codificación. Esta operación es reversible.

en los métodos sin perdidas al comprimir y descomprimir los datos son idénticos a los datos originales. Esto significa que tales métodos no emplean un cuantificador. En los métodos con pérdidas los datos reconstruidos no son idénticos a los datos originales, hay pérdida de información debido al proceso de cuantificación. Tales métodos son, por tanto, irreversibles, y por lo general logran una mayor compresión que los métodos sin pérdidas.

MPEG-4 y H.264

MPEG-4 Visual y H.264 (también conocido como Advanced Video Coding) son estándares para la representación codificada de la información visual. Cada estándar es un documento que define principalmente dos cosas, una representación codificada (o sintaxis) que describe los datos visuales en una forma comprimida y un método de decodificación de la sintaxis para reconstruir la información visual. Cada norma tiene por objeto garantizar que los codificadores y decodificadores compatibles pueden funcionar con éxito con los demás, al tiempo que permite a los fabricantes la libertad para desarrollar productos competitivos e innovadores. Las normas específicamente no definen un codificador; más bien, definen la salida de un codificador y que debe producir. Un método de decodificación se define en cada estándar, pero los fabricantes son libres de desarrollar decodificadores alternativos, siempre y cuando logren el mismo resultado que el método en la norma. MPEG-4 Visual fue desarrollado por el Moving Picture Experts Group (MPEG), un grupo de trabajo de la Organización Internacional de Normalización (ISO). Este grupo de varios cientos de expertos y técnicos se reúnen a intervalos de 2-3 meses para desarrollar la serie de normas MPEG. MPEG-4 fue concebido por primera vez en 1993 y se estandarizó en 1999. El esfuerzo de estandarización H.264 fue iniciada por

Page 13: Video y Redes

los expertos Video Coding Grupo (VCEG), un grupo de trabajo de la Unión Internacional de Telecomunicaciones (UIT-T) que funciona de una manera similar a MPEG y ha sido responsable de una serie de normas de telecomunicaciones visuales. Las etapas finales de desarrollo de la norma H.264 se han llevado a cabo por el Equipo de Vídeo Conjunto, un esfuerzo de colaboración de ambos VCEG y MPEG, por lo que es posible la publicación de la norma final bajo los auspicios conjuntos de la norma ISO / IEC (como MPEG-4 Parte 10) y UIT-T (como la Recomendación H.264) en 2003. MPEG-4 y H.264 se han relacionado pero son significativamente diferentes. Ambos tienen que ver con la compresión de datos visuales, de MPEG-4 Visual se enfatiza la flexibilidad mientras el énfasis de H.264 está en la eficiencia y fiabilidad.

MPEG-4 Visual ofrece un conjunto de herramientas altamente flexible de técnicas y recursos de codificación, por lo que es posible hacer frente a una amplia gama de tipos de datos visuales, incluyendo cuadros rectangulares (material de vídeo "tradicional"), objetos de vídeo (regiones en forma arbitraria de una representación visual escénica), las imágenes y los híbridos de origen natural (mundo real) y la información visual sintética generada por computadora. MPEG-4 Visual proporciona su funcionalidad a través de un conjunto de herramientas de codificación, organizados en "perfiles", agrupaciones recomendadas de herramientas adecuadas para ciertas aplicaciones. Clases de perfiles incluyen perfiles 'simples' (codificación de fotogramas de vídeo rectangulares), perfiles basados en objetos, codificación de los objetos visuales en forma arbitraria, perfiles y textura, codificación de imágenes fijas, perfiles escalables, codificación en múltiples resoluciones o los niveles de calidad y los perfiles de estudio, que codifica aplicaciones de estudio de alta calidad.

En contraste con el enfoque altamente flexible de MPEG-4 Visual, H.264 se concentra específicamente en la compresión eficiente de fotogramas de vídeo. Las principales características de la norma incluyen la eficiencia de compresión, que proporciona significativamente mejor compresión que cualquier norma anterior, la eficiencia de transmisión, con una serie de características integradas de apoyo, la transmisión robusta fiable en un rango de canales y redes y un enfoque en aplicaciones populares de compresión de vídeo. Sólo tres perfiles están soportados actualmente en contraste con casi 20 en MPEG-4 Visual, cada uno dirigido a una clase de aplicaciones de comunicación de vídeo muy utilizados. El perfil de línea de base puede ser particularmente útil para aplicaciones de "conversación", tales como la videoconferencia, el perfil extendido añade herramientas adicionales que pueden ser útiles para la transmisión de vídeo a través de redes y el perfil principal incluye herramientas que pueden ser adecuados para aplicaciones de consumo tales como transmisión de video y el almacenamiento.

Conclusión

Page 14: Video y Redes

Imagen y compresión de vídeo ha sido un campo muy activo de investigación y desarrollo durante más de 20 años y muchos sistemas y algoritmos de compresión y descompresión diferentes se han propuesto y desarrollado. Con el fin de fomentar la interconexión, la competencia y la mayor oferta, ha sido necesario definir métodos estándar de codificación de compresión y descodificación para permitir que los productos de diferentes fabricantes para comunicarse efectivamente. Esto ha llevado al desarrollo de una serie de normas internacionales clave para la imagen y vídeo compresión, incluyendo el JPEG, MPEG y H.26 × serie de normas.

GSM 3G 4G

A principios de la década de 1990, GSM, Sistema Global para Comunicaciones Móviles genera un cambio sin precedentes en la forma de comunicarse. Mientras al comienzo los sistemas analógicos inalámbricos fueron utilizados por sólo un limitado grupo de usuarios, GSM produjo una masificación en el acceso a los sistemas de comunicación inalámbricos y hoy en día es utilizada por millones de suscriptores en todo el mundo. Esta masificación se ha logrado por los constantes desarrollos en todos los aspectos de la tecnología de las telecomunicaciones y la disminución en los costos resultantes tanto para la infraestructura, equipos y dispositivos móviles que se ven reflejados a su vez en los costos del servicio para el usuario.

La red de telecomunicaciones móvil GSM ha sido diseñada como una red de conmutación de circuitos de una manera similar a las redes de telefonía de línea fija. Al comienzo de una llamada, la red establece una conexión directa entre dos partes, que luego se utiliza exclusivamente para esta conversación. Como se muestra en la Figura 1.1, el centro de conmutación utiliza una matriz de conmutación para conectar cualquier punto origen a cualquier destino. Una vez que la conexión se ha establecido, la conversación es transmitida de forma transparente a través de la matriz de conmutación entre las dos partes. El centro de conmutación sólo se activa de nuevo para desactivar la conexión en la conmutación matriz si una de las partes quiere poner fin a la llamada. Este enfoque es idéntico en las redes de comunicaciones móviles y las redes de línea fija.

Page 15: Video y Redes

Figura 2.1 matriz de conmutación

A mediados de la década de 1980 las llamadas de voz son el servicio más importante en las redes fijas e inalámbricas. Esta es la razón por la GSM fue inicialmente diseñado y optimizado para la transmisión de voz. Desde mediados de la década de 1990, sin embargo, la importancia de Internet ha ido en constante aumento. GPRS, el Servicio General de Radio de Paquetes, mejora el estándar GSM para el transporte de datos de manera eficiente y se desarrollan dispositivos inalámbricos habilitados para acceder a Internet. Con la mejora para la Evolución de GSM (EDGE), se especifican otras características para mejorar la velocidad y la latencia.

Con la actualización EDGE del sistema GSM, se hicieron nuevas mejoras de velocidad. Las mejoras de EDGE para GPRS se llaman EGPRS en las normas. El término, sin embargo, No es ampliamente utilizado en la práctica y la preferencia se le ha dado al término EDGE. Con un dispositivo móvil EDGE clase 32, es posible alcanzar velocidades de transmisión de hasta 270 kbit / s en las redes actuales. A pesar de la mayoría de los operadores usaron Universal Mobile Telecommunications System (UMTS) y High- Speed Packet Access (HSPA) en redes y al mismo tiempo GSM, muchos operadores de red optaron por mejorar su Redes GPRS a EDGE. La capacidad de red adicional y beneficios velocidad 2G ofrece velocidades de transmisión de datos más alta en lugares con limitada conexión a 3G y Long-Term Evolution (LTE).

El Sistema Universal de Telecomunicaciones Móviles (UMTS) es una red inalámbrica de tercera generación sistema de telecomunicaciones y siguió los pasos de Sistema Global para Comunicaciones Móviles (GSM) y el General Packet Radio Service (GPRS). Desde cuando GSM se estandarizó en la década de 1980, se habían realizado enormes progresos en muchas áreas de las telecomunicaciones. Esto permitió a los diseñadores

Page 16: Video y Redes

de los sistemas de comunicaciones móviles al final de la década de 1990 desarrollar un nuevo sistema que iba mucho más allá de las capacidades de GSM y GPRS. UMTS combina las propiedades de comunicación por voz con conmutación de circuitos con las propiedades de la red de datos de conmutación de paquetes y ofrece una multitud de nuevas posibilidades en comparación con los sistemas anteriores. UMTS no se definió a partir de cero y reutiliza una gran cantidad de las redes GSM y GPRS.

En el mundo móvil, GPRS, con su esquema de transmisión orientado a paquetes fue el primer paso hacia el internet móvil con bit-rates de alrededor de 50 kbit / s en la dirección de enlace descendente para redes operativas, velocidades similares a las de las líneas fijas contemporánea. Nuevos esquemas de modulación como la interfaz EDGE han aumentado desde entonces la velocidad a cerca de 150 a 250 kbit / s por usuario en las redes operacionales. Sin embargo, incluso con EDGE, algunas limitaciones de la red de radio tales como la naturaleza intervalo de tiempo de una transmisión de banda estrecha 200 kHz-canal, GSM esquemas de acceso medio y retardos de transmisión más largos en comparación con la transmisión de datos de telefonía fija no se pueden superar. Por lo tanto, un mayor aumento en la velocidad de transmisión fue difícil de lograr con la interfaz aérea GSM. Desde las primeras redes GSM entraron en servicio a comienzos de la década de 1990, el aumento de la potencia de cálculo y capacidad de memoria no se ha detenido. De acuerdo con la ley de Moore, el número de transistores en circuitos integrados crece exponencialmente. Por lo tanto, el poder de procesamiento de los procesadores de hoy en día se utiliza en las redes móviles está en órdenes de magnitud más que el de los procesadores de los días GSM temprana. Esto a su vez permite el uso de mucho más métodos de transmisión de interfaz de aire de computación intensiva que utilizan el ancho de banda escaso en la interfaz de aire con más eficacia que la interfaz aérea GSM comparativamente simple. Para UMTS, se utilizaron consistentemente estos avances. Aunque la comunicación de voz era la aplicación más importante para un sistema de comunicación inalámbrica GSM cuando se diseñó, se hizo evidente a finales de la década de 1990 que los servicios de datos podrían desempeñar un papel cada vez más importante en las redes inalámbricas. Por lo tanto, la convergencia de servicios de voz y datos de alta velocidad en un solo sistema ha sido una fuerza impulsora en la estandarización de UMTS revoluciona los sistemas de comunicación movil. Mientras que la red de acceso radio UMTS (UTRAN) fue un desarrollo completamente nuevo, se reutilizaron muchos componentes de la red de núcleo GSM, con sólo unos pocos cambios, para la primera etapa de UMTS. Las nuevas mejoras de núcleo y de la red de radio fueron especificados para la implementación del sistema. Hoy en día, este proceso aún continúa, no sólo con el UMTS, sino también con la evolución a largo plazo (LTE) y las redes de acceso de radio LTE-Advanced que siguieron los pasos de UMTS.

4G

4G es una abreviatura de cuarta generación, que es un término utilizado para describir el paso siguiente en la evolución de la comunicación inalámbrica. sistema inalámbrico 4G proporciona una solución completa en aplicaciones y servicios multimedia pueden ser entregados al usuario en cualquier momento y en cualquier lugar con una alta velocidad

Page 17: Video y Redes

de transmisión de datos, con alta seguridad, prestando un servicio de primera calidad de primera calidad, que no se puede lograr utilizando el infraestructura inalámbrica actual 3G (tercera generación). Aunque en el momento de sus implementaciones preliminares no existía aún una definición final para 4G, la Unión Internacional de Telecomunicaciones (UIT) recientemente UIT definió las IMT-Avanzadas como el éxito de las IMT-2000 (o 3G), por lo que algunas personas llaman a las IMT-Avanzadas como 4G informalmente. Claramente 4G ha mejorado con respecto a 3G significativamente no sólo en el ancho de banda, cobertura y la capacidad, sino también en muchas características avanzadas, tales como QoS, baja latencia, alta movilidad, y el apoyo de seguridad, etc. A continuación vemos la comparativa entre 3G y 4G en la tabla 1

3G 4G

PRIORIDAD Tiene prioridad la transmisión de voz

Integra transmisión de datos y multimedia sobre IP

ARQUITECTURA DE RED Redes a de área amplia Integra WLAN y redes de área amplia

ANCHO DE BANDA (bps) 384K-2M 100 M para receptor móvil

1 G cuando el receptor es estacionario

BANDA DE FRECUENCIA (GHz)

1.8-2.4 2-8

TIPO DE CONMUTACIÓN Conmutación de circuito y conmutación de paquetes

Solamente conmutación de paquetes

TECNOLOGÍA DE ACCESO

CDMA OFDMA

QoS y SEGURIDAD N/A Si soporta

TÉCNICAS DE ANTENA MÚLTIPLE

Soporte limitado Si soporta

Page 18: Video y Redes

SERVICION DE MULTICAST/BROADCAST

N/A Si soporta

Tabla 2.1 comparativa entre 3G y 4G

3GPP LTE

Long Term Evolution (LTE) se introdujo en el 3GPP (3rd Generation Partnership Project) Release 8 como el próximo gran paso para UMTS (Universal Mobile Telecommunications System). Proporciona una experiencia de usuario mejorada para las redes inalámbricas de banda ancha. LTE es compatible con un ancho de banda escalable desde 1,25 a 20 MHz, usando FDD (Frequency Division Duplex) y TDD (Time Division Duplex). Soporta una tasa máxima del downlink de 100 Mbps y el uplink con una tasa máxima de 50 Mbps en el canal de 20 MHz. La eficiencia del espectro se ha mejorado mucho con el fin de llegar a cuatro veces el HSDPA (High Speed Downlink Packet Access) para el downlink, y tres veces para el uplink. LTE también tiene una baja latencia de menos de 100 ms para el plano de control, y a menos de 5 ms para el plano de usuario.

FIGURA 2.2 integración de tecnologías a 4G

Page 19: Video y Redes

También es compatible sin problema alguno con las redes existentes, tales como GSM, CDMA y HSPA. Para los servicios multimedia, LTE ofrece tráfico basado en IP, así como la calidad de servicio (QoS) de extremo a extremo. LTE envolved UMTS Terrestrial Radio Acceso (E-UTRA) presenta las siguientes características:

Downlink basado en OFDMA. El esquema de transmisión de downlink para los modos E-UTRA FDD y TDD está basada en OFDM convencional, donde el espectro disponible se divide en múltiples sub-portadoras, y cada sub-portadora se modula de forma independiente por un flujo de datos en tasa baja. En comparación con OFDM, OFDMA permite a múltiples usuarios acceder al ancho de banda disponible y asigna recursos específicos de tiempo y frecuencia a cada usuario, por lo tanto los canales de datos son compartidos por varios usuarios de acuerdo a la programación. Por consiguiente la complejidad de OFDMA se incrementa en función de la programación de recursos, se logra sin embargo una mejora sustancial en la eficiencia y la latencia.

Uplink basado en SC-FDMA. Single-Carrier-Frequency Domain (Acceso múltiple por OFDMA) se utiliza para el uplink porque la señal OFDMA daría lugar a cobertura deficiente debido a su relación más débil de pico a potencia media (PAPR). El procesamiento de señal SC-FDMA es similar al procesamiento de señales OFDMA, por lo que la parametrización de downlink y de enlace uplink puede ser armonizada. DFT-spread-OFDM ha sido seleccionado para E-UTRA, donde se aplica un tamaño M-DFT a un bloque de M símbolos de modulación, y luego DFT transforma los símbolos de modulación en el dominio de la frecuencia; el resultado se asigna sobre las subportadoras disponibles. Claramente, el procesamiento DFT es la diferencia fundamental entre SC-FDMA y de generación de señal OFDMA, ya que cada sub-portadora de una señal OFDMA sólo lleva información relacionada con un sistema de modulación específico, mientras SC-FDMA contiene todos los símbolos de modulación transmitidos debido a la propagación proceso por la DTF.

LTE utiliza un sistema MIMO (múltiple entrada múltiple salida) con el fin de lograr un alto rendimiento y eficiencia espectral. Utiliza 2 × 2 (es decir, dos antenas de transmisión en la estación base y dos antenas de recepción en el lado terminal), 3 × 2 o 4 × 2 configuraciones MIMO para el downlink. Además, es compatible con LTE MBMS (multimedia de difusión de servicios de multidifusión), ya sea en una sola celda o en el modo de múltiples celdas.

Page 20: Video y Redes

WiMAX

WiMAX móvil es una parte de la interoperabilidad mundial para acceso por microondas. La tecnología (WiMAX) es una solución inalámbrica de banda ancha que permite la convergencia de las redes de banda ancha fijos y móviles a través de una amplia área de la tecnología de acceso de banda ancha de radio común y arquitectura de red flexible.

En Mobile WiMAX, un ancho de banda de canal escalable de 1,25 a 20 MHz se apoya en OFDMA escalable. WiMAX soporta una tasa de datos máxima de downlink hasta de 63Mbps y una velocidad de datos de uplink de hasta 28Mbps en el canal de 10MHz con técnicas de antena MIMO y esquemas sub canalización flexibles. La seguridad está protegida por encriptación de autenticación basada en EAP, AES-CCM y los planes de protección de mensajes de control basados en MAC y HMAC. Además, los esquemas de traspaso optimizados son compatibles con WiMAX móvil por latencias de menos de 50 milisegundos. En la capa física, la interfaz aérea OFDMA se adopta para downlink y el uplink, junto con TDD. FDD tiene el potencial para ser incluidos en el futuro con el fin de abordar las oportunidades específicas del mercado en los requisitos reglamentarios del espectro local, ya sea prohibir TDD o dar más disponibilidad para el despliegue FDD. Con el fin de mejorar la cobertura y la capacidad, algunas características avanzadas, como AMC (modulación adaptativa y codificación), HARQ (hybrid automatic repeat request), y CQICH (retroalimentación canal rápido), son compatibles. En Mobile WiMAX, QoS está garantizada por enlace rápido de aire, la capacidad asimétrica de downlink y uplink y el mecanismo de asignación de recursos flexible. Varios servicios de programación de datos son compatibles con el fin de manejar el tráfico de datos de estas magnitudes como condiciones de canal variables en el tiempo, la asignación de recursos en tiempo de frecuencia tanto en el uplink y downlink en función de cada marco, diferentes requisitos de calidad de servicio para uplink y downlink, etc.

Las características avanzadas de WiMAX móvil pueden resumirse en las siguientes:

Se admite una gama completa de tecnologías de antenas inteligentes incluyendo Beamforming, Código Espacio-Tiempo y multiplexación espacial. Se utiliza múltiples antenas para transmitir señales ponderadas utilizando Beamforming con el fin de reducir la probabilidad de interrupción y mejorar la capacidad del sistema y la cobertura; Por otra parte, la diversidad espacial y la reducción de margen de desvanecimiento son apoyados por STC, y SM ayuda a aumentar la velocidad de datos máxima y rendimiento.

Se usa reutilización sub-canal flexible con el apoyo de la segmentación del sub-canal y zona de permutación. Por lo tanto la reutilización de recursos es posible incluso para una pequeña fracción de todo el ancho de banda de canal.

Page 21: Video y Redes

Es compatible El Servicio de Multicast y Broadcast (MBS). Hasta el momento más de 350 ensayos y despliegues de las redes WiMAX se han anunciado por el Foro WiMAX, y muchas terminales de usuario final de WiMAX se han producido por Nokia, Motorola, Samsung entre otros fabricantes. Por otro lado, WiMAX se ha desplegado en un buen número de países en desarrollo como la India, Pakistán, Malasia, Oriente Medio y los países de África, etc.