SEÑAL DE VIDEO DIGITAL SUMARIO INTRODUCCIÓN HECHOS NOTABLES DIGITAL VS ANALÓGICO CARACTERÍSTICAS DE LA TV DIGITAL CONVERSIÓN ANALÓGICO — DIGITAL DE LA SEÑAL DE VIDEO DIGITALIZACIÓN DE IMÁGENES LINEA ACTIVA DIGITAL / NÚMERO DE PIXELES POR LÍNEA PLANTEAMIENTO DEL COLOR EN EL DOMINIO DIGITAL CODIFICACIÓN ¿CUÁL ES EL NÚMERO DE BITS NECESARIO PARA EXPRESAR UN NIVEL DE VIDEO? CUANTIFICACIÓN FILTRO PASO ALTO FRECUENCIA DE MUESTREO FORMATOS DIGITALES SIN COMPRESIÓN. ITU-R 601 LA NORMA 4:2:2. NORMA CCIR 601. CALIDAD ESTUDIO. PARA LA PRODUCCIÓN AUDIOVISUAL NORMA 4:1:1 PARA EL PERIODISMO ELECTRÓNICO ENG/EFP NORMA 4:2:0 PARA EL PERIODISMO ELECTRÓNICO ENG/EFP NORMA 4:4:4 FLUJO BINARIO DE LA VIDEO DIGITAL EN COMPONENTES; R, G, B. NORMA 4:4:4 (4x4) OTRAS NORMAS CCIR Norma SIF (Source Intermediate Format) y CIF ( Common IF) Norma QCIF ò ¾ CIF ANCHO DE BANDA DIGITAL
1
INTRODUCCIÓN A principios de los ochenta, las virtudes de las señales digitales ya son ampliamente conocidas y la implantación de una normativa que permita desarrollar equipos y aplicaciones es una demanda acuciante del sector. Como recoge Bendit, entre 19821983, el CCIR (Comité Consultivo Internacional para la Radiodifusión perteneciente al CCITT) se propone desarrollar una normativa de televisión digital para: Incorporar las ventajas de los sistemas digitales a la televisión: multigeneración, crear efectos especiales inaccesibles al vídeo analógico. Facilitar la compatibilidad entre sistemas y el intercambio de programas. Facilitar el desarrollo de equipos, estableciendo varias calidades (acordes a la calidad del producto) que permitan optimizar costes y producción. Para ello se aprueba la norma CCIR 601, donde se establecen los primeros estándares de producción para la televisión digital. En este momento aún se considera inviable el desarrollo de un sistema de difusión digital; ya que implicaba transmitir flujos de 270 Mbps. La mejora de calidad del sistema televisivo se orienta a sistemas analógicos de definición mejorada o de alta definición (desarrollar sistemas digitales de alta definición suponía trabajar con flujos cercanos al Gbps). El alto coste de los primeros sistemas de televisión en alta definición (MUSE en Japón y HDMAC para Europa y EEUU), el avance en digitalización junto a su poca demanda social acaba por frenar su desarrollo. Europa abandona los estudios de alta definición analógica a finales de 1991 y crea el European Launching Group (ELG) para estudiar la normalización de un sistema de ―difusión digital" que en 1993 dará lugar al proyecto Digital Video Broadcasting (DVB). Al otro lado del Atlántico, EE.UU. promueve un sistema propio de difusión digital, Advanced Television System Cornmittee (ATSC), con dos calidades: estándar, similar al analógico, y alta definición. A mediados de 1994 empiezan las primeras experiencias de Direct TV.
2
HECHOS NOTABLES 1970-80 Fase de experimentación. IBA
1980-83 Primeros Frutos: Conversor de normas Antes de los años 80, el paso de imágenes de un sistema a otro (PAL – NTSC), era muy malo. Se proyectaba sobre la cámara y se grababa. En eso consistía la conversión. El conversor de normas que aparece en la figura, almacena una imagen después de convertirla a 0 y 1, realizando la lectura de acuerdo a una frecuencia de reloj. El convertidor de normas, por ejemplo, coge la señal NTSC y la pasa a la memoria intermedia y sale en PAL (al pasar de NTSC a PAL, debo de añadir 100 líneas, interpoladas para que el ojo no se detenga a la hora de observarla). Por tanto, en la memoria habrá un conjunto de algoritmos, etc. Así los conversores de normas son transparentes, no degradan la señal. Con este conversor de norma se cambió la TV. Hoy en día cuestan entre 2 y 3 millones, dependiendo del número de bits que pase a la memoria (más bits, más definición). Efectos Siempre se ha dicho que una memoria es igual que un hotel, todo el mundo está localizado. Píxel: Picture Element Un píxel en pantalla consume 8 bit En TV: 720 pixel por línea La primera línea de TV está en el piso alto. Al final tanto la información de un cuadro en este almacén de memoria. Efectos que puede hacer: - Invertir la imagen. El píxel de la primera línea la pasa a la última y viceversa. Invierto la imagen. - Puedo tener zoom electrónico. - Coger unos pocos pixels, etc. - Imágenes a pantalla partida. - Mezclar varias imágenes. - El Chroma Key, que es analógico en un principio, posee grandes limitaciones que en digital no existen. - Hoy en día hay tantos efectos, que el problema no es crearla, si no interpretarlos semánticamente. Hoy día se utilizan muy poco (por ejemplo, el efecto página de abanico, en las Olimpiadas, para cambiar de máquinas). Hoy día, no hay limitación electrónica para los efectos. Estabilización lectura magnetoscopios (TBC) En el analógico, los magnetoscopios siempre ―tiemblan‖, llamado ―glitter‖, producido por el temblor mecánico. La lectura de un magnetoscopio, sin TBC es asíncrono. La inestabilidad mecánica, hace que el color no sea real, al variar la portadora, etc. Antes las películas se emitían en telecine, encontrándose en todas las Televisiones, pasando alas productoras de Transferencias al aparecer el TBC, en los años 80). El TBC corrige y estabiliza el color en el magnetoscopio. El TBC, es una isla digital Si la imagen tiembla, al pasarlo de 0 a 1 ya no lo hará. Con en TBC se solucionó: - El ―glitter‖, temblor mecánico. - Color. 3
-
Sincronismos.
1983 Norma CCIR 601 (4:2:2) Calidad Estudio. Se fija la norma 4:2:2. Norma mundial de producción Virtudes de la norma: - Agota la capacidad del ojo humano. Hay norma para largo, ya que no sufrirá cambios el ojo para largo. - Pretende que la calidad que se ve en el estudio, se vea en casa (por ello ―Calidad Estudio‖) Por ejemplo si yo capturo un píxel 00110101 en mi televisor se verá ese píxel como 00110101. Esto es la calidad de estudio. Pero esto vale mucho dinero, ya que el flujo binario que sale de la norma 4:2:2 es muy grande y sería un lujo para el ojo, así de esta norma surgen 2 que sacrifican aspectos, por ejemplo el color (no el brillo que el ojo es más sensible) rebajando el flujo binario. En Estados Unidos, los anchos de banda no se miden al Megahercios o Megabits, se miden en dólares, a la hora de contratar un satélite). Normas 4:1:1 y 4:2:0 "Broadcast" ENG/EFP Parámetros que bajan el flujo binario: precio, peso, consumo y volumen Estos parámetros coinciden con la producción / periodismo ligero y electrónico. Así el Periodismo Electrónico entrará bien en la norma 4:1:1 y 4:2:0 al ser normas superiores al PAL, pero no tan buenas como el 4:2:2. Se las llaman Normas ―Broadcast‖ (el 80% de la producción de TV) Son dos normas adecuadas al Periodismo Electrónico, no como subnormas del 4:2:2.
1983-85 Primer Magnetoscopio Digital. D1 en 4:2:2 (Ampex-Sony) Graba en la norma 4:2:2, sin compresión. Serían 166 Mb/sg 4:2:2 :> 166 Mb/sg 4:1:1 :> 125 Mb/sg (Hoy día este magnetoscopio se destina a la investigación de gráficos, etc. Ocupa como una nevera). Incluso en este año, nace el Betacam SP, ya que veían que la Norma 4:2:2, no tendría futuro. Avances en mezcladores digitales. Aparecen los primeros mezcladores digitales y surge la época de la ―borrachera de efectos‖, al nacer un nuevo equipo. Hoy en día, el utilizar un efecto tiene un porqué, y se analiza su narrativa, etc.
1987 Interconexión entre equipos digitales. Interfaz paralelo 4:2:2:, 4:1:1, 4:2:0, y se necesita interconectar todo. Se comprobó que más de 10 conversiones A/D o D/A degrada la imagen (por ejemplo, efecto de pixelaicón, rasgaduras, etc.). Esos efectos se llaman ―Artefactos‖. Son errores en la imagen digital. No se producirán si conseguimos que la imagen digital no pase a la analógica. Y se hará a través de una interfaz llamada paralelo, de 25 contactos. Este interfaz paralelo no funciona a más de 50 metros, y al pasarle mucha información se desfasan los píxel, etc. Pero solucionó el problema en las salas de producción y sin pasar la imagen al analógico. Pero la idea era tener un interfaz Serie. Lo que hoy en día se llama SDI (Serial Digital Interface), no se descubrió hasta 1993. (La frecuencia de reloj se inserta en el flujo de datos, etc.) 4
Al salir el SDI, no apartó al parelelo, este se aplicó a distancias cortas, y el SDI en distancias de hasta 300 metros. Hoy día el SDI es una opción a incorporar en equipos como por ejemplo el DVD-PRO, Betacam, etc.
1987-92 Formatos de transición D2/D3 (Digitalización de la señal compuesta PAL, NTSC y SECAM) Nace al magnetoscopio en digital 4:2:2 Betacam SP muere a la 6ª copia. Se alcanzan 30 copias seguidas con el D2 y el D3. El magnetoscopio D2 y D3 estaban en una isla dentro de los magnetoscopios PAL (este durara hasta el 2012). El D2 fue un magnetoscopio grande, sin camascopio El D3 fue un magnetoscopio más pequeño, con camascopio y equipos de edición etc. Por tanto, en este momento, estaban en el mercado Betacam SP, D2 y D3, es la época de la crisis de los formatos, se paralizan compras, etc.
1993 Interconexión entre equipos digitales. Interfaz serie SDI Ver Año 1987 Primeros magnetoscopios de producción en 4:2:2.. Con un fractor de compresión muy bajo y con un flujo de datos grande. Pero equipos Betacam Digital y D5, más pequeños y manejables, pero muy caros (aproximadamente 8 millones). Avance espectacular en técnicas de compresión. Así había gente que no sabía si comprar SP , Betacam Digital o D5. Otros esperaron a que las capacidades de compresión bajaran el flujo de datos sin pérdida subjetiva de la calidad de la imagen. Europa margina al sistema HD-MAC por su carácter analógico y apuesta por la opción digital. En el mes de Julio de 1993, la UE, paraliza la Alta Definición HD-MAC, proyecto Eureka. Sería el último segmento analógico de transmisión.
1993-95 Aplicación técnicas compresión digital a la producción Las técnicas de compresión se aplican a tado, imagen, sonido, etc. Edición no lineal. Postproducción digital. Los frutos de la compresión se encuentran en la Edición No Lineal (por ejemplo, en un ordenador). Apareciendo el concepto de Postproducción Digital.
5
95-2.000 Nuevos formatos de video: Betacam SX, Digital-S, DVC-Pro, DVCam. Desaparece lo analógico Y en los 7 MHz, se consigue meter la señal de Alta Definición. En le 2016 desaparecerá la norma PAL. Aparecen nuevos formatos: - Para ENG/EFP: DVC-Pro, DVCam - Betacam SX - Digital-S Estabilidad de formatos TVE, utilizan Betacam SX para ENG, etc, y Digital S para producciones más importante (esta opción la han adoptado en conjunción con la RAI, etc.). (Para el Betacam SP, garantizan por un período de 10 años de suministros).
6
DIGITAL VS ANALÓGICO Aplicaremos al mundo audiovisual las bases que hemos visto sobre el digital. La luz y el sonido natural es analógica, y nuestros sentidos también. Por ello, toda la tecnología, incluyendo la audiovisual, se había basado en sistemas analógicos. El principal motivo del cambio es que los sistemas digitales (finitos y binarios) son exactos y fidedignos, lo que hace que la multigeneración y eI procesamiento sea exacto, mientras que en el analógico la copia y manipulación resta calidad. Esto por otra parte aumenta la capacidad creativa, pues aumentan las posibilidades. Estudiaremos las etapas que sigue la señal por un ADC (analogic digital converter). La señal entra siempre en analógico, ya sea por captación directa o porque partimos de una señal previamente grabada. La señal de video digital es la traducción numérica expresada en el sistema binario de 0 y 1 de los niveles de video de la señal analógica. La señal digital no existe, si previamente no se ha obtenido la correspondiente señal analógica. No es concebible una captación de 0 y 1 de una realidad escenográfica, sino que primero se capta una imagen real en términos analógicos y después se digitaliza. El ojo es analógico y la información que debe presentar una pantalla de televisión también debe ser analógica, esto es, debe producir variaciones luminosas proporcionales a una señal eléctrica. Por tanto el último paso del receptor siempre será analógico. También lo será la captación de la imagen en el primer paso de la cámara. El resto de los segmentos puede ser digital y de hecho tratamos por todos los medios de que lo sea para beneficiarnos de las ventajas que nos ofrece este dominio: - Ausencia de ruidos - Eliminación de ajustes y distorsiones - Simplificación de los circuitos, etc.
7
CARACTERÍSTICAS DE LA TV DIGITAL La calidad de reproducción de un sistema digital de video bien diseñado es independiente del medio y depende únicamente de la calidad de los procesos de conversión. Cuando se copia una grabación digital, aparecen los mismos números en la copia: no se trata de un duplicado, sino de una clonación. Si no es posible distinguir la copia del original, no se habrá producido ninguna perdida en la generación. Las grabaciones digitales pueden copiarse indefinidamente sin que haya pérdida en la calidad. Una de las mayores ventajas que presenta la tecnología digital es su bajo costo. Si la realización de copias no ocasiona pérdidas de calidad, los equipos de grabación no tienen por qué ser mejor de lo necesario. No hay necesidad del consumo de cinta tan grande y excesivo que tienen los equipos de grabación análogos. Cuando la información que se ha de grabar adopta la forma de números discretos, estos pueden empaquetarse densamente en un soporte sin pérdida de la calidad. De darse el caso que algunos bits estén defectuosos por causa del ruido o de pérdidas de señal, el sistema de corrección de errores puede restituir el valor original. Las redes de comunicaciones desarrolladas para manejar datos pueden llevar perfectamente video digital acompañado también de audio a distancias indefinidas sin pérdidas de calidad. La difusión de televisión digital emplea estas técnicas para eliminar las interferencias, así como los problemas de atenuación de señales y de recepción de camino múltiple propio de las emisiones análogas. Al mismo tiempo, se hace un uso más eficaz del ancho de banda disponible. Ausencia de distorsiones que afectan a la señal analógica. Hace referencia principalmente al ruido. Llamadas distorsiones. En el mundo analógico se han tasado 15 distorsiones: gamma de la señal de vídeo, niebla o falta de definición de la imagen, retardo luminancia y crominancia donde se percibe que el color se corre con el brillo, o bien que todo se ve empastado como las copias hechas en VHS. La TV digital es inmune a todas las distorsiones. Si yo codifico el píxel en 01001000, llegará al receptor siendo el mismo, sería un clon. La imagen en el receptor es limpia, no tiene eco (doble imagen), etc. Señal informática -> memorizable -> efectos especiales imposibles en el dominio analógico. La señal se puede meter en memoria estáticas (DD) y desde ellas poder hacer lo que se quiera. Alta estabilidad y rendimiento de los equipos. Comportamiento más dependiente de la codificación y algoritmos utilizados. Un equipo se mide por la cantidad de aritmética que realiza, no por la calidad. Calidad independiente de desvíos y ajustes de los equipos. Facilidad de operación automática o inatendida. Reducción del mantenimiento preventivo. Ahora en las transmisiones, nadie retoca, ahora solamente se salva código. Ahora no hay mandos electrónicos (bobinas deflectoras, etc.), sólo hay mandos artísticos. Convergencia de investigación con el campo de la informática, computadores y telecomunicaciones en general. Compatibilidad con las transmisiones generales de datos y otros sistemas de telecomunicación. Único vehículo de imagen, sonido, datos auxiliares, teletexto.
8
Inmunidad al ruido de amplitud inferior al umbral de decisión 0, 1. Posibilidad de multicopias magnéticas de video y de circuitos de distribución y emisión carentes de ruido. Gran Flujo binario -> 20 a 30 veces el ancho de banda de la TV analógica. Paradoja: la TV digital permite aplicar técnicas de reducción de flujo binario (compresión). La TV digital, el principal inconveniente son los grandes anchos de banda que son necesarios. Pero como ventaja posee que permite aplicar técnicas de compresión. La compresión permite corregir el 20% e incluso rebajar al ancho de banda del PAL. Hoy día tenemos factores de compresión de 6-7:1 y en el 2010 tendremos 10-12:1 Con ello se aumentaría el número de canales en el futuro. Dificultad de monitorización en múltiples lugares (controles de realización, de imagen, etc.) -> necesidad de conversores D/A. ¡El interfaz con el ojo humano tiene que ser analógico! Necesito elemento analógicos, porque el ojo es analógico (al igual que sucede con el sonido). Aunque la señal digital siempre será buena, es perfecta (0, 1), su iconocidad es buena y correcta. (El osciloscopio y el vectorscopio se mantendrán para comprobación) Hay monitores que aceptan señales 4:2:2 digital, y hacen la conversión A/D en su interior y no 2 equipos distintos.
9
CONVERSIÓN ANALÓGICO — DIGITAL DE LA SEÑAL DE VIDEO DIGITALIZACIÓN DE IMÁGENES Si bien las técnicas digitales se utilizaban desde hace muchos años en el campo de la televisión, éstas quedaban limitadas a transmitir informaciones adicionales a la propia imagen, prestando servicios añadidos a la transmisión estándar. A este tipo de aplicaciones se las denominó genéricamente peritelevisión, y algunas de ellas son la transmisión de teletexto o la posibilidad de programar la grabación de espacios sin publicidad. Sin embargo, el campo de la transmisión de imágenes digitales ha sido uno de los que de forma más tardía ha podido aplicar los sistemas binarios, debido fundamentalmente a la elevada frecuencia de la señal a tratar y la gran cantidad de información digital que se requiere para enviar una imagen de calidad. Estas razones han postergado la implantación de un sistema digital de transmisión de televisión para el gran público, si bien se utiliza desde hace algunos años dentro del ámbito profesional, debido al mantenimiento de la calidad de imagen (incluso cuando las señales son sometidas a un gran número de operaciones), así como por el elevado nivel de prestaciones añadidas que ofrece. Esto supone la necesidad de realizar una conversión analógica a digital de la señal de imagen, bien en el formato de componentes (YUV) o en vídeo compuesto, con un paso inicial del sistema. Al plantear la digitalización de la imagen, deberemos tener en cuenta algunos factores: - Cuantas más muestras se tomen, mayor será la calidad de la imagen, pero la cantidad de información será también mayor, ocupando así más espacio. - Si queremos ahorrar espacio, podemos tomar menos muestras en la señal de color que en la de luminancia, puesto que la capacidad del ojo para visualizar colores es limitada. - En la información de televisión se incorporan muchas señales de sincronización, que no aportan información activa y, por lo tanto, no deben ser digitalizadas. - Según el teorema de Nyquist, la frecuencia de muestreo en la digitalización de cualquier señal debe ser mayor del doble de la frecuencia más alta de la señala digitalizar.
Hoy en día existen diferentes standars, tanto en emisión (PAL y NTSC) como en señal de producción (RGB, compuesto, componentes, separado). En el mundo digital se intentó llegar a un sólo sistema. Esto no se logró del todo, puesto que aunque sí que hay estándar, existen muchos derivados. A partir de los condicionantes expuestos, se reunió la ITU (International Transrnition Union, ahora llamada Comité Consultivo Internacional para Radiocomunicaciones (CCIR) y creó la norma ITU R-601, por la cual se establece un estándar óptimo para digitalizar señales de vídeo.
10
LINEA ACTIVA DIGITAL / NÚMERO DE PIXELES POR LÍNEA En la tabla que se ofrece a continuación se relacionan los diversos elementos que intervienen en una línea, utilizando como referencia la señal de vídeo normalizada de 1 Vpp, con señal de vídeo positivo y sincronismos negativos.
En los sistemas de 625 líneas, la línea analógica tiene un período activo de 52 µs, donde se concentra la información de la imagen correspondiente a esa línea. Se requieren para digitalizarla 864 pixeles por línea completa, que son los que se necesitan para que el ojo humano vea la imagen de un modo continuo, sin puntos discretos.
Debido a que en la señal de televisión existen borrados de retorno del haz electrónico entre cada dos líneas y entre cada dos imágenes, que es donde se sitúan como ya sabemos los sincronismos horizontal y vertical respectivamente, se plantea la oportunidad de ahorrar flujo binario eliminando las muestras en los borrados. El sistema de TV tiene 625 líneas en PAL y 525 en NTSC. En digital se obvian las líneas de sincronismo, por lo que en PAL nos quedaríamos con 578 líneas para digitalizar. Según este estándar, se omiten de la digitalización los períodos de borrado de línea y campo, aplicándose únicamente a los períodos activos de línea y a las líneas con información. Como al digitalizar la señal tomamos un margen de seguridad a ambos lados, el período de la línea activa digital se expande hasta 53,33 µs, conteniendo un total de 720 píxeles activos por línea. Por tanto en cada línea tenemos 720 muestras de luminancia y 720 de crominancia total Ya veremos más adelante que el estándar CCIR establece 360 muestras para cada crominancia. Estos valores serán comunes a todos los sistemas de televisión, independientemente de la frecuencia a la que trabajen. Al digitalizar solamente los trozos de la señal de vídeo que contienen información, aparece un nuevo concepto asociado: la Línea Activa Digital (LAD). Los huecos que surgen entre las líneas, correspondientes al período de borrado de línea que no se digitaliza se utilizarán, sin embargo, para: - Definir la posición de los datos sobre la memoria que contendrá la información digital, de modo que al final del proceso se pueda recomponer la señal original e insertarle un patrón de sincronismos nuevo. - Contener informaciones adicionales, - Contener bits de sincronización de la transmisión digital.
11
PLANTEAMIENTO DEL COLOR EN EL DOMINIO DIGITAL Ya se ha expresado que el video digital no existe si previamente no se ha construido la señal analógica correspondiente y después se digitaliza. La señal analógica de partida en el caso del color puede adoptar tres formas. a) Las señales en componentes de los colores primarios, R, G y B. b) Las señales de luminancia y componentes de color Y, R-Y y B-Y, explicadas anteriormente. c) La señal compuesta analógica codificada en PAL, NTSC o SECAM. Cualquiera de ellas es susceptible de digitalizarse, pero las de mayor calidad para la producción son las dos primeras. Por tanto debemos partir de una señal en componentes . En el mundo de los ordenadores es muy común trabajar en la versión a), mientras que en el de la televisión se trabaja en la versión b) ya que maneja componentes que han de ser más tarde codificadas para la transmisión. En todo caso, no existen diferencias de calidad entre ambas versiones puesto que están ligadas por relaciones puramente aritméticas. Esto quiere decir que si tenemos otra señal debemos pasarla primero por una matriz resistiva (con condensadores) que la convierta en señal de componentes. Por tanto, la digitalización no se realiza sobre la señal de vídeo compuesto, sino que se aplica a la señal en componentes: - Esto mejora notablemente la calidad de la señal procesada, al eliminar las posibles intermodulaciones de luminancia y aonia. - Del mismo modo, el procesado en componentes permite una mayor variedad en las operaciones aplicadas, no depende de la norma de color analógico utilizada.
12
CODIFICACIÓN ¿CUÁL ES EL NÚMERO DE BITS NECESARIO PARA EXPRESAR UN NIVEL DE VIDEO? La conversión analógica a digital se realiza por puntos de imagen (pixeles) a los cuales se les atribuye el valor numérico de su nivel. El denso flujo de 0 y 1 que resulta de codificar cada punto de la imagen a la vertiginosa velocidad que va el pincel electrónico de trazado de líneas de TV alcanza altos valores teóricos que superan el centenar de Megabits/segundo.
Comenzamos digitalizando la luminancia Y. Para digitalizar hay que prepararla señal, es decir, amplificarla en intensidad y así obtener un mayor nivel de señal a tratar. El ojo humano es capaz de distinguir unos 220 niveles distintos de grises desde el negro al blanco. Esto determina el rango dinámico de la señal de video. Dicho de otra manera, cada píxel (o elemento mínimo de imagen que es capaz de distinguir el ojo) puede tener un nivel que está entre el número decimal 0 y el 220. Como siempre ocurre en computadores, se toman potencias de 2 y por tanto se tomarán 256 niveles que es la potencia de 2 más próxima por exceso (28 = 256 mientras 27 = 128). Por tanto desde 0 a 255 se representa por palabras de 8 bits que van del 00000000 (cero) al 11111111 (255). Cada vez que el pincel electrónico en su vertiginoso recorrido pasa por un pixel genera 8 bits. Se ve que el flujo binario en bits/seg. es realmente extraordinario. Y esto solo para representar la luminancia de los píxeles, ya que estamos suponiendo la señal en blanco y negro. De esta forma, la codificación a 8 bits de cada componente, es suficiente para representar los 256 niveles de video y mantener la calidad de color. Y cuantificación lineal, lo que implica igual amplitud entre los 256 niveles de vídeo. Asimismo, existe una variedad de la norma CCIR 601 que contempla palabras de 10 bits en lugar de 8. Esta estructura que mejora la relación señal ruido para equipos donde cobra especial importancia como sistemas de captación, cámaras, telecines .... 13
Con ello se consigue aumentar el número de valores posibles de las señales Y, C R y CB. De cara al intercambio de información entre sistemas de diferente longitud de muestra, las palabras de 8 bits se convierten en 10 añadiendo dos ceros a los bits menos significativos. Con estos valores de cuantificación se obtiene una calidad de señal muy elevada, siendo imposible diferenciarla (una vez visualizada en pantalla) de una señal puramente analógica, a la cual superan en ancho de banda las tres componentes digitalizadas. Hoy en día existe un gran debate sobre la resolución en bits adecuada para la televisión digital. Marcas como Quantel defiende la suficiencia de los sistemas a 8 bits y aportan soluciones a los problemas de contorneado derivados del redondeo en la cuanfificación. Dynamic Rounnding (Redondeo Dinámico) actúa sobre el bit LSB (menos significativo) ofreciendo mejores resultados que a 10 bits sin Redondeo Dinámico. ―Digital Fact Book‖. Quantel España, 1997. p. 38.
14
CUANTIFICACIÓN Se procede a cuantificar la señal, es decir, tomar su amplitud y dividirla en escalones o niveles. El número de niveles (bits de cuantificación) es de 8 bits (256 niveles). O sea, que si la señal ocupa 1V (140 IRES), ahora ocupa uno de los 256 niveles. De acuerdo a esto, se podría pensar que con 8 bits se podrían representar 256 niveles de grises, pero no se usan todos, se deja una salvaguarda, siendo la asignación del nivel de negro al código 16 y el nivel de blanco al 235 limita. Esto limita a 220 el número de niveles efectivos para la señal de luminancia. Así un nivel 20 de tendría luminosidad baja Una vez cuantificada Y, falta R-Y y.B-Y, que se cuantifican también a 8 bits No hay salvaguarda, el ruido del color (entendido como un ligero cambio del color) se incorpora, pero no importa porque el ojo es poco sensible a estos cambios de color. Sobre las señales diferencia de color, de forma similar, se aplican 224 niveles, y el cero corresponde al nivel digital 128, en el centro de la escala, que sería la ausencia de color:
15
En la figura se representa la cuantificación de la luminancia en la Norma de 8 bits desde el negro 1610 al blanco 23510. En la Norma de 10 bits estas cifras son 6410. Y 94010 respectivamente. Los sincronismos no se transmiten en las señales digitales en componentes. Se reserva un margen de tolerancia para el super-blanco que va desde 23510 a 25510 y otro para el super-negro que va desde 010 a 1610. Estas tolerancias son de 94010 a 102310 para el super-blanco y de 010 a 6410 para el supernegro en la Norma de 10 bits. Para las señales en componentes de color Cr y Cb los limites negativo y positivo son de 1610 a 24010 con tolerancias que van desde 010 a 1610 y de 24010 a 25510. El nivel de reposo para señales nulas descansa en 12810. En la Norma de 10 bits la tolerancia va de 96010 a 102310 para el máximo y de 010 a 6410 para el mínimo.
16
FILTRO PASO ALTO El siguiente paso es limitar la señal con el Filtro Pasabajo. Se cortan las frecuencias más altas, al ser las que necesitan mayor frecuencia de muestreo. Se limita sobre todo la de color. La de B/N (Y) mucho menos, por que el ojo lo detecta antes. Hay dos filtros, uno para Y y otro para R-Y y B-Y. Al final queda así: Y = 5‘75 R-Y = 2‘75 Mhz B-Y = 2‘75 Mhz Teniendo en cuenta que el ancho de banda de la señal de TV es 5‘5 Mhz y el de la subportadora de color de 4‘43 Mhz, vemos que Y entra en su totalidad mientras que el color ha sido cortado para reducir el peso. El resultado es que la TV digital no es tan fidedigna en el color como la analógica.
FRECUENCIA DE MUESTREO Por último falta digitalizar el tiempo, es decir, muestrear o samplear. Naturalmente, la frecuencia de muestreo tendrá que cumplir el teorema de Nyquist, garantizando que para todas las frecuencias de la señal de imagen se tomarán, al menos, dos muestras. Las frecuencias de muestreo deben ser fijas (una muestra cada equis tiempo) y al menos el doble de la frecuencia más alta. Como el ancho de banda de la señal de luminancia puede llegar a 6 MHz en los sistemas profesionales, la frecuencia elegida deberá ser, necesariamente, mayor de 12 MHz. La frecuencia más alta en TV es 5‘5 Mhz, por lo que la frecuencia de luminancia debería ser al menos de 11 Mhz. Sin embargo, se usa 13‘5 Mhz. La elección de la frecuencia, naturalmente, no es casual, sino que se ha buscado un valor que sea múltiplo común de las frecuencias de líneas de los sistemas de 525 y 625 líneas, ya que el estándar digital es el mismo para todos los países, facilitando así el intercambio de información y equipamiento. Para las señales diferencia de color no es necesario un valor tan alto, puesto que el ancho de banda de estas señales es sólo de 1,3 MHz. Sabiendo esto, vemos que en color debería ser 8‘86 Mhz. Sin embargo para ahorrar se hace en 6 ‘75 (la mitad que la luminancia). Así se logra que un sólo reloj marque tanto la frecuencia de muestreo de Y corno la del color (la mitad). Vemos que siempre que ha de recortarse algo, se hace en el color. Esto supone que por cada muestra de las señales R-Y y B-Y (llamadas en el ámbito digital CR y CB), se obtendrán dos de luminancia, todas ellas de 8 bits. El múltiplo común de los dos sistemas es 2,25 MHz, obteniéndose a partir de él los siguientes valores: FS (Y) = 6 · 2,25 MHz = 13,5 MHz FS (CR) = 3 · 2,25 MHz = 6,75 MHz FS (CB) = 3 · 2,25 MHz = 6,75 MHz En estas condiciones, la calidad digital es más o menos la misma que la analógica, con la diferencia de que no existe el ruido. Sin embargo, el color sale perjudicado.
17
FORMATOS DIGITALES SIN COMPRESIÓN. ITU-R 601 Las normas CCIR pasan a denominarse ITU-R con la transformación del CCIR en lTU-R (Unión Internacional de Telecomunicaciones sección Radiodifusión) al igual que el CCITT pasa a denominarse ITU-T (Unión Internacional de Telecomunicaciones sección Telecomunicación). El CCIR aprueba en 1983 una normativa de televisión digital donde se establece un sistema jerárquico de calidades para adecuar los costes de producción de equipos a la calidad del tipo de producción. Se desarrollan dos normas básicas para la producción digital: Norma 4:2:2 también llamada de "calidad de estudio", que explota al máximo las posibilidades de la imagen y del sistema visual. Con flujos de 166Mbps permite la máxima calidad: multigeneración y posibilidades ilimitadas de procesamiento. Normas 4:2:0 y 4:1:1. Con reducción del flujo binario a 125 Mbps, para bajar pesos, tamaños, consumo y coste de equipos. Para producciones menos exigentes en calidad propias de las producciones tipo PEL o ENG (Sistemas de producción ligera orientados a informativos principalmente. Producción electrónica de noticias (ENG, Electronic News Gathering). Producción ligera de campo (EFP, Electronic Field Production)). Como indica Bethencourt (Bethencourt Machado, Tomás. Televisión digital. Colección Beta, Madrid, 2001. p. 31), el objetivo de las normas es dotar de un patrón de señales digitales de alta calidad, por ello se parte de una señal analógica (a digitalizar) de calidad suficiente a los fines buscados. Esta será la señal de vídeo en componentes, constituida por las tres señales Y, R-Y, B-Y (que al digitalizarse se expresaran como las componentes digitalizadas Y, Cr, Cb, de ahí los tres términos de sus denominaciones). La señal de video compuesto aunque posea menor régimen binario en su digitalización no se considera útil para la producción porque no permite el procesamiento sin pérdida de calidad ni la multigeneración. Los principios bajo los que se asientan estas normas son: Comunalidad: Búsqueda de un sistema lo más universal posible. Sin llegar a la unificación total de los sistemas europeos y americanos ya que, a estas alturas de implantación y compatibilidad con los sistemas analógicos, no se puede eludir las diferencias en definición (575 vs 525 líneas) ni de frecuencia de cuadro (25 vs 30). Las normas propuestas serán de todas maneras compatibles para ambos sistemas con flujos comunes que permitan la mayor compatibilidad de equipos y aplicaciones. Máximizar calidades: Agotar las posibilidades de la visión y del sistema analógico existente. La máxima resolución horizontal del sistema televisivo clásico está establecida en no píxeles por línea activa. Así, el sistema de máxima definición sería eI 4:4:4 donde se muestrean la luminancia y crominancia de los no píxeles. Los estudios del aparato visual humano revelan que la reducción de los valores colorimétricos no afecta a la calidad subjetiva permitiendo la reducción de esta información (la reducción colorimétrica de la norma 4:2:2 se fundamenta en que su calidad subjetiva es idéntica a la de la norma 4:4:4. Algunos autores consideran el paso de 4:4:4 a 4:2.2 como la compresión perfecta e ideal. Ibi. p. 124.) Como nos recuerda Davidoff: " ... tras numerosos encuentros y discusiones entre los grupos técnicos de la EBU y de la SMPTE entre 1980-1981... el CCIR reunido en Ginebra en Asamblea Plenaria, aprueba por unanimidad el documento 11/1027 Rev, del 17 de febrero de 1982. "Draft Recommendation AAl11: encoding parameters of digital television for studios"... se recomienda la señal en componentes como base para la digitalización y se establece un sistema de calidades jerárquico... se determina el formato 4:2:2 como calidad de estudio ... y otro 4:4:4 para aplicaciones de muy alta calidad ... (Davidoff, F. "Digital televisión coding standards" en 4: 2:2 digital video: background and implementation revised edition. SMPTE. Nueva York. 1995. p. 29.) 18
LA NORMA 4:2:2. NORMA CCIR 601. CALIDAD ESTUDIO. PARA LA PRODUCCIÓN AUDIOVISUAL NIVEL DE MUESTREO Para definir el sistema de codificación utilizado en procesos de Televisión Digital se usa un sistema abreviado, que consiste en definir con un número la frecuencia de muestreo de la información de Luminancia, seguido de dos números correspondientes a la relación de frecuencia de muestreo para las señales Diferencia de Color. Se determina que el número de pixeles por línea activa de televisión son 720. Se establece la unidad de muestreo en 180 pixeles, por ello, el sistema con más calidad tendrá un valor 4 donde se muestrean los 720 píxeles de cada línea. Un coeficiente 3 significa muestrear 540 píxeles. 2 indica el muestreo de 360 píxeles y 1 el de 180 píxeles. Estos niveles de muestreo se aplican a la señal de vídeo en componentes, es decir, a la luminancia y a las componentes de color, de ahí los tres términos en la expresión de muestreo en componentes: Y:Cr:Cb 4:2:2 significa entonces que de cada línea se muestrea: 4 unidades de luminancia, es decir, la luminancia de todos los pixeles, 720. 2, muestreo de 360 pixeles para la componente R-Y, la mitad de una línea activa. 2, muestreo de 360 pixeles para la componente B-Y. El reloj agrupa los puntos de la imagen de 8 en 8 y los distribuye de la siguiente manera: R, Y, B, Y, R, Y, B, Y. Es decir, por cada 8 pixels toma 4 de Y, 2 de R y 2 de B. En la figura 6 se representa la distribución de píxeles en la norma 4:2:2. Los pixeles X llevan luminancia sin color. Los pixeles (X) llevan Iluminancia con color.
En esta norma las señales que se digitalizan son la Luminancia (Y) y las mencionadas componentes de color (R-Y y B-Y). Sabemos que el ojo humano es muy preciso a las variaciones de luminancia y menos preciso a las variaciones de color, cosa que puede comprobarse colocando por ejemplo líneas finas negras y blancas y líneas finas de diversos colores, y observando como a una cierta distancia las primeras se distinguen muy bien mientras que las segundas se «emborronan». La norma 4:2:2 hace uso de este hecho y explora los 720 píxeles de luminancia por línea de TV, mientras que para el color alterna los píxeles, o sea que solo explora 360.
Esta estructura, que garantiza la máxima calidad subjetiva, se basa en el principio de la visión humana por el cual la agudeza visual es el doble para el brillo respecto del color. Además, mantiene óptima la información colorimétrica para su tratamiento digital sin degradación o pérdidas. Se mantienen idénticos números de pixeles para la norma americana y europea. Como veremos más adelante las normas 4:2:0 y 4:1:1 reducen su resolución colorimétrica para permitir flujos binarios más ligeros.
19
FRECUENCIA DE MUESTREO Y ESTRUCTURA: Para mantener la compatibilidad entre el sistema PAL y NTSC se establece una frecuencia común de 13, 5 Mhz para la luminancia y 6,75 Mhz para las señales de crominancia. Para obtener estos tres números se utiliza como referencia la frecuencia de 3.375 MHz. Según este principio, estamos ante una codificación 4:2:2, ya que para la luminancia utilizamos cuatro veces la frecuencia de referencia, mientras que en las componentes cromáticas tomamos solamente el valor doble. A nivel profesional, no se emplean las medidas de 13 ‗5 Mhz, etc. La norma CCIR 601 se traduce con la norma 4:2:2. La estructura de muestreo será ortogonal, lo que significa un muestreo perpendicular respecto a la línea de video.
NÚMERO DE MUESTRAS Y FLUJO BINARIO: El sistema de TV tiene 625 líneas en PAL y 525 en NTSC. En digital se obvian las líneas de sincronismo, por lo que en PAL nos quedaríamos con 578 líneas para digitalizar. En cada línea, tenemos 720 muestras de luminancia y 720 de crominancia total, es decir, 360 para cada crominancia. Es decir hay 440 muestras totales por línea:
4:2:2 =
Y: 13‘5 Mhz; R-Y: 6‘75 Mhz; B-Y: 6‘75 Mhz;
720 muestras 360 muestras 360 muestras
En términos de calidad para la visión humana, la norma 4:2:2 no pierde definición con respecto a la 4:4:4, que veremos a continuación, y por tanto se trata de una compresión digital pura, la más interesante que se consigue sin pérdida de la calidad subjetiva de la imagen. Dado que las señales Cr y Cb están disponibles simultáneamente en cada línea, la definición vertical es idéntica tanto para luminancia como para crominancia, y se corresponde con el número de líneas útiles del estándar de exploración de partida (480 para los estándar de 525 líneas, 576 para los de 625 líneas). El flujo bruto resultante es: (13.5 x 8) + (2 x 6.75 x 8) = 216 Mbit/s (270 Mbit/s con 10 bits) Además, la digitalización de la parte útil de la señal de video solo requiere 166 Mbit/s, si se tiene en cuenta la inutilidad de digitalizar los intervalos de supresión del haz (también llamados "blanking") de línea y campo. Por tanto, estos tiempos libres pueden aprovecharse para transportar los canales de sonido digital, así como datos de servicio u otros.
20
Si hiciéramos los cálculos precisos del flujo binario ahorrado por esta consideración se llegaría a la cifra de 166 Mbits/seg. Muchos autores lo llaman flujo de referencia de la televisión digital convencional. La norma 4:2:2 es de flujo binario común para ambos sistemas 625/50 y 525/60. Contando solamente el flujo de píxeles activos de video su valor es de 166 Mbit/seg. Luminancia Y Componente Cr Componente Cb
720 x 576 x 25 x 8 360 x 576 x 25 x 8 360 x 576 x 25 x 8 Total
83 Mbitios/seg. 41,5 Mbitios/seg. 41,5 Mbitios/seg. 166 Mbitios/seg.
Del mismo modo que en el proceso analógico se ponderan los valores de R-Y y B-Y, también en el proceso digital se utilizan factores que modifican la amplitud de las señales diferencia de color. La razón es la necesidad de que estas señales se encuentren siempre en un margen de ± 0,5 V para poder establecer la cuantificación uniforme, similar a la aplicada a la señal de luminancia, que varía entre 0 y 1 V. Los coeficientes ponderadores de las componentes de color cumplen la misión de no superar el valor de los 350mV en los colores saturados que pudieran desbordar este límite. En las componentes originales de las señales diferencia de color, la variación posible para R-Y es de ± 0,7 V, mientras que para la componente B-Y se sitúa en ± 0,89 V. Por ello, se deberán aplicar factores de atenuación, quedando como siguen: CR = 0,7 13 (R-Y) CB = 0,564 (B-Y) De esta manera tenemos las siguientes señales analógicas de entrada al digitalizador: - Luminancia - Componente de color R-Y - Componente de color B-Y Señal Y R-Y B-Y
Señal ponderada Y 0,714 (R-Y) 0,564 (B-Y)
Niveles 0,7V 350 mV 350 mV
Ancho de banda 5,75 Mhz 2,75 Mhz 2,75 Mhz
21
PARAMETROS DE LA NORMA 4:2:2 PARÁMETROS
SISTEMA NTSC 525 líneas 60 campos
1. Señales codificadas 2. Número de muestras por línea completa * Luminancia * Cada señal diferencia de color (RY), (B-Y) 3. Estructura de muestreo
PAL 625 líneas 50 campos Y, Cr, Cb
858
864
429
432
Ortogonal, estructura idéntica para todos los campos y- cuadros. Las señales (R-Y) y (B-Y) se muestrean simultáneamente con las muestras impares de la luminancia (primera, tercera, quinta, etc..)
4. Frecuencia de muestreo * Luminancia
13,5 Mhz
* Cada señal de diferencia de color
6,75 Mhz
5. Codificación
6. Número de muestras activas por línea digital: * Luminancia * Cada señal de diferencia de color 7. Correspondencia entre los niveles de video * Luminancia
* Cada señal de diferencia de color
Cuantificación lineal. Codificación con 8 bitios por muestra por la luminancia y cada señal diferencia de color.
720 360
220 niveles de cuantificación. El nivel de negro corresponde al número digital 16; el nivel nominal de blanco al número 235. 224 niveles de cuantificación en la parte central del margen de cuantificación. El nivel de video cero corresponde al número 128.
22
23
El sistema 4:2:2 es el estándar universal de la TV Broadcast Digital. Pero no todas las tvs trabajan en broadcast, que es muy caro. Así, para tvs locales, etc., existen otras normas por debajo de la 4:22 que reducen la información. Estas son el 4:2:0 en PAL y el 4:1:1 en NTSC. Formatos 4:2:2 — En este nivel de calidad se encuentran por ejemplo magnetoscopios muy acreditados en el mercado audiovisual. Tres grandes grupos: D1 / D5: Se usan principalmente para postproducción. Betacam Digital (más calidad) / Betacam SX (Estandar) Digital S (JVC) / DVC PRO 50: De Panasonic. Tamaño de cinta menor. El sistema de digitalización aquí descrito es, sin duda, el de mayor aplicación en los sistemas de tratamiento digital de la señal de vídeo, pero no el único. Manteniendo por lo demás una estructura similar, podemos encontrar sistemas con otras frecuencias de muestreo, o que asignan el mismo número de muestras a todas las componentes, como el sistema 4:4:4.
24
NORMA 4:1:1 PARA EL PERIODISMO ELECTRÓNICO ENG/EFP A fin de satisfacer las demandas del Periodismo Electrónico que exige equipos más ligeros, baratos y compactos, se han desarrollado otras normas de menor flujo binario como son la 4:1:1 en la que se mantienen las 720 píxeles activos de luminancia (Y) por cada Iínea, pero solo se colorean 180 píxeles por línea. Anula una muestra de cada color de forma alterna, es decir: (R), Y, B, Y, R, Y, (B), R, Y, (B), Y, (R), Y, B, Y. Es decir, 180 pixeles de cada color 1080 en total por línea. Se dice que pierde resolución horizontal. En la Figura 7 se ilustra la distribución de píxeles en ambos formatos. El flujo binario teórico de referencia de ambos formatos es de 125 Mbits/seg.
En el sistema de muestreo 4:1:1, se utilizarán cuatro muestras de la señal de luminancia por cada una de las señales diferencia de color. Dicho de otro modo, la frecuencia de muestreo de luminancia se mantiene en 13,5 MHz, mientras que las muestras de CR y CB se toman a 3.375 MHz. La norma 4:1:1 es de flujo binario común para ambos sistemas 625/50 y 525/60. Contando solamente el flujo de píxeles activos de video su valor es de 125 Mbit/seg. Luminancia Y Componente Cr Componente Cb
720 x 576 x 25 x 8 360 x 576 x 25 x 8 360 x 576 x 25 x 8 Total
83 Mbitios/seg. 20,7 Mbitios/seg. 20,7 Mbitios/seg. 125 Mbitios/seg.
Esta norma tiene aplicación en equipos de periodismo electrónico profesional (ENG) y en producción ligera de video (EFP). En esta norma encontramos equipos como la versión DVCPRO de Panasonic.
25
NORMA 4:2:0 PARA EL PERIODISMO ELECTRÓNICO ENG/EFP El estándar 4:2:0 es de características y aplicaciones similares al 4:1:1. En él se respetan todos los píxeles de luminancia en todas las líneas pero solo se colorea un píxel cada dos en las líneas impares. En esta norma un componente de color se deja de tomar en una línea, y en la siguiente el que se deja de tomar es el otro: R, Y, (B),Y, R, Y, (B), Y (R), Y, B, Y, (R), Y, B, Y. Esto nos da un total de 1080 pixels por línea. En PAL va bien, pero en NTSC este sistema da inestabilidad de color. Se dice que pierde resolución vertical. Es una excepción a la regla es la cuantificación 4:2:0. Según esta numeración, cabría pensar que una de las señales diferencia de color no se transmite nunca, lo que haría imposible la identificación del color de la escena. Lo que sucede en realidad en esta codificación es que durante una línea se transmiten únicamente muestras de luminancia y de la componente CR, mientras que en la línea siguiente se sustituye esta última por la señal diferencia de azul CB. Para ser exactos, este sistema debería expresarse como 4:2:0, 4:0:2, quedando así correctamente definido el método de muestreo adoptado. En la Figura 7 se ilustra la distribución de píxeles en ambos formatos. El flujo binario teórico de referencia de ambos formatos es de 125 Mbits/seg.
Formatos 4:2:0 — Está la gran familia DV: DVCPRO 25 (Panasonic), DVCAM (Sony), DV. Todos parten de un formato nativo DV que nació por la unión de muchas empresas (no hay que pagar para usarlo).
26
NORMA 4:4:4 FLUJO BINARIO DE LA VIDEO DIGITAL EN COMPONENTES; R, G, B. En la Norma 4:4:4 se colorean todos los píxeles. Por tanto cada uno posee tres atributos (R, G, B) ó (Y, R-Y, BY). Recoge la máxima resolución de luminancia y crominancia ya que se muestrea en todos los pixeles. No supone un aumento subjetivo de calidad, pero permite mayores procesamientos de señal sin degradación. Útil para sistemas complejos de tratamiento de imagen como equipos de postproducción cinematográfica y publicitaria. Es una norma operativa de interés para la realización de excelentes ―croma-keys‖, incrustaciones y otras operaciones de post-producción. La norma de producción 4:4:4 consiste precisamente en dar a cada primario R, G y B, 8 bits de información lo que totaliza 24 bits por pixel. Pongamos como ejemplo que partimos de tres señales en componentes primarias R, G, B que habrán de digitalizarse. Como el ojo distingue 220 niveles de rojos, 220 de verdes y 220 de azules, por cada píxel se generarán 3 muestras de 8 bits cada uno para representar su color, y por tanto un píxel generará 3 x 8 = 24 bits. Este es el valor en bits que consume un píxel de video en color en el sistema R, G, B. Este razonamiento da respuesta a la pregunta ¿Cuántos colores maneja una paleta gráfica de 8 bits por atributo primario? Tantos como combinaciones podamos hacer con los 256 niveles, lo que da el sorprendente resultado de 256 x 256 x 256 = 16.777.216 colores, que son también los que puede ver el ojo humano. En la práctica este número será ligeramente menor. La televisión convencional requiere 864 pixeles por línea completa, que son los que se necesitan para que el ojo humano vea la imagen de un modo continuo, sin puntos discretos. Por tanto existen 864 x 24 bits = 20.736 bits en una línea. La línea de televisión es recorrida en 64 microsegundos por el pincel electrónico, por lo cual el flujo binario teórico máximo de la televisión convencional será de 20.736/64 = 324 Mbits/seg. Debido a que en la señal de televisión existen borrados de retorno del haz electrónico entre cada dos líneas y entre cada dos imágenes, que es donde se sitúan como ya sabemos los sincronismos horizontal y vertical respectivamente, se plantea la oportunidad de ahorrar flujo binario eliminando las muestras en los borrados. Este ahorro supone que solo se considerarán 720 píxeles activos por línea, lo que supone un flujo binario de unos 270 Mbits/seg. Con todo se trata de un enorme flujo dentro del contexto de las telecomunicaciones, razón por la cual se requerirán técnicas de compresión digital para su tratamiento. Debe tenerse en cuenta que un ―1‖ en las Normas significa 180 píxeles. Por tanto la norma 4:4:4 tiene 720 píxeles con el atributo R, 720 píxeles con el atributo G y 720 píxeles con el atributo B: 4 4 4
180 x 4 = 720 (R) 180 x 4 = 720 (G) 180 x 4 = 720 (B)
8 bit 8 bit 8 bit
1 pixel consume 24 bits
El Ф (flujo) binario teórico de la Norma 4:4:4 a 8 bits sin excluir los negros es de: 13,5 + 13,5 + 13,5 MHz/seg. x 8 bits = 324 Mbit/seg. Este flujo se eleva a 405 Mbit/s en la Norma a 10 bits. El flujo binario de la Norma 4x4 a 8 bits es 432 Mbits y 540 Mbit/seg. a 10 bits. 27
NORMA 4:4:4:4 (4x4) Al igual que la norma anterior pero añade una señal más, llave o key, como mas- cara para procesos de incrustación de alta calidad (también denominado canal alfa). También destinada a equipos de postproducción. En trabajos complejos de diseño puede ser necesario disponer de una cuarta información a ―píxeles completos‖ que actúe como llave (K) y de ahí la Norma 4:4:4:4 también llamada 4x4.
28
OTRAS NORMAS CCIR Norma SIF (Source Intermediate Format) y CIF ( Common IF) Son normas para la producción en baja calidad donde la luminancia se reduce a la mitad y la croma se mantiene en valores mínimos. El número de líneas muestreadas o resolución vertical se reduce también a la mitad. Su estructura es 2:1:0 Para unificar estándares, PAL y NTSC, se aúnan sus valores en el formato CIF, tomando de la norma europea la resolución espacial (360x288) y de la americana la temporal (29,97 Mhz). Equivalente a la resolución del VHS, se orienta a aplicaciones multimedia en CD-ROM y es la base de la compresión MPEG-1.
Norma QCIF ò ¾ CIF Reduce la resolución anterior a un cuarto tanto en la luminancia como en la crominancia. La resolución temporal o cadencia de imagen también se reduce a la mitad. Fundamento para la compresión H.261 destinada a aplicaciones de videoteléfono o videoconferencia.
29
EN RESUMEN Para Broadcast se usa el 4:2:2 tanto en PAL como en NTSC, Y si no es Broadcast se usa el 4:2:0 en PAL y el 4:1:1 en NTSC. En la postproducción tanto en cíne como en TV o publicidad no sirve el 4:2:2 debido a su mala calidad de color. Se usa una única frecuencia de muestreo. La 4:4:4 con 13'5 Mhz para Y, 13'5 para R-Y y 13'5 para B-Y, es decir, 720 muestras para cada uno, lo que significa 2166 muestras por Iínea. También se puede subir a 10 bit.
30
ANCHO DE BANDA DIGITAL El ancho de banda se refiere a la frecuencia máxima que es capaz de transportar la señal, es decir, su calidad (a más ancho de banda, más calidad). En TV convencional el ancho de banda es de 5,5 Mhz de luminancia y 4‘43 de subportadora de color. En video digital es diferente. En un sistema digital, el ancho de banda define el flujo de transferencia de datos. Ya no hablarnos de imagen y sonidos sino de datos, ceros y unos. Así, el ancho de banda viene en bytes o bits por segundo. (1 byte = 8 bits).
VOLUMEN DE DATOS EN MULTIMEDIA CDROM: El flujo de datos tiene la nomenclatura X (por). 1X equivale a 150 kilobytes por segundo (KB/s). Por ejemplo: ¿A qué corresponde 4X? A 600KB/s REDES: Se mide en kilobits por segundo (kbps). En redes siempre se habla en bits y no en bytes para ―hinchar‖ sus de por sí reducidas cifras de cara al inexperto consumidor. - Modem 28‘8 = 28‘8 kbps = 3‘6 KB/s. - Modem = 56 kbps = 7 KB/s - RDSl = 128 kbps =16KB/s - ADSL básico= 256 kbps = 32 KB/s - ADSL de 2 mbps = 250 KB/s.
VOLUMEN DE DATOS EN VIDEO DIGITAL BROADCAST Estudiaremos la forma de medir el peso de una imagen de video. Tenemos como variables los dos tipos de señal (PAL 625/50) y NTSC 525/60) y las frecuencias de muestreo 4:4:4,4:2:2, 4:2:0, y 4:1:1. Para el problema usaremos como ejemplo un minuto de video PAL en 4:2:2 (CCIR 601) Primero debemos averiguar cuánto ocupa un frame y luego multiplicarlo por 25. Tenemos frecuencia de muestreo y bits de cuantificación, que si no se indica lo contrario será siempre 8 bits. Sabemos que 4:2:2 quiere decir: Y = 720 muestras por línea; B-Y = 360; R-Y = 360. En PAL hay 578 líneas activadas, aunque se puede redondear a 575. Así: Y = 720 m/l x 575 1 = 414.000 muestras por imagen (cuadro). R-Y = 360 m/l x 575 1=207.000 muestias por cuadro. B-Y = 360 raíl x 5751 207.000 muestras por cuadro. Total 828.000 muestras por cuadro (bits). Esta cifra correspondería a un bit de cuantificación, pero lo queremos a 8 bits (256 valores posibles). Debernos multiplicar los bits que tenemos por 8. Así: 828.000 bits x 8 = 6.624.000 bits. Esto es lo que ocupa una imagen de video. Sin embargo, la pasaremos a bytes, es decir, la dividimos por 8, por lo que volvemos a tener 828.000 bytes 828 KB = 0,82 MB. Ahora hay que ver cuanto ocupa un segundo y luego un minuto. 0‘82MB x 25 = 20,5 MB 20‘5MB x 60 =1230MB = 1‘23 GB O sea, que un minuto de video PAL en 4:2:2 ocupa 1,23 GB. 31
Problema: ¿Cuanto ocupa un fotograma/segundo/minuto de video en PAL/NTSC usando 4.2.2/4:4:4/4:2:0/4:1:1? Este ejercicio demuestra el enorme volumen de datos de una imagen de video, y también que el mundo del video digital es diferente del multimedia, tanto a nivel de transmisión de datos como de redes. Por ello, en multimedia se usan frecuencias de muestreo muy bajas y se comprimen las imágenes con algoritmos matemáticos. En multimedia importa la aplicación sobre la calidad, y en broadcast viceversa.
32