Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
CICLO FORMATIVO DE GRADO SUPERIOR
1º REALIZACIÓN SISTEMAS TÉCNICOS DE REALIZACIÓN
TEMA 8
PROF: Pau Romero de la Fuente
1
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
1.- INTRODUCCIÓN El funcionamiento funcionamie nto de las cámaras de televisión, así como los ajustes operaciones técnicas se pueden identificar en cinco grandes bloques: 1. 2.
3.
4. 5.
y
El bloque óptico, con el conjunto de lentes, captadores y conversores optoelectrónicos. El proceso de luminancia, donde se extraerá, a partir de las señales de los tres colores básicos, la información correspondiente a la luminosidad de la escena. El proceso de crominancia, realizándose la mezcla de RGB para obtener las señales diferencia de color y, a continuación, modulándose para formar la señal de croma. El bloque de control y temporización, que supervisará y sincronizará el funcionamiento del resto de los bloques. La interfaz de usuario, que gobernará la comunicación entre la cámara y el operador, durante su utilización habitual, y con el técnico, permitiendo realizar los ajustes de servicio de un modo sencillo y preciso.
Esquema de bloques de una cámara de televisión.
2
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
1.- INTRODUCCIÓN El funcionamiento funcionamie nto de las cámaras de televisión, así como los ajustes operaciones técnicas se pueden identificar en cinco grandes bloques: 1. 2.
3.
4. 5.
y
El bloque óptico, con el conjunto de lentes, captadores y conversores optoelectrónicos. El proceso de luminancia, donde se extraerá, a partir de las señales de los tres colores básicos, la información correspondiente a la luminosidad de la escena. El proceso de crominancia, realizándose la mezcla de RGB para obtener las señales diferencia de color y, a continuación, modulándose para formar la señal de croma. El bloque de control y temporización, que supervisará y sincronizará el funcionamiento del resto de los bloques. La interfaz de usuario, que gobernará la comunicación entre la cámara y el operador, durante su utilización habitual, y con el técnico, permitiendo realizar los ajustes de servicio de un modo sencillo y preciso.
Esquema de bloques de una cámara de televisión.
2
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Cámara de estudio.
3
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Cámara ENG. A continuación vamos a describir cada uno de los bloques, su funcionamiento, funcionamient o, ajustes y operaciones de servicio más usuales.
4
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
2. EL VISOR. Un visor eficaz es imprescindible. Permite seleccionar, encuadrar y ajustar la toma, componer la imagen y evaluar el ajuste del enfoque. Cuando se trabaja sólo con una cámara portátil, el visor será normalmente la guía principal para la calidad y exposición de la imagen, proporcionando proporcionando continua información sobre la grabación, las condiciones de la batería, etc. La mayoría de los visores van equipados con un tubo de imagen en blanco y negro, que presenta una imagen monocroma de alta precisión. Aunque las pantallas LCD tienen la ventaja de mostrar la imagen en color, no necesariamente idéntico al del monitor de imagen, no muestran los detalles sutiles fácilmente y el enfoque manual es más difícil. Algunos modelos muestran poco más que la toma que se está efectuando, de modo que no se puede ver si algún elemento exterior del encuadre entra inadvertidamente en la imagen. Cuando el visor muestra exactamente la misma imagen que la del encuadre, el operador se puede despreocupar. Como el visor es un dispositivo de monitorización, monitorización, se puede hacer cualquier ajuste de brillo, contraste, definición o mezcla sin afectar a la grabación. Normalmente, el visor recibe la señal de su propia cámara, pero si es necesario, puede conmutarse para mostrar también la imagen de otra cámara, lo que permite comparar dos o más planos de cámara o mostrarlos combinados en un efecto compuesto. También se utiliza el visor para presentar patrones de comprobación (test), para revisar el funcionamiento del canal de cámara. Indicadores . Para encuadrar bien la imagen, la pantalla del visor puede marcarse
con una cruz central que señala el punto medio exacto del plano. Una línea grabada como área de seguridad alrededor de sus bordes recuerda que información importante o rótulos en el borde pueden perderse a causa del formato de las pantallas receptoras de TV. Varios indicadores informan sobre la situación y configuración de la cámara y el VTR. Pueden ser pilotos incorporados o medidores alrededor del visor o pequeños indicadores en la misma pantalla del visor. Con frecuencia existen indicadores adicionales a los lados y en la parte trasera de la cámara. Las disposiciones típicas incluyen: -
Un piloto de aviso que se ilumina cuando cuando la cámara está está grabando grabando o en en emisión.
-
Un indicador de ajuste del zoom que muestra la longitud focal del objetivo, el ángulo y la apertura (f-stop) y si se está utilizando un extensor del objetivo para incrementar o disminuir su cobertura.
-
Los indicadores de nivel de video y exposición varían desde un simple piloto de luz baja hasta un indicador de exposición visual cebra en pantalla. Con este 5
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
último, cualquier parte de la imagen que exceda el nivel de brillo de luminosidad preestablecido mostrará rayas diagonales para indicar la necesidad de reducir la apertura (ej. Bajar el f-stop). -
Los ajustes de ganancia de video muestran la ampliación de imagen seleccionada.
-
Otros indicadores muestran si los filtros correctores están en uso, por ejemplo para compensar la temperatura del color de la luz.
-
Una señal luminosa advierte de que algún usuario del intercom privado (ej. El operador de control central) quiere contactar con el operador.
Las cámaras ENG/EFP pueden incluir otros indicadores: -
VTR: Muestra si el VTR está en standby, grabando, reproduciendo o rebobinando.
-
Estado de la batería.
-
Muestra si la cinta está cargada, cuanto queda o si se ha acabado.
-
Indicador de humedad o rocío.
-
Balance de blanco / temperatura de color / equilibrio de color: muestra si la cámara compensa el color en correspondencia con la luz predominante.
El visor de una cámara de estudio son los más grandes (12,5 ó 17,8 cm), tienen una visera ajustable que protege su pantalla de los rayos de luz aleatoria que alteraría la imagen. Es posible inclinar y a veces girar a carcasa del visor de manera que la imagen pueda verse claramente cualquiera que sea la altura de la cámara y la posición de quien la maneja. El visor de la cámara portátil es normalmente un visor ocular de 1,5 pulgadas que se puede girar a cada lado de la cámara y a veces inclinar para su mejor operatividad. El ojo se sitúa sobre la goma del ocular y la óptica se ajusta para adaptar la vista.
3.
BLOQUE ÓPTICO
Si pretendemos seguir el recorrido natural de la imagen, el primer elemento a considerar es el bloque óptico, que contiene los dispositivos necesarios para seleccionar la escena a captar y convertirla en señales eléctricas, que se procesarán en el resto de las etapas. La mayoría de las cámaras de TV están equipadas con el típico objetivo zoom, que proporciona al operador una notable y flexible herramienta de producción. En situaciones específicas este objetivo se puede reemplazar por un objetivo de distancia focal fija. El objetivo fijo resulta especialmente útil cuando: 6
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
-
Es necesaria una mayor calidad óptica. Se busca un efecto óptico especial (ej. Objetivo ojo de pez, gran angular extremo) Se graba con poca luz, ya que estos objetivos tienen menos pérdidas de luz por lo que transmiten una imagen más definida. Se usan sistemas especiales para intensificar la luz.
Controles del objetivo
El sistema de objetivos tiene normalmente tres ajustes separados, que pueden ser accionados manual o semiautomáticamente. Enfoque: Ajusta la distancia a la que la imagen tiene mayor definición. F-stop: Ajusta un diafragma en iris variable dentro del objetivo. Zoom: Altera la “distancia focal” del objetivo para ajustarla a la parte de la escena que abarca el plano. En términos generales, la manera en que se ajustan los controles de objetivo afectará a: La definición de los detalles (enfoque). Lo que aparecerá mejor definido en la toma (profundidad de campo). La disminución y amplitud de la toma (ángulo de visión). La impresión de distancia, espacio y tamaño que la imagen transmite. La luminosidad de la imagen, la definición de los tonos más claros y las sombras (exposición). • • • • •
Identificación de un objetivo. En el frontal de un objetivo podemos encontrar dos datos informativos: La apertura máxima del objetivo o f-stop. Expresa la “rapidez” del objetivo; es decir, cuanta luz deja pasar. Un objetivo “rápido” (ej. F-stop f/1.8) proporciona buenas imágenes, aunque los niveles de iluminación sean bajos. Un objetivo “lento” (ej., un máximo de f/3,5) precisará bastante más luz, incluso a su máxima abertura. La distancia focal. En un objetivo zoom, la escala de distancias focales está señalada directamente (ej. 9-126 mm) o como un índice del zoom (ej. 9 mm. x 14 mm.) •
•
7
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Distancia focal y apertura Desde el punto de vista óptico, un objetivo está formado, básicamente, por tres conjuntos de lentes, encargadas de realizar otras tantas funciones, como son: las lentes de enfoque, las de encuadre y las lentes de foco trasero.
3.1.
Lentes de enfoque.
En la parte exterior del objetivo encontramos este primer grupo, cuya misión es concentrar el punto focal sobre el sujeto que se desea captar. Para poder ajustar el foco sobre una gran variedad de distancias, este grupo de lentes se desplaza longitudinalmente. Del diámetro de la lente de enfoque depende, en gran medida, la cantidad de luz que se transferirá hacia el interior de la cámara, por lo que su tamaño es el mayor de cuantos integran el objetivo. Las cámaras domésticas, pensadas para ser utilizadas por personal no cualificado, disponen de sistemas que detectan la distancia a la que se encuentra el sujeto y ajustan automáticamente la lente de enfoque en consecuencia. Sin embargo, debido a la limitada efectividad de estos sistemas, las cámaras profesionales prescinden de dichos dispositivos, quedando encomendada la misión de enfocar al operador de cámara. ¿Qué es la distancia focal? Se denomina distancia focal a la que hay entre el centro óptico del objetivo y la superficie del CCD, película o fotosensor, cuando tiene enfocado los objetos lejanos nítidamente. Se trata de una propiedad óptica intrínseca. En un objetivo fijo la distancia focal es constante. En un objetivo zoom es variable y se puede ajustar dentro de unos límites.
8
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Distancia focal. Profundidad de campo. Al enfocar un objetivo se ajusta la distancia a la que proporciona un máximo de nitidez. Cualquier elemento más cercano o distante aparecerá progresivamente desenfocado. La escala de distancias en las que los objetos están bien definidos se conoce como profundidad de campo. El área con definición delante del sujeto es mucho más reducida que la que está tras él.
Profundidad de campo La medida en que esta definición del enfoque puede perderse sin que se aprecie depende del detalle del sujeto y la tolerancia del aparato. Si el sujeto tiene escasos detalles y el mecanismo poca definición, quizá resulte difícil apreciar exactamente lo que está enfocado. Si el sujeto se encuentra dentro de la profundidad de campo no será necesario reajustar el enfoque. Cuando la profundidad de campo es considerable, sobre todo si el objetivo está enfocado en distancia hiperfocal, también puede perder la definición, especialmente en planos cortos. En este caso, si hay un cambio de la distancia del sujeto o de la cámara aunque sea mínimo, será necesario reajustar el enfoque para conservar la nitidez.
9
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
La profundidad de campo en una toma se modifica apreciablemente cuando varía: - La distancia de enfoque del objetivo. - El ángulo del objetivo (la distancia focal). - La apertura del diafragma.
Un teleobjetivo (objetivo de foco largo) cubre sólo un estrecho segmento de la escena, tiene un efecto telescópico, pero proporciona en cambio, una imagen más grande del objeto. 10
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Un objetivo gran angular (objetivo de foco corto), permite un campo de visión amplio, pero los objetos aparecen más pequeños y lejanos.
3.2.
Lentes de encuadre.
Conocidas habitualmente como zoom, se encargan de seleccionar la zona concreta de la imagen que se transferirá hacia los sensores ópticos. Esta selección se realizará a medida que el grupo de lentes se desplace de atrás hacia delante, definiendo la distancia focal en cada punto y, con ello, el ángulo de apertura visual en torno al eje del objetivo. El recorrido de este grupo óptico define dos características del objetivo: la distancia focal mínima y el número de aumentos. Así, podríamos encontrarnos con un objetivo identificado como 15 x 8, la distancia focal mínima es de 8 milímetros, pudiendo aumentarse hasta quince veces y consiguiendo, por lo tanto, una distancia focal máxima de 120 milímetros.
11
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Ventajas del zoom
-
Resumiendo, las principales ventajas del objetivo zoom son las siguientes: Permite una amplia selección de ángulos de objetivo. Se selecciona con rapidez cualquier ángulo de los comprendidos en su escala. El zoom se controla manual o automáticamente con diversas velocidades prefijadas. Permite el ajuste del tamaño de la toma para mejorar la composición y el encuadre del plano sin acercar o alejar la cámara, lo que resulta más rápido y menos cansado.
Desventajas del zoom
-
Sin embargo, no hay que olvidar que los objetivos zoom también tienen desventajas: El objetivo se comporta de formas distinta con diferentes ajustes del zoom, cambios de profundidad, perspectiva, manejo. Es muy fácil utilizar ángulos de objetivo inapropiados, produciendo cambios de perspectiva entre las tomas, distorsionando sujetos y espacio. Para sustituir movimientos de cámara, a veces, se utiliza el zoom de manera inadecuada.
Dificultades de enfoque
Si una toma está correctamente enfocada, el zoom de acercamiento y alejamiento no debe producir desfases. Si hay alguna variación en el enfoque (error de seguimiento) quizá el objetivo deba ser configurado o su técnica es deficiente. No obstante, incluso un objetivo zoom de alto rendimiento y correctamente configurado presenta problemas en su funcionamiento que debemos conocer. Supongamos que se ha efectuado un zoom de alejamiento completo y que la imagen continúa nítidamente enfocada. Al realizar después un zoom de acercamiento para un plano corto se descubre que la imagen está completamente desenfocada. ¿Por qué? El enfoque con un objetivo gran angular (distancia focal corta) es tan poco crítico que aunque el objetivo esté enfocado, por ejemplo, a una distancia de enfoque entre 8 y 10 m. la toma aparece con la misma definición. Esto se debe a que la profundidad de campo es considerable y no es fácil apreciar la distancia de enfoque exacta. Sin embargo, al realizar un zoom de acercamiento la profundidad de enfoque se reduce a medida que se estrecha el ángulo del objetivo. Si el enfoque inicial era 10 m. y ahora e sujeto se encuentra a 8 metros, el error se hará evidente y el sujeto estará desenfocado. 12
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
La única solución es efectuar un preenfoque de a imagen en el momento oportuno. Se efectúa un zoom de acercamiento, se enfoca nítidamente, a continuación se realiza un zoom de alejamiento para la toma con gran angular y se está preparado para el rodaje y efectuar el zoom que sea necesario. Distancia de enfoque mínima .
Cualquier objetivo se puede enfocar dentro de una escala comprendida entre el infinito y un plano a corta distancia del objetivo. Por debajo de una distancia de enfoque mínima, que representa el límite físico del sistema, la imagen aparecerá desenfocada. Esta característica varía con las características y el modelo del objetivo. Mientras que os objetivos gran angular enfocan a pocos centímetros, la distancia de enfoque mínima de un teleobjetivo es de varios metros. Para un zoom, por consiguiente, esta distancia varía con el ángulo seleccionado. Actualmente muchos objetivos zoom tienen una configuración macro, con lo que se obtiene una gran definición de imagen hasta casi la propia lente del objetivo. Se puede rellenar la pantalla con un sello de correos. Conseguir que el sujeto esté bien iluminado a tan corta distancia y evitar las sombras de la cámara es otro asunto. Al utilizar la configuración macro, el zoom queda inoperativo.
3.3.
Lentes de foco trasero.
En los objetivos de distancia focal variable, se debe garantizar que la luz incida sobre la superficie de los sensores de imagen en un foco correcto para todo el recorrido de las lentes de zoom. Por este motivo se incorpora una lente que se ajustará cada vez que se monte el objetivo sobre la cámara, hasta conseguir la máxima calidad con el objetivo en su posición de gran angular. Una vez realizado el ajuste, se procederá a comprobar que, para diferentes distancias focales (posiciones de zoom), se percibe una imagen nítida sin necesidad de retocar el control de enfoque. Para realizar este ajuste se debe: •
•
•
•
Con el objetivo en la mayor apertura (manual), se efectúa un zoom de acercamiento sobre una imagen distante con el control de enfoque ajustado en posición normal (aro de enfoque en el tubo del objetivo o control de enfoque principal) para conseguir la mayor definición. Zoom de alejamiento hasta el ángulo más abierto, ajustando el control de la distancia focal trasera con los preajustes internos para obtener a mayor nitidez de la imagen. Ahora ya se puede efectuar el zoom de acercamiento y alejamiento sin producir desenfoques. Si fuera necesario, se repetirá el proceso de configuración para obtener los mejores resultados. Una vez ajustado correctamente el recorrido del foco, no será necesario modificarlo durante bastante tiempo. Finalmente se selecciona cualquier gama de enfoque y se comprueba que el recorrido del zoom continúa siendo correcto.
13
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Entre las lentes de zoom y foco trasero se encuentra el diafragma o iris, una cortina circular que se abre y/o se cierra, acomodando la cantidad de luz que se transfiere hacia el interior a las necesidades concretas para la obtención de una imagen correcta. El iris está calibrado en números de diafragma ( f ), que representan la relación entre la distancia focal y el diámetro de apertura de dicho iris. De este modo, cuanto más bajo se el número que se corresponde con el diafragma totalmente abierto, más luminoso resultará el objetivo, siendo ésta una de sus características fundamentales. Apertura del diafragma (f-stop) Cuando se mira el interior de un objetivo, se ve un diafragma o iris circular ajustable hecho de varias láminas de metal que se superponen. El tamaño del orificio formado por estas láminas está minuciosamente calibrado en pasos graduados. Estos pasos o números f-stop (números de diafragma – números T) están marcados alrededor de un aro acoplado en el tubo del objetivo. Al girar el aro modifica el diámetro operativo de apertura del objetivo dentro de una amplia escala. El ajuste de esta apertura produce dos efectos independientes pero simultáneos. 1. Modifica la luminosidad de la imagen del objeto que incide sobre el tubo de cámara o sensor de imagen, es decir, la exposición de la imagen. 2. Modifica la profundidad de campo de la toma, que como ya sabemos también está afectada por la distancia de enfoque del objetivo y la distancia focal. Números f (f-stop) Cuanto mayor sea la apertura del diafragma más luz penetrará en el objetivo. Normalmente, para un objetivo luminoso, adecuado para niveles de iluminación bajos, sería la apertura completa f/1,4 a 1,7. Un objetivo menos luminoso, con una apertura máxima de f/3,5 no produciría imágenes de buena calidad bajo tales condiciones. La máxima apertura para una cámara CCD de 2/3 de pulgada es f/1,7 y para un sistema CCD de ! pulgada es de f/1,4. A medida que se reduce la apertura, el número de f-stop aumenta. La apertura mínima del objetivo es f/22. Por cada número completo de apertura se duplica la luminosidad de la imagen (por cada número que se cierra se reduce a la mitad). Un número completo de diafragma, sin embargo, es una división excesiva y poco práctica y por ello existen subdivisiones. La serie estándar de numeración de apertura es: f/1,4; 2; 2,8; 4; 5,6; 8; 11; 16; 22; 32. Puede calcularse la diferencia de luz que existe entre dos aperturas aplicando la siguiente fórmula:
14
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
(Primer número f)" = diferencia de luz (Segundo número f) " El iris puede ser automático o manual; la mayoría de los mecanismos de iris automático funcionan midiendo la luminosidad de la parte central de la imagen. Otros muestrean diferentes partes da la imagen, lo cual es mejor. De todas formas se recomienda la utilización del ajuste manual del iris. Ajuste manual del iris. Girando el aro del diafragma en el tubo del objetivo se selecciona con exactitud la exposición requerida. Se puede ajustar la luminosidad de la imagen completa, compensar las características de la escena que confundirían a un sistema automático e incluso producir fundidos hacia o desde una pantalla negra.
Estructura de un objetivo de focal variable
15
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
4. LOS FILTROS DE CÁMARA Una vez que la luz ha atravesado las lentes del objetivo aún le restan un buen número de operaciones previas a la transformación en señales eléctricas, que se desarrollarán ya en el interior del cuerpo de cámara.
4.1.
Filtro de cuarto de Onda.
La luz incidente puede ser considerada como una mezcla de componentes que llegan en múltiples planos. En una aproximación básica, podemos diferenciar las ondas luminosas que llegan en planos paralelos al eje óptico, o próximas a éste (llamadas componentes P ); y aquellas componentes cuyo plano de incidencia está más cercano a la perpendicular del mismo eje, que reciben el nombre de
componentes S . El hecho de diferenciarlas es importante, puesto que su comportamiento frente a superficies parcial o totalmente reflectantes también es distinto. Como el sistema de separación de los colores se basa precisamente en estos principios, deberemos establecer un método para eliminar las diferencias en el tratamiento de las diferentes polarizaciones de la luz. Por esta razón se incorpora un
filtro de un cuarto de onda, que permitirá el paso de las componentes cuyo plano de polarización coincida con el eje óptico del propio filtro. Al resto de las señales luminosas se les aplicará un desfase, que será de 90º (un cuarto de la longitud de onda) para el caso extremo de las ondas incidentes de forma perpendicular a dicho eje. El resultado es que en la salida del filtro aparece una señal luminosa de polarización circular, al presentarse señales cuya fase varía de forma secuencial.
Funcionamiento de un filtro de cuarto de onda
16
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
4.2.
Filtros de corrección de color.
Tras el filtro de cuarto de onda se dispone, montado en un carro que permite al operador su intercambio de forma rápida y sencilla, de un grupo de filtros de
corrección de color , denominados de modo abreviado “filtros CC”. El objetivo de éstos es adaptar la luz incidente, modificando su temperatura de color, de forma que los separadores cromáticos reciban una señal luminosa adecuada a la sensibilidad en las diferentes longitudes de onda en que trabajan. Normalmente se podrá elegir entre tres y cinco filtros diferentes, dependiendo del modelo de cámara; los más frecuentes son los filtros para luz de incandescencia (3200º Kelvin) o para luz día (en torno a los 5600º Kelvin). Es importante seleccionar, en cada situación, el filtro más adecuado a la iluminación, con el fin de conseguir un correcto balance de blancos y, por lo tanto, una adecuada respuesta cromática de la cámara.
4.3.
Filtros de densidad neutra.
Junto a los filtros de corrección de color se usan otros destinados a compensar los excesos en la cantidad de luz de la escena a captar: se trata de los filtros de
densidad neutra ( ND). Como ya hemos comentado, el iris o diafragma del objetivo se encarga de ajustar la cantidad de luz que llega a los sensores de la cámara. Sin embargo, cuando se actúa sobre el iris también se ve modificada intrínsecamente la profundidad de campo; es decir, la zona del espacio que se mantiene enfocada delante y detrás del punto focal. Por lo tanto, si deseamos realizar una toma con poca profundidad de campo (en un retrato en primer plano, por ejemplo) deberemos abrir el iris, seleccionando un número bajo de diafragma. Esta operación supondría la entrada en la cámara de una elevada cantidad de luz, por lo que la escena resultaría sobreexpuesta. Para solucionarlo se emplean “atenuadores ópticas”, filtros grises que, sin modificar las características cromáticas de la luz (densidad neutra), limitan la cantidad que transfieren. Están calibrados en grados fijos, normalmente expresados en porcentaje de atenuación.
17
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
4.4.
Filtros de Infrarrojos.
El siguiente paso consistirá en limitar el ancho de banda de la señal luminosa que incidirá sobre los captadores de imagen, evitando así que lleguen longitudes de onda no deseada y que podrían provocar fallos de funcionamiento en la cámara. En primer lugar, encontraremos un filtro de infrarrojos, que se encargará de limitar las señales de longitud de onda superior a unos 680 nanómetros (nm). Este filtro se hace imprescindible en las cámaras con sensores CCD, ya que estos elementos tienen una respuesta muy superior a la del ojo humano, resultando sensible en la zona de los rayos infrarrojos. Si se permitiera pasar a esta señal, ante fuentes de infrarrojos invisibles para nosotros podría falsearse la lectura de la luminosidad de la escena, dificultando su captación. En el caso de cámaras con tubos fotoconductores, este filtro no resulta necesario, puesto que su margen de trabajo está muy limitado por su propia naturaleza, no siendo sensible a las radiaciones infrarrojas.
4.5.
Filtros de paso bajo.
Unido a este filtro de infrarrojos (que definirá la frecuencia mínima que se transferirá a los captadores) se coloca un filtro de paso bajo, que completará la banda pasante del filtro óptico de entrada. La justificación de la necesidad de este filtro reside en el hecho del muestreo que se producirá posteriormente en los captadores de imagen. En efecto, para convertir la imagen en señales eléctricas se utilizará una matriz de diminutos sensores; la separación entre ellos será la que definirá la resolución máxima que se podrá conseguir la cámara. De forma similar a lo que sucede en el muestreo de una señal eléctrica, al aplicarse sobre una imagen se debe respetar el teorema de Nyquist, por el cual la frecuencia de muestreo habrá de ser, al menos, de valor doble que la máxima frecuencia muestreada. Extrapolando la norma, deberemos garantizar que la longitud de onda más pequeña que pueda llegar (correspondiente a la frecuencia máxima) sea muestreada por dos elementos sensores de imagen como mínimo. De no respetarse esta norma podrían aparecer señales espúreas (denominadas genéricamente aliasing ), producto de intermodulaciones, que darían lugar a efectos no deseados
sobre la imagen.
18
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Respuesta espectral del filtro de infrarrojos
Para evitarlo se incorpora un filtro de cuarzo cuyo eje óptico se ha desplazado respecto del eje normal de la superficie, por lo que se producirá un fenómeno de doble refracción. Este principio genera a partir de los rayos incidentes otros secundarios paralelos y muy próximos a los originales. Los haces extraordinarios no tienen ningún efecto en las frecuencias de trabajo (en realidad únicamente una disminución inapreciable de la resolución), pero a partir de una determinada frecuencia óptica, la suma de los haces principales y los añadidos da como resultado una superficie iluminada uniformemente, no transfiriéndose por lo tanto las señales de frecuencia superior a la crítica.
Sistema óptico en la cámara de televisión.
5. SEPARACIÓN CROMÁTICA. En las cámaras domésticas, la imagen transferida por el objetivo se aplica a un captador de imagen, en cuyo interior existen elementos sensibles a diferentes colores (tradicionalmente cian, verde, magenta y amarillo) y, por matrizado de estas 19
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
componentes, se obtienen posteriormente las señales de luminancia y croma. Esta solución es económicamente interesante, pero su limitada resolución hace inviable su utilización en sistemas profesionales. Cuando se requiere una mayor calidad en la captación se recurre a dividir la imagen por procedimientos ópticos, extrayendo sus componentes básicas de rojo, verde y azul. Una vez separadas las componentes cromáticas resultantes se muestrearán en tres captadores independientes, por lo que se obtendrá señales eléctricas correspondientes a las tres señales básicas. El elemento que se encarga de separar la luz en sus componentes básicas en cámaras profesionales es el prisma dicroico, un conjunto de espejos semireflectantes que permiten el paso de uno de los colores principales, reflejando el resto. Para formar un filtro dicroico se utilizan dos materiales con índice de refracción diferente, dispuestos en finas capas alternadas, que pueden llegar a ser hasta veinte. La elección de los materiales y el espesor de las capas definirán la longitud de onda que reflejan y cuáles podrán atravesarlo. Los filtros dicroicos utilizados no reflejarán exclusivamente la longitud de onda correspondiente al color para el que fueron diseñados, por lo que inevitablemente se reflejarán colores que, no siendo expresamente rojo o azul, tienen una longitud de onda cercana a la suya. Para garantizar que a cada sensor le llega únicamente la componente lumínica deseada se incorporan, justo delante de los detectores, unos filtros (7,8 y 9) que transferirán las componentes básicas roja, verde y azul, desechando el resto.
Separación cromática en un prisma dicroico.
20
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
En el esquema puede apreciarse el proceso que sigue la luz en el interior del prisma. Así, a través del objetivo llega la información visual, una vez atravesados los diferentes filtros ópticos que incorporan las cámaras, hasta la cara frontal de un semiespejo (1) que permite pasar la luz en la dirección de entrada, en perpendicular a su superficie. La luz incide, a continuación, en la cara oblicua del primer prisma, donde está ubicado un filtro dicroico de reflexión azul (2), por lo que la componente de este color se verá reflejada y conducida de nuevo hacia el exterior del prisma. Sin embargo, como ahora el ángulo de incidencia no es perpendicular, el tratamiento de la superficie provocará una reflexión total de la componente azul (3), que se dirigirá hasta el sensor de imagen correspondiente a ese color (4). El resto de los componentes lumínicas podrán atravesar este primer filtro dicroico y llegar hasta el segundo prisma, que a su vez incorpora un segundo espejo dicroico (5), éste de color rojo, que se encargará de llevar las longitudes de onda mediante una nueva reflexión total (6) hasta el sensor de imagen correspondiente, Si a la imagen original le restamos, a través de estos dos separadores ópticos, las componentes de azul y de rojo, el resto corresponde a las componentes de color verde contenidas en la escena, que habrán logrado atravesar las dos superficies dicroicas, y que serán recogidas por un tercer sensor, situado detrás del separador cromático. Un problema asociado a los separadores cromáticos es el de las imágenes fantasma, generadas cuando la luz se refleja de forma no deseada en las paredes del prisma divisor: en alguno de los sensores aparece un haz luminoso inesperado que se sumará (o se restará, según la diferencia de fases) a la imagen original. La causa más frecuente es una desviación del haz incidente respecto del eje óptico del prisma, provocada por errores en la fabricación del objetivo o los filtros previos. Para evitarlo, se recurre a una combinación de las siguientes técnicas:
21
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Posibles imágenes fantasma y sus soluciones.
•
Máscaras Opacas. Situadas en la entrada del prisma delimitarán la zona por la cual se permite el
paso de la luz hacia el interior. •
Barreras internas. Bloquearán los haces de luz procedentes de reflexiones incontroladas, evitando
que lleguen a los sensores ópticos. •
Recubrimientos interiores. De alta absorción óptica en las paredes laterales del prisma, que anularán los
reflejos incontrolados en dichas paredes.
22
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
6. TUBOS CAPTADORES DE IMAGEN Desde los orígenes de la televisión hasta década de los ochenta, el dispositivo captador de imágenes utilizado en televisión era un tubo fotoconductor . Aunque de tamaño mucho menor, su estructura era similar al tubo de imagen que aún hoy se utiliza en los receptores de televisión, con un cátodo termoiónico que emite electrones al ser calentado por un filamento, un grupo de rejillas de control del haz, que lo aceleran y concentran, y un sistema de deflexión electromagnético, que permitía a los electrones realizar un barrido de exploración de la imagen.
Tubo de cámara y CCD Las diferencia entre los tubos de cámara y los de presentación de imagen se manifiestan en la pantalla, ya que en los tubos captadores está recubierta de un material fotosensible, que en su equivalente eléctrico puede ser considerado una matriz de pequeños pares “condensador-resistencia” conectados en paralelo. Cuando el haz de electrones barre la matriz fotosensible, llamada target , los diminutos condensadores se cargan, almacenando la energía de los electrones incidentes. En ausencia de luz, el valor de la resistencia del target es muy alto, por lo que la carga se mantendrá hasta el siguiente período de exploración, en el cual apenas se necesitará corriente para mantener la carga original de los condensadores (a esta pequeña corriente se la denomina corriente de oscuridad o corriente de negro). Sin embargo, debido al efecto fotoconductivo, al aplicarle luz, la resistencia interna del target se reduce, por lo que cuando la imagen llega hasta esta superficie, cada uno de
los puntos verá disminuida su resistencia de forma proporcional a la cantidad de luz que está recibiendo a través del objetivo. Por esta razón la carga almacenada en los condensadores, serán neutralizadas, en mayor o menor medida a través de la conductividad de cada elemento sensor de la pantalla. 23
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Será durante el siguiente período de exploración del haz de electrones cuando se “leerá” la imagen captada, ya que cuando el haz pase sobre un punto que se encuentre descargado (por haber recibido una elevada cantidad de luz) necesitará una mayor cantidad de corriente para recargarse que aquel otro que no haya recibido iluminación. Por lo tanto, la señal de vídeo se obtiene como resultado de recoger la cantidad de corriente que absorbe cada uno de los puntos del target al ser barrido durante la exploración del haz de electrones. Como los valores de corriente obtenidos son muy bajos, será preciso colocar un preamplificador de bajo ruido muy cercano al anillo de contacto del target , situado en la parte delantera del tubo captador. Durante décadas, y basándose en este principio fundamental, se han desarrollado diferentes generaciones de tubo (Vidicón, Newvicón, Plumbicón…) en los que se mejoraban los materiales, se optimizaban los diseños; con ello se conseguían componentes más fiables y de mayor rendimiento. Sin embargo, los tubos de cámara siempre han mantenido unas importantes limitaciones en cuanto a consumo, tamaño y estabilidad de funcionamiento, que llevaron al desarrollo del sensor de estado sólido.
7.
SENSORES CCD En 1986, Sony comercializó la primera cámara de televisión que no utilizaba tubos
de vacío como captadores de imagen, basándose en dispositivos que hasta ese momento sólo se habían utilizado como memorias analógicas. Este hecho supuso una auténtica revolución del concepto mantenido hasta ese momento, puesto que el nuevo sensor presentaba unas características de funcionamiento que lo convertían en una alternativa más que interesante. Entre las evidentes ventajas de los dispositivos de
acoplamiento de cargas CCD (Charge Coupled Device), podemos encontrar de tipo físico y de tipo eléctrico; las más relevantes son las siguientes: •
Mucho menor volumen y peso; se logran cámaras más pequeñas y ligeras, que resultaban idóneas para aplicaciones de reporterismo gráfico (ENG, Electronic News Gathering )
•
Menor fragilidad ante golpes, al haber desaparecido la ampolla de vidrio de sus predecesores.
24
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
•
Eliminación de las deformaciones geométricas, desapareciendo también la necesidad de corrección mediante sistemas electrónicos.
•
Aumento del tiempo de vida útil, que se ve multiplicada por veinte, con la gran ventaja de mantener sus características invariables durante toda la vida, por lo que no es necesario realizar los continuos ajustes que requerían las cámaras de tubos.
•
Reducción drástica del consumo, al no tener sistemas de calentamiento y aceleración por alta tensión ni sistemas de deflexión electromagnética.
•
Mayor sensibilidad, que posibilita realizar tomas en condiciones de iluminación mínima, al haber disminuido notablemente el ruido inherente al captador.
•
Eliminación de la remanencia, por lo que se puede exponer la cámara a escenas con altos contrastes, e incluso directamente al sol, sin que aparezcan zonas quemadas, arrastres en la imagen y sin riesgo e dañar la superficie sensible.
Uno de los elementos que posibilita un avance de tal magnitud es el condensador
MOS y los fotodiodos HAD. Para entender fácilmente el funcionamiento de esta asociación semiconductora, explicaremos primeramente el principio de la estructura, modificándolo después para crear el fotosensor. Un condensador MOS se forma a partir de un substrato levemente dopado, de forma que presente características de tipo P . Sobre él se deposita una capa de dióxido de silicio, que hará las veces de dieléctrico del condensador, dado que se trata de un material aislante. Si encima de esta capa colocamos un electrodo metálico al que se le pueda aplicar el potencial externo, tendremos formado el elemento básico de almacenamiento de cargas. Pero la cualidad más interesante no reside en la capacidad de almacenamiento, sino en la de poder mover las cargas almacenadas. Esto se consigue asociando muchos de estos condensadores (en la práctica, cerca de un millón) y realizando un movimiento coordinado de todos ellos, según describiremos a continuación.
25
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Si aplicamos una tensión eléctrica positiva de, por ejemplo, cinco voltios al terminal externo del electrodo (1), los electrones libres que posee el sustrato se verán atraídos hacia ese punto, situándose debajo del electrodo (2). Como tenemos una capa aislante entre el sustrato (ahora negativo en la zona afectada) y el electrodo, estos electrones no podrán neutralizarse, formando una acumulación de electrones que denominamos pozo de potencial (3). Éste se comporta como si de un pozo de agua se tratase, y resulta tener una profundidad proporcional a la tensión eléctrica aplicada al electrodo, por lo que si aumentásemos la tensión a ocho voltios, aumentaría también la carga almacenada en el condensador, obteniéndose así un sistema de memoria analógico.
Estructura de un condensador MOS.
Consideremos nuestro condensador cargado con ocho voltios y asociado a otro condensador al que no se le ha aplicado tensión alguna. En esta situación inicial, el primer condensador tendrá un pozo de potencial, mientras que el otro estará descargado. Si ahora le aplicamos al segundo electrodo un potencial de mayor valor (por ejemplo, doce voltios), los electrones que teníamos en el primer pozo se verán atraídos hacia el segundo; esto se observa en la figura que a continuación veremos, de forma similar a lo que ocurriría si creáramos un pozo de agua contiguo de mayor profundidad que el primero, en el que el agua fluiría desde uno hasta el otro. Para completar el ciclo de transferencia, bastará con eliminar el potencial aplicado al primer electrodo, a la vez que se hace descender el potencial del segundo en la misma proporción.
26
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
A partir de este momento, el primer pozo de potencial habrá desaparecido, y la carga que teníamos en él se habrá desplazado al segundo; repitiendo esta secuencia en una matriz de condensadores podremos llevarlo al lugar que deseemos, mientras que gobernando la temporización de cada fase controlaremos también el tiempo que se invierte en el desplazamiento desde el principio al final del trayecto. De hecho, una de las aplicaciones más usuales de esta estructura es la de línea de retardo analógica, utilizada ampliamente en sistemas de radio y televisión .
Movimiento de cargas en un CCD
Para conseguir un sensor de imagen, basándose en el condensador MOS, se sustituye el electrodo por una capa de polisilicio transparente, que actúa como elemento conductor al tiempo que permite el paso de los fotones de la luz que, al incidir sobre el sustrato de silicio, creará un pozo de potencial, en este caso proporcional a la intensidad luminosa recibida. En un fotocaptador CCD se utiliza una combinación de fotosensores, que se encargarán de realizar la conversión optoelectrónica, con otros condensadores con electrodos convencionales, y protegidos de la luz por una cubierta de aluminio, que se utilizarán en las labores de desplazamiento de las cargas hasta los canales de salida. Así, podemos considerarlo como una matriz de diminutos sensores fotoeléctricos asociados a canales de transferencia (denominados registros de desplazamiento), estando toda la estructura controlada por un sistema de «exclusas» o compuertas que controlan el movimiento de las cargas a través de los diferentes pozos de potencial.
27
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Las cargas obtenidas en los pozos de potencial son extraídas por un único terminal
en
forma
de
serie
ordenada
de
señales
eléctricas
analógicas
correspondientes a los puntos de cada línea. A continuación se extraerá la línea siguiente de información, y así se irá completando la imagen capturada. Durante el proceso de lectura, las cargas deben ser retenidas en una zona de almacenamiento temporal para dejar libres los elementos sensores, que irán captando la siguiente imagen. El paso de las cargas desde la zona expuesta a la luz hasta el área de almacenamiento tiene lugar en el intervalo de borrado vertical, evitando así contaminaciones y señales erróneas en el terminal de salida.
Desde el punto de vista de las conexiones externas, el sensor CCD se gobierna mediante una serie de líneas que controlan las diferentes exclusas. Naturalmente, no existen conexiones independientes para cada compuerta (hay varios millones de ellas), sino que se controlan por grupos, permitiendo así movimientos coordinados de los diferentes sensores. Así, según sea el movimiento que se produzca en las cargas del sensor, se identifican estas líneas como fases verticales u horizontales, numerándose habitualmente como V,, V 2, H,, etc. Estas fases se generarán de forma síncrona con la obtención en el terminal de salida de la señal de imagen.
Fotosensor completo
En realidad, no todos los fotosensores utilizan el principio del condensador MOS. Existe una variante basada en una estructura de unión P-N inversamente polarizada, formando pequeños fotodiodos que pueden funcionar (según el modelo y el fabricante) por acumulación de huecos, en lugar de electrones, y funcionando así
28
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
conceptualmente de forma similar. Tal es el caso de los sensores de tipo HAD (Hole Acumulation Diode).
La estructura básica estudiada aquí se complementa con otras capas que, si bien no son indispensables, mejoran sensiblemente sus características. De entre ellas podemos destacar las siguientes:
• Channel Stop Es una barrera fuertemente dopada destinada a evitar que la carga excesiva de un pozo pueda «contaminar» a los adyacentes. A través de toda la estructura del CCD se disponen cientos de estas barreras, que delimitan los caminos por los que discurrirán las cargas en los registros de desplazamiento.
• Microlentes Cuando se expone el sensor a la luz, algunos rayos incidirán en las paredes laterales de los fotosensores, por lo que se puede generar un haz de luz incontrolado, con efectos perjudiciales. Para evitarlo, algunos sensores de última generación (por ejemplo, Hyper HAD de Sony) incorporan, delante de cada fotosensor, una microlente que concentrará el haz luminoso, dirigiéndolo hacia el centro del sensor, por lo que se elimina el riesgo de dispersión incontrolada de la luz.
• Obturador electrónico La posibilidad de controlar el tiempo en el que los pozos I de potencial están acumulando energía abre nuevas posibilidades de mejora en la definición de imágenes en movimiento. Para conseguirlo se coloca un canal de drenaje en un lateral o debajo del sustrato de los fotosensores. La compuerta del canal permanecerá abierta durante una parte del tiempo, derivando las cargas acumuladas, que no se almacenarán. Ante un pulso de reloj, las exclusas de drenaje se cerrarán y los sensores captarán la imagen I que se produzca desde ese instante hasta el momento de transferirla a la zona de almacenamiento. La duración del tiempo de captura se puede controlar en función de la escena a captar, calibrándose en fracciones de segundo. Los tiempos cortos serán adecuados para escenas dinámicas, mientras que si deseamos tomar una imagen poco iluminada podremos incrementar el tiempo de acumulación de carga, aumentando así la luminosidad de la cámara.
29
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
•
Desplazamiento espacial
Como la captación de imágenes sobre un CCD se realiza con diminutos sensores unitarios, la resolución de la imagen captada vendrá determinada por la cantidad de estas células básicas, así como por su tamaño. Si muestreamos una fina línea oblicua, observaremos que la señal reconstruida estará formada por pequeños escalones del tamaño de un pixel. A este fenómeno se le llama «error de cuantificación». Para disminuirlo y, al mismo tiempo, aumentar la resolución efectiva de la cámara, en los sistemas profesionales, donde se utilizan sensores independientes para cada color básico, se recurre a desplazar el CCD correspondiente al color verde una distancia equivalente a medio píxel respecto de las posiciones que ocupan los sensores rojo y azul, que se encuentran alineados.
Al muestrear ahora la misma línea oblicua, obtendremos una señal verde cuyos «escalones» estarán intercalados entre los datos de los otros dos colores. Como la señal de luminancia de la que depende la resolución es la suma ponderada de estos tres colores, obtendremos como resultado una línea con mayor detalle que si los tres sensores estuviesen en la misma posición.
Desplazamiento espacial de media línea.
Actualmente podemos encontrar sensores de tipo hyperHAD o powerHAD, que presentan avances sustanciales con respecto al sensor de tipo HAD.
En resumen, tenemos que observar que tanto los CMOS como los sensores tipo HAD, sean el modelo que sean, son fotosensores que actúan de formas diferentes
30
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
a la hora de almacenar la información, no es uno mejor que otro en sí solo, sino que unos tienen mejores características para unas cosas y otros para otras, así: Tanto los sensores CCD como los CMOS están fabricados con materiales Semiconductores de Metal-Óxido (MOS) y estructurados en forma de matriz. Acumulan una carga eléctrica en cada celda de la matriz (o pixel) en proporción a la intensidad de la luz que incide sobre ella localmente. No obstante existen diferencias notables entre ambas tecnologías: En un sensor CCD (Charge Coupled Device) o Dispositivo de Cargas Acopladas, para recuperar una imagen, se procede a la lectura de estas cargas, mediante desplazamientos sucesivos y de forma secuencial. El CCD convierte finalmente estas cargas en Voltaje y entrega una señal analógica a su salida, que debe ser digitalizada y procesada por la circuitería de la cámara. En un sensor CMOS, (Complementary Metal Oxide Semiconductor) los fotones que recibe cada celda son convertidos en carga eléctrica y en voltaje en la misma celda receptora, de esta manera al contrario que en los CCD, las celdas son totalmente independientes de sus vecinas. Al contrario que el CCD, el sensor CMOS realiza la digitalización píxel a píxel, ello conlleva que el resultado que entrega a la circuitería de la cámara este ya digitalizado. Ahora vamos a ver las virtudes y defectos de cada uno: Responsividad : Se define como el nivel de señal que ofrece el sensor por
unidad de energia óptica incidente. Lógicamente nos interesa que el sensor tenga una responsividad elevada, o sea que con poca luz nos dé una señal aceptable. En este caso los CMOS son superiores a los CCD, debido a la mayor sencillez de integrar elementos amplificadores en un CMOS. Además por construcción CMOS permite alta amplificación con bajo consumo, mientras que en CCD la amplificación supone un consumo más elevado. Rango Dinámico: (RD) Es la razón (división) entre el nivel de saturación de los
píxeles y el umbral por debajo del cual no captan señal. En este aspecto CCD supera a CMOS, cuando se escribe esto típicamente el RD de un sensor CCD es del orden del doble que un CMOS. Ruido: Los CCD aventajan a los CMOS en términos de ruido, dado que por
construcción todo el procesado de señal se da fuera del CCD, con lo que se podrá 31
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
aprovechar de convertidores A/D más rápidos o mejores procesadores, por su lado los CMOS al realizar la gran mayoría de las funciones dentro del sensor (Amplificación , Conversión A/D, ...) pierden espacio para el fotodiodo en sí, y pagan esto en términos de ruido. Respuesta Uniforme: Se espera que un píxel -ante el mismo nivel de
excitación de luz- no presente cambios apreciables respecto a sus vecinos, en este aspecto la individualidad de cada píxel en CMOS lo hace mas sensible a sufrir fallos, siendo mayor la uniformidad en CCD. No obstante mediante circuitos con realimentación se ha conseguido paliar este problema en los CMOS, siguiendo los CCD con una ligera ventaja. Velocidad : La velocidad en CMOS es bastante superior a los CCD, debido a
que muchas funciones, como la propia conversión analógico-digital son realizadas en el propio sensor, por ahora esta ventaja es ligera pero se espera que aumente con el tiempo. Enventanado: Es sabido que los CCD funcionan a su máxima resolución en la
gran mayoría de dispositivos, en cambio los CMOS dado su carácter individualizado de cada píxel, permiten seleccionar mas fácilmente porciones de la imagen, esto permite mas refresco en modos de video o bien tomar imágenes a menor resolución sin interpolación. Blooming : Es el conocido fenómeno por el cual un píxel que ha alcanzado la
saturación empieza a 'contagiar' a sus vecinos, creando efectos indeseados. Esto se da en CCD, necesitando trucos de construcción cuando se quiere evitar, en cambio por su construcción los CMOS no sufre este defecto. En resumen CCD obtiene más calidad de imagen a costa de un tamaño mayor y consumo más elevado. Por su lado CMOS es superior en integración y bajo consumo a costa de perder calidad de imagen en situaciones de poca luz. Como siempre no hay nada superior de por sí, sino situaciones en las que cada tecnología es más adecuada.
32
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
7.1.
TIPOS CCD.
Desde el desarrollo del sensor de imagen de estado sólido no sólo se ha avanzado en los desarrollos de las células captadoras de imagen, sino que las investigaciones han permitido desarrollar diferentes estructuras que, difiriendo en la forma en la que se realiza la transferencia de las cargas almacenadas, han obtenido resultados cada vez más satisfactorios. A continuación repasaremos las diferentes estructuras por orden cronológico, comentando sus características más importantes.
7.1.1. Sensor de transferencia de cuadro (Frame Transfer , FT) En los primeros sensores de imagen en estado sólido, las áreas de captación y de almacenamiento se dispusieron separadas, según se puede apreciar en la imagen. Junto a la zona de almacenamiento se encuentra el registro de desplazamiento horizontal, asociado al terminal de salida. Cuando el objetivo proporciona una imagen sobre la zona sensible, se forman los pozos de potencial bajo los fotosensores. Al llegar el período de borrado vertical, un obturado mecánico se encargará de bloquear la luz, iniciándose la fase de almacenamiento. Durante este tiempo se generará un rápido tren de impulsos a las puertas de transferencia de los fotosensores, que actúan también como registro de desplazamiento vertical. Estos impulsos aplicados desplazarán, paso a paso, la imagen desde un sensor al inmediatamente superior, hasta conseguir ubicar la imagen dentro de la zona de almacenamiento, oculta a la luz mediante una máscara óptica. Una vez que la imagen está en la zona segura, el obturador de la cámara volverá a permitir el paso de la luz, formándose una nueva imagen sobre los sensores.
33
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Sensor de transferencia de cuadro (Frame Transfer, FT)
Simultáneamente se irán aplicando pulsos al registro de salida horizontal, de forma que la primera de las líneas de información empezará a salir por el terminal correspondiente. El tiempo empleando en extraer los puntos correspondientes a cada línea es naturalmente de 52 microsegundos ( #s), coincidiendo con el período activo de línea. Tras la extracción de la primera línea, un impulso a la fase vertical del área de almacenamiento provocará que la imagen almacenada suba una posición, quedando la segunda línea dispuesta para ser extraída por el registro de desplazamiento horizontal. Esta secuencia se repetirá hasta que se obtenga toda la información almacenada de la primera imagen, tras lo cual se producirá un nuevo intervalo de borrado vertical, transfiriendo la segunda imagen a esta zona de almacenamiento. La estructura descrita, si bien es sencilla de construir, adolece de dos problemas básicos. El primero estriba en la necesidad de disponer de un obturador mecánico que se encargue de bloquear la luz durante el proceso de transferencia. De no ser así, nos encontraríamos con un grave problema, ya que durante el proceso de transferencia hacia el área de almacenamiento se continuaría cargando los pozos de potencial, provocando graves mezclas de potencial y, por lo tanto, contaminaciones en las señales obtenidas. Los otros problemas también están relacionados con la contaminación de cargas, si bien se deben a razones diferentes y originan diversas situaciones: •
Smear : Al captar una imagen con puntos de elevada luminosidad, los pozos de
potencial correspondientes a estas zonas serán sometidos a una cantidad de luz tal que no podrán acumular tanta carga, por lo que se producirá un “rebosamiento” de 34
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
estos pozos. Esto supondrá una pérdida de definición de la zona sobreiluminada, por lo que la luz se visualizará como una zona borrosa y blanca o, en algunos modelos de cámara ligeramente coloreada. Al realizarse la transferencia a través del área fotosensible, cuando se mueva la información correspondiente al pozo saturado de potencial, adoptando la posición de otro que inicialmente estaba vacío (por representar al fondo oscuro), será inevitable que parte de esa carga se derrame, como si de un símil hidráulico se tratase. Como resultado de estos derrames aparecerá una línea luminosa en la vertical del punto luminoso original, causado por el “rastro” de las celdas contaminadas durante el período de desplazamiento vertical de las cargas desde el área sensible hacia la zona de almacenamiento.
Para comprobar la calidad del sensor, una de las pruebas que se puede realizar es enfocar la cámara a una escena donde se den grandes contrastes, sometiendo así a los sensores y circuitos a condiciones extremas de funcionamiento. Estas condiciones se producen, por ejemplo, cuando se toma la luz de una vela en un entorno de total oscuridad. En tal caso, se podrá observar fácilmente si existe smear, que aparecerá como una mancha blanca alrededor y una línea vertical iluminada en la posición de la llama.
7.1.2. Sensor de transferencia interlínea (Interline Transfer , IT) Con el fin de resolver algunos de los problemas del sensor FT, se desarrolló una estructura diferente, que dispone los elementos captadores intercalados con los elementos de almacenamiento. Como en el caso anterior, es necesario ocultar el área 35
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
de almacenamiento de la luz, por lo que se utiliza un filtro opaco en forma de peine, tal y como se observa en este dibujo:
Sensor de transferencia interlineal.
En este sistema se incorpora por primera vez el obturador electrónico, por lo que la luz incidente formará la imagen de cargas sobre los sensores cuando se cierren las compuertas de drenaje. Pero la mayor diferencia reside en la transferencia hacia la zona de almacenamiento. Como los sensores se encuentran intercalados con sus celdas de retención, el espacio entre los elementos sensibles es mayor, por lo que se reducirá la contaminación por fugas luminosas. Asimismo, la nueva disposición presenta otra ventaja: bastará un único ciclo de desplazamiento horizontal para trasladar la imagen a la zona segura. Durante el siguiente campo se irá extrayendo la información de las diferentes líneas a través de los registros de desplazamiento verticales y el registro horizontal de salida, mientras se forma una nueva imagen sobre la superficie sensible. La contrapartida la encontramos en el hecho de que las cargas almacenadas deberán permanecer adyacentes a los sensores durante el proceso de lectura de la información, suponiendo un tiempo relativamente grande y una potencial causa de problemas en condiciones extremas de funcionamiento. Si sometemos a nuestra particular prueba de la vela sobre fondo oscuro a este sensor, encontraremos que, si bien su respuesta es sensiblemente mejor en cuanto a lag , aún adolece del problema del smear vertical. Esto se debe a que durante la
transferencia hacia el terminal de salida, cada registro de desplazamiento está flanqueado por dos columnas de sensores. Si a través de este registro se desplaza un 36
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
punto con una gran cantidad de carga, parte de ésta se podrá “derramar”, contaminando los sensores adyacentes, sobre todo si éstos se encuentran vacíos originalmente, por pertenecer a una zona oscura de la imagen.
7.1.3. Sensor de transferencia de cuadro interlineal (Frame Interline Transfer , FIT)
A partir de las experiencias anteriores, se dedujo que la estructura ideal sería aquella en la que se dispusiera de una zona de almacenamiento separada del área sensible (como en el tipo FT) y que para llegar hasta ella la imagen no se utilicen los sensores, haciendo uso para ello de un camino alternativo (como en el tipo IT). Según estas premisas se creó el sensor FIT, que es una mezcla de los dos anteriores, combinando lo mejor de cada uno. En este sistema encontraremos, por lo tanto, una zona en la que se disponen, intercalados, los sensores ópticos junto a los registros de desplazamiento verticales. Como en el sensor IT, una vez creados los pozos de potencial a partir de la imagen, se transferirán mediante una fase de movimiento horizontal hacia el canal de desplazamiento, situado a la derecha de cada sensor. Inmediatamente después, y a una gran velocidad, se aplica un tren de impulsos que provocará la rápida transferencia de la imagen hasta la zona de almacenamiento, situada en este caso lejos del área de captación. Una vez que la imagen se encuentra en zona segura se procederá, a la velocidad nominal, a extraer el contenido de cada línea a través del registro horizontal de salida. El que la transferencia se realice a una elevada velocidad, por una parte, y que la imagen se almacene lejos del área sensible, por otra, elimina los inconvenientes presentes en otros tipos de CCD, configurándose unas características de calidad excepcionales. Sin embargo, por cada elemento de imagen, este sensor necesita otros dos (uno para el canal de desplazamiento vertical y el otro
en la zona de
almacenamiento). Esto supuso que, para poder mantener una buena resolución con tal cantidad de elementos, se tuviera que incrementar el grado de integración, reduciéndose el tamaño de cada unidad de captación. Al reducirse el tamaño apareció una pérdida de sensibilidad de almacenamiento de potencial, que fue subsanada por la mejora del diseño y los materiales utilizados en la fabricación.
37
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Sensor FIT
8. PROCESO DE LUMINANCIA Una vez extraídas las señales correspondientes a los tres colores básicos, con ellas se realizarán diferentes procesos dirigidos a conseguir la señal de vídeo según el estándar PAL. Así, se utilizan dispositivos diferenciados para los tratamientos de las señales de luminancia y croma, de forma complementaria a los usados en los receptores de televisión. En el caso de la señal de luminancia, el proceso es relativamente sencillo. Básicamente se encarga de adecuar la información de luminosidad de la escena, para compensar la falta de linealidad de los diferentes circuitos del sistema de transmisión, desde los captadores de la cámara hasta los tubos de imagen del receptor (del televisor doméstico o monitor profesional). En este bloque encontraremos, por tanto, los circuitos de ajuste de gamma, los controles del nivel de picos de blanco y negro, los mejoradores de detalles, los limitadores de ancho de banda, amplificación y control de ganancia, etc. Una vez realizados estas operaciones, las señales RGB se aplicarán a una matriz, donde se obtendrá, a partir de las componentes unitarias ponderadas, la señal de luminancia (Y).
38
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
8.1.
Corrección de gamma
Como ocurre en la inmensa mayoría de los componentes electrónicos, la respuesta del tubo de imagen del receptor de televisión no es lineal, puesto que los luminóforos necesitan una determinada cantidad de energía para poder empezar a emitir luz. Además, cuando se están representando imágenes con poca luminosidad, la capa de fósforo resulta especialmente insensible, mientras que los cambios en la señal de vídeo de una escena muy iluminada producen un gran cambio en la cantidad de luz emitida. Si intentásemos representar directamente las imágenes captadas por una cámara, el resultado obtenido en los receptores de televisión sería inaceptable. Por lo tanto, es imprescindible realizar algún tipo de corrección para garantizar que la respuesta de toda la cadena de transmisión, que llamamos gamma, represente fielmente las imágenes captadas por la cámara. Para la representación se utilizan gráficas de luz emitida en función de la señal eléctrica de excitación, así como factores numéricos que la cuantifican. En un sistema ideal, la gráfica se observaría como una línea recta y se podría afirmar que el sistema tiene gamma unidad.
Gamma en un sistema de televisión. Si, como se ha comentado, el tubo de imagen del receptor de televisión responde mejor a los cambios producidos en la zona de iluminación elevada, quedaría representado como muestra en el dibujo, apareciendo pequeños incrementos de la luz emitida en los escalones inferiores de la señal; por el contrario, en los más cercanos al nivel de blanco el cambio es mucho más abrupto. Si analizamos estadísticamente una muestra amplia de Tubos de Rayos Catódicos (TRC), se obtiene un factor de gamma 39
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
característico de Gamma = 2,2. Éste es el único elemento que posee una alinealidad notable, mientras que el resto de los dispositivos del sistema, incluido el captador de cámara, sí presentan una respuesta lineal ante diferencias de iluminación. Para compensar el error del tubo de imagen, se incorpora un ajuste en el proceso de luminancia, que consiste en regular la respuesta de los amplificadores para que se comporten de un modo no lineal, obteniendo de ellos una Gamma = 0,45, exactamente complementaria a la del TRC. Hasta ahora nos hemos referido a la corrección de gamma en términos de luminosidad, pero es en la imagen color donde adquiere importancia capital. La imagen de televisión se forma por combinación de los tres colores básicos. Para cada punto de la escena, estos tres colores adoptarán un valor diferente, por lo que una gamma mal ajustada provocaría que en el tubo de imagen del televisor cada color se iluminara con un error diferente. Este error se visualizaría como un cambio en los colores representados, desvirtuando gravemente la calidad de la imagen transmitida. Si consideramos un punto de color blanco formado por un 30% de rojo, un 59 % de verde y un 11% de azul, y lo transferimos por un sistema sin corrección (por lo tanto, con gamma 2,2), al llegar a los receptores del usuario, el color azul se representaría en una proporción muy baja (apenas un 2 %). La componente roja también vería reducido su valor, transfiriéndose en torno a un 10%. Por el contrario, el color verde, al tener un valor mayor, se visualizaría con un rendimiento muy superior al idóneo comparado con los otros dos, ya que podría llegar a un porcentaje del 40 %. A la vista de los valores obtenidos, se aprecia que el color representado no mantiene las proporciones originales, habiendo derivado el color blanco hacia un tono amarillento.
40
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Defecto de gamma sobre un punto blanco. El ajuste de gamma se realiza enfocando la cámara sobre una carta que representa dos escaleras de grises dispuestas en contraposición, y que mantiene una relación de reflectancia logarítmica entre sus niveles de gris. Al captar esta imagen, un sistema de gamma unidad entregaría una señal cuyos escalones inferiores estarían comprimidos respecto de los correspondientes a los tonos claros. La corrección consiste, precisamente, en obtener una señal de escalones equidistantes a partir de esta imagen de referencia. Cuando logremos esta condición estaremos, en realidad, implementando un sistema no lineal de funcionamiento complementario al tubo de imagen. En muchas ocasiones, el fondo de la carta de ajuste es de un tono gris medio en la escala logarítmica, lo que proporciona una nueva referencia de ajuste que servirá como eje de la señal del monitor de forma de onda, debiendo situarse en el centro del margen de la señal de vídeo.
8.2.
Matriz de Luminancia
Una vez realizado el ajuste de los amplificadores RGB para obtener un nivel de gamma de 0,45, es necesario unificar estas tres señales unitarias para obtener la información de luminancia. Como ya se ha comentado, para obtener un nivel blanco no se pueden mezclar los colores básicos uniformemente, sino que se deben establecer los factores de ponderación adecuados para adaptarlos a la sensibilidad del ojo humano en relación con cada uno de ellos. Por lo tanto, la componente de luminancia (Y) correcta se obtiene a partir de la siguiente mezcla. 30% R+59 % G+ 11% B= 100 % Y Esta mezcla se producirá en un circuito matrizado, obteniéndose en su salida la señal de Luminancia.
41
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Ajuste de gamma.
8.3.
Otros circuitos de Luminancia
Además de los procesos fundamentales para el proceso de formación de la señal de luminancia, en las cámaras se incorporan otros circuitos auxiliares encaminados a mejorar sus prestaciones. Algunos de estos circuitos son: •
Mejoradores de detalles. Configurados sobre la base de un filtro paso alto adaptativo, su misión consiste en compensar el limitado ancho de banda de los amplificadores de vídeo, consiguiendo así una respuesta en frecuencia de la señal más elevada.
•
Limitadores de blanco y negro. Como resultado de estos magnificadores, se pueden producir picos de nivel excesivo de señal que se extiendan por encima del nivel de blanco o por debajo del nivel de negro, y que podrían resultar problemáticos y, por ello, deben ser limitados.
•
Controles de pedestal y ganancia. Una vez acotado el margen donde se podrá mover la señal, se definirá con el control de pedestal en el nivel mínimo que entregarán los amplificadores, correspondiente al nivel de negro, así como la ganancia de los amplificadores para poder representar adecuadamente una imagen blanca del 100%. Además, las cámaras incorporan magnificadores de ganancia, que permitirán 42
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
operar en condiciones de baja luminosidad, a pesar de llevar unido un incremento del ruido de nivel de negro. •
Controles de pendiente y Knee. Si la cámara se orientase sobre una escena sobre iluminada, la señal de salida se saturaría, por lo que la calidad de la imagen se vería notablemente resentida. Para evitarlo, las cámaras incorporan circuitos de codo y pendiente, que detectan la sobre exposición de la imagen, y modifican la ganancia de los amplificadores (representada por la pendiente de una recta en la gráfica de transferencia) a partir de un determinado punto, llamado Knee (“rodilla” en inglés, aunque en español se suele denominar “codo”). Este cambio provocará una disminución de la ganancia en la zona de alta iluminación comprimiendo de esta forma la señal y resultando una imagen mucho más agradable.
Efecto de los circuitos auxiliares sobre la señal.
9. Proceso de Crominancia Si bien el proceso de la señal de luminancia es relativamente sencillo, para obtener la señal de crominancia es necesario someter a las señales RGB a varias transformaciones que ajustarán los parámetros de colorimetría, formarán las señales de diferencia de color y se modularán para conseguir la señal de color de la escena.
9.1.
Balance de blancos.
Antes de efectuar cualquier operación con las cámaras que van a utilizarse en una grabación o retransmisión, es imprescindible efectuar una serie de ajustes técnicos que garanticen que las diferentes cámaras presentan una imagen similar, sin cambios bruscos de matiz cuando se producen transiciones entre ellas. Uno de los ajustes fundamentales es el balance de blancos, que garantizará una correcta 43
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
representación del resto de los colores captados por la cámara. El balance automático de blancos se activa momentáneamente mientras se presiona un pulsador; esto debe ocurrir cuando la cámara se encuadra sobre una superficie blanca, que refleja la misma luz que se empleará durante la toma, y con una cantidad de luz incidente que no produzca saturación de los amplificadores .
Ajuste de balance de blancos y negros en una cámara. Cuando se selecciona esta función, la cámara ajusta los niveles de los amplificadores de los canales rojo y azul, aplicándoles una tensión de control en forma de rampa creciente, y comparándolos con el nivel de verde, que se utiliza como referencia, hasta que las señales diferencia de color que se obtienen en la salida de la matriz de crominancia desaparecen. En este momento, cuando no existe señal de crominancia, se puede garantizar que la imagen presenta un matiz blanco, con ausencia de pigmentaciones debidas al tipo de luz empleado u otros factores. Una vez efectuada la operación de ajuste, el sistema guarda en una memoria la escena los valores correspondientes a las aplicadas a los amplificadores de rojo y azul manteniéndolos hasta que se realice un nuevo ajuste. Comparando los valores almacenados con otros preestablecidos para cada cámara, se obtiene una medición de la temperatura de color, que resulta de utilidad para la selección de los filtros ubicados entre la óptica y los sensores de imagen. Es frecuente encontrar, asociado a este balance de blancos, un balance de negros, que garantiza que los tonos asociados a bajos niveles de luminancia (azules, marrones, etc.) serán representados adecuadamente. Esta función provoca el cierre
44
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
total del iris de cámara, y el ajuste de los amplificadores para diferentes ganancias del sistema.
9.2.
Matriz de Crominancia.
La información del color de la imagen fue incorporada sobre la existente de blanco y negro al desarrollarse los sistemas de televisión en color. Por lo tanto, debe permitirse la compatibilidad con el estándar de televisión en blanco y negro. Esto supone que, manteniendo el ancho de banda de la señal original, se hace necesario transmitir una cantidad mayor de información. Si bien la cámara de televisión captura los tres colores básicos, sabemos que no se transmiten directamente, sino que se matrizan para obtener la información de blanco y negro (luminancia). Al enviar ahora conjuntamente la información cromática, podemos apoyarnos en la señal actual para disminuir la cantidad de información añadida al canal de transmisión. Por ello se recurre a obtener las señales diferencia de color respecto de la señal de luminancia, ya que esto supone, además de un sustancial ahorro del ancho de banda necesario para la transmisión, que ante una imagen en blanco y negro estas señales diferencia de color se anulan, por lo que resultan especialmente adecuadas al reducir la interferencia luminancia-croma. Aunque en principio cabría pensar en la obtención de tres señales diferencia de color (R-Y, G-Y, B-Y), al transmitir también la información de luminancia ocupamos más ancho de banda, ya que enviando únicamente dos de estas señales diferencia de color, en el receptor de tele se puede recomponer la tercera. Así, con las señales R-Y, B-Y es posible obtener a través de matrices las componentes unitarias RGB originales.
En la matriz de crominancia se obtienen, por lo tanto, las señales diferencia de rojo y de azul respecto de la señal de luminancia, suprimiéndose la señal diferencia de verde por ser la que estadísticamente lleva una mayor cantidad de información y, por lo tanto, la que supone un mayor ahorro en el proceso de transmisión.
45
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
9.3. Modulador U-V Las señales diferencia de color que extraemos de la matriz deben tener un formato idóneo para incorporarlas a la señal de vídeo sin que se produzcan interferencias (o el menor número posible de ellas) y de forma que puedan coexistir con la información de luminancia. Para ello se recurre a modular las señales R-Y, B-Y utilizando una portadora cuyo valor resulta ser un múltiplo impar de la mitad de la frecuencia de líneas. Con esto se garantiza el intercalado de las líneas de espectro de la información de color con las de luminancia existentes. El valor elegido para esta subportadora de crominancia será más adecuado si se encuentra en la zona superior del ancho de banda de luminancia, donde los armónicos de esta señal tienen un valor pequeño, por lo que la interferencia con ellos se ve así reducida. En el sistema PAL B/G, este valor es de 4,433619 MHz. El sistema de modulación empleado es el de doble banda lateral (modulación en amplitud con portadora suprimida) para cada una de las dos señales diferencia de color. Con el fin de que puedan coexistir las dos modulaciones sin mezclar las informaciones que contienen, ya que se modulan con la misma frecuencia de la portadora, se recurre a aplicar las portadoras con una diferencia de fase de 90°, lo que se conoce como modulación en cuadratura. De este modo, a la señal diferencia de azul (B-Y) se le aplica una subportadora con fase 0°; mientras que al modulador de la señal diferencia de rojo se le desfasa la subportadora 90°. Las dos señales moduladas reciben el nombre de señal U (B-Y modulada) y señal V (R-Y modulada), y se
encontrarán en ejes diferentes de fase, lo que permitirá que se sumen y se transmitan como una única señal, que se denominará «señal de crominancia».
Señal sin ponderar
Señal ponderada
(Efecto de la ponderación de la señal de video.) 46
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Como esta señal de crominancia se va a sumar a la señal existente de luminancia, deberemos garantizar que la señal resultante (señal de vídeo compuesto) permanece en todo momento dentro de los límites establecidos para el estándar PAL, por lo que la señal de crominancia no deberá exceder, en ningún caso, en más de un 33 % de los límites del nivel de blanco (en la zona superior), ni del nivel de borrado (en la zona inferior). Sin embargo, si utilizamos las señales diferencia de color tal como se producen y las modulamos directamente, obtendremos una señal de vídeo con un excesivo nivel de crominancia en la barra correspondiente al amarillo, mientras que el nivel inferior de la barra azul excede por debajo del nivel de sincronismos, pudiendo causar serios problemas. Para evitar este efecto se procede a modificar las señales diferencia de color antes de ser moduladas, de forma que se mantengan en todo momento dentro de los límites establecidos . Las correcciones a efectuar consisten en aplicar un factor de ponderación a cada una de las señales diferencia de color, debiendo dividir la señal diferencia de rojo entre 1,14 (o multiplicarla por 0,877) y la señal diferencia de azul entre 2,03 (o multiplicarla por 0,493).
Con estos factores se observa cómo la señal de vídeo compuesto adquiere un nivel máximo en la zona correspondiente a la barra amarilla (ahora equiparada con la siguiente, de color añil). En el extremo opuesto vemos cómo las barras de color rojo y azul (las últimas) tienen el mismo límite inferior, manteniéndose siempre dentro de los límites tolerados.
• Codificador PAL Durante el proceso de propagación a través del espacio, la señal de televisión se ve afectada por numerosos contratiempos que pueden alterar sus características originales. El más peligroso de ellos consiste en un cambio de fase de la señal, producido, por ejemplo, por la reflexión de las ondas en una superficie antes de llegar al receptor. Este cambio de fase de la señal original traería como consecuencia una alteración del color de la imagen, ya que, como hemos visto, el matiz de cada punto viene determinado por su fase. En realidad, éste es el gran problema del sistema de televisión NTSC, antecesor del PAL y todavía utilizado en numerosos países americanos.
47
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
Para evitar este problema, el sistema PAL incorpora un codificador o modulador de tiempo, que provoca una alteración sistemática de la fase de la componente R-Y, produciéndose en una de cada dos líneas, por lo que se transmite una línea con fase 90° (como resultado de la cuadratura respecto a la señal B-Y) y la siguiente con fase 270° (-90°). Esto permite en el receptor la restauración de posibles errores de fase producidos durante el proceso de transmisión, por comparación de las señales diferencia de color de dos líneas de televisión consecutivas. La inclusión del codificador PAL supone que por cada color, en realidad, no existe un único vector, sino que queda representado por dos vectores: uno con componente R-Y positiva y otro con componente R-Y negativa. El sistema de modulación se completa con la inclusión del sobreimpulso o burst, consistente en un grupo de entre nueve y once ciclos de la señal subportadora
de color, con una fase de 135° (225° para la siguiente línea), que sirve como elemento de identificación de que la señal transmitida contiene información de color y como referencia para la demodulación. Este burst se añade en el pórtico posterior de cada línea de televisión. Una vez conformada la señal de crominancia, se aplica al mezclador, donde confluye con la señal de luminancia y la inserción de los sincronismos, creando la señal conocida como «vídeo compuesto». Por otro lado, las señales de luminancia y croma se llevan al conector de salida independiente que suelen llevar las cámaras, para poder obtener la máxima resolución de luminancia, al no verse mezclada con la información de color y evitando también los efectos indeseables de cross colour (efecto muaré), por el cual, cuando se representa una imagen con un gran número de detalles, al ensancharse los armónicos de la señal de luminancia ocupan el espacio destinado a la croma, por lo que, cuando se mezclan, se produce un efecto de coloreado no deseado de estas zonas de la imagen.
48
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
10. Interfaz de usuario. La cámara E.N.G. nos permite configurar, entre otras cosas, los parámetros que se refieren al código de tiempos TC y la entrada de audio. 10.1. El código de tiempos TC. El código de tiempos nos permite introducir en la cinta de grabación el tiempo y “lugar” exacto de la misma en la que nos encontramos en cada momento. Para ello utiliza la siguiente nomenclatura 00:00:00:00, dividiendo el tiempo en horas minutos segundos y frames.Las cámaras nos permiten tres configuraciones fundamentales. Para entenderlas, tenemos que partir primero de que cualquier cinta virgen, no tiene código de tiempos, por lo tanto, aunque la cinta la reproduzcamos y avance, no observaremos en ningún momento avance de TC. Las tres configuraciones posibles para el código de tiempo son: • Regen. • Preset: Rec run Free run. La configuración regen actúa de forma que si la cámara detecta que la cinta no tiene código de tiempos, considera que es una cinta virgen y, por lo tanto, comienza a contar desde 00:00:00:00. Esta configuración es la que debemos utilizar siempre que 49
Centro de Formación Juan Comenius Medios Técnicos Audiovisuales y Escénicos
insertemos una cinta virgen y sea la primera vez que la utilizamos. Por otra parte, si la cinta no es virgen y, por lo tanto, tiene código de tiempos, en la configuración regen se respeta ese código de tiempos y continua grabando ese mismo código. Un error que se produce habitualmente cuando tenemos esta configuración es el “salto de código” que se produce cuando aunque la cinta no esté al principio, está en un lugar donde no hay TC y al estar la configuración en regen, comienza a poner código desde el principio 00:00:00:00, mientras que la cinta realmente no está al principio de la misma. Para la configuración preset debemos distinguir entre rec run y free run. En el primer caso nos encontramos con la posibilidad de configurar el TC a nuestro antojo, por ejemplo, si yo quiero que una cinta comience a contar desde 00:01:00:00, puedo configurar ese código y después seleccionando preset:rec run comenzará a grabar desde ese código marcado, en caso de continuar grabando, seguirá con el nuevo código. Esta configuración es útil cuando reutilizamos cintas y queremos asegurarnos de que comience el principio de la cinta desde 00:00:00:00, ya que podemos hacer un reset del TC y ejecutarlo, es decir, configurarlo en rec run. En el modo free run el TC se pone a contar en el mismo momento en que seleccionamos este modo independientemente de que estemos grabando o no. Con lo cual, cuando pulsamos grabación en nuestra cámara, el código de tiempo que se graba es el que está en ese momento contando, consiguiendo así saber en qué momento hemos realizado la grabación. 10.2. Configuración de audio. Habitualmente, en una cámara E.N.G., encontramos dos canales de audio, que podemos configurar de varias maneras: Lo primero que podemos realizar es la selección de señal que queremos que entre en cada uno de los canales, es decir, si la entrada en el canal 1 y 2 es la frontal (FRONT) o la trasera (REAR), según donde tengamos conectado el sonido, normalmente el micrófono, elegiremos una opción u otra. Además, podemos configurar qué tipo de entrada van a tener nuestros canales, línea (LINE), micrófono (MIC) o alimentación phantom (+48V). Si el dispositivo conectado a nuestra cámara es un reproductor o un aparato de audio, la señal que entra es de línea, por lo tanto, seleccionaremos LINE, para micros de mano,
50