MONTAJE I Profesor Titular : Gustavo Costantini Profesor Adjunto : Ángel Bajarlía
Edición y Postproducción Digital de cine y video de Ángel Bajarlía Diseño de Imagen y Sonido F.A.D.U. 2011
COMO USAR ESTE APUNTE
Debido a que en la actualidad el cine y el video desde el punto de vista técnico,prácticamente se han fusionado sobre todo en lo que a herramientas de edicióny post-producción se refiere. Este apunte fue escrito explicando el desarrollo en forma paralela de ambos medios hasta su unión en la actualidad. Por este motivo es que el lector encontrará alternadamente descripciones sobre la edición en fílmico y video para llegar hasta lo que hoy llamamos cine digital. Cuando ya conozcan mejor los sistemas de edición, continuamos con la explicación de los procesos de postproducción, composición multicapa, corrección de color y el agregado de un texto de Jorge Ricaldoni sobre los procesos de Tape to Film utilizados actualmente para realizar una producción en video y plasmarla en fílmico. Al final del apunte el lector encontrará bibliografía recomendada, una guía rápida de uso del soft Adobe Premiere Pro, sitios web de utilidad y un glosario de términos técnicos en ingles y castellano que les ayudara a una mejor comprensión de los términos expresados en clase.
Ángel Bajarlía
2
El Montaje A menudo nos preguntamos que es el montaje? Para muchos es un simple proceso consistente en eliminar de una filmación los “trozos” que salieron mal y no sirven. En parte podría ser cierto pero es raro (no imposible) que en una filmación profesional encontremos tomas fuera de foco, oscuras o quemadas. Además en mi vida profesional en más de una ocasión resolví un problema de edición con alguna de las tomas descartadas. Lo que nos demuestra que cualquier toma puede a veces resultar útil a pesar de sus defectos, depende del trabajo que estamos armando y de lo que queramos transmitir a través de nuestro montaje. El montaje o edición de una película o video, es quizá el proceso más importante en el rodaje de un film. Es el instante en que la película comienza a tomar su forma definitiva. Para muchos directores este es el verdadero momento de la realización. En la sala de montaje es posible cambiar o reestructurar toda la película saliendo de la linealidad del guión. Gracias al montaje una película mediocre puede llegar a convertirse en una buena obra o una buena historia puede ser arruinada. Las posibilidad de combinación de planos es infinita y para ello hoy día contamos con inapreciables herramientas de edición. Después de casi un siglo cortando y pegando los trozos de película en la moviola, el advenimiento del montaje digital revolucionó la edición de la misma forma que la imprenta para la edición de libros. Con los sistemas digitales la compaginación fue ampliando sus horizontes expandiendo sus posibilidades a áreas que antes estaban destinadas exclusivamente a los laboratorios. Los programas de composición multicapa comenzaron a jugar un papel cada vez más importante. Trucas y efectos que en cine eran costosísimos no solo se abarataron sino que además fueron más sofisticados y complejos. Trabajando junto con los programas de edición llegaron a producir verdaderos cambios en el lenguaje cinematográfico además de 3
poder ver inmediatamente y corregir llegado el caso, todo tipo de transición y/o efecto que ayudara dramáticamente al film. A través de estas páginas veremos las herramientas con que contamos hoy en día para realizar la edición de cualquier proyecto que queramos encarar. Producto de los avances tecnológicos, los sistemas de edición digital no-lineal se han abaratado a tal punto en el que cualquiera puede tener su propia isla de edición y trabajar sin la presión que implicaba alquilar un servicio de compaginación. Pero ante todo tengamos en cuenta que saber operar un soft de edición (cualquiera que sea) no implica saber compaginar, que es lo más difícil de todo. No cualquier persona tiene la habilidad, capacidad, criterio y talento necesarios para saber como pegar y asociar un plano a continuación de otro buscando contar una historia que el espectador entienda, se entretenga y que se involucre en la trama del film. En general, a la hora de decidir especializaciones, montaje es la menos elegida. No todo el mundo soporta ver durante horas la mismas tomas hacia delante y hacia atrás. El perfil (no en todos los casos) de un editor es habitualmente el de una persona solitaria (siempre trabaja aislado en su isla) con mucha paciencia, diplomática para sugerir cambios sin generar conflictos, hábil para tomar decisiones y abierto a experimentar diferentes códigos de lenguaje que ayuden a contar una buena historia. En el caso de la post-producción digital tiene que tener los conocimientos para resolver problemas generados en la filmación, tratando de no dejarse llevar por la ansiedad y la presión del director o de su cliente poniéndole limites cuando hace falta. No hay que filmar basándose en un viejo y ridículo mito “después lo arreglo en la edición”. Esa frase solo pudo haber sido inventada por un incapaz en producción. Lo último que debemos hacer en rodaje es posponer los problemas de producción para la edición, Hay cosas que son fáciles de solucionar y otras no.
4
Pero al margen de si el problema es resuelto o no en la edición, la realidad es que hemos incrementado los tiempos y costos de producción por no haber previsto los problemas con la suficiente antelación para evitarlos y luego vienen las quejas y lamentos. A esta altura del relato es donde cabe la frase de mis colegas de Canal 13 de Buenos Aires : “ Nosotros tenemos un convenio con Dios. Él no edita y nosotros no hacemos milagros”. Para entender las ventajas y funcionamiento de lo que hoy llamamos “Workflow” (flujo de trabajo), debemos conocer también la evolución de los antiguos sistemas de edición, y también los diferentes formatos, soportes y archivos digitales para cine y video digital existentes en el mercado que se renuevan día a día. De esta manera sabremos que es lo que necesitamos a la hora de planificar una post-producción.
¿QUÉ ES LA POSTPRODUCCION? La postproducción es el proceso de acabado final de imagen y sonido para cualquier contenido audiovisual. Comienza por la edición y continua con la composición. También podríamos decir que es el arte de lograr lo imposible. Cualquier cosa que imaginemos hoy puede ser simulada y que parezca real. El diseñador de VFX o compositor es el artista que se ocupa de tallar un diamante en bruto y convertirlo en una piedra preciosa. El termino compositor comenzó a utilizarse a medida que aumentaba el uso de programas de composición multicapas tales como Smoke, Jaleo, Avid DS, After Effects, Combustion, etc. Por simple que sea cualquier video o película pasará inevitablemente por esta etapa.
5
El proceso puede variar dependiendo del soporte en que fue registrado dicho contenido pudiendo ser este fílmico o video analógico o digital. La figura del supervisor y diseñador de VFX ha ido creciendo paulatinamente a la par de los desarrollos en softwares de edición y composición digital. En muchos casos en países como Argentina, trabajando en forma autodidacta y en contadas ocasiones con estudios en el exterior. Esto ha producido muy buenos compositores que saben un poco de todo pero sin especializaciones.
LOS COMIENZOS
El término postproducción se empezó a utilizar hacia finales de la década del 80 aproximadamente. Hasta ese momento en video se usaba siempre el término edición. Esto era bastante lógico porque hasta ese momento la edición de video era fundamentalmente lineal y la tecnología existente era bastante limitada. Se compaginaba reproduciendo una cinta en una videocassettera o máquina de video tape (VTR) y se copiaban las partes que nos interesaban por corte en otra que hacía la función de grabadora. A medida que la tecnología en hardware y software fueron avanzando el lenguaje en la edición y efectos comenzaron a evolucionar a la par. Los primeros equipos de video digital se desarrollaron primero con fines puramente técnicos para corregir defectos de las señales de televisión. Este tipo de equipamiento es lo que se llamó hardware dedicado. 6
Generadores de efectos digitales que trabajaban con sistemas operativos y softwares propios en tiempo real y sin render. El pionero en este tipo de generadores fue el ADO (Ampex Digital Optics) de la firma Ampex Corporation.
ADO Rara vez tenían colgaduras pero el problema principal es que no eran expandibles y, cuando tenían esa posibilidad, era muy cara porque no era simplemente actualizar un programa sino que implicaba cambios de plaquetas en el hardware. El precio de estos equipos variaba de acuerdo a los efectos que realizaba y fundamentalmente a la calidad de video y fluidez de los mismos. Los más caros tenían mayor rapidez para hacer cálculos en la conversión de video analógico a digital y viceversa. Un nuevo término aparecía en el lenguaje: el concepto de trabajo con Keyframes (fotogramas clave) para animación de los efectos. Paralelamente los equipos de edición fueron mejorando en prestaciones y precisión fundamentalmente por la incorporación como elemento de serie del Time Code (Código de Tiempo) en las cintas de video.
7
El desarrollo de los sistemas A – B Roll usando tres o más videocassetteras abrió el camino para trabajar con listas de decisión de edición (edl) y a hablar de edición off-line y online. La calidad final de imagen dependía del formato de video con el que se estuviera grabando. Las islas A-B roll se caracterizaron también por comenzar a trabajar en base a software e interfases gráficas, anticipando las interfases de las futuras islas no – lineales. Mientras tanto en cine, el montaje seguía consistiendo en cortar y pegar físicamente la película, proceso que duraría casi un siglo. Otro elemento que fue creciendo gracias a los desarrollos tecnológicos fue la llamada animación electrónica computada. Comenzó siendo analógica y luego se transformó en digital. Hoy la conocemos como animación 3D. Con el avance en la capacidad y velocidad de los discos rígidos y los microprocesadores, llegaría, para quedarse, la edición digital no-lineal y con ella, la edición horizontal, la edición vertical o composición, y los renders, para que la postproducción se convierta en lo que es hoy en día. Ese fue el momento en que el cine y el video dejaron de co-existir como medios diferentes para unirse y compartir toda la tecnología de la postproducción actual.
8
LOS COMIENZOS ¿CÓMO SE OBTIENE LA IMAGEN FOTOGRÁFICA ?
Desde siempre el hombre quiso plasmar la realidad que lo rodeaba sobre un soporte mucho más durable que sus propios recuerdos, para expresar por medio de imágenes, mensajes, pensamientos e ideas a sus semejantes. Las pinturas rupestres son la primeras muestras de expresión que encontramos y que luego fueron evolucionando a través de las historia por medio de los jeroglíficos y la pintura en sus diferentes estilos, hasta llegar a inventar la fotografía. Basado en el concepto de la cámara oscura, en 1816 el francés Nicéphore Niepce obtuvo las primeras fotografías de la historia. La cámara oscura se convirtió en un aparato consistente en una caja con un sistema de lentes en un extremo, llamado objetivo, y una placa de vidrio recubierta por una sustancia sensible a la luz en el otro. Al perfeccionarse el invento se agregó al sistema de lentes un disco o sistema de aletas que pueden abrirse o cerrarse denominado diafragma o iris y que gradúa la cantidad de luz que llega a la película de la misma manera que lo hace el iris del ojo humano.
Diafragma
9
Un tercer elemento completa el sistema fotográfico detrás del objetivo: el obturador. Este última se ocupa de regular cuanto tiempo estará la película expuesta a la luz. La placa de vidrio fue reemplazada por una tira de celuloide perforada recubierta de una emulsión fotoquímica inventada por George Eastman, fundador de Kodak.
Esquema de una cámara fotográfica reflex 35 mm
10
LA ILUSIÓN DEL MOVIMIENTO: EL CINE Y LA TV Nuestro ojo capta las imágenes que nos rodean debido a la luz reflejada por los objetos. La fotografía utilizó el mismo principio aprovechando las propiedades de ciertas sustancias químicas que cambiaban de condición al recibir la incidencia de la luz. Los rayos de luz que emite una fuente lumínica, así como también los que son reflejados en los distintos objetos que encuadramos dentro de una imagen, llegan a la cámara pasando a través de un sistema de lentes, e inciden sobre la película de celuloide recubierta de sustancias químicas sensibles a la luz, en la cual se imprime la imagen. Gracias al trabajo de diferentes investigadores , Thomas A. Edison y los hermanos Lumiere, aprovecharon un “defecto” de nuestro ojo conocido como persistencia retiniana para lograr la ilusión de movimiento. Dicho defecto consiste en que todas las imágenes captadas por este no se borran instantáneamente sino que persisten en la retina por una fracción de segundo. Gracias a esto se comprobó que al pasar frente al ojo una serie consecutiva de fotografías con una leve diferencia entre una y otra se creaba una ilusión de movimiento porque el ojo humano las percibe continuas y no aisladas cuando recibe 16 o más imágenes por segundo. Los hermanos Lumiere diseñaron una cámara/proyector que tomaba una serie de fotografías que al ser proyectadas a la misma velocidad en que fueron tomadas posibilitaban ver una imagen en movimiento. Para imprimir cada cuadro, la cámara y luego el proyector para emitir cada imagen, realizan un movimiento intermitente, es decir avanza un cuadro, toma una foto, avanza otro cuadro , toma otra foto y así sucesivamente. Tanto la cámara como el proyector cuentan, al igual que las cámaras fotográficas de un obturador. Este se ocupa de controlar el tiempo en que cada fotograma está expuesto a la luz. Cumple la función de una “puerta” que al abrirse permite el paso 11
de la luz a través del conjunto de lentes que conforman el objetivo y al cerrarse lo impide. Al ser proyectados a una velocidad de 24 fotos por segundo nuestro ojo lo capta como una secuencia de imágenes en movimiento al ser cortado el paso de luz cuando la película se desplaza al siguiente fotograma. Para evitar los parpadeos en las áreas más luminosas, se utiliza una doble obturación, cada fotograma es proyectado dos veces antes de cambiar al próximo. Es decir: se proyecta un cuadro – el obturador corta el paso de luz – se proyecta nuevamente el mismo cuadro - el obturador corta el paso de luz – avanza la película al próximo cuadro. Esta forma de proyectar equivaldría para nuestro ojo a una proyección de 48 cuadros por segundo. La película que utilizamos profesionalmente es de un ancho de 35mm. con cuatro perforaciones a cada lado. Las perforaciones sirven para que la cámara y el proyector puedan “arrastrar” la película y lograr así el movimiento intermitente. Las primeras cámaras funcionaban con una manivela, luego tuvieron motores de cuerda hasta llegar a incorporar el motor eléctrico. Se adoptó la velocidad estándar de 24 fps. (fps: frames per second o cuadros por segundo) porque es la que menos cansa al ojo evitando parpadeos. Si filmamos a velocidades de 36, 50, 80 o 100 fps., y los proyectamos a 24 fps, obtenemos el efecto de cámara lenta, ralentado o slow motion. De la misma forma si filmamos a velocidades de 4, 8 , 12 fps. tendremos un efecto de cámara rápida o acelerado. Obviamente en el primer caso el consumo de película aumenta considerablemente. Si filmamos cuadro por cuadro a intervalos regulares y lo proyectamos a 24 fps. crearemos una animación. Si la cámara posee obturador variable, tanto en cine como en video, nos permitirá obtener imágenes con mayor definición y estabilidad en los movimientos pero necesitaremos más luz para compensar que la película está expuesta durante menos tiempo. Esto es particularmente útil para deportes, documentales, etc.
12
Como la proyección de la imagen también se realiza a través de un movimiento intermitente, representa un serio problema para la reproducción del audio por necesitar de un avance continuo. Por este motivo el sonido va siempre adelantado un segundo respecto de la imagen para no ser afectado por el movimiento intermitente, esta separación se denomina decalaje.
DECALAJE: obsérvense también los bucles de enhebrado
El sonido puede ser óptico (impreso fotográficamente en el borde de la película), interpretado por variaciones de luz para su reproducción. O magnético en una pista en el borde de la película. Para evitar “tirones ” que puedan romper el film en su avance, este es enhebrado tanto en la cámara como en el proyector formando “bucles” al pasar por bujes y engranajes que van compensando la tensión producida por el arrastre de los motores. A esta altura del relato ya podemos entender cual es la unidad de medida que usaremos cuando comencemos a editar y medir la duración de cada plano: Horas:Minutos:Segundos:Cuadros
13
¿CÓMO SE OBTIENE LA IMAGEN EN TV?
Los rayos de luz también llegan a la cámara pasando por un sistema de lentes pero son interpretados por un chip que transforma la luz recibida en impulsos eléctricos que se imprimen sobre la cinta de video. En el caso de la TV se trabajó con el mismo principio de la persistencia retiniana pero a diferencia del cine en que la imagen es química, aquí se trata de una imagen puramente electrónica. Básicamente la cámara de TV convierte una escena en una serie de mensajes eléctricos. Algunos materiales tienen propiedades fotoconductivas, es decir que cuando un haz de luz incide sobre ellas su resistencia varía en función de la intensidad. Este es el principio de funcionamiento de la TV, la luz que penetra a través de un lente es recibida por un tubo revestido con alguno de estos metales (antimonio o cesio). Al recibir el haz de luz reaccionan desprendiendo electrones sobre un mosaico revestido de sustancias fotosensibles (target). El tamaño del flujo de electrones varia de acuerdo a la cantidad de luz que llega a los puntos de las sustancias químicas. Ya que los electrones llevan carga negativa se forma un dibujo de cargas positivas en la parte de atrás de la placa. Hoy día el tubo de rayos catódicos de la cámara ha sido reemplazado por un chip (CCD o CMOS). La luz que viene de la lente activa el chip sensible a la luz que está alineado en una trama de pixels, cada uno de los cuales forma una parte de la imagen que así se digitaliza o codifica transformándose la señal óptica en una señal eléctrica. Ahora poseemos toda la información necesaria para reproducir la escena en una pantalla de TV. Al recorrido de los electrones se le denomina barrido. La imagen se explora de la misma manera a como se lee un libro, de izquierda a derecha y de arriba hacia abajo. Esta es analizada línea a línea y al final de la exploración de cada una de ellas, se comienza una nueva por el lado izquierdo de la imagen hasta llegar al extremo inferior de esta, momento en que comienza una nueva imagen. Para que la señal transmitida este perfectamente sincronizada con la exploración de los receptores se le agregan señales de sincronismo en la forma de onda de la TV. 14
Al igual que en cine la frecuencia de las imágenes en TV debe ser lo suficientemente alta para evitar el parpadeo o flicker. Aquí no es posible la doble proyección por consiguiente se analiza la imagen completa a la mitad de la frecuencia de la red pero efectuando dos exploraciones verticales para cada imagen completa. En la primera exploración (barrido) se analizan las líneas impares y en la segunda exploración las líneas pares . Cada exploración se conoce como campo y se necesitan dos de ellos para obtener un cuadro. Este sistema se denomina entrelazado y se realiza a un ritmo de 50hz. que es la frecuencia de línea de la red eléctrica de nuestro país. Se utiliza siempre un número impar de líneas para simplificar el entrelazado. De lo anterior debemos recordar siempre que
1 CUADRO DE VIDEO = 2 CAMPOS Para obtener el efecto de textura de cine en vídeo se procesa la señal sacándole un campo con la consiguiente pérdida de información y, por ende, de calidad. En realidad lo que se hace es repetir siempre el mismo campo (depende el equipo o el software de edición podemos optar por repetir siempre el campo 1 o el 2). Este es el denominado “efecto cine” y su uso no es aceptado en países desarrollados por no responder a las normas internacionales de transmisión. Aunque el efecto nos pueda parecer interesante o agradable solo se utiliza internamente en nuestro país. Para la exportación de contenidos siempre se hacen las copias con los campos completos.
15
SISTEMA PROGRESIVO (No entrelazado)
Otra variante de barrido es el sistema progresivo en el que los electrones hacen su recorrido por las líneas en forma continua. Es decir que las leen en forma correlativa (1,2,3,4...) hasta la última línea para formar un cuadro completo. En este caso una imagen es igual a un cuadro por tener todas las líneas de información completas. La ventaja del barrido progresivo es que elimina el parpadeo pero no se adoptó para las transmisiones de televisión por ocupar un ancho de banda demasiado grande. Actualmente su utilización es más factible por todo el desarrollo de sistemas de compresión en señales digitales y sobre todo en los formatos de HD y Cine Digital. El barrido progresivo es más adecuado para los nuevos monitores de plasma, LCD y LED. El barrido entrelazado es más fluido en los movimientos por necesitar menor ancho de banda pero tiene una resolución de imagen menor.
BARRIDO PROGRESIVO Y ENTRELAZADO
16
SISTEMAS Y NORMAS DE TELEVISION SD ANALOGICAS (STANDARD DEFINITION)
La señales de televisión no son todas iguales, varían de acuerdo a que cada continente (Europa y América del Norte) adoptó y defendió sus propios desarrollos. Esto generó problemas porque un video grabado con la norma americana no podía ser reproducido en Europa. Estados Unidos desarrolló y adopto el sistema NTSC que tiene 525 líneas de resolución y usa una cadencia de 29.97 fps. Europa excepto Francia y Rusia adoptaron el sistema PAL con 625 líneas de resolución y 25 fps. Francia y Rusia con algunas variantes utilizan un tercer sistema llamado SECAM también con 625 líneas y 25 fps. Brasil usa una variante del PAL denominada sistema PAL norma M, que es una mezcla del NTSC y el PAL porque tiene 525 líneas a 29.97 fps. Argentina, Paraguay y Uruguay adoptaron el sistema PAL en norma N, con 625 líneas de resolución y 25 fps. Para poder reproducir una grabación NTSC en un equipo PAL se realiza una copia del mismo pasando la señal por un conversor de normas.
Normas de TV analógica
17
¿COMO SE PLASMA LA IMAGEN EN UN SOPORTE? I (Llamamos soporte al material sobre el que se imprime la imagen)
EN CINE La película esta compuesta por un soporte o base que puede ser de acetato o poliéster sobre el cual se aplica una capa de material conformada por moléculas de plata, que reaccionan ennegreciéndose al ser expuestas a la luz. Esta capa se llama emulsión. Para obtener una imagen de esa película expuesta, al igual que como ocurre con la fotografía fija, es necesario someterla a procesos químicos (revelado), que nos darán como resultado la obtención del soporte con la imagen impresa en negativo. Finalmente se hace una copia de ese negativo, obteniendo la imagen definitiva en positivo. Existen diferentes formatos o pasos fílmicos dependiendo del ancho del soporte. La película de exhibición cinematográfica standard tiene un ancho de 35 mm. con cuatro perforaciones a cada lado y es la que se toma como referente de calidad. Un formato que nació como hogareño y que luego se utilizó profesionalmente sobre todo para lo que era periodismo es el 16 mm. El film de 16 mm. tiene la ventaja de tener una calidad bastante buena y la facilidad de poder ampliarse a 35 mm. Otra variante de este formato es el súper 16 mm. Posteriormente aparecieron para uso hogareño formatos de película de 8 mm. de ancho como el “Doble 8 mm, el Super 8 mm. y el Single 8mm. Existen también otros formatos de película más grandes que el 35 mm. como el ya en desuso 70 mm. o el 65 mm que utiliza el formato “Imax”.
18
Ilustración obtenida de Tecnicine: Técnicas de Filmación en Súper 8
¿COMO SE PLASMA LA IMAGEN EN UN SOPORTE? II
EN VIDEO A diferencia de la cámara cinematográfica, la cámara de video o de televisión no dispone de un soporte propio donde retener la imagen. Una vez que el chip de la videocámara interpreta los rayos de luz traduciéndolos a impulsos eléctricos, éstos se deben grabar en una cinta magnética, un disco rígido o una tarjeta de memoria.
19
SISTEMAS DE GRABACIÓN EN CINTA MAGNÉTICA Los sistemas de grabación de video en cinta magnética datan de 1952 con un desarrollo de la BBC llamado VERA . Un sistema de grabación muy primitivo y de baja calidad que permitía registrar hasta 15 minutos de video.
Vera Pero recién en 1956 aparece un formato de grabación adoptado como standard en todo el mundo por más de 20 años: el Cuádruplex, desarrollado y comercializado por la firma Ampex. El mismo utilizaba cintas de 2 pulgadas de ancho y su nombre se debía a sus cuatro cabezas rotativas.
20
Los formatos de grabación fueron evolucionando hasta grabar en cintas cada vez más pequeñas y con mejor calidad de imagen. Al día de hoy todavía coexisten dos tipos de señales de video para transmisión de televisión y grabación en cinta magnética: las analógicas y las digitales:
Grabación Analógica: la cinta virgen esta compuesta por partículas de oxido de hierro, que, al pasar por los cabezales de grabación de una cámara o de una VTR, se magnetizan; es decir, las partículas son excitadas ordenándose de una determinada forma, de acuerdo con la señal eléctrica proveniente de la señal de vídeo. De esta manera, queda grabada en la cinta la imagen codificada en variaciones magnéticas. Esta codificación, a su vez, podrá ser "leída" por los cabezales de reproducción de la misma cámara o de una video casetera, y también podrá ser convertida nuevamente en señal eléctrica, para transmitir la información a otro dispositivo (una videograbadora, por ejemplo) a través de un cable. Nota : al grabar por encima una y otra vez sobre una misma cinta, los cabezales de grabación borran la imagen (la desmagnetizan) y vuelven a grabar magnetizándola de nuevo. Siempre se pierde gradualmente calidad cada vez que se hace ese proceso, ya que las partículas de hierro se van desprendiendo a medida que se magnetiza y desmagnetiza una misma porción de cinta, además de la aparición de Drop-outs. Los Drop-outs son sectores microscópicos de la cinta donde ha desaparecido la emulsión ferromagnética, esto se traduce en la imagen grabada como “puntos blancos” o “rayones”. Este problema es prácticamente inexistente cuando trabajamos con formatos digitales, debido a que compensan digitalmente la pérdida de información de un cuadro obteniéndola de otro, de está forma la imagen se ve siempre nítida y sin imperfecciones a menos que el desgaste o el daño sufridos por la cinta sea realmente importante.
21
Grabación Digital: Los equipos analógicos están sujetos a variación y ajuste, los digitales en cambio funcionan a partir de conmutaciones, siendo las imágenes resultantes estables e inmunes a variaciones pudiendo regenerarse sin pérdida de calidad. Estas conmutaciones son la traducción en unos y ceros de la imagen (sistema binario) Para convertir una señal analógica en una digital se utiliza el sistema de modulación por impulsos codificados (PCM). El proceso consiste en tomar medidas de la señal a intervalos regulares, de modo que la forma de onda deja de tener una representación continua convirtiéndose en una serie de impulsos en el que cada uno de ellos tiene el valor del voltaje correspondiente en el tiempo al de la señal analógica. Esto se conoce como muestreo, y la velocidad en que se toman las muestras es la frecuencia de muestreo. A mayor velocidad de muestreo mejor calidad de imagen. Esta codificación es la que luego se graba en la cinta en sus diferentes formatos.
SISTEMAS DE GRABACIÓN SIN CINTA (TAPELESS)
La utilización de la cinta magnética como soporte de grabación de señales digitales está llegando a su fin. Pero aún no se encuentra un soporte tan confiable y seguro. A nivel profesional disponemos de sistemas de grabación directa en DVD, disco rígido (RED, XDCAM), tarjetas de memoria ( P-2 de Panasonic, XDCAM EX de Sony, GF de Ikegami/Toshiba,). A nivel hogareño en alta definición, tanto en discos rígidos como memorias flash, el nuevo formato adoptado por Panasonic y Sony es el AVCHD.
22
TRANSMISIÓN DE SEÑALES DE VIDEO Como vimos, toda imagen de video puede transmitirse a través de una serie de impulsos eléctricos (señal), conducidos por un cable. La información que lo atraviesa consiste en dos señales fundamentales: la luminancia (brillo) y la crominancia (color). Al igual que ocurre con la grabación de una cinta, también la señal puede responder a patrones analógicos o digitales. SEÑALES ANALÓGICAS: •
VIDEO COMPUESTO (Conector RCA o BNC ): luminancia y crominancia se conducen juntas en una misma señal, lo que se traduce en poca definición de imagen. Este tipo de señal es utilizado por los formatos VHS y 8 mm y a nivel profesional los ya obsoletos: Cuádruples, 3/4·” U-Matic, 1 y 2 pulgadas, D2 y D3 y los primeros equipos Betacam.
•
VIDEO SEPARADO (Y/C o Súper video): luminancia y crominancia se conducen en un mismo cable, pero en señales separadas. Tiene mejor definición y menos ruido que el compuesto. Es el tipo de señal que utilizan los formatos Súper VHS y HI 8mm.
. COMPONENTES ( Y, R-Y, B-Y): los colores primarios que forman la imagen de video (rojo, verde y azul) se conducen en señales separadas a través de tres cables diferentes. En este caso la Y es la luminancia y el color verde es producido a través de las otras componentes . Nos ofrece colores puros y la mejor definición en señales analógicas. Es el tipo de señal con el que se trabaja preferentemente en Betacam SP.
23
CONECTORES DE VIDEO PROFESIONALES
SEÑALES DIGITALES: FIREWIRE Desarrollado originariamente por Macintosh como una alternativa a los dispositivos SCSI es también conocido como IEEE 1394.
•
Es un estándar de conexión digital serie para transmitir señales DV o HDV a alta velocidad entre dos video caseteras digitales o de una vcr digital a una computadora. A través de ella se transmiten datos de ida y vuelta de audio y video como así también comandos para operar la vcr desde la computadora por medio del código de tiempo (TIME CODE) ( play, record, ff, rewind, etc.). Este tipo de conexión es exclusiva de los formatos MINIDV y HDV. Los hay de dos tipos: el Firewire tradicional llamado firewire 400 por su velocidad de transferencia de datos y su evolución, el firewire 800 que tiene la ventaja de poder transmitir datos a mayor velocidad y cables más largos sin pérdida de señal. Se utiliza mucho para conexión de discos rigidos. A la hora de comprar un cable firewire debemos saber que hay también dos diferentes modelos de acuerdo al uso que le vamos a dar. Cable firewire con conectores de 4 pines por cada extremo, son los que utilizamos para conectar dos vcr (o cámaras) digitales entre sí. Cable firewire con un conector de 4 pines en un extremo y un conector de 6 pines en el otro, son los que utilizamos para conectar una vcr digitales a un sistema de edición no-lineal. 24
La diferencia entre el conector de 6 pines es que además de datos también provee alimentación. NOTA IMPORTANTE: NUNCA DEBEMOS DESCONECTAR Y CONECTAR EL CABLE FIREWIRE CON LOS EQUIPOS ENCENDIDOS. Corremos el riesgo de quemar la placa firewire que es bastante cara.
SDI SERIAL DIGITAL INTERFACE Es el sistema más utilizado a nivel profesional para transmisión de datos entre equipos digitales. Tiene la posibilidad de transmitir a través de un único cable señales de video y audio lo que nos permite hacer clones perfectos de una cinta a otra. Cuando el audio se copia con el video a través del mismo cable se denomina audio “embebido”. Este tipo de conexión es utilizada comúnmente por los formatos D1, Betacam Digital, BETACAM SX, BETACAM MPG IMX, D9 y opcionalmente en equipos DVC PRO, DVCAM y HDV. HD - SDI Este sistema es similar al anterior pero se utiliza únicamente para señales de alta definición. HDMI (HIGH DEFINITION MULTIMEDIA INTERFACE) Este tipo de conexionado fue desarrollado para la conexión de reproductores de DVD y Blu-Ray para ingresar en forma digital a los nuevos televisores o monitores de plasma, LCD y LED. Transmite audio y video digital por un solo cable.
25
OTRAS FORMAS DE TRANSMISION DE DATOS DIGITALES Para transmisión de datos digitales también se utilizan otros tipos de conexión a través de puertos como ser: USB 2.0 : UNIVERSAL SERIAL BUS Este puerto puede usarse para captura o digitalización de video por ser más rápido que el firewire 400 pero a diferencia de este su velocidad no es estable por lo que solo es recomendable para transferencia de datos.
USB 3.0 : UNIVERSAL SERIAL BUS Evolución del anterior con una velocidad de transferencia de 5 GB/s.
26
THUNDERBOLT Nuevo sistema de transmisión de datos de alta velocidad desarollado por Intel y Apple con una velocidad de transferencia de 10 GB/s.
VELOCIDAD DE TRANSMISION DE LOS DIFERENTES PUERTOS
27
PANORAMA DE LOS DISTINTOS FORMATOS FILMICOS
EN CINE Como vimos anteriormente, los formatos fílmicos se diferencian por su tamaño y las proporciones del cuadro que ofrecen, a saber: 8mm, súper 8mm, 9,5mm, 16mm, súper 16mm, 35mm y 70mm, ordenados de menor a mayor en cuanto a tamaño y calidad de imagen. Pero en el caso de del 35 Mm, podemos tener diferentes formatos de proyección alterando la ventana de la cámara y del proyector. Formatos de proyección en pantalla para el 35 mm.: 1:1.33 1:1.66 1:1.85 En la página siguiente podemos observar los diferentes formatos de pantalla y su proporción con los de video cuando estos se transfieren a fílmico. Cuando grabamos un video para luego transferirlo a material fílmico, conviene grabarlo preferentemente en sistema PAL por la velocidad de 25 fps. ya que casi no hay diferencia con los 24 fps de la película 35mm. Y si la cámara lo permite grabar en el formato de pantalla 16:9 y en un buen formato de grabación como es el Betacam Digital.
28
Estas imágenes e información fueron obtenidas de www.swisseffects.ch
29
FORMATOS DE GRABACIÓN EN CINTAS DE VIDEO FORMATOS ANALÓGICOS
USO
FORMATO
SEÑAL CON LA QUE TRABAJA
CANALES DE AUDIO
PARTICULARIDADES
VHS
Compuesto
2 a 4 canales
2 son de HI-FI
VHS- C
Compuesto
2 a 4 canales
2 son de HI-FI
8mm
Compuesto
2 canales
Betamax
Compuesto
2 a 4 canales
En desuso
HI 8mm
Separado Y/C
2 Digitales
Se usa también para grabación de audio digital.
(videos
SVHS
Separado Y/C
2 a 4 canales
2 son de HI-FI
educativos,
U-Matic LB
Compuesto
2 canales
Sólo en Pal
Institucional,
U- Matic HB
Compuesto
2 canales
Pal y Ntsc con TC
etc.)
U- Matic HBSP
Compuesto
2 canales
Evolución del anterior con
Hogareño
Industrial
M
Broadcasting
Cinta de metal Compuesto
2 canales
En desuso
Betacam
Compuesto
2 canales
En desuso
Cuadruplex
Compuesto
2 canales
En desuso(primer formato
El canal 2 es de baja calidad.
de grabación en vídeo)
Compuesto
3 canales
En desuso
Compuesto
3 canales
En desuso
Betacam SP Componentes
2 a 4 canales
2 son de HI-FI
M II
2 a 4 canales
2 son de HI-FI
(televisión, 1” Formato publicidad y “C” requerimiento de alta calidad 1” Formato “B”
Separado Y/C
30
FORMATOS DIGITALES USO
HOGAREÑO
INDUSTRIAL
FORMATO
SEÑAL CON LA QUE TRABAJA
CANALES DE AUDIO
PROPIEDADES
Mini DV
Firewire
2 a 4 canales depende de la calidad
Graba sólo hasta 60 minutos
Digital 8
Firewire
2 estereo
Reproduce 8 y HI 8 analógicos
DVCAM
Componentes o SERIAL DIGITAL QSDI
2 a 4 canales depende de la calidad
Reproduce MINI DV
DVC PRO
2 CANALES
Reproduce MINI DV con un adaptador.
(D-7)
Componente o SERIAL DIGITAL SDI
Betacam SX
Componentes
2 canales
Formato digital con compresión 10:1
DCT
Componentes
4 canales
Cinta de 3/4
Betacam DIGITAL
Componentes o SERIAL DIGITAL SDI
4 DIGITALES
Compresión 2:1
Betacam IMX
Componentes o SERIAL DIGITAL SDI
8 DIGITALES
Reproduce todos los formatos de Beta pero graba en
BROADCASTING
MPEG-2 D1
4 DIGITALES
Sin compresión
(Sony – Ampex)
Componentes o SERIAL DIGITAL SDI
D2
Compuesto
4 DIGITALES
En desuso
D3
Compuesto
4 DIGITALES
En desuso
D5
Componentes
4 DIGITALES
Reproduce D-3
D9
Componentes, Y/C
4 DIGITALES
Reproduce SVHS
(JVC)
SERIAL DIGITAL SDI
4 DIGITALES
Reproduce MINI DV, DV, DVCAM
(Sony – Ampex)
(Panasonic)
Componentes o SERIAL DIGITAL SDI DVCPRO 50 (Panasonic)
Y DVC PRO
31
FORMATOS DIGITALES HDTV ( HIGH DEFINITION)
USO
Broadcasting
FORMATO
DVC PRO HD (Panasonic)
SEÑAL CON LA QUE TRABAJA
Canales de audio
PARTICULARIDA DES
HD SDI
8 DIGITALES
SDTI
Reproduce MINI DV, DV,
4 ANALOGICOS DVC PRO y
SDI
DVCAM HD D5
SDI
(Panasonic)
HDSDI
4 A 8 Canales depende la calidad
HDCAM
HD SDI
4 canales
HDCAM SR
HD SDI
12 Canales
Graba a 24, 25 y 30 fps. 10 BITS
Hogareños
D6
SDI
12 canales
Sin compresión
XDCAM HD
HD SDI
4 Canales
Comprimido
HDV
FIREWIRE
2 canales
Reproduce MINI DV
HD SDI
Foto comparativa: rollo cuádruplex de 60 min. y vc MINIDV de 60 min. 32
FORMATOS DE GRABACIÓN DE VIDEO EN SOPORTES TAPELESS
USO
Broadcasting
FORMATO
SOPORTE
Canales de audio
4 DIGITALES P2 TARJETA PANASONIC DE ESTADO SÓLIDO DE 64 GB
XDCAM
DISCO RIGIDO
SONY
EXTRAÍBLE
4 DIGITALES
PARTICULARIDA DES
GRABA DV, DVC PRO, DVC PRO 50 Y DVC PRO HD
GRABA DVCAM, MPGIMX
XDCAM EX SONY
XDCAM HD
TARJETAS DE MEMORIA
GF de IKEGAMI
HD en MPG2 Y ARCHIVOS MXF
TARJETAS DE MEMORIA
AVCHD Hogareño
DISCO RIGIDO
DOLBY 5.1
TARJETAS DE MEMORIA
33
LA EDICION EN CINE En los comienzos de la edición los primeros montajistas de las historia miraban la película al trasluz y los empalmes los realizaban cortándola a mano y abrochándola con alfileres para luego hacer de allí una copia única. Obviamente que este método y sus resultados eran bastante rudimentarios. Recién se pudo trabajar de una forma similar a la que utilizamos hoy día con la invención de la “Moviola” y las primeras empalmadoras de cemento. El problema de utilizar cemento era que había que raspar la emulsión para pegar la película superponiendo fotogramas y como consecuencia se perdían cuadros. La solución fue la empalmadora de cinta que permitió pegar sin perder fotogramas y repetir los empalmes cuantas veces fuera necesario porque el corte de la película se realizaba en la interlinea que separa un fotograma de otro. La moviola, llamada en realidad visionadora (Moviola era una marca muy conocida) consistía en una pequeña pantalla donde el compaginador veía la película haciéndola avanzar manualmente hacia delante o hacia atrás, en forma rápida o cuadro por cuadro, por medio de dos bobinadoras en las que se colocaban los carretes del film. Este sistema de edición se parece al actual sistema no-lineal sin llegar a serlo. Si bien podemos cambiar en el montaje el orden o la duración de las tomas como queramos, para buscar cualquier escena debemos avanzar o retroceder con el rollo de película. Es decir que no contamos con un acceso aleatorio y rápido al material. Para solucionar en parte este problema el asistente de montaje clasifica previamente el material y lo separa en una cesta llamada BIN. Cada trozo de película cortado se denomina CLIP. Como veremos más adelante esta misma terminología se aplicó en los sistemas de edición no-lineal. Como el sonido se graba por separado de la imagen este era trascripto a cinta magnética perforada igual que la película para sincronizarlo en la moviola. Para esto se le agregaban dos o más platos a la moviola donde se montaban las cintas.
34
Edición tradicional en moviola El sistema de trabajo actual para compaginar un film y del que hablaremos en detalle más adelante, consiste en transcribir la película 16 o 35mm a vídeo para luego capturarla en un editor no-lineal y una vez terminado el trabajo extraer lo que se denomina una lista de corte de negativo.
Moviola
Empalmadora de cinta
35
EDICION EN VIDEO En 1956 la firma norteamericana Ampex lanzó al mercado la primera máquina grabadora de vídeo tape del mundo. La legendaria Ampex VR 1000. Este invento significó un gran avance porque por fin la televisión iba a tener un soporte propio y evitaba tener que trabajar siempre en vivo o tener que filmar de una pantalla sobre película 16mm con un equipo llamado “Kinescopio”. Gracias al hecho de grabar y reproducir inmediatamente lo grabado “sin pérdida aparente de calidad” muchos se atrevieron a pronosticar el fin de la película cinematográfica. Lo cierto es que el vídeo trato siempre de emular al cine y pasarían bastantes años hasta que ambos sistemas coexistan y se fusionen. El principal problema fue la edición, porque en vídeo es imposible visualizar los fotogramas. Las primeras ediciones eran realizadas cortando y pegando la cinta magnética con una empalmadora de cinta “pintando” la emulsión magnética con un químico especial que le permitía al operador ver los pulsos de control de la grabación y tener una idea de donde empalmaba.
Empalmadora de cinta de video
Este método engorroso y poco preciso quedó en desuso con la aparición del sistema de edición electrónica. El mismo consistía en transcribir las tomas grabadas desde una VTR (Video Tape Recorder) a otra en orden correlativo y la VTR Grabadora-editora “pegaba” una toma a continuación de la otra en forma limpia y relativamente precisa en la cinta sin existir ningún tipo de empalme físico en la cinta. Esta forma de trabajo se denomina EDICIÓN LINEAL.
36
EDICIÓN LINEAL
Las antiguas islas de edición lineal por corte utilizaban básicamente dos máquinas de video : una editora y una player.
Edición lineal Estas deben ser operadas desde un controlador de edición, pequeña consola de control remoto desde donde se comandaban las funciones de las dos VTR y se asignaban los diferentes puntos de entrada y salida de la edición. Existian dos modos de edición : ASSEMBLY (Ensamble) y INSERT (Inserto). En Assembly la señal de video se graba en todo el ancho de la cinta, es la forma en que debemos trabajar sobre una cinta virgen. En Insert la editora nos permite seleccionar si queremos grabar solo video sin borrar el sonido, sonido sin borrar el video o grabar ambos simultáneamente. Con esta ultima opción se podía reemplazar segmentos ya grabados entrando y saliendo con una edición perfectamente limpia y programando los puntos de entrada y salida del corte con total prolijidad. Esta alternativa era imposible en el modo de Assembly porque la cabeza de borrado total dejaba “lluvia” en el momento de salir de la edición “rompiendo” la señal grabada. Por ello grababa primero una base (barras color o video en negro) en la cinta virgen para poder después trabajar con libertad y seguridad.
37
Si se deseaba incluir transiciones como fundidos o efectos digitales o sobreimpresión de títulos se agregaba una tercera VTR y un MIXER o SWITCHER. Este tipo de edición se denomina A-B ROLL. El mixer es una consola en la que podemos conectar varias fuentes de video y por medio de una botonera seleccionar cual queremos copiar. Es el mismo equipo que utiliza un director de TV para seleccionar que cámara “enviará” al aire. Para operar las tres máquinas y el mixer lo ideal es usar (en lugar de un controlador de edición simple como vimos anteriormente) un EDITOR INTELIGENTE. A diferencia del otro, este es una computadora que trabaja con un software que archiva todas las ediciones realizadas y maneja varios equipos simultáneamente. Pero lo más importante es que nos permite elaborar listas de edición. Esta lista se denominan EDL (Lista de decisión de edición) y es un clasificador de todos los eventos (cada edición realizada se denomina evento) indicando entradas y salidas de las players y las recorders, número o nombre del rollo, tipo de transición (cortes o fundidos) etc. El EDL nos permite realizar una edición Off-Line (en borrador) con un equipo económico y luego realizar la edición On-Line en forma automática en un formato de mejor calidad. Para esto es fundamental como explicaremos más adelante que trabajemos con TIME CODE (Código de Tiempo).
ISLA DE EDICIÓN A – B ROLL
38
EDICIÓN CON TIME CODE
Como vimos la compaginación de video desde siempre trató de parecerse lo más posible al cine, pero al margen de la calidad de imagen de las cámaras, lo que más se le criticaba en el medio cinematográfico, eran las limitadas posibilidades de edición, sobre todo en cuanto a precisión de cuadro se refiere y a la incomodidad de editar linealmente. Así como en la película de cine se utilizan las perforaciones para asegurar un correcto avance por la cámara y el proyector, el video utiliza unos pulsos a intervalos regulares grabados en una pista de control denominados pulsos de CONTROL TRACK (CTL). Estos pulsos le sirven a la video casetera para mantener estable la velocidad de la cinta en grabación y reproducción y se aprovecharon para que los indicadores numéricos de las videos (cuenta vueltas o reloj en horas, minutos, segundos y cuadros) los tomaran como referencia para indicar la posición de la cinta. El problema de usar los pulsos de CTL para la edición lineal, es que el contador vuelve a cero cada vez que expulsamos el cassette impidiendo tener una referencia exacta de la ubicación de una secuencia o escena en la cinta y por otro lado la falta de precisión en los puntos de entrada y salida porque se “corren” cuando repetimos varias veces la edición. En el caso de la edición no-lineal nos sirve para recapturar tomas o elaborar listas de captura(Batch capture). La solución a este problema fue la invención del CODIGO DE TIEMPO (TIME CODE). Este sistema fue desarrollado para las viejas VTR de 2 pulgadas en las que era imposible ver la imagen a alta velocidad o cuadro por cuadro. Consiste en una señal de audio grabada en una pista adicional de la cinta y que está codificada en horas, minutos, segundos y cuadros. 39
Gracias al código de tiempo el contador grabado en la cinta es inamovible y cada toma posee una ubicación exacta. Las ediciones pueden repetirse las veces que queramos en los sistemas lineales editando al cuadro con total precisión. En los sistemas no-lineales podemos automatizar todo el proceso de captura. Además nos da la posibilidad de visualizarlo en pantalla en la denominada VENTANA DE TIME CODE.
Las videocasseteras profesionales incluyen una salida de video con sobreimpresión del código de tiempo en la imagen. A través de la misma podemos realizar una copia a VHS, a DVD o a cualquier otro archivo digital para visualizar y tomar nota de la ubicación de las tomas que nos interesan. También se usa para copias con protección o temporización en subtitulados.
40
TIPOS DE TIME CODE
Existen tres tipos diferentes de TC : 1) Código de tiempo longitudinal grabado sobre una de las pistas de audio (LTC). 2) Código de tiempo longitudinal grabado en una pista de referencia destinada para tal fin (LTC). 3) Código de tiempo de intervalo vertical (VITC). Este último no utiliza ninguna pista de audio y es grabado como señal de video en el intervalo vertical, es decir que es como si se grabara entre un cuadro y otro de video. Los equipos más baratos solo tienen TC longitudinal (Betacam serie económica). Los más profesionales utilizan ambos sistemas. El LTC al ser grabado a lo largo de la cinta como una pista de audio es posible reemplazarlo si tuviera algún problema. El VITC es imposible de reemplazar por estar grabado junto con el video pero es el que permite a la VTR leer el TC cuando la cinta está detenida o avanza cuadro por cuadro. El LTC solo puede leerlo a velocidad de reproducción normal, en Fast Forward o Rewind. En las cámaras que graban en cintas digitales,el TC es un elemento de serie. Lo más importante cuando trabajamos con TC es que no dejemos “saltos” de numeración en la cinta ni segmentos de cinta virgen sin grabar porque nos van a complicar la post-producción.
41
La numeración del TC debe ser siempre correlativa y nos sirve también para identificar los diferentes cassettes (por ejemplo vc 1 TC 01:00:00:00, vc 2 TC 02:00:00:00, etc.). El sistema de numeración se sigue aplicando en los soportes tapeless para identificar cada tarjeta.
TIME CODE DROP-FRAME Y NON-DROP FRAME
Cuando trabajamos el sistema NTSC el tema se complica un poco más. Hemos visto que en el sistema PAL la señal de video trabaja a 25 fps. Mientras que en el NTSC lo hace a 29.97 fps. Como la velocidad del PAL es una cifra exacta 1 hora de TC coincide con una hora de reloj. Este tipo de TC se denomina NON- DROP FRAME (Código de tiempo sin salto de cuadros). En NTSC en cambio 1 hora de TC equivale a 1 hora y 3.6 segundos de reloj. Para compensar esta diferencia se diseñó un sistema que saltease cuadros al contar. Este consiste en saltear los números :00 y :01 a excepción de las decenas de minutos ( 10, 20, 30, 40 minutos, etc.) de esta forma se restan 108 cuadros ( 3.6 segundos) y 1 hora de TC coincidirá con una hora de reloj. Este tipo de Time Code se denomina DROP-FRAME (código de tiempo con salto de cuadros). Normalmente en cualquier producción en NTSC el Time Code se graba en NON-DROP FRAME (comerciales, videofilms, videos institucionales o documentales, etc.) y luego se hace una copia con el Time Code en DROP FRAME cuando va a ser emitida por 42
televisión donde es necesaria una perfecta paridad entre el TC y el tiempo real por las pautas comerciales.
IMPORTANCIA DEL TIME CODE EN POSTPRODUCCION Antes de comenzar la post-producción de nuestro video o largometraje es conveniente copiar el material a DVD con la ventana de TC en pantalla para poder visualizar y registrar en planillas todo el material original (logging) y eventualmente realizar una primera edición off-Line (edición en borrador). Así podemos obtener un EDL (EDIT DECISION LIST) para la edición On-Line. (Edición definitiva). También podemos elaborar una lista de captura (BATCH CAPTURE o captura por lotes) para programar al software de edición para que pueda capturar y buscar las tomas por si mismo. Algunos softwares como Adobe Premiere Pro pueden separar las tomas de acuerdo a los cortes de cámara cuando la captura se realiza exclusivamente por puerto firewire. Ejemplo de lista de edición de un AVID. Heading FIELD_DELIM TABS AUDIO_FORMAT TAPE
01
FPS
25
VIDEO_FORMAT
48kHz
PAL
Column Name
Tracks
Start End
Tape
Data 0001
VA1A2 05:16:19:15 05:16:29:02 06
0002
VA1A2 07:31:11:08 07:31:13:07 08
0003
VA1A2 05:16:31:03 05:16:32:00 06
43
0004
VA1A2 07:31:58:12 07:32:01:11 08
0005
VA1A2 11:04:48:02 11:04:49:08 12
0006
VA1A2 07:32:59:16 07:33:00:22 08
0007
VA1A2 11:06:39:06 11:06:40:10 12
0008
VA1A2 07:33:04:03 07:33:05:15 08
0009
VA1A2 11:06:45:11 11:06:46:08 12
0010
VA1A2 07:33:09:06 07:33:10:10 08
La primer columna nos indica el número de evento (cada corte es un evento). La segunda nos indica si captura video y audio, video solo, audio solo y que canales de audio interesan. La tercera corresponde al TC de entrada (Mak In) y la cuarta al de salida (Mark Out). La quinta muestra el nombre o número de cassette. Si escribimos de esta forma un archivo de texto, es posible convertirlo en una lista de decisión de edición (EDL) para usarlo en una isla de edición no-lineal. Hay diferentes tipos de EDL de acuerdo al fabricante aunque todos poseen la misma información. Los más conocidos son Sony, GVG (Grass Valley), CMX 340, CMX 3.600, etc. El que se ha adoptado como standard para todos los softwares de edición es el CMX 3.600. Actualmente además del EDL existe otro tipo de archivo llamado XML. Básicamente es igual que el EDL tradicional pero con información más completa, como por ejemplo incluir en el archivo todas las pistas de video involucradas en la edición y metadatos (hora y fecha de la toma, lente y diafragma utilizado, filtros y ajustes de la cámara, etc.), Se usa habitualmente con soportes tapeless con el programa Final Cut Pro. 44
REGISTRO DE EVENTOS CON MULTIPLES CÁMARAS El uso del TC es muy útil cuando grabamos con más de una cámara con salida de TC . Debemos conectarlas por medio de un cable coaxil para grabar los dos videocasetes con el mismo TC. Así podemos sincronizarlas con facilidad porque ambos videos poseerán la misma numeración de código de tiempo.
Las cámaras profesionales cuentan con una conexión de entrada y otra de salida de Time Code. Conectando la salida de Time Code de la cámara uno a la entrada de TC de la cámara dos y la salida de TC de la cámara dos a la entrada de TC de la cámara tres. Todas las cámaras excepto la uno que genera el TC principal son configuradas para que reciban el TC externo. Si el audio es grabado por separado, se puede enviar el TC de la cámara a un canal de audio o si usamos pizarra electrónica el TC generado por esta se envía a la cámara y al grabador.
45
Pizarra Electrónica con TC Este sistema es particularmente útil si no grabamos con switcher y como veremos más abajo también se usa en cámaras tapeless, (sin cinta). Trabajando de esta forma podremos editar usando la herramienta multicámara existente en softwares profesionales como Avid (nueve cámaras simultáneas), Final Cut Pro ( dieciséis cámaras) o Premiere Pro (cuatro cámaras)Si bien existen variantes entra cada programa el principio de trabajo y sincronización es el mismo.
MULTICAMARA AVID
46
MULTICAMARA FINAL CUT PRO
MULTICAMARA PREMIERE PRO
TIME CODE EN SOPORTES TAPELESS
Las cámaras que registran imágenes en discos rígidos o en tarjetas de memoria también graban código de tiempo. Aunque parezca que solo es necesario cuando trabajamos con cintas sigue siendo muy útil por diferentes motivos. Todos los software de edición (Avid, Premiere, Final Cut Pro, etc.) leen Time Code.
47
Si el archivo no proviene de una cinta que hayamos digitalizado igualmente contiene un Time Code virtual. Las líneas de tiempo en las que armamos nuestra edición también generan un código virtual. Las cámaras XDCAM EX de Sony graban en sus archivos un código de tiempo igual que cuando grabamos en cinta. Gracias a eso cuando grabamos simultáneamente un archivo en alta calidad y un archivo “Proxy” (baja resolución) podemos hacer una edición Offline y, por medio de un XML, hacer el On-line importando los archivos de buena calidad en el software que usemos para editar, componer o dosificar el color. El Time Code puede ser grabado en forma continua igual que en la cinta o en forma discontinua para diferenciar las carpetas de grabación. Las cámaras P2 de Panasonic trabajan de forma similar. En ambos casos hay una opción adicional extremadamente útil cuando grabamos con varias cámaras. Además del código de tiempo la cámara incluye un reloj con la fecha y la hora de la grabación. La información horaria puede ser grabada como código de tiempo y si las mismas tienen los relojes configurados y sincronizados podemos grabar en varias cámaras con el mismo código de tiempo sin ninguna conexión física. Las cámaras de alta gama como la RED ONE graban dos pistas de código de tiempo. Una denominada EDGE CODE. Esta es una pista de código tiempo SMPTE similar a la grabada en una cinta donde el código de tiempo comienza en 01:00:00:00 en el primer cuadro del archivo y es continuo de clip a clip. La otra pista denominada simplemente TIME CODE graba el reloj de cámara y, si bien lo graba de forma continua es discontinuo de clip a clip.
48
Cuando graban en el modo VARISPEED, ambos contadores se actualizan a la velocidad de grabación para evitar problemas en la edición con el código de tiempo de los archivos Grabar con el mismo Time Code en todas las cámaras (aún las tapeless) es fundamental. Por ejemplo en películas 3D donde de trabaja con dós cámaras simultaneas para el registro de imagen y asegurar así una perfecta sincronización.
EDICIÓN DIGITAL NO-LINEAL
Hasta aquí hemos visto las ventajas del uso del TC, del EDL y del XML. Veamos ahora cuan importante es que los sepamos utilizar en una post-producción digital. El concepto de edición no-lineal en video data del año 1984 con la aparición de los editores no-lineales de primera generación, estos basaban su funcionamiento en el uso de 6 a 12 máquinas VHS en cuyos videocasetes se transcribía el material filmado con el mismo TC del original. Luego vendrían los sistemas no-lineales de segunda generación, que basaban su funcionamiento en el uso de videodiscos. Pero el advenimiento de los editores no-lineales de tercera generación de edición no-lineal rompió a principios de la década del 90 la brecha existente entre el cine y el video. Por fin los compaginadores de cine encontraban en el video una poderosa herramienta que no solo respondía a sus posibilidades sino que las ampliaba holgadamente respecto de la moviola. Por supuesto que como todo cambio de importancia en la forma de hacer las cosas, tuvo gente que no pudo o no quiso adaptarse a la nueva tecnología y es el día de hoy que siguen compaginando en moviola o se han dedicado a otra cosa por falta de visión de futuro. 49
Los términos básicos en edición digital son los siguientes: Analógico: en las grabaciones analógicas, las variaciones producidas en la cinta son continuas y similares a las variaciones de la forma de onda del sonido. Compresión: reducción del volumen y espacio ocupado en los discos. Digital: es el formato de grabación en el que se utilizan números para representar la amplitud de la señal de video y sus variaciones se representan por una rápida secuencia de dígitos.
Digitalizar : es el proceso de captura por el convertimos la información analógica en una secuencia de números para que la computadora la procese.
Puntos de muestreo: la cantidad de muestras o datos utilizados para representar la señal original.
Básicamente el sistema consiste en digitalizar o capturar la imagen de video en el disco rígido de una computadora. La digitalización de una imagen es la transformación de la señal analógica en otra representada por números para poder grabarla en forma de datos en un disco rígido.
50
Cuando proviene de cintas digitales si el equipo utilizado lo permite la captura se realiza sin ninguna pérdida porque es una simple transferencia de datos. Ejemplo de esto es la captura desde un puerto firewire, HDMI, SDI o HD-SDI. Una vez grabada la imagen en el disco tenemos un acceso aleatorio e instantáneo a cualquier parte del material. Lo más tedioso de este proceso es el tiempo que perdemos capturando las escenas, trabajo del que habitualmente se ocupa el asistente de montaje. El proceso de captura hoy a sido prácticamente reemplazado por el de importación de archivos cuando grabamos el material directamente en sistemas de disco rígido o tarjetas de memoria. Pero se sigue utilizando cuando grabamos en cinta de video. Ambos procesos se denominan “Ingesta” Técnicamente lo que dificultaba en sus comienzos esta forma de trabajo eran la velocidad y la capacidad de los discos rígidos. Un disco rígido destinado a edición de video tiene que tener la capacidad de “escribir” y “leer” rápidamente los datos que le ingresamos. La imagen de video ocupa mucho espacio en el disco si queremos que mantenga su calidad original. Para paliar este inconveniente se desarrolló un método llamado COMPRESIÓN. Existen dos tipos de compresión : COMPRESIÓN SIN PERDIDAS (lossless) y COMPRESIÓN CON PERDIDAS (lossy). La primera es aquella que al descomprimirse mantiene inalterable la información original (como cuando comprimimos un documento de texto o una foto con programas como WINZIP o WINRAR). La segunda es la que trabaja sobre la base de eliminar lo que llamamos información redundante, es decir toda aquella información que este repetida en varios cuadros sin variaciones (por ejemplo un 51
cielo). Así eliminando información (y perdiendo calidad) podemos archivar más cantidad de material en el disco. Este tipo de compresión se denomina MJPEG. Por este motivo debemos tener siempre en cuenta que la perdida de calidad de imagen es directamente proporcional a la compresión. Es un falso mito pensar que porque estamos trabajando en digital no perdemos calidad, cuanto más “apretemos” el video para que entre en el disco más pixelada y ruidosa será la imagen resultante. No por nada los sistemas digitales sin compresión (AVID SIMPHONY NITRIS, EQ de QUANTEL, PREMIERE O FINAL CUT con placas de captura AJA o BLACK MAGIC.) son los más caros. Estos últimos representan la cuarta generación de equipos de edición digital no-lineal. Existen otros tipos de compresión en los que la imagen pierde muy poca calidad y que basa su funcionamiento en eliminar cuadros en lugar de información de los mismos. Me refiero al formato MPG-2 en sus diferentes variantes usado para transmisiones de video por satélite y para autoría de DVD. No es utilizado habitualmente en los sistemas de edición no-lineal por que no permiten editar al cuadro en forma precisa. El lector se preguntará como se pueden eliminar fotogramas sin que salten los movimientos, para explicarlo de una manera simple, lo que hace el MPEG-2 es utilizar un sistema predictivo, “adivina” la información de los cuadros faltantes en base a la información que obtiene de los cuadros anteriores y posteriores al que se ha eliminado, si pensáramos en los cuadros como en una secuencia de números 2,4,6,8 no nos sería difícil predecir la continuación de la secuencia 10, 12, 14, etc. A esto se denomina codificación predictiva. Está secuencia de cuadros se denomina GOP (grupo de imágenes) y su longitud es variable de acuerdo a que cantidad de cuadros la componen.
52
Cuando el archivo necesita ser editado se usan MPG2 de corta longitud, de manera de poder dividir los cuadros. Ejemplos de esto son los formatos Betacam SX y MPG IMX. Existen otros tipos de archivo de video comprimido para usos específicos como Internet, o CD-ROM, tales como el Windows Media Player, Real Video, MPG-1, MP4, Flash Video, etc. de los que nos ocuparemos más abajo. Otra de las más importantes ventajas de los editores no-lineales digitales es la poder trabajar con muchas pistas de audio y de video. Facilitando de esta forma la realización de trucas y mezclas que antes debían ser realizadas por equipos muy caros y sofisticados. Además con esta ventaja los títulos u otros gráficos que deban ser sobreimpresos pueden ser agregados después de terminar la edición de nuestro vídeo. Para reproducir los efectos en tiempo real, la computadora hará una serie de cálculos duplicando la parte del archivo que contenga los efectos pedidos. De acuerdo a la complejidad del efecto y a la velocidad y potencia del hardware puede realizarlos en tiempo real o demorar varias horas en concretarlo. Este proceso se denomina RENDER.
53
SISTEMAS DE EDICIÓN DIGITAL NO-LINEAL
Para editar en sistemas no-lineales contamos con diferentes softwares que varían de acuerdo al equipo, la placa de captura o las preferencias del editor. Todos tienen en común el mismo criterio de trabajo en sus interfaces de usuario: Uno o Dos monitores virtuales, los BINS o librerías de archivo del material digitalizado y el TIMELINE (LINEA DE TIEMPO). Esto elemento es quizá el aporte más significativo de los editores no-lineales a los sistemas de edición de cine y video. Cuando el editor tradicional de video quería ver como estaba quedando armado un trabajo tenía que reproducir la cinta del principio al fin, 54
En el caso del compaginador de cine podía ver la tira de película que tenía en la moviola de la secuencia que estaba editando en ese momento. Pero nunca tenía una visión total de lo editado . El timeline les permitió a ambos tener una visión global de todo el armado, dando idea en algunos casos, dependiendo de la experiencia y criterio del editor, del dinamismo de la edición con solo visualizar la longitud de los cortes en la línea de tiempo. En el mercado encontraremos diferentes marcas de softwares de edición no-lineal. Podemos nombrar algunos como : Avid, Final Cut, Adobe Premiere Pro, Edius, Sony Vegas, etc. Los más utilizados a nivel profesional son: el AVID en sus diferentes versiones y a un nivel más popular y económico FINAL CUT PRO en Mackintosh y ADOBE PREMIERE PRO para PC y Mac con diferentes placas de captura.
VENTANA DE CAPTURA DEL AVID
55
VENTANA DE CAPTURA DE FINAL CUT PRO
Para conocer el entorno de trabajo virtual tomaremos como ejemplo el AVID por ser el sistema pionero en desarrollos para edición digital. Además es el único diseñado desde origen para uso profesional a diferencia del resto que comenzaron como softwares hogareños y evolucionaron hasta convertirse en profesionales. Montado originariamente sobre plataforma Mac y posteriormente también sobre PC, en la actualidad la elección queda a gusto y criterio del usuario. Su hardware está compuesto por la cpu, hardware propio, dos monitores de computadora, para distribuir mejor la cantidad de menús que utiliza su interfaz gráfica y un monitor de video (también llamado monitor de cliente) para visualizar el trabajo terminado en su resolución y tamaño real.
56
MONITOR 1
MONITOR 2
En el monitor 2 encontramos en la parte superior dos monitores virtuales, el de la derecha que correspondería a la VTR RECORDER, y la VTR PLAYER en el de la izquierda. Cada uno contiene comandos y herramientas que pueden ser configuradas por el usuario. En la sección inferior podemos ver el TIMELINE (Línea de Tiempo) dividido en diferentes pistas de video y audio y gracias a el podemos tener una visión global de toda la edición que estemos realizando.
En el monitor de la izquierda tenemos los BINS, al igual que en cine que se depositaban los cortes en una cesta, los Bins son cajones o carpetas virtuales donde guardamos el material
57
(independientemente de su ubicación en los discos) clasificado de la manera que nos parezca más conveniente. Podemos abrir la cantidad de bins que queramos, es lo mejor para encontrar las tomas en forma rápida. Por ejemplo un bin para las tomas nocturnas, otro para las tomas de determinada locación, otro para audios y otro para placas y/o gráficos. Cada segmento en que hemos cortado las tomas durante la captura se denomina CLIP. Los clips pueden ser visualizados por el primer cuadro de la toma (POSTERFRAME) o en forma de texto por su nombre. El monitor izquierdo del AVID también se usa para desplegar los cuadros de dialogo de las herramientas y comandos.
La principal ventaja de este sistema de edición es que podemos alterar el orden de las tomas infinidad de veces, acortarlas o estirarlas, realizar diferentes versiones de un mismo trabajo y la posibilidad de intercalar fundidos, efectos o sobreimpresiones en cualquier lugar de la edición. Cada vez que iniciamos un trabajo de edición abrimos un PROYECTO indicando en que norma o formato de video se 58
encuentra el material (NTSC – PAL – AVCHD – 1.080/50 – 1.080/60, etc.) y dentro de el abriremos todos los BINS que nos hagan falta. Nuevamente nos encontramos la importancia de grabar bien un TC en el material de origen. Si el proyecto es NTSC el Avid nos preguntará si el TC es DROP-FRAME O NON DROP-FRAME. Si tenemos poca capacidad de disco y mucho material grabado nos conviene trabajar con una resolución de captura baja. Una vez terminada la edición Off-Line podemos borrar todo el material del disco y pedirle al AVID que lo recapture en alta resolución pero solamente a las tomas correspondientes a la edición terminada. Este proceso se denomina BATCH DIGITIZING, BATCH CAPTURE o captura por lotes o en batería. Otra opción muy usada es, una vez terminada la edición, exportar una lista de edición (EDL o XML) para realizar el On-Line en otro equipo digital sin compresión como lo explicamos más arriba.
EXPORTACIÓN DE UN EDL EN FORMATO CMX
59
FILM TO TAPE
El proceso de transferencia de film a video consiste básicamente en proyectar la película a través de un sistema de prismas y espejos (multiplexer) hasta el lente de una cámara de video. Originariamente se transfería desde una copia positiva.
Telecine El multiplexer y la cámara se reemplazaron posteriormente por un sistema en el que se proyectaba directamente sobre el CCD captador de imagen. El resultado fue una transferencia de gran calidad porque además podía hacerse directamente desde el negativo. Estos equipos poseen numerosos ajustes de colorimetría y en algunos casos su señal pasaba por un corrector de color adicional de alta gama como el Da Vinci.
60
A estos equipos se los llamó transfer y el término telecine cayo en desuso. El sistema mas moderno y caro, que coexiste con el transfer es el film scanner, donde la transferencia se realiza a una velocidad muy baja explorando cada cuadro por medio de un láser. Dependiendo de la resolución elegida (HD – 2K - 4K) el film scanner realizará la transferencia de 1 a 15 cuadros por segundo.
Film Scaner
EDITANDO MATERIAL FÍLMICO
Hoy día la moviola ha sido reemplazada por equipos y softwares como el AVID o Final Cut Pro. Pero no cualquier software está preparado para editar fílmico, ni siquiera todos los modelos de AVID.
61
Para poder llevar a cabo un proyecto fílmico el editor debe contar con un programa adicional llamado FILM COMPOSER o FILM SCRIBE. En el caso de Final Cut trabaja con otro programa llamado CINEMA TOOLS. Cada vez que abrimos un proyecto nuevo el AVID nos preguntará si este es de video o de fílmico, si es de video si está en PAL o NTSC, si es fílmico si es 16 o 35mm. Proceso digital tradicional para compaginar una película Una vez revelado el negativo se transfiere a una cinta de video con ventana de TC y de KEYCODE en pantalla. El formato de cinta no tiene en este caso mayor importancia con respecto a la calidad mientras la misma cuente con código de tiempo. Puede grabarse en cintas Betacam SP, DVCAM o MINIDV. El borde de la película de cine trae impresa de fábrica una numeración que es leída por el transfer por medio de un código de barras. A esta numeración se la denomina KEYCODE. La palabra KEYCODE es en realidad una marca registrada de Kodak.
Imagen obtenida del libro Edición Digital no Lineal de Thomas A. Ohanian
62
Este código alfanumérico desarrollado por Kodak ha sido adoptado por todos los fabricantes de película virgen en reemplazo de un sistema más antiguo y engorroso para compaginar. En la figura posterior observamos como visualizaríamos en nuestro monitor el keycode y el time code de la película.
TIME CODE
KEY CODE
El transfer puede hacerse directamente a 24 o 25 fps. Cuando se realiza la transferencia debemos solicitar que se tengan en cuenta ciertos detalles a saber: GRABACIÓN EN UN DISKETTE del KEYCODE Y DEL TIME CODE DEL MATERIAL TRANSCRIPTO. Si el transfer es realizado agregando material en un mismo cassette a medida que se realiza la filmación debemos pedir que se ponga especial cuidado en grabar el video en ASSEMBLY y regenerando el TIME CODE para que no queden en la cinta saltos del mismo ni baches de señal. Si no se cumplieran dichos requisitos se nos complicará la captura a la hora de hacer un BATCH DIGITIZING o de exportar la lista de corte de negativo.
63
Luego debemos cargar el diskette del transfer en el AVID. Al capturar el material de la cinta el editor no-lineal solo leerá el Time Code de la cinta. Después de hacer la edición Off Line, FILM COMPOSER elabora una lista de corte de negativo calculando la equivalencia entre el TC y el KEYCODE de acuerdo a la información del diskette para el montaje final a mano, o automático. Si el equipo no-lineal utilizado no dispusiera de FILM COMPOSER o no tenemos el disco del telecine este trabajo habrá que hacerlo manualmente leyendo el TC y el Keycode toma por toma de la pantalla de nuestro monitor. Otro detalle a tener en cuenta es que no conviene mezclar material fílmico de diferentes formatos. Por ejemplo tener tomas en 35mm y otras en 16mm. Si bien tenemos todo el material unificado en video no podremos exportar una lista de corte correcta. Vimos anteriormente que al abrir un proyecto fílmico el AVID nos pregunta si es 16 o 35mm. Esto se debe a que la cantidad de perforaciones por cuadro no es la misma debido a que el tamaño de cuadro es diferente. Por este motivo la ubicación del keycode de un formato variará respecto del otro. En la película de 35mm con cuatro perforaciones el pietaje está impreso cada 16 fotogramas (un pie), en cambio en la película de 16 mm el pietaje está colocado cada 20 fotogramas (0.5 pie) por tener 40 fotogramas por cada pie de película. Lo más conveniente en estos casos es armar dichas secuencias en proyectos separados. Como el sonido en cine se graba por separado de la imagen primero tendremos que transcribir las tomas de audio que tengamos en cinta analógica, DAT o MINIDISC a un sistema de audio digital con TIME CODE. Como por ejemplo el PCM que graba 8 canales de audio digital sobre los mismos cassettes HI8 de video.
64
Digitalizamos el audio en el AVID en un BIN aparte y luego lo sincronizamos con la imagen aprovechando la claqueta filmada.
El Avid nos proporciona la gran ventaja de armar SUBCLIPS. Estos son clips virtuales formados por los dos clips separados de audio y video como si fueran un único archivo y con los que editaremos la película después. Una vez terminada la edición off-line de la película el audio es conveniente exportarlo en formato OMF para su posterior postproducción en PROTOOLS, Este equipo es el más popular para postproducción de sonido. Es de los mismos diseñadores del AVID y tiene la ventaja de trabajar con el mismo tipo de archivo (OMF) por lo que si queremos podemos tenerlos en red para intercambio de archivos y proyectos. Final Cut Pro y las últimas versiones de Premiere Pro también exportan este formato de archivo. Para sincronizar el audio con la imagen en la copia final se agrega un START o fílmico con cuenta regresiva que deberá terminar exactamente 48 cuadros antes del primer cuadro de imagen y que contará con un BEEP de audio en el cuadro 48.
START DE UNA PELICULA
65
FLUJOS DE TRABAJO ACTUALES (WORKFLOW)
La edición de un film hoy día puede tener diferentes variantes hasta llegar al producto terminado. Los flujos de trabajo (workflow) varían de acuerdo al soporte de grabación y cada día surgen nuevas combinaciones. 1) Fílmico 1 a) b) c) d) e) f) g) h)
Revelado. Transferencia de film a cinta de video a una sola luz. Captura de la cinta en disco. Edición de imagen con calidad offline. Composición, FX y trucas. Exportación de lista de corte de negativo. Postproducción de audio. Compaginación del fílmico en moviola de acuerdo a la lista de corte. i) Mezcla final de sonido y masterización. j) Alternativa A: dosificación final del negativo fílmico y copias positivas. k) Alternativa B: masterización en disco rígido en archivos DCP
2) Fílmico 2 l) Revelado. m) Transferencia de film a cinta de video a una sola luz. n) Captura en disco. o) Edición de imagen. p) Composición, FX y trucas. q) Exportación de lista de corte de negativo. r) Edición del negativo en moviola. s) Copia en positivo de bajo contraste. t) Transferencia a cinta de video dosificada en alta resolución. u) Dosificación y Corrección de color final en video. 66
v) Postproducción de audio. w) Masterización en HD ( Digital Intermediate ). x) Tape to film. y) Mezcla final de sonido y masterización para cine. z) Alternativa A: dosificación final del negativo fílmico y copias positivas. Alternativa B: masterización en disco rígido en archivos DCP
3) Video analógico o digital en cinta. a) Captura en disco. b) c) d) e) f) g) h)
Edición de imagen. Composición, FX y trucas. Dosificación y Corrección de color. Postproducción de audio. Masterización en HD ( Digital Intermediate ). Tape to film. Alternativa A : dosificación final del negativo fílmico y copias positivas. i) Alternativa B: masterización en disco rígido en archivos DCP
4) Video digital Tapeless a) Transferencia a disco. b) c) d) e) f) g) h)
Edición de imagen. Composición, FX y trucas. Dosificación y Corrección de color. Postproducción de audio. Masterización en HD ( Digital Intermediate ). Tape to film. Alternativa A: dosificación final del negativo fílmico y copias positivas. i) Alternativa B: masterización en disco regido en archivos DCP
67
FLUJOS DE TRABAJO
EDICIÓN EN CAMPO
Los programas de edición digital en combinación con las notebooks han llevado a exteriores a las islas de edición. Hoy en día es común en los rodajes de spots publicitarios la de contar con una suite de edición para realizar pruebas “en campo” como recortes de chroma-key, continuidad de planos, etc. Cuando el rodaje es en video se capturan las tomas directamente a través del puerto firewire, o se transcriben a disco en baja resolución. En cambio cuando el trabajo es en fílmico se capturan las tomas del videoasist. En el caso de los largometrajes, en ocasiones, dependiendo de la forma de trabajo del compaginador, el sistema se utiliza para ir
68
haciendo pruebas de edición durante el rodaje en el hotel o en el avión. En cobertura de deportes o notas periodisticas fuera del país,es muy común actualmente que el camarografo edite los contenidos en una notebook y envie la nota editada vía internet.
EXPORTACIÓN DE ARCHIVOS Es probable que cuando terminamos de editar una producción necesitemos publicarla de alguna manera para su posterior utilización en autorías de DVD, CD o Internet. También es común que al exportar nuestra película para compilarla en un archivo único notemos una gran pérdida de calidad. Esto sucede porque al exportarla no hemos respetado sus características originales. Siempre que se quiera mantener la calidad original, los ajustes de salida (exportación) deben ser los mismos del archivo original. Las alternativas son diversas de acuerdo al uso que le queramos dar y las herramientas a utilizar son varias. Por eso constituyen un verdadero dilema al editor si no tiene suficientes conocimientos sobre compresión de video. Para un buen aprovechamiento de las mismas debemos conocer las diferentes alternativas de exportación y compresión de archivos existentes en el mercado ( que aumenta todos los días) de acuerdo al destino final que va a tener la película. No es lo mismo codificar un video para publicarlo en internet o enviarlo por mail que para editar y copiar posteriormente a cinta o DVD con buena calidad. La calidad del archivo es directamente proporcional al tamaño y al peso de los mismos, es difícil alcanzar una buena relación peso / calidad. No es la primera vez que un cliente pide que un archivo tenga excelente calidad, pantalla grande y que sea liviano para enviarlo por mail, si no pesa más de 2 megabytes, mejor. Por ahora sigue siendo una utopía. 69
El video digitalizado con buena calidad como vimos anteriormente, es muy “ pesado” para la computadora. Por ese motivo es que diferentes firmas desarrollan nuevos “CODECS” de compresión para lograr un archivo con buena calidad y cada vez más liviano. Lo primero que tenemos que saber es que existen diversos formatos de archivo de video digital y que estos pueden contener diferentes codecs de compresión. La palabra codec es la abreviatura de Codificador/Decodificador El “Codec” de compresión es un programa que incluye un conjunto de algoritmos de compresión y descompresión que contiene el archivo para poder ser descomprimido y reproducido en una computadora. Esto por supuesto conlleva a una pérdida de calidad porque el archivo se comprime para guardarse y se descomprime para reproducirlo. Por eso debemos tratar de buscar siempre el codec que mantenga la mejor calidad con el menor peso posible. También debemos tener en cuenta que la persona a la que va destinado nuestro trabajo pueda abrir el archivo sin problemas. Si la PC o Mac. no tienen instalados esos codecs el archivo no podrá ser abierto y visualizarse en la misma. La idea es que el usuario tenga que intervenir en esta operación lo menos posible y actualmente los sistemas operativos ya traen instalados los codecs de compresión de uso más habitual en el mercado. Igualmente pueden bajarse en forma gratuita desde la web de cada fabricante. Para disminuir el peso del archivo también podemos achicar las medidas de pantalla del mismo, reducir la cantidad de colores y la velocidad de reproducción en cuadros por segundo ( 15 fps. por ejemplo).
70
ARCHIVOS DIGITALES Cuando trabajamos en un sistema de edición digital no -lineal usaremos tres tipos de archivos para trabajar en diferentes formatos: 1) Archivos de video. 2) Archivos gráficos 3) Archivos de audio Enumeraremos los más usados para edición de video y publicación en CD, DVD o WEB. ARCHIVOS DE VIDEO DIGITAL Los formatos principales, no importa el codec que utilicen, son los siguientes y se los identifica por la extensión en el nombre del mismo. Se clasifican también de acuerdo a las normas PAL y NTSC y los diferenciamos fundamentalmente por la velocidad de reproducción en cuadros por segundo ( 25 fps. Para PAL y 29.97 fps. para NTSC) y por las dimensiones de pantalla del mismo.
AVI: (abreviatura de Audio Video Interleave ) desarollado por Microsoft como formato nativo de Windows es el de uso más común en PC.
MOV: conocido como Quicktime es el formato desarollado por Apple para reproducción y edición de video en las plataformas Mac. Avi y Quicktime son los formatos de uso más habitual en edición dependiendo de la plataforma elegida. Este último puede reproducirse en PC con el reproductor de Quicktime.
MPG : (conocido también como MPG -1, abreviatura de Moving Picture Experts Group) uno de los desarrollos más antiguos y de buena relación calidad/peso, es posible reproducirlo en cualquier computadora aunque sea antigua. Su uso más habitual es Internet 71
(You Tube), CD – ROM Multimedia o presentaciones en Power Point. La extensión del archivo es .mpg. Proporciona una calidad de imagen comparable a un VHS en tamaños de pantalla pequeños.
MPG - 2 : evolución del MPG -1, liviano y de excelente calidad. Su uso es variado en diferentes tipos y calidades de Mpg2, desde transmisiones satelitales hasta autoría de DVD. Las extensiones pueden ser diferentes ( .M2v, .M2T, .VOB).
MPG- 4: desarollado esencialmente para web o dispositivos portátiles ( celulares, reproductores, Ipod, etc) tanto para audio como para video. Tiene una buena relación calidad / peso cuando se lo utiliza con el codec H264.
FLASH VIDEO: su extensión es .flv o .f4V y se lo usa fundamentalmente para combinarlo con animaciones de flash o video para páginas web, muy liviano necesita del reproductor Adobe media player para visualizar los archivos.
WINDOWS MEDIA PLAYER: formato nativo y exclusivo de windows, muy comprimido y liviano pero de baja calidad. Ideal para uso en internet. Perfectamente compatible con el reproductor de windows por lo que en general puede ser abierto en cualquier PC.
72
ARCHIVOS DE SECUENCIA E IMÁGENES FIJAS Otra aplicación práctica de la edición digital, es la de poder trabajar con secuencias de cuadros. Cuando trabajamos con videos digitalizados en formato Avi o Quicktime podemos descomponerlos en archivos gráficos (.bmp, .jpg, .tga, .tiff, etc). Esto significa que si exportamos como secuencia de gráficos un segundo de video en sistema pal obtendremos veinticinco archivos gráficos. La principal ventaja de trabajar con secuencias de cuadros es la de poder trasladar archivos sin compresión para trabajar con ellos en cualquier programa de edición o de composición como After Effects, Combustión, Fusion, Nuke,etc. Una vez terminado el trabajo de composición se exporta una nueva secuencia para realizar el proceso de render en un equipo de alta gama. Estos archivos son los que se utilizan para las denominadas “secuencias de cuadros” , imágenes congeladas (still images) logotipos o fotos digitales. Al tratarse de imágenes fijas es factible trabajar con archivos de mayor calidad y tamaño. Los formatos varían por ser desarrollos de distintos fabricantes y porque algunos no tienen ningún tipo de compresión. Los más utilizados en el mercado son los siguientes:
•.Adobe Photoshop y secuencia de Photoshop (PSD) Formato propio del programa Adobe Photoshop , compatible con todos los programas de Adobe, Avid y Final Cut. Tiene la ventaja de trabajar y guardar archivos multicapa. Compatible con canal alfa. • Mapa de bits y secuencia de mapa de bits (BMP, DIB, RLE) Formato nativo de Windows, de buena calidad y compatible con cualquier computadora, no es tan usado en video.
73
• GIF Formato muy liviano y comprimido empleado en casi todos los casos para páginas web.
• JPEG y secuencia de JPEG (JPE, JPG, JFIF) Formato muy popular por su relación peso / calidad. Por ser comprimido no soporta canal alfa.
• PICT y secuencia de PICT (PIC, PCT) Formato nativo de Mac, de buena calidad, soporta canal alfa.
• Gráficos de red portátiles (.png) Soporta canal alfa • Targa y secuencia de Targa (TGA, ICB, VDA, VST) Formato sin compresión de la firma True Vision, muy usado en video. Soporta canal alfa. • TIFF y secuencia de TIFF (TIF) Formato sin compresión también muy usado en video. Soporta canal alfa. Cualquier archivo de video digital puede ser descompuesto en una secuencia de archivos gráficos . Los formatos más utilizados en video son TGA y TIFF sin compresión. Está técnica facilita el intercambio del archivo con cualquier plataforma y programa de edición, animación o composición.
74
• RAW Formato de archivo equivalente al negativo de película. Tiene la particularidad de contener los datos de la imagen tal como fueron captadas por el sensor de la cámara. De esta forma permite mantener un control total de la colorimetría en la postproducción. El archivo es comprimido, dependiendo con que cámara fue registrado como por ejemplo la RED ONE. • DCP (paquete completo Digital para proyección en salas) Este es un nuevo tipo de archivo contenedor basado en el codec JPG 2000 y es usado para las proyecciones de cine digital en 2K y 4K.
FORMATOS DE AUDIO DIGITAL • Advanced Audio Coding (AAC, M4A) • Formato de archivo de intercambio de audio (AIF, AIFF) • AVI (Audio-vídeo intercalado) • WAV (Forma de onda de audio) • MP3 (MP3, MPEG, MPG, MPA, MPE) • MOV (QuickTime; en Windows, requiere reproductor de QuickTime) • Audio de Windows Media (WMA, sólo Windows) • Vídeo para Windows (AVI, WAV; requiere QuickTime en Mac OS)
75
CODECS DE COMPRESION
El video digital sin ningún tipo de compresión no existe, aún el “sin compresión” posee un minimo porcentaje. Enumeraremos los más utilizados y de mejor calidad a la hora de exportar una película en .AVI o en .MOV. DV HDV ANIMATION H264 UNCOMPRESSED 8 BITS UNCOMPRESSED 10 BITS APPLE PRO RESS DVC PRO5O MPG-IMX XDCAM MPG-2 AVCHD Lo que tenemos que tener en claro es que si estamos trabajando con un video con codec DV (miniDV, DVCAM) no tiene sentido exportarlo como UNCOMPRESSED pensando que vamos a ganar en calidad. Lo único que obtendremos es un archivo más pesado pero con la misma calidad del DV. La calidad de un archivo nunca es mejorable, lo más que podemos lograr es mantener su calidad original, pero si exportamos con el
76
mismo codec del archivo original tambien la estaremos manteniendo.
MANEJO DE GRAFICOS Y TITULOS EN SISTEMAS NO LINEALES EL CANAL ALFA Cuando trabajamos en el entorno digital si combinamos adecuadamente los diferentes programas que enunciamos anteriormente las posibilidades creativas prácticamente no tienen limite. Lo que debemos saber en cada edición que vamos a realizar es con que equipo vamos a trabajar y que formatos gráficos soporta dependiendo del programa y la plataforma utilizada. Al igual que en video digital hay diferentes formatos y codecs de compresión que varían de acuerdo al fabricante. Si tenemos que elaborar una textura, un título o un dibujo en un programa como el Photoshop habrá que tener en cuenta ciertos parámetros. El tamaño de la pantalla en sistema PAL es de 720 X 576 PIXELS y de 720 X 480 en NTSC. Si el diseño es para High Definition las medidas deben ser 1.080 X 1920 Pixels y 1.080 X 1.440 para HDV o AVCHD. La resolución de impresión no debe superar los 72 dpi, una resolución muy mala para gráfica pero perfecta para video. En realidad esta resolución es relativa porque no tiene nada que ver un cuadro de video con una impresión en papel. Otro detalle es que deberá tener una resolución no menor a 24 bits si es un gráfico a plena pantalla o de 32 bits si incluye canal ALFA para poder sobreimprimirlo sobre un fondo. Los formatos de archivo más comunes en que es preferible exportarlo son TIFF o TGA (Targa) pero también soportan canal alfa PSD de Photoshop, PNG o PICT. 77
Para entender en forma simple que es el canal ALFA debemos pensar que un cuadro o imagen RGB (RED-GREEN-BLUE) del monitor de nuestra computadora utiliza 24 bits para cada muestra. Cada uno de los componentes de crominancia R-G-B tienen 8 bits cada uno. 8 BITS = 256 COLORES lo que nos da un total de 16,7 millones de posibles colores. El CANAL ALFA es un componente más de 8 bits que se suma a los anteriores como una escala de grises y con el que confeccionaremos una máscara para poder sobreimprimir el título o gráfico por medio de una señal de KEY sobre un fondo de imagen.
Imagen plena
Máscara de Alfa
La zona negra es la que se va a transparentar dejando ver el video de fondo y la blanca es la que va a ser rellena por otra imagen.
78
EDICIÓN VERTICAL: COMPOSICIÓN MULTICAPA Ahora que conocemos el funcionamiento de un software de edición podemos hablar del concepto de edición vertical. A la edición tradicional en la que ubicamos un plano a continuación de otro en la pista 1 se la denomina “Edición Horizontal”. Con el advenimiento de trabajar con múltiples pistas de video el lenguaje y la estética cinematográfica comenzaron a cambiar, y además de editar una toma a continuación de otra, comenzamos a ubicar una toma encima de otra. A esta forma de edición se la denomina “Edición Vertical” o más comúnmente “Composición Multicapa”. Este tipo de edición es el que se utiliza por ejemplo para montaje interno. Secuencias que en una edición tradicional hubiéramos colocado un plano tras otro por corte hoy lo hacemos por superposición de un plano sobre otro. La composición multicapa no solo nos permite el agregado de títulos o gráficos con canal alfa. Sino que también nos habilita para la “incrustación o recorte” de una persona u objeto sobre un fondo real o virtual por medio de herramientas como el Chromakey. El cromakey o blue screen como se lo llama en cine es un elemento muy popular usado desde películas como “Los pájaros” de Alfred Hitchcock hasta de fondo para el informe meteorológico del noticiero. Hay películas en las que prácticamente no se utiliza escenografía y tomas que parecen arriesgadas y muchos efectos especiales se resuelven de modo mucho más práctico con la composición. Para filmar o grabar este tipo de tomas se ubica a los actores sobre una pantalla azul o verde. Se puede utilizar cualquier color pero la elección del verde y del azul se debe a que estos colores son los que menos se encuentran en la pigmentación de la piel humana. 79
Normalmente ninguna isla de edición puede trabajar solo con Premiere, Final Cut o Avid. Siempre vamos a necesitar agregar otros programas que complementen al programa de edición. Si bien los programas de edición pueden realizar composición multicapa no son tan adecuados para esta función como los softwares diseñados para tal fin.
CLASIFICACION DE SOFTWARES POR CATEGORÍA De acuerdo a lo descripto anteriormente debemos conocer que otros tipos de programas podemos utilizar y clasificaremos los más populares de acuerdo al uso.
Categoría Corrección de color
Software Apple Color Da Vinci Resolve Color Finesse After Effects AVID DS Scratch Adobe Premiere Pro Avid
Edición
Final Cut Pro Sony Vegas Edius Adobe After Effects
Composición
Autodesk Combustión Fusion EQ Scracht Motion
80
Nuke Smoke Avid DS Nitris 3D Studio Max Maya Blender Animación
Adobe Flash Toon Boom Softimage Adobe Photoshop
Diseño
Adobe Ilustrator Corel Draw Inscriber
Titulado
Title Deko DVD Studio Pro
Autoría de DVD
Adobe Encore DVD Protools Nuendo
Sonido
Adobe Soundbooth Soundforge Soundtrack Pro
Estos son solo algunos de los programas que podemos utilizar para completar nuestra isla de edición. Por este motivo los fabricantes de softwares han adoptado la venta de programas en suite.
81
Una suite es un paquete que incluye varios programas y que funcionan interconectados entre sí para hacer el trabajo de forma más dinámica. Esto agiliza los flujos de trabajo y evita tener que exportar e importar archivos entre un programa y otro. Además es más barato que si compráramos cada aplicación por separado. Ejemplos de esto son la Suite CS5 de Adobe o la Suite Final Cut Studio 3, etc.
82
CORRECCION DE COLOR
Una de las etapas finales en un proceso de postproducción es el de etalonaje, dosificación o corrección de color (color grading). Este debe hacerse una vez finalizado el montaje para trabajar sobre la película definitiva. Los objetivos de la corrección son los siguientes: 1) Mejorar los niveles de brillo, contraste y color del material. 2) Obtener una continuidad fotográfica entre toma y toma. 3) Lograr climas o estéticas determinadas. La persona encargada de instrumentar y realizar las correcciones es el colorista. Este, bajo la supervisión del director de fotografía, ira corrigiendo y retocando cada toma una por una hasta lograr el resultado deseado.
83
Existen dos métodos de dosificación: 1) El fotográfico Este método es el usado desde siempre en los laboratorios cinematográficos corrigiendo las dominantes cromáticas por medio de filtros en el momento de hacer las copias positivas. Este método es bueno pero está limitado a correcciones generales sobre todo el cuadro, debido a que en la película cinematográfica todos los colores están mezclados en una sola capa sin la posibilidad de trabajar individualmente con cada uno de ellos. Excepto que se hagan trucas de rotoscopía pero son muy caras y hoy día ya no tiene sentido hacerlo de esa forma. 2) El digital Es el método de corrección realizado en un entorno de video digital. Aquí tenemos la ventaja de que las correcciones se hacen no solo sobre todo el cuadro, sino que además se pueden procesar los colores individualmente. Asegurando un control total sobre toda la imagen. Existen diferentes softwares destinados específicamente para corrección de color. Apple Color, Da Vinci Resolve, Pablo, de la firma Quantel, Adobe After Effects, Color Finesse, Assimilate Scratch y Avid DS son algunos de los más populares. También los programas de edición profesional como Adobe Premiere Pro, Final Cut y Avid media Composer, cuentan con excelentes plugins para dosificación del color. El proceso de corrección no es una ciencia exacta donde 1 + 1 es igual a 2. En ocasiones puede ser igual a 3. Lo que quiero decir es que el resultado final va a depender de ciertas cualidades por parte del colorista: 1) Conocimientos técnicos de video y de iluminación. 2) Lectura, interpretación y análisis de los instrumentos. 3) Experiencia, criterio y objetividad. 4) Buen gusto.
84
Estos dos últimos ítems no se encuentran en los libros ni se aprenden en ningún curso. Un colorista puede arruinar una excelente iluminación o salvar un trabajo con una luz mediocre. Además cumple la función de asesorar al cliente sobre como conviene tratar su producto y es el máximo responsable de la calidad final. En el caso de programas de televisión debe asegurarse de no sobrepasar los limites “legales” de la señal de video para broadcasting. Por supuesto que la calidad final de la imagen dependerá también de la iluminación, la cámara, los lentes y filtros empleados y el formato de video elegido. No es lo mismo trabajar sobre la señal de un video grabado en formato DVCAM que sobre otro registrado en Betacam Digital o HDCAM.
Interfaz de Apple Color
85
NATURALEZA DEL COLOR Los colores captados por la retina de nuestro ojo son el resultado de la luz absorbida y reflejada por los diferentes objetos. Si un objeto es de color rojo se debe a que absorbe todos los colores y refleja el rojo. Por ese motivo es que cuando no hay luz, no hay color.
La luz está compuesta por rayos de diferentes longitudes de onda, algunas cortas y otras largas dependiendo del color y del tono. Al variar las longitudes de onda se obtienen diferentes tonalidades. Newton comprobó que al pasar un haz de luz blanca por un prisma este se descomponía en todos los colores del espectro. Un claro ejemplo de esto es el arco iris cuando la luz pasa a través de las gotas de agua. Las colores reflejados por los diferentes objetos varían de acuerdo a la fuente de luz que incida sobre ellos. En el caso de la luz natural, aunque nuestro ojo no lo perciba, la colorimetría va variando con el pasar de las horas y si además esta nublado, se agrega otro elemento para influir sobre esas variaciones. Eso es lo que da como resultado que tomas filmadas en días diferentes en una misma locación y a la misma hora, presenten diferentes tonos. El ojo humano no es capaz de apreciar exactamente el color de la luz porque su impresión subjetiva de los colores hace que se adapte al color dominante. Para poder medir y controlar estas variaciones se creo el concepto de temperatura de color. No todas las fuentes de luz son iguales, la luz artificial por ejemplo, es rica en radiaciones rojas y muy pobre en radiaciones azules. 86
Por el contrario la luz natural es rica en radiaciones azules y pobre en radiaciones rojas. La temperatura de color se mide en grados Kelvin pero no se refiere a que si tocamos la fuente de luz la misma estará mas caliente o mas fría. Se refiere a la sensación que nos produce el color dominante de dicha fuente, cuanto más azulada es la misma, más alta será su temperatura y cuanto más rojiza más baja. La luz del sol tiene una temperatura de color que varia de los 5.600 a los 6.400 grados Kelvin dependiendo de las condiciones climáticas. Al amanecer o al atardecer su temperatura es mucho mas baja. Las luces artificiales de tungsteno que se utilizan en estudio o exteriores tienen una temperatura de 3.200 grados Kelvin. El instrumento para medirla se denomina termocolorimetro.
Termocolorimetro Gossen Aunque a nuestros ojos todas las luces blancas nos parezcan iguales en la realidad no es así. Para cine y fotografía se fabrican películas vírgenes calibradas para los diferentes tipos de luz. Las cámaras de video se ajustan de acuerdo a la fuente, con el balance automático de blanco y el balance automático de negro. Si balanceamos la cámara con luz artificial y sin cambiar el ajuste salimos a grabar en exteriores obtendremos una imagen con un tono dominante azul. Este tipo de problemas son los que tenemos que tratar de solucionar en una corrección de color, por ejemplo reforzando los tonos rojos de la imagen para compensar el exceso de azul. Por lo explicado anteriormente comprobamos que el color blanco es la suma de todos los colores y el negro la ausencia de color.
87
CONJUNTOS DE COLORES Existen dos conjuntos de colores puros. Los colores primarios aditivos: Estos son el rojo, el verde y el azul (RGB). La superposición de los tres da el blanco y con ellos se generan todos los colores del espectro visible de acuerdo a la variación de las longitudes de onda. Sobre este principio se fabrican las películas fotográficas y la generación de imágenes en color en las cámaras de TV.
Colores primarios aditivos Los colores primarios sustractivos: Son el cian, el magenta y el amarillo (CMY). Generan los demás colores cuando están presentes sobre un fondo blanco y en su estado más puro dan el negro. Se utilizan fundamentalmente para impresiones gráficas en la combinación de tintas.
88
Colores primarios sustractivos
Los colores complementarios: Son aquellos que son absorbidos por los primarios sustractivos. El complemento del cian es el rojo, el del magenta es el verde y el del azul el amarillo. Una combinación de magenta con amarillo parecerá roja a nuestro ojo por la disminución de verde (absorbido por el magenta) y azul (absorbido por el amarillo). En una rueda de color los colores están ubicados en oposición unos de otros. Combinándolos entre sí obtenemos un sinnúmero de tonalidades intermedias. Está representación en forma de rueda de colores es la que ha sido adoptada para las escalas del vectorscopio y de los ajustes en los programas de corrección de altas luces, medios tonos y sombras.
89
Rueda de colores
Ajustes Apple Color
Temperatura de color para varias fuentes luminosas (Fuente Kodak) Luz artificial Llama de una cerilla 1.700 K Llama de una vela 1.850 K Lámpara incandescente de tungsteno de 40 W 2.650 K Lámpara incandescente de tungsteno de 75 W 2.820 K Lámpara incandescente de tungsteno de 100 W 2.900 K Lámpara de tungsteno de 3.200 K 3.200 K Lámpara “Photoflood” y reflector difusor 3.400 K Lámpara “Photoflood” azul luz día 4.800 K Lámpara de arco de Xenón 6.420
90
Luz día Luz del sol: amanecer u ocaso 2.000 K Luz del sol: una hora después del amanecer 3.500 K Luz del sol: por la mañana temprano 4.300 K Luz del sol: A última hora de la tarde 4.300 K Luz media del sol en verano a mediodía (Washington) 5.400 K Luz directa del sol a mediados del verano 5.800 K Cielo cubierto 6.000 K Luz media del sol en verano (más luz del cielo azul) 6.500 K Sombra suave en verano 7.100 K Sombra media de verano 8.000 K Luz del cielo de verano, varía de 9.500 a 30.000 K Nota: No hay que confundir luz del sol con luz día. La luz del sol es únicamente la luz directa del sol. La luz día es una combinación de luz del sol más la luz del cielo. 27
91
EL ENTORNO DE TRABAJO
DA VINCI RESOLVE
Para el trabajo se requieren ciertas condiciones de iluminación en la habitación donde este instalado el equipo. Se recomienda una fuente de luz con una temperatura de color cercana a la luz diurna y una pared color gris neutro detrás del monitor. El monitor de video debe ser de calidad profesional y estar perfectamente calibrado. Contar con instrumentos externos que son mucho más fieles que los provistos por el software. Es ideal usarlos desde el momento del rodaje, no solo en la postproducción, para tener un control completo de la iluminación y aprovechar al máximo el potencial de la cámara. Un claro ejemplo accesible a cualquiera es el software Adobe On Location para captura de material directamente en rodaje.
92
INSTRUMENTOS DE MEDICION Los instrumentos para hacer las mediciones de colorimetría con objetividad son los siguientes: 1) Monitor en forma de onda u osciloscopio. 2) Histograma. 3) Monitor de Parade. 4) Vectorscopio. Cada uno de ellos nos brindará diferentes parámetros de brillo, saturación y contraste de la imagen con absoluta precisión.
Instrumentos de medición de la señal de video
93
Osciloscopio: también llamado monitor en forma de onda (waveform), nos da una representación electrónica de la imagen de video. Nos permite ajustar la luminancia (brillo), el pedestal (contraste o nivel de negro) y el gamma (niveles de gris). Normalmente nos indica los niveles de acuerdo a la escala IRE (Institute de Radio Engineers) donde el nivel de luminancia no debe superar el 100% (1 Volt) y el nivel de negro debe estar en el 0% (negro absoluto). Puede visualizarse solo la luminancia o usarlo también en un modo mixto que muestra luminancia y crominancia al mismo tiempo. Este modo es el preferido por muchos profesionales para evaluar mejor el nivel de la señal.
Osciloscopio de Apple Color
Osciloscopio de On Location
94
Histograma El histograma es básicamente una representación gráfica de los picos de blanco y de negro de la señal de video sobre los ejes X e Y. No identifica colores. X define el nivel de luminancia de los pixeles e Y define la cantidad de pixeles en un nivel determinado de brillo. Permite fundamentalmente trabajar sobre el contraste de la toma. El histograma no existía entre los instrumentos de edición convencional, recién se conoció con el video digital. Su escala de medición va del 0 al 255, donde 0 representa el mínimo nivel de negro y 255 el máximo nivel de blanco. Si la información de los pixeles blancos es más alta a la izquierda que a la derecha nos encontraremos con una imagen subexpuesta (oscura). Si por el contrario la gráfica nos muestra mayor acumulación de pixeles del lado izquierdo esto nos indica que la imagen está sobreexpuesta (quemada). Si los pixeles blancos están distribuidos a una altura uniforme nos encontraremos ante un cuadro bien expuesto y equilibrado con información en todo el rango de luces y sombras.
Histograma de Apple Color
95
Parade o RGB El parade es una variante del osciloscopio que muestra los niveles de luminancia por separado de los tres colores principales rojo, verde y azul. Es útil para ver hasta donde podemos modificar el nivel de azul, rojo o verde de la toma.
Monitor de Parade de Apple Color
Vectorscopio Este instrumento posee una escala representada por una rueda de colores. Esta rueda nos muestra los colores complementarios. Como su nombre lo indica nos muestra por medio de vectores el nivel de saturación de color y su correcto tono o matiz de una forma verdaderamente objetiva. El centro de la rueda indica el correcto balance de blanco y de negro. La extensión del vector va a depender del nivel de crominancia de la imagen y de acuerdo al ángulo del mismo nos dejará advertir el predominio de algún color en la escena. Si el vector se localiza en la parte más externa del circulo significa que el nivel de saturación de color es alto y si se encuentra cerca del centro lo contrario. En lo personal es mi instrumento preferido a la hora de dosificar una película. 96
Si medimos una señal de barras de color, el vector de cada uno debe encajar en el indicador gráfico correspondiente al mismo. Si el monitor de video no fuera lo suficientemente confiable, saber leer el vectorscopio nos resultará la mejor indicación de que estamos orientados en la dirección correcta.
Vectorscopio de Apple Color
Vectorscopio de On Location
97
TIPOS DE CORRECCION DE COLOR El proceso de corrección de color consta de dos etapas: 1) Corrección de color primaria. 2) Corrección de color secundaria.
Corrección de color primaria: En esta etapa el colorista realiza una corrección general de todo el cuadro. Se corrige balance de blancos, de negros, luminancia, contraste, gamma, fase (tono o matiz) y saturación de cada toma. Las herramientas con las que cuenta el colorista son varias: Levels (niveles de contraste), curvas de color, ruedas de color para altas luces, medios tonos y sombras, balance de blanco, HUE (matiz o fase de croma) y controles de ganancia y gamma para los colores rojo, verde y azul. Además de obtener la máxima calidad de imagen se buscan en ocasiones colores predominantes para obtener el clima que pide el guión. Por ejemplo se utiliza el color azul para dar idea de ambiente frío o nocturno y el rojo para obtener un sensación de calidez. El proceso se realiza toma por toma buscando una continuidad fotográfica y estética. Corrección de color secundaria: En esta instancia básicamente se hacen los mismos ajustes que en la primaria pero la diferencia fundamental es que puede hacerse la corrección en áreas especificas del cuadro. A través de ella y por medio de mascaras podemos aislar diferentes zonas para corregirlas en forma independiente. Por ejemplo: aclarar una zona oscura, cambiar el color de una prenda o la luz que entra por una ventana, dejar un personaje en color y el resto en blanco y negro o viceversa, etc.
98
Dependiendo del software pueden aplicarse varias correcciones secundarias simultáneamente y por medio del “Motion Tracking” animarlas sincronizándolas con el recorrido de algún personaje o elemento dentro del cuadro. En algunos casos, luego de la corrección secundaria, se realiza una nueva corrección general como tercer paso. Los programas de corrección de alta gama como Da Vinci o Apple Color, cuentan con memorias de cuadro para archivar imágenes congeladas que sirven para comparación durante las correcciones. El resultado final puede ser masterizado sobre una cinta en un formato HD, denominado Intermedio Digital (Digital Intermediate) para ser transcripto a cualquier formato de video para televisión o enviado a un proceso de Tape to film para el copiado en película cinematográfica. Para esto último existe también la alternativa de exportar secuencias de cuadros en formato Cineon o DPX.
Fuentes consultadas Video Digital de Rafael Moreno Falele, Editorial Anaya. Corrección de color para edición de video no lineal de Stuart Blake Jones editado por Escuela de Cine y Video de Andoain. La guía esencial de referencia para cineastas de Kodak publicada en Internet.
99
Tape to film Un Secreto Revelado Autor Jorge Ricaldoni
Fragmento del texto publicado en Internet y publicado con autorización del autor
■ Transferir Video a Film El proceso de transferencia de video a fílmico se conoce con varios nombres: "Tape to Film", "Film Blow-Up" o "Hinchado a fílmico". Específicamente el "hinchado" o "blow-up" es cuando se transfieren imágenes de menor resolución a medios de mayor resolución. También hay sistemas que "mejoran" la resolución del video tomando por ejemplo una imagen de 480 líneas y llevándola a 1152. Esto se realiza por un proceso que se llama interpolación bilinear, que mezcla levemente los dos campos y "crea" líneas que se interpolan donde no existían. El efecto se puede ver en los proyectores de video con cuadruplicación de líneas. El aspecto es más suave, pero en los movimientos rápidos se pixela. ■ Los equipos Básicamente hay tres tipos de equipos de "video-to-film transfer": Film Recorders, Kinescopios y Electron Beam Recorders. Ninguno de ellos es perfecto y conviene saber cuáles son los pros y las contras de cada uno de ellos. ■ El Film Recorder Son los equipos de mayor calidad. Generalmente se utilizan para transferir imágenes creadas en archivos digitales o tratadas digitalmente para efectos especiales. Pueden manejar (según la marca y modelo) resoluciones verticales de 4000 y 2000 líneas (4k y 2k).
100
Hay dos tecnologías básicas: 1. Cámaras de cine que registran CRTs monocromáticos de muy alta calidad y definición cuyos puntos de fósforo son muy pequeños (pitch). El registro se hace a través de filtros rojos, verdes y azules (Imagen 1: Esquema del Interior de un Film Recorder Celco Fury). 2. Micro láser rojos, verdes y azules que impactan en la emulsión de la película sin el uso de lentes ni filtros. Los sistemas basados en CRTs son fabricados por Management Graphics para su producto "Solitaire"; Celco fabrica el nuevo "Fury" y Lasergraphics, una empresa que viene de las impresiones gráficas y textiles también tiene otros dos productos muy difundidos. Este tipo de equipos son bastante lentos ya que se demoran entre 15 y 80 segundos (según la marca, el modelo y la resolución deseada) por cada cuadro. Este tipo de equipos van desde los US$ 150,000 hasta los US$ 300,000. En los Estados Unidos el costo de transferencia a 4k puede ser de varios dólares por frame. Los sistemas láser eran fabricados por Eastman Kodak ("Cineon Lightning") hasta octubre de 1997. Dieron paso a los "Lux" de Digital Cinema Systems; "Verite" de Pthalo Systems y más recientemente irrumpió el "Arrilaser" de la alemana Arri. Estos equipos cuestan entre US$ 500,000 y US$ 1,200,000. El costo elevado se debe al desarrollo de un láser azul realmente efectivo. Pueden grabar un frame en 6 segundos o menos. Son más rápidos y producen imágenes más brillantes que los sistemas de CRT. Los expertos, sin embargo dicen, que las imágenes son demasiado contrastadas, por lo que hay que cuidar mucho esa variable y que su aspecto general es "duro" y menos natural que los de CRT. Otro inconveniente es que el costo operativo es mayor. Trabajan únicamente sobre film de 35 mm. Hollywoods EFILM, que fue la que comisionó el desarrollado del "film recorder" Lux, cobra US$ 3,000 por minuto más los impuestos a las ventas de California. Eso implica aproximadamente US$ 2 por cuadro. Los principales clientes son productoras de cortos institucionales y comerciales de no más de 30 segundos y hasta 10 minutos de duración.
101
■ El Proceso El proceso se inicia enviando los videocasetes o archivos ya conformados definitivamente a las facilidades. Es importante, en la medida de lo posible, que el tape esté en un formato compatible con el de las facilidades. Si el video es analógico se lo digitaliza. Luego se transfieren los archivos cuadro por cuadro al "film recorder". Cada cuadro es separado en las componentes rojas, verdes y azules. Primero se reproduce la componente roja en un pequeño tubo de rayos catódicos de muy alta definición. La imagen monocromática correspondiente a la componente roja pasa a través del filtro en una rueda con, precisamente, los filtros del color de las tres componentes básicas. La componente roja filtrada, pasa por una lente que "achica" y condensa el haz hasta que este impacta en la película cinematográfica. La película cinematográfica no avanza hasta que el proceso se repite con las otras dos componentes. Entonces el film de la cámara cinematográfica avanza al siguiente cuadro y todo el proceso se repite. El producto final puede ser un negativo o un positivo (con película reversible). Puede agregar la banda de sonido óptico y el subtitulado. El audio se puede tomar de la misma pista de audio del tape o a través de archivos de audio separado. Se puede agregar la pista de sonido óptico o se puede hacer una impresión separada de dicha pista para que luego los laboratorios cinematográficos los combinen ópticamente.
■ El Kinescopio La transferencia de video a televisen es más antigua que el propio video tape. Los primeros-Kinescopios datan de 1950. Se trataba de un pequeño monitor de video blanco y negro, de muy alta resolución para la época, que era filmado por una cámara cinematográfica cuyo obturador estaba sincronizado con el frame rate de NTSC (29.97 fps).
102
Esta sincronía eliminaba las "roll bars" que ocurren cuando se fotografía o filma video. Todavía existen Kinescopios de calidad muy aceptable y costos bastante bajos. DuArt Video de New York usa un Kinescope de 16mm negativo color estándar. El costó es de US$ 75 por minuto con película incluida y track de sonido. Si se desea 35mm se requiere un segunda etapa de hinchado extra. Obviamente los resultados no están garantizados.
■ El Triniscope Se trata de tres pequeños TRCs B&N, cada uno cubierto por un filtro rojo, verde y azul. Luego las tres imágenes se suman mediante un prisma. La cámara filma una velocidad mayor que 24fps. Luego se hace la transferencia con "drop frames" (eliminación de cuadros) en laboratorio.
■ Electron Beam Recorders El método de Electron Beam Recording (EBR) es el sistema top. Funciona como el sistema CRT, pero los rayos catódicos, en lugar de impactar sobre una pantalla de fósforo sensible, lo hacen directamente sobre la emulsión de la película en una cámara de vacío; (figura 2: Esquema EBR). La película es blanco y negro
103
porque los rayos catódicos no tienen color sino intensidad de luz. Luego las tres películas correspondientes al rojo, verde y azul se reimprimen en un negativo común con los sistemas de Kodak o Technicolor (a través de filtros). Una de las principales ventajas es que la exposición de cada cuadro de cada componente de color se realiza en tiempo real. Las desventajas son los costos de materiales y un notable incremento de contraste en el resultado final que debe ser corregido meticulosamente. Quedan pocos de estos equipos creados en lo '70s por 3M Corporation. La mayoría pertenecen a Four Media Company (4MC) en North Hollywood y en el Sony Pictures High Definition Center (SPHDC) de Culver City. Fue la primera empresa en transferir HDCAM y Cine Alta a 35 mm. También pueden hacer up-convertion de PAL y NTSC a HDCAM (60 campos/seg.) y CineAlta (24 fps). Los costos son de US$ 7 por segundo.
■ Otros sistemas. El ingenio popular y la búsqueda de reducción de costos han llevado a los realizadores a filmar monitores de PC, o proyectado video en pantallas semitraslúcidas despulidas a láser o filmar el chip 104
Digital Micromirror (DMD) de Texas Instruments con 500 mil píxeles de 16 micrones; filmar pantallas de plasma de HiDef; monitores planos de computadora en HiDef, etc. ■ Algunas recomendaciones. Para transferir a fílmico, la grabación en video debe realizarse preferentemente en PAL definición estándar, en Varicam de Panasonic o en CineAlta de Sony a 24 fps. Los resultados de NTSC a 24fps todavía no son muy alentadores. El ideal es video digital, pero nada impide que se haga a partir de video analógico partiendo desde Video 8, pasando por SVHS y terminando en Betacam SP. Habrá aumento notable de ruido magnético, pero no necesariamente se la debe descartar como alternativa. En todos los casos NO se deben usar incrementos de ganancia y de detalle en las cámaras. NO se debe incrementar la velocidad del obturador. NO se deben agregar filtros "fog" o las típicas medias de nylon frente a las matte boxes. Eso se hace electrónicamente en forma posterior. En la postproducción, bajo ningún concepto, se debe quitar un campo para dar "film look", ya que ese aspecto será obtenido cuando se transfiera realmente a fílmico. La corrección final de color debe ser convenida y arreglada con el laboratorio que procese el film. Recomendamos utilizar películas 35mm Kodak 5245 o Fuji F-63D para la transferencia. © Jorge Ricaldoni
105
ARMADO DE UNA ISLA DE EDICIÓN
Hoy día tenemos posibilidades muy diversas y accesibles para armar nuestra propia isla de edición digital no-lineal. Para ello tenemos que tener muy en claro, para que la queremos usar y con que presupuesto contamos. De estos dos aspectos dependerá la placa de captura y el tipo de plataforma con que trabajemos PC o MAC. Está última elección dependerá fundamentalmente de nuestra elección personal, los sistemas operativos de Mac son más estables que los de Windows además de trabajar en perfecta conjunción con su hardware ya que fueron diseñados para trabajar juntos. Aún con procesadores más lentos las computadoras Apple son más rápidas que las PC por utilizar menos instrucciones que Windows En el caso de la PC disponemos de varias opciones de calidad, precio y prestaciones. El problema que los sistemas Windows no son tan confiables y a esto se suma de que funciona sobre hardware de diferentes fabricantes y que no siempre el usuario utiliza versiones originales, Podemos incorporar placa de captura para video analógico (con entradas de video compuesto y súper vhs ), placas para video analógico y digital ( con entradas de video compuesto, súper vhs y firewire), placas únicamente con entrada digital (firewire o USB) y placas analógico-digitales con calidad broadcast (entradas y salidas por componentes analógicos y digitales SDI). A nivel de software, Mac utiliza principalmente FINAL CUT pero también puede trabajar con AVID o Premiere PRO CS5. En PC disponemos de AVID, PREMIERE PRO, EDIUS, AVID LIQUID Y SONY VEGAS entre otros. La elección del software dependerá de cual nos resulta más fácil, cómodo y rápido de manejar y por supuesto de la exigencia del proyecto a editar.
106
Los componentes mínimos de la isla son los siguientes : una video casetera digital miniDV o del formato en que podamos trabajar y de ser posible, norma PAL B. Un monitor de la misma norma o un televisor convertido o equipado con un transcodificador PAL B – PAL N. La computadora propiamente dicha y si es posible, un scanner. Los programas actuales consumen bastantes recursos a la CPU, por lo cual tendremos que contar con un mínimo de 2 Gigabyte de RAM y Gb. de memoria en una placa de video 3D. Varios puertos USB 2.0. Es fundamental instalar dos discos rígidos: uno para todo lo que es sistema y programas y otro para la función SCRATCH DISKS que determina cual es el disco que va a capturar video. El motivo por el que es conveniente disponer de un disco exclusivamente para video es que a medida que vamos editando, capturamos y borramos los distintos archivos que componen nuestro proyecto. Esto va dejando “espacios vacíos” en el disco donde luego se ubicaran otros archivos y que harán más lenta la búsqueda de los archivos en el disco rígido. Si esto sucede en el disco de sistema, todo el funcionamiento general de la máquina será más lento. Esto es lo que se llama habitualmente como “disco fragmentado” y para solucionarlo se utiliza una herramienta de Windows o de otro programa para “defragmentarlo”. La frecuencia con que se debe defragmentar el disco va a depender del uso que le demos a la isla pero es útil hacerlo por lo menos cada treinta días.
107
Representación gráfica de un disco fragmentado En los sistemas Mac por la manera en que se formatean los discos casi nunca tenemos el problema de la fragmentación. A la hora de seleccionar que tipo de disco instalar existen varias opciones, lo más importante, como dijimos anteriormente, en un disco que va a ser usado para captura de video es que “lea y escriba” la información a la mayor velocidad posible. Discos norma EIDE: estos son los discos más económicos, de uso hogareño o semi-profesional, solo pueden ser usados para archivos de sistema pero no para capturar video por ser extremadamente lentos, corren a una velocidad de 5.400 revoluciones. Actualmente cuando ya superan los 40 GB funcionan a una velocidad de 7.200 revoluciones. Estos últimos son una buena alternativa para video pero están siendo reemplazados en el mercado por los Serial Ata Discos SCSI (pronúnciese scasi): norma de los años 80 aún es utilizada en equipos de alta gama. Son discos caros pero de excelente rendimiento y prestación. Se caracterizan por usar una placa controladora que manejaba hasta siete dispositivos SCSI (hoy día maneja hasta dieciséis). Esta placa se ocupa de controlar los discos liberando a la CPU de esta actividad. Ante cualquier requerimiento de información por parte de esta la placa responde inmediatamente buscando el periférico correspondiente y transmitiéndole la orden.
108
Los últimos modelos alcanzan velocidades de 15.000 revoluciones por minuto. DISCOS SERIAL ATA: una de las normas más nuevas, data del año 2002. Cuentan con una tecnología de corrección de errores que los hace muy confiables y pueden ser conectados desconectados con la computadora encendida. Junto con los SCSI son los más utilizados profesionalmente. DISCOS FIREWIRE: Desarrollados e instalados como standard en los sistemas Mac poseen una excelente prestación. Los discos pueden ser interconectados en “RAID” (Redundant Array of Independent Disks, conjunto redundante de discos independientes),de manera tal que funcionen como un solo disco de
mayor potencia. Existen diferentes tipos de Raid dependiendo como se quieran usar.
109
PROGRAMAS DE EDICIÓN: PREMIERE PRO El soft de edición dependerá fundamentalmente de la placa de captura y de la plataforma elegida. El más popular es quizá el PREMIERE PRO de la firma Adobe Systems Incorporated. A conocer su manejo nos referiremos en esta sección y trabajaremos con la versión Pro 1.5.cuya interface es muy similar a la de las versiones PRO 2.0 y PRO CS3 (Para aquellos que deban trabajar con la versión 6.0 o 6.5 deberán usar el modo SINGLE TRACK para editar como si fuera la versión PRO). Cuando ejecutamos el programa por primera vez este nos pedirá algunos datos para permitirnos continuar: 1) Sistema en que está grabado nuestro video (DV PAL, NTSC, 4:3 o 16:9). 2) Ubicación del proyecto en el disco. 3) Nombre del proyecto.
110
Una vez que le hayamos ingresado estos datos nos dejará entrar al programa propiamente dicho. Lo primero que nos presenta es su interfaz gráfica en la que veremos como explicamos anteriormente, la ventana de proyecto (Fig.1), los monitores virtuales( Fig.2) y la línea de tiempo (Fig. 3).
Figura 1
Figura 2
111
Figura 3 Nuestro primer paso será capturar (digitalizar) las tomas de nuestro video en el disco rígido. Para ello desplegamos la ventana FILE – CAPTURE o usamos el atajo de teclado F5. Se abrirá la ventana de captura que cuenta con controles para la cámara o vídeo casetera, una pantalla donde veremos la imagen que vamos a capturar, ventanas indicadoras de TC y diferentes botones que vamos a ver en detalle. El primer display digital comenzando por la izquierda nos muestra el TC de la cinta que estamos reproduciendo. El segundo nos indica el TC IN (Entrada) de la toma a capturar. El tercero el TC OUT (Salida) Por último el cuarto nos indica la duración total del clip que vamos a capturar. Por debajo de ellos a la izquierda encontramos dos signos de “llaves”, { } el de apertura lo usamos para marcar el TC de entrada y el de cierre el de salida de la captura.
112
A la derecha de los controles de la vcr encontramos un botón rojo, el botón de RECORD (atajo de teclado G), con el podremos capturar directamente sin necesidad de marcar IN y OUT. Debajo de RECORD se encuentra el casillero que habilita el DETECTOR DE ESCENAS. Cuando está habilitado y ponemos a capturar todo el vc, el detector de escenas cortará la captura en clips de acuerdo a los cortes de cámara que encuentre en la cinta. Arriba y a la derecha encontramos un menú desplegable que nos permitirá seleccionar si capturamos video y audio juntos o por separado. Abajo a la derecha disponemos de dos botones más para captura: 1) TAPE que captura la cinta completa. 2) IN/OUT que captura solo de acuerdo al TC de entrada y salida
VENTANA DE CAPTURA DE PREMIERE PRO La primer indicación que debemos darle al programa es donde vamos a guardar nuestras imágenes para que dirija la captura a donde le indiquemos. Para ello debemos habilitar la pestaña de arriba a la izquierda denomina SETTINGS.( Fig. 4) 113
Fig. 4
En el menú de la derecha le indicaremos donde queremos archivar el video y donde el audio. Lo normal es capturar ambos en el mismo disco. Antes de iniciar la captura ingresaremos el nombre o número de la cinta a utilizar. Capturamos nuestras imágenes presionando RECORD, TAPE o IN/OUT . La pantalla de Premiere nos indicará cuanto disco nos queda en tiempo y capacidad. Cuando termine la captura el programa nos preguntará el nombre con que identificaremos el archivo , si oprimimos el botón de CANCEL el clip no será guardado en el disco. Al darle el nombre al archivo Premiere ubicará automáticamente el clip en el BIN (Fig.1). Por defecto cada vez que abrimos un nuevo proyecto, el programa abre una secuencia llamada secuencia 1. Cuando ya tenemos los archivos en el bin procederemos a editar.
114
Si queremos traer al bin algún archivo de otro proyecto o un archivo de audio o gráfico desplegamos el menú FILE – IMPORT o hacemos doble clic en un punto vacío del BIN. Para la captura de audio sugerimos usar algún programa para convertir archivos de CD a .wav o .mp3. Para comenzar a editar nuestro video deberemos ir ordenando los clips en la línea de tiempo de acuerdo a la edición que tengamos que hacer. Para elegir las tomas y “pegarlas” lo mejor es trasladarlas al monitor SOURCE. El clip puede ser arrastrado hasta el monitor o haciendo doble clic en el mismo aparecerá en el monitor source. Los dos monitores virtuales cuentan con controles de vcr para reproducir el clip y una serie de botones que varían entre ambos monitores
El monitor source abajo a la derecha tiene un icono que representa una tira de película y un parlante, este es el conmutador de audio y video, al seleccionarlo va alternando mostrando solo el icono de la película, solo el 115
del audio o ambos a la vez. Este botón es para seleccionar si volcaremos al timeline solo el video o solo el audio del clip o ambos al mismo tiempo. A su izquierda se encuentran otros dos botones, el primero se denomina OVERLAY y es con el que aplicaremos nuestros clips al timeline a partir de la ubicación del cursor. El segundo, INSERT. La diferencia entre ellos que cuando usamos OVERLAY en el medio de dos clips el nuevo video reemplazará los que ya estén en la línea de tiempo de acuerdo a la duración del clip. En cambio si usamos INSERT el nuevo clip empujará al resto de los clips sin borrarlos. Sobre la izquierda del panel de comandos del monitor volvemos a encontrar las “llaves” para marcar los puntos de entrada y salida del clip. También como atajo de teclado podemos usar los botones I (para marcar la entrada) y O (para marcar el punto de salida). Estos atajos también pueden usarse en la ventana de captura. En el monitor RECORD disponemos de controles similares con la diferencia que en vez de los botones Insert y Overlay tenemos otros denominados LIFT y EXTRACT. La función de LIFT es “levantar” una toma que tengamos entre un IN y un OUT dejando un “hueco” en el Timeline. En cambio EXTRACT cuando levanta una toma entre dos puntos desplaza todos los clips hacia la izquierda no dejando ningún espacio entre ellos. Para volcar una imagen a la línea de tiempo podemos hacerla de cuatro maneras: 1) Arrastrar el clip directamente del BIN. 2) Arrastrar el clip desde el monitor source al timeline. 3) Arrastrar el clip desde el monitor source al monitor record. 4) Pinchando el botón de OVERLAY en el monitor source (esta es la forma más profesional y precisa).(Ver ilustración Pág. Siguiente).
116
Añadiendo clips en el Timeline
Si queremos movernos cuadro por cuadro en cualquiera de los monitores podemos usar las teclas de flechas de nuestro teclado. Una vez que visualizamos el clip elegido es conveniente marcar los puntos de entrada y salida del mismo, si no sabemos cual va a ser nuestro punto exacto de salida podemos marcar solo el de entrada y ajustarlo luego en la línea de tiempo. El botón Overlay siempre ubicará nuestro clip delante del cursor del Timeline por lo que debemos asegurarnos que este se encuentre ubicado exactamente en el final del clip anterior. Por defecto Premiere siempre comienza a ubicar las tomas en la pistas de video y audio 1 que es lo más conveniente pero en realidad es factible utilizar cualquiera teniendo en cuenta que siempre la pista de arriba “tapará” a la de abajo. A medida que ubicamos los clips en el timeline podremos ir viendo nuestro armado en el monitor de record.
117
Podemos variar la duración de las tomas en la linea de tiempo, simplemente ubicando la herramienta de selección en las puntas y con botón izquierdo apretado arrastrar hacia izquierda o derecha ampliando o reduciendo la duración del clip. Este no es un método muy preciso pero práctico en algunos casos, lo que se debe tener en cuenta es que nunca podremos estirar un clip más allá de lo capturado. Hasta aquí hemos realizado nuestra edición por corte pero si lo deseamos podemos pasar de un clip a otro por medio de una transición. Generalmente ubicada como otra pestaña en la ventana de proyecto está la ventana de “efectos”. Cuando la desplegamos nos mostrará varias carpetas en las que clasificará los efectos por categoría.
Ventana efectos
118
De abajo hacia arriba se ubican las carpetas: VIDEO TRANSITIONS, VIDEO EFFECTS, AUDIO TRANSITIONS, AUDIO EFFECTS y PRESETS. Para elegir una transición desplegamos la carpeta correspondiente que nos mostrará sub-carpetas por categoría. Elegiremos la transición CROSS DISSOLVE, pinchamos con el mouse en ella y sin soltar el botón izquierdo la arrastramos hasta el punto de unión de los dos clips. (Ver figuras). Ahora veremos un gráfico relacionando los dos clips indicando que estos están unidos por una transición. Es probable que en el timeline aparezca sobre la transición una línea roja. De esta manera el programa nos esta avisando que no puede reproducir la transición en tiempo real y que para poder verla necesitará realizar un cálculo. Habrá que apretar la tecla ENTER para que realice el RENDER de la transición o ir al menú SEQUENCE – RENDER WORK AREA.
PASO 1: elegir transición 119
Paso 2: arrastramos la transición hasta el corte
Paso 3 : transición ubicada
120
Variando la velocidad de un clip
Es posible variar la velocidad de reproducción de un clip para obtener un efecto de ralenti o de acelerado. Para ello seleccionemos en el timeline el clip sobre el que queremos alterar la velocidad y con botón derecho seleccionemos la opción SPEED/DURATION. Al seleccionarlo nos abrirá una ventana de dialogo en la que ingresaremos varios datos de acuerdo al efecto que queremos lograr. El primer casillero (speed) esta graduado en porcentaje, 100% es considerada la velocidad normal de nuestro clip. Para obtener un efecto de ralentado debemos cambiar el porcentaje por uno más bajo, por ejemplo 50%.Con este valor el clip durará el doble y se reproducirá a la mitad de la velocidad normal.
Ventana Speed/Duration
121
Si queremos obtener el efecto de acelerado hacemos exactamente lo contrario. Ingresamos el valor 300 en la ventana speed y el clip se acelerará. Para obtener la marcha en reversa debemos hacer clic en el casillero REVERSE SPEED. Es aconsejable cuando reproducimos un clip en slow motion que le saquemos un campo a este para que no parpadee en la reproducción. Seleccionamos el clip en el timeline y con botón derecho elegimos la opción FIELD OPTIONS.
Ventana Field Options Dentro de esta opción seleccionamos FLICKER REMOVAL. Es factible usar esta opción para obtener el efecto “cine” sacando un campo. Por supuesto la resolución de nuestra imagen se reducirá a la mitad. Para la edición de sonido debemos trabajar con los clips de audio de la misma forma que los de imagen y regulamos el volumen de cada pista abriendo la ventana WINDOW – AUDIO MIXER.
122
Mezclador de audio
AGREGANDO TITULOS
Para agregar un título en forma rápida y simple a nuestra edición desplegamos el menú FILE – NEW TITLE o el atajo de teclado F9. Se abrirá el editor de títulos:
123
EDITOR DE TITULOS
Usando el botón T escribimos el título deseado y con la herramienta de selección lo ubicamos en la pantalla. A la derecha la ventana PROPERTIES es la que nos dará opciones para elegir tipo de letra, tamaño, borde, sombra, etc. Una vez escrito nuestro título lo guardamos con la opción SAVE AS y cerramos la ventana del editor de títulos. El título aparecerá en el bin, lo arrastramos a la pista de VIDEO 2 ubicándolo sobre el clip de VIDEO 1 y se transparenta automáticamente cuando Premiere detecta que es un gráfico con CANAL ALFA. Si queremos que entre y salga por fundido añadiremos transiciones en los extremos como lo vemos en la figura.
124
Añadiendo títulos
125
SITIOS WEB DE UTILIDAD www.offlinecursos..com.ar www.blog-offlinecursos.com.ar www.clubpremiere.com.ar www.tvyvideo.com www.swisseffects.ch www.adobe.com www.apple.com www.pinnaclesys.com www.sony.com www.terran-int.com www.avid.com www.dvcentral.org www.devworld.apple.com/dev/FireWire www.sonic.com www.mpeg.org www.digidesing.com
Consultas técnicas :
[email protected]
126
GLOSARIO DE TERMINOS Termino comúnmente usado en formatos de video digital. 4:2:2
Commonly used term in digital video format. For every 4 4:2:2 luminance samples, there are 2 samples of each color channel
Por cada 4 muestras de luminancia se hacen también 2 muestras de cada canal de color Igual al 4:2:2 pero con el agregado de un canal llave
4:2:2:4
Same as 4:2:2 but with the addition of a key channel which is sampled 4 times every 4 samples of the luminance channel
4:2:2:4
que es muestreado 4 veces por cada 4 muestras del canal de luminancia
4:4:4
Similar to 4:2:2 but for every 4 luminance samples, there also 4 4:4:4 color samples
Similar al 4:2:2 pero por cada 4 muestras de luminancia hay también 4 muestras de los canales de color Similar al 4:2:2:4, pero por cada 4 muestras de
4:4:4:4
Similar to 4:2:2:4, but for every 4 luminance samples, the color 4:4:4:4 and key channels are also sampled 4 times
luminancia hay también 4 al canal llave y a los canales de color
ABR
Available Bit-Rates
Velocidades de Transferencia de Bits Disponibles Una técnica de edición de video tape en la que las escenas son reproducidas alternativamente
A - B Roll
Videotape editing arrangement where scenes on tape are played alternately on VTRs A and B and recorded on VTR C.
A - B Roll
en los VTRs A y B y grabadas en el VTR C. (Obteniendo en este ultimo y si se quiere una mezcla de las escenas de los otros 2) Adjetivo que describe cualquier señal que varia
Analog
Adjective describing any signal that varies continuously as opposed to a digital signal. Also any system or device which operates primarily on analog signals
continuamente, al contrario que una señal digital. Analógico/a También se refiere a cualquier dispositivo que opera principalmente con señales analógicas Es otra denominación para componentes de video, como RGB (rojo, verde, azul), Y (luminancia),
Analog Components (2)
Another name for component video, such as RGB o Y, R-Y, B-Y Componente R-Y (diferencia de color, rojo), as opposed to digital component video s analógicos. A-Y (diferencia de color, azul). Como oposición a los componentes digitales. Es el almacenamiento fuera de línea de producción
Archive. (2)
Off-line storage of video / audio onto backup tapes , floppy disks, optical disks, etc.
Archivo.
de video o audio en cintas de backup, discos "floppy", discos ópticos, etc. Elementos o defectos Indeseables en una imagen de video
Artifacts. (2)
Undesirable elements or defects in a video picture. These may occur naturally in a video process and must be eliminated in Defectos. order to achieve a high-quality picture.
. Estos defectos pueden ocurrir naturalmente en el proceso de video y deben ser eliminados para asegurarse una alta calidad de la imagen.
127
Código Americano estandarizado para el intercambio
ASCII (2)
American Standard Code for Information Interchange. A standard code for transmitting data , consisting of 128 letters, numerals, symbol and special codes represented by a unique binary number.
de información. Es un código estandarizado para la ASCII
transmisión de datos. Consiste de 128 letras, numerales, símbolos y códigos especiales representados, cada uno, por un único número binario. Es la relación entre el ancho y el alto de la imagen de TV.
Aspect ratio (2)
The ratio of TV picture with to height. In NTSC and PAL video, Relación de the present standard is 4:3:2. aspecto.
En video NTSC y PAL, la relación presente estándar es de 4/3 Es un modo de edición que reemplaza todas
Assembly edit (assembly mode) (2)
An editing mode that replace all signals on the record tape (video, audio, control, and time code tracks) with new signals.
Edición de montaje.
las señales en una cinta de grabación (video, audio, control, y pistas de código de tiempo) por señales nuevas. Es la organización que define los sistemas
ATSC (3)
Advanced Television System Committee
ATSC
de televisión digital (incluyendo HDTV) de los Estados Unidos. Televisión de Avanzada. Televisión digital de alta
ATV (2)
Advanced television. High resolution digital television, several ATV versions of which are in proposal stages in the US and Europe.
resolución muchas de las cuales son propuestas en EE.UU. y Europa. Es un término que se utiliza para describir sonidos
Audio (4)
A term used to describe sounds within the range of human hearing. Also used to describe devices which are designed to operate within this range (20 Hz to 20 kHz).
que estén dentro del rango de audición humano. Audio (o frecuencia de También se utiliza para describir dispositivos Audio) que fueron diseñados para operar dentro de este rango (20 hz. a 20 Khz.)
Audio crosspoint module (2)
Módulo Circuit board containing crosspoints for audio signal switching. "crosspoint" para audio.
Panel de circuitos que contiene puntos de cruce para conmutar señales de audio. Es un dispositivo utilizado para realizar una replica
Audio distribution amplifier (audio DA) (2)
Amplificador A devise used to replicate an audio signal, typically providing 6 de outputs, each of which is identical to the input signal. distribución de audio.
de una señal de audio, provee típicamente 6 canales de salida, cada uno de los cuales es idéntico a la señal de entrada. Es un modo de operación en el que los conmutadores
Audio follow Video (AFV) (2)
An operational mode in which audio and video switchers are tied together, so that when the operator selects the video AFV. source, the audio simultaneously and automatically switches to the same source.
de audio y video se unen, como para que cuando el operador seleccione la fuente de video, el audio se seleccione también simultáneamente de la misma fuente.
Audio Frequency
Frequencies within the range of human hearing: 20 to 20000 Hz
Audio frecuencia
Frecuencias dentro del rango auditivo humano: de 20 a 20000 hz.
128
En edición de video, el sistema de edición graba automáticamente todas las ediciones indicadas
Auto assembly (2)
In video editing, the editing system automatically records all edits listed in the edit decision list. This allows the operator to complete the list and let the system do the recording automatically.
en la lista de edición. Auto montaje. Esto permite al operador completar una lista de decisión de edición y, entonces, dejar que el sistema de edición realice toda la grabación En operaciones de keying en video, es la imagen
Background (program video) (2)
In video keying operations, the main "program" picture into Fondo / which keyed video is inserted. Usually the image with the lowest Background priority in an effect; i.e., the bottom layer.
de programa principal en la que se inserta el video key. Generalmente la imagen de menor prioridad en un efecto, por ejemplo: la capa inferior. Es una característica del chroma key, que toma el color
Background color cancellation (BCC) (2)
Cancelación A chroma key feature which senses the color of the chroma key del backing and replaces it in the chroma key scene with a background complementary color. As a result, the two colors cancel each de color. other. (BCC)
del fondo y lo reemplaza en la escena del chroma key por un color complementario. Como resultado, ambos colores se cancelan entre sí. Una característica de la Chroma key (llave cromática)
Background color suppression (BCS)
A chroma key feature which senses the color of the chroma key Supresión del que detecta el color del fondo y lo reemplaza con backing and replaces it with an adjustable luminance level. This color de prevents any of the backing color from showing in the chroma fondo(BCS) un nivel ajustable de luminancia. Esto previene que key cualquier color del fondo exponga al Chroma key Es un generador de video que produce una salida
Background generator (2)
A video generator that produces a solid-color output which can Generador de de color sólido que puede ajustar el tinte, el croma be adjusted for hue, chroma, and luminance. background. y la luminancia.
Background mix
Background Transition
A dissolve between two background (program) video pictures in Mezcla de which one gradually replaces the other. background.
Es la disolución entre dos imágenes background de video en la que gradualmente una reemplaza a la otra.
Una transición entre señales seleccionadas Transición de A transition between signals selected on the preset background background en el background preconfigurado y los Buses de and program background buses of a switcher (fondo / ultimo plano) background de programa de un selector 1. Video que forma una escena de background en la que se puede insertar un key.
Background video (2)
1. Video that forms a background scene into which a key may be inserted. 2. A solid-color video output generated by the background generator within a device, such as a production switcher, for use as background video in key effects.
Video background.
2.Es una salida de video de color sólido que generada por un generador de background dentro de un dispositivo como un switcher de producción, para utilizarlo como un video de background en efectos key.
Background wash (2)
A color matte effect in which the matte color graduates from dark to light or from one color to another.
background wash
Es un efecto de color mate en el que los colores mate se gradúan de oscuros a luminosos o de un color a otro. Es una transición en la que una imagen de video
Background wipe (2)
A transition in which a background (program) video picture is added, removed, or replaced with another video picture as a geometric pattern moves across the screen.
background wipe
de background se suma, se retira o se reemplaza por otra imagen de video mientras un dibujo geométrico se mueve a través de la pantalla.
129
Es un grupo de efectos especiales de un manipulador Bends (2)
A group of digital picture manipulator special effects in which the video image is twisted about an axis.
Torsion / Doblado.
digital de imágenes en el que la imagen de video se torsiona alrededor de un eje. Nombre informal para Betacam, es un formato de grabación de videocintas profesional
Beta (2)
Informal name for Betacam, a professional color difference videotape recording format that uses the Y, R-Y, and B-Y color Beta. difference components. Betacam is a registered trademark of the Sony Corporation.
por diferencia de color, que utiliza los componentes de diferencia de color Y, R-Y, y B-Y. Betacam es una marca registrada de SONY.
Betacam / Betacam Format
Portable camera/recorder system and related equipment originally developed by Sony
Betacam / Formato Betacam
Un sistema de cámara/grabadora portátil y equipamiento asociado desarrollado originalmente por Sony Es un sistema de numeración en base dos que utiliza
Binary (2)
A base-2 numbering system using the two digits 0 and 1 (as opposed to ten digits (0 - 9) in the decimal system)
Binario
los dos dígito, 0 y 1 (en oposición al sistema decimal de 10 dígitos (0-9).)
BIST
Built-in Self Test
Auto - Test Incorporado Dígito binario. Es la unidad más pequeña de datos
Bit (2)
Binary digit. The smallest unit of data in a digital system. A bit is a single one or zero. A group of bits, such as 8 bits or 16-bits, bit compose a byte.
en un sistema digital. Un bit es un único dígito 1 o 0. Un grupo de bits, como por ejemplo 8 bits o 16 bits es un byte. Es el nivel mas bajo de luminancia transmisible
Black level (2)
The lowest transmittable luminance level that can occur during the active picture portion of a video signal. When viewed on a black level monitor this signal level portrays the color black.
que ocurre durante la porción de imagen activa de una señal de video.
Broadcast
In general terms, any transmission sent simultaneously to more Difusion than one receiver
En términos generales una transmisión enviada a mas de un receptor en forma simultanea Sub-portadora de 10 ciclos de 4.43 MHz, ubicada
Burst (colour burst) (1)
Ten cycles of 4.43 MHz subcarrier, placed near the end of horizontal blanking, which is the colour reference for the colour Burst signal.
"cerca" del fin del borrado horizontal, que es la referencia de color para la señal de color. El "timing" del color se refiere al ajuste de la fase de la Sub-portadora. Es un pulso utilizado para abrir la subportadora
Burst flag (BF) (2)
A pulse used to gate the color reference subcarrier (burst) onto the back porch of each horizontal blanking interval. Also called BF burst gate (BG).
de referencia de color (burst) en el "back porch" de cada intervalo de borrado horizontal. También denominado "portal del burst".
Burst vector (2)
Camera control unit (CCU) (2)
In composite video signals, the amplitude and angle of the color vector del reference signal. burst.
Unidad de A separate electronics frame that supplies power and control to control de a camera head. The CCU also provides encoding and/or camara. processing of the video signal (CCU)
En señales de video compuesto, es la amplitud y el ángulo de la señal de referencia de color.
Es un bastidor electrónico separado que provee alimentación y control al cabezal de una cámara.
130
Es la parte de una cámara de video que contiene Camera head (2)
The portion of a video camera containing the lens and pickup tubes which focus on and scan a scene.
Cabezal
el lente y el tubo receptor que realiza el enfocado y la toma de la imagen.
Caption (2)
Caption camera (2)
Text or titles to be inserted in video.
Subtitulado.
A camera dedicated to imaging text or titles.
cámara de subtitulado.
Textos o títulos que se insertan en un video. Es una cámara dedicada a la creación de imágenes de textos o títulos. Es un contenedor de plástico que posee una cinta
Cassette (2)
A self-contained plastic housing holding video or audio tape.
Cassette de video o audio. Tubo de imágenes. Es un tubo, generalmente de vidrio,
Cathode ray tube (CRT)(2)
Picture tube. A tube, usually glass, which is narrow at one end Tubo de and widens at the other to create a surface onto which pictures rayos can be projected catódicos.
que es angosto en una punta u se va ensanchando en la otra para crear una superficie en la que se puedan proyectar imágenes.
CATV
Cable TV
TV por cable Dispositivo de carga acoplada. Es un dispositivo
CCD(2)
Charge coupled device. A device that stores samples of analog signals. Used in cameras and telecines as an optical scanning CCD mechanism
que almacena muestras de señales analógicas. Utilizado en cámaras y telecines como un mecanismo óptico de toma.
CCG
CCIR (1)
Computer Clock Generator
Generador de señal Reloj para Computadora
Abbreviation for International Radio Consultative Committee. This group sets standards for the PAL television system.
CCIR
Abreviación del Comité Consultivo de Radio Internacional. Este grupo establece las normas para el sistema de televisión PAL.
CCU (2)
Central processing unit (CPU) (2)
Character Generator (1)
Chroma gain (chroma, color, saturation) (2)
Camera control unit
CCU
The primary data processing section of a computer.
Unidad La sección primaria de procesamiento de datos central de procesamient de una computadora. o. (CPU)
A devise used to generate text or captation for television broadcast.
Generador de caracteres.
In video, the gain of an amplifier as it pertains to the intensity of Ganancia de colors in the active picture. croma.
Unidad de control de cámara.
Es un dispositivo utilizado para generar textos o títulos para transmisiones de TV. En video, la ganancia de un amplificador que se refiere a la intensidad de los colores en el video activo. Es un efecto de key de video en el que una señal de
Chroma key (color key) (2)
A video key effect in which one video signal is inserted in place Chroma key of areas of a particular color in another video signal.
video se inserta en áreas de un color particular en otra señal de video. En ediciones de desktops, es un apuntador de una pieza
clip (2) 4
4. In desktop editing, a pointer to a piece of digitized video or audio that serves as source material for editing.
clip
de video o audio digitalizado que sirve como material fuente de edición.
131
Ajuste de la intensidad de cada color primario para lograr la mejor representación posible de Color balance (2)
Adjustment of the intensity of each primary color to achieve the Balance de best possible representation of the entire color spectrum. White color. is used as a reference for setting color balance.
el espectro completo de colores. El color blanco se utiliza como referencia para establecer el balance de color. Es una señal de video de prueba muy utilizada para
Color bars (2)
A video test signal widely used for system and monitor setup. Barras de Contains bands of color with fixed amplitudes and saturations. color.
la puesta a punto de sistemas y monitores. Contiene bandas de color con amplitudes y saturaciones prefijadas. Es una señal de video compuesto que produce una
Color black (2)
A composite video signal that produces a black screen when viewed on a television monitor.
Color black
pantalla negra cuando se visualiza en un monitor de televisión. Es una representación digital de una señal analógica componentes, en general, Y, B-Y, R-Y. Los parámetros
Component digital (2)
A digital representation of a component analog signal set, most de codificación están especificados por often Y, B-Y, R-Y. The encoding parameters are specified by Digital ITU-R BT.601-2 (CCIR 601). The parallel interface is specified Componente. ITU-R BT.601-2 (CCIR 601). La interfase en paralelo by ITU-R BT.656 (CCIR 656) and SMPTE 125M. está especificada por ITU-R BT.656 (CCIR 656) y SMPTE 12 Es un método de postproducción que graba y procesa
Component digital post production (2)
A method of post production which records and processes video completely in the component digital domain. Analog sources are converted only once to the component digital format and then remain in that format throughout the post production process.
video completamente en el dominio de componentes Postproducci ón digital digitales. La fuentes analógicas son convertidas solo componentes . una vez a formato digital y se mantienen en ese formato durante el proceso de postproducción. Es la salida codificada de una cámara, un grabador de video, etc., donde cada señal roja, verde, azul
Composite Video (4)
The encoded output of a camera, video tape recorder, etc., whereby the red, green, blue, horizontal and vertical sync are transmitted simultaneously down one cable.
Video compuesto.
y sincronismos vertical y horizontal se transmiten simultáneamente por un solo cable.
Compression 2 (2)
Control Track (2)
Es la reducción del tamaño de los archivos de datos 2. Reduction of the size of digital data files by removing Compresión. redundant information (non-lossy) or removing non-critical data digitales por la extracción de la información redundante 2 (lossy). o quitando los datos no críticos.
The area on a videotape where frame pulses are recorded.
Pista de control
El área sobre el videotape donde los pulsos de los cuadros son grabados, Un pulso colocado en una cinta de video por una VTR para
Control track frame pulse. (2)
identificar la locación del cuadro en el videotape. A pulse laid down on videotape by a videotape recorder to Pulso identify the frame locations on the videotape. This enables the controlador VTR to lock up correctly framed during playback. de imágenes. Esto le permite a la VTR que se "enganche" correctamente cuando sea el momento de la reproducción.
132
Es un video digital componentes que se ajusta a la norma
D1 (4)
A component digital video recording format that conforms to the CCIR-601 standard. Records on 19 mm magnetic tape. (Often D1 used incorrectly to indicate component digital video).
CCIR-601. Graba en cinta magnética de 19mm. ( se utiliza erróneamente para indicar video digital componentes)
D2 (4)
D3 (4)
D/A
DEFAULT
A composite digital video recording format. Records on 19 mm D2 magnetic tape.
Es un formato de grabación de video digital compuesto . Graba en cinta magnética de 19mm Es un formato de grabación de video digital compuesto.
A composite digital video recording format. Records on 1/2" magnetic tape.
D3
Digital to Analogue Conversion
Digital/Analóg Conversión analógica / digital ico
Graba en cinta magnética de 1/2".
The setup condition existing when a device is first powered-up Por defecto
La configuración existente al encender un dispositivo Es el proceso de edición y producción de video con
desktop video (2)
Video editing and production done using standard desktop computing platforms running add-on video hardware and software.
desktop video la utilización del escritorio estándar de una PC funcionando sobre un software y un hardware de video. Circuiteria o circuitos en los cuales las señales de datos
Digital
Circuitry in which data carrying signals are restricted to either of Digital two voltage levels, corresponding to logic 1 or 0.
están restringidas a dos niveles de voltaje, correspondientes a los valores lógicos 1 o 0
Digital Components
Dissolve
Component signals in which the values for each pixel are represented by a set of numbers
Componente s Digitales
A transition where one source of video or audio is faded down as the other is faded up
Disolucion
Señales componentes en la cual los valores de cada pixel son representados por un conjunto de números Una transición donde una fuente de video o audio es disminuida mientras que la otra es aumentada Es el término utilizado por los consumidores para describir el mecanismo de transporte AC-3, el decodificador AC-3
Dolby Digital (3)
Stereo audio system.
Dolby digital y el receptor lógico, necesarios para la reproducción precisa del sonido Multicanal Es un sistema de sonido de cuatro canales: izquierdo, central, derecho y surround. Solo requiere dos canales
Dolby Surround (3)
A four channel sound system.
Dolby Surround
de distribución. También proporciona un canal Mono y dos canales sin decodificar. Un formato de código temporal de SMPTE que cuenta continuamente 30 imágenes por segundo pero excluye 2
Drop-Frame Time Code
SMPTE time code format that continuously counts 30 frames per second but drops 2 of them from the count every minute except for every 10 minutes (drops 108 frames per hour) to mantain syncronization of time code with clock time. This is necessary because NTSC frame rate is 29.94 p/s rather than 30.
de ellas por minuto, excepto cada 10 minutos Código temporal de caída de imágenes
(expulsa 108 imágenes por hora), para mantener la sincronización del código temporal con el tiempo de reloj. Esto es necesario debido a que el sistema NTSC posee 29,94 imágenes por segundo y no 30
133
DropOut
DSPL (3)
A momentary loss or deterioration of video or audio during playback on a tape machine.
Una perdida o deterioro momentáneo de video Caída o audio durante la reproducción de una cinta
Dolby surround pro-logic. Can apply to the decoder or the Dolby DSPL Surround system.
Dolby Surround Pro Logic. El término se puede aplicar al decodificador o al sistema Dolby surround. Es el sistema de distribución que define ATSC. DTV soporta programas de televisión digital
DTV (3)
Digital television The delivery system defined by the ATSC. Televisión de alta definición o hasta cuatro programas de televisión DTV supports either one high definition digital TV programs or digital (DTV) up to four standard definition digital TV programs. digital de definición estándar. (N.T): DTV se utiliza para otros servicios de televisión digital. Copiar una señal de video a una cinta
DUB
To copy a video signal to tape, to copy one tape to another, etc. Copiado copiar cintas entre si, etc
DV
Digital Video. Digital videotape for consummer applications
Video Digital Una videocinta para aplicaciones del cliente
DVB
Digital Video Broadcasting
Transmisión de Video Digital
DVC
Digital Video Cassette
Cassette de video digital
Matsushita trademarks. Based on DV technology, with datarates of 25Mbits/s and 50Mbits/s respectively
Marcas registradas de Matsushita
DVCPRO, DVCPRO50
DVD
Digital Versatile(video) Disk
Disco de Video Digital
DVE
Digital Video Effects
Efectos digitales de video
DVR
Digital video recording / recorder
Grabador / grabación de video digital
Estos cassettes están basados en tecnología DV y poseen velocidades de transferencia de datos de 25Mbits/s y 50Mbits/s respectivamente
Unión Europea de Broadcasting. Este grupo produce EBU (1)
European broadcasting Union. This group produces technical statements and recommendations for the PAL television system.
EBU
los estatutos y recomendaciones técnicas para el sistema de televisión PAL. Un sistema de control (usualmente computarizado)
Edit Controller
A control system (usually computarized) which allows control of Controlador videotape machines, switchers and other devices remotely from de Edición a single control panel
que permite el control de maquinas de videocinta, conmutadores y otros dispositivos en forma remota desde un único panel de control
Editor interface
A serial communications link between an edit controller and peripheral editing devices.
Interfaz del Editor
Un enlace serial de comunicaciones entre un controlador de edición y los dispositivos periféricos de edición. El conector y los circuitos de interfaz en un dispositivo
Editor port
The interface connector and circuits on a device, such us a switcher, which enable communications with an edit controller
Puerto del Editor
que posibilitan las comunicaciones con el controlador de edición
134
EDL (Edit decision list)
A list of desicions accumulated in a video editor, by source,in time and out time,etc.
Una lista de decisiones acumuladas en un editor de video, Lista de decisiones de edición por fuente, tiempo de entrada y salida, etc. Abreviación de Producción Electrónica de Exteriores.
EFP (4)
Abbreviation for Electronic Field Production. Video production for commercials, television shows and other non-news purposes done outside the studio.
Es producción de video para comerciales , shows EFP de TV y otras producciones que no sean de noticias realizadas en exteriores.
Encoder
A device that forms a single composite color signal from a set of Codificador component signals
Un dispositivo que forma una única señal de color compuesta a partir de un conjunto de señales compuestas La mitad de las líneas horizontales
Field (1)
Half of horizontal lines (312.5 in Pal system) needed to create a complete picture. Two interlaced fields create a complete frame.
(en el sistema PAL 312,5) Campo necesarias para crear una imagen completa. Dos campos entrelazados forman un cuadro. Una imagen completa compuesta por dos campos.
Frame (1)
A complete picture composed by two fields. In PAL system, 625 interlaced horizontal lines of picture information.
Cuadro
En el sistema PAL, 625 líneas horizontales entrelazadas de información de imagen.
Frame Buffer
FREEZE
Freeze frame
Memory used to store a complete frame of video
Buffer de Imágenes
The ability to stop or hold a frame of video so that the picture is Congelar frozen like a snapshot
The storing of a single frame of video
Congelar imagen
A technique which permits referencing the local master synchronizing generator to outside equipment
Enfoque del Generador
Memoria utilizada para almacenar una imagen completa de video La posibilidad de detener una imagen de video de forma que la película es congelada como si fuera una instantánea El almacenamiento de una única imagen de video Una Técnica que permite referenciar
Gen - Lock
el generador local maestro de sincronía a algún equipo exterior
HD
High definition
Alta definición Es cualquier formato de imagen que tenga
HDTV (3)
High Definition Television
Televisión de una resolución más alta que la estándar, alta definición 702x480 D1 o NTSC o PAL. Un único barrido horizontal en una cámara o Tubo de Rayos
Horizontal Line
A single horizontal scan of a camera or CRT beam. A number Línea of this video scans together form a frame of video. (525 lines in Horizontal NTSC, 625 in PAL)
Catódicos. Un cierto numero de barridos de video forman una imagen de video. (525 líneas en NTSC, 625 líneas en PAL) Utilizado para crear documentos de hipertexto que son
HTML
Hypertext mark-up Language. Used to create hypertext documents that are portable from one platform to another. HTML files are text files with embedded codes that indicate hypertext links. Used for formatting documents on the WWW
intercambiables de una plataforma a otra Lenguaje Rotulador de Los archivos HTML son archivos de texto con Hipertexto códigos imbuidos que indican los vínculos al hipertexto. Utilizado para dar formato a los documentos en la WWW
135
IEEE
IEEE P-1394
(US) Institute of Electrical and Electronic Engineers. World's largest technical society.
Instituto de Ingenieros Eléctricos y Electrónicos
IEEE standard for Fiberwire protection on communications network security specifications.
Standard de IEEE
An edit mode in which the time code and control track already existing on the record tape are not replaced during the editing process
Modo inserción
La mas grande sociedad técnica del mundo
Standard IEEE para la protección de comunicaciones en red para Firewire. Un modo de edición en el cual el código de tiempo
Insert edit/mode
y la pista de control existentes en la cinta grabada no son reemplazados durante el proceso de edición
M, M Format
M II (M2), M II Format
Monochrome (black and white) (1)
Portable camera / recorder system developed by Panasonic.
M, Formato M
Second generation camera / recorder system developed by Panasonic
M2, Formato M2
The video signal which represents the brightness values (luminance) in the picture, but not the colour (chrominance) values in the picture.
Monocromo (blanco y negro)
Motion Picture Experts Group. Standards designed for video playback from CD-ROM, also provide video and audio compression.
Grupo de Expertos en Film
Sistema de cámara / grabadora portátil desarrollado por Panasonic Segunda generación del sistema de cámara / grabadora de Panasonic
La señal de video que representa los valores de brillo (luminancia) en la imagen y no los de color (crominancia).
Standards diseñados para la reproducción de video MPEG
desde un CD-ROM. También proporciona compresión de video y audio. Comité Nacional de Sistemas de Televisión que
NTSC (1)
National Television System Committee which worked on formulation of standards for present United States television system.
NTSC
trabajó en la formulación de la normalización para el presente sistema de televisión en EEUU. Es el sistema de TV color en el que el componente
PAL (1)
Phase Alternatin Line. Is the name of colour TV system in which the E'v component of burst is inverted in phase from one line to PAL the next in order to minimise hue errors that may occur in colour trans
E'v del burst se invierte de fase de una línea a la siguiente para minimizar los errores de tinte(color) que pueden sucederse en la transmisión de color. El procesamiento de una señal de video que ocurre
Pre-processing
The video signal processing that occurs before MPEG Encoding Pre-proceso (noise reduction for example)
antes del codificado MPEG (la reducción de ruido por ejemplo) Una cantidad de tiempo determinada para que las máquinas de cintas funcionen previo a la edición,
Preroll (2)
A specific amount of time allowed for tape machines to run prior to an edit in order to get them up to speed and synchronized for Preroll the edit. The amount of preroll required varies wiyh each type of VTR.
para lograr que lleguen a la velocidad y la sincronización adecuadas para la edición. La cantidad de preroll que es necesaria depende de las VTR.
RAID
Una manera de construir un server al interconectar Conjunto Redundante Redundant Array of Independent Disks. A means of constructing a server by interconnecting several hard disk units de Discos varios discos rígidos de tal forma que los datos Independient such that the data is distributed accross all of them es sean distribuidos en todos ellos
136
RAM
Random access memory
Memoria de acceso aleatorio Un valor representativo de una señal
Sample
A representative value of a signal at a chosen instant, derived from a portion of that signal
Muestra
en un instante escogido, derivado de una porción de esa señal
SAP
Secondary audio program
Programa secundario de audio
SCSI
Small computer system interface
Interfaz de sistema para computadora s pequeñas
SDTV
Standard Definition TeleVision. TV service providing a TV de subjective picture quality roughly equivalent to current 525-line Definición or 625-line broadcasts Standard
Servicio de TV que proporciona una calidad de imagen apenas equivalente a las actuales transmisiones de 525 y 625 líneas. Abreviación de Secuencial con memoriales un sistema
SECAM (1)
Abbreviation for Sequential couleur a'memorie (sequential with memory). A colour TV system with 625 lines per frame and 50 SECAM fields per second developed by France and the U.S.S.R.
de TV color con 625 líneas por cuadro y 50 campos por segundo desarrollado por Francia y la U.S.S.R. Información digital transmitida en formato serial.
Serial Digital (SDI) (4)
Digital information that is transmitted in serial form. Often used SDI informally to refer to serial digital television signals.
Utilizado informalmente para referirse a señales de televisión digital serial. Una computadora o cualquier otro dispositivo conectado
SERVER
A computer or other device connected to a network to provide a particular service (e.g. Print server, Fax server,etc) to client Servidor devices connected to the network.
a una red (por Ej., servidor de fax, servidor de impresión, etc) que proporciona servicio a clientes conectados a esa misma red
Shuttle
SMPTE
Un modo de alta velocidad de manejo de cintas
A high-speed tape-running mode that permits fast cuing or rewinding of a tape
"lanzadera"
Society of Motion picture and TV engineers
Sociedad de ingenieros de TV y películas
que permite el rebobinado o avance rápido de una cinta
En términos de componentes de TV, se refiere SMPTE Format
In component TV these terms refer to the SMPTE standards for Formato parallel analog component video inter-connection SMPTE
a los standards SMPTE para interconexión analógica paralela de componentes de video.
Source (1)
Video producing equipment such as cameras, tape recorders, or character generators.
Equipamientos para producción de video como cámaras, Fuentes. grabadoras de cintas o generadores de caracteres. Súper VHS. Un formato de video en el cual las dos partes de la señal de video VHS,
SVHS (4)
Super VHS. A video format in which the two parts of the VHS video signal, the chrominance and luminance, are transmitted Súper VHS separately providing for better picture resolution with less noise.
la crominancia y la luminancia, son transmitidas separadamente proveyendo una mejor resolución del cuadro con menos ruido.
137
Switcher/ Production Swutcher (1)
Devise that allows transition between different video pictures. May also contain special effects generators.
Dispositivo que permite la transición entre Conmutador / Conmutador diferentes imágenes de video. de producción. También puede contener generadores de efectos especiales. Una lámpara que se enciende para indicar que la fuente
Tally
A lamp which lights to indicate that the associated video source Luz de aviso de video asociada se encuentra en uso. is in use (at the front of video cameras for example) (al frente de una cámara de video por ejemplo)
Time base corrector (1)
Corrector Devise used to stabilise the video picture on replay from a tape base de machine. tiempo.
Dispositivo utilizado para estabilizar la imagen de video en la reproducción desde una máquina de cinta. Es una ventana dentro de una aplicación para edición
Timeline window (2)
A window within a video editing application where clips and other production elements can be graphically arranged to create a fully edited production.
Ventana de timeline
de video donde se pueden ordenar clips o una serie de elementos de producción para crear una producción completamente editada.
VHS (4)
YUV
Abbreviation for Video Home System. VHS is a trademark of Panasonic, Inc.
Abreviación de Sistema Hogareño de Video. VHS VHS es una marca registrada de Panasonic, Inc.
Colores Componente Y-Intensity color, U and V color components used by PAL and s U, V e Y NTSC utilizados por PAL y NTSC
Glosario cortesía de Lade Profesional
138