Universidad de Barcelona. Datos catalográficos Música y sonido en los audiovisuales. – (Comunicació activa ; 10) Notes. Notes. Bibli Bi bliogra ograffia ISBN 978-84-475-3686-3 I. Gustems Carnicer, Josep II. Col·lecció 1. Comunicació audiovisual audiovisual 2. Música 3. So © Publicacions i Edicions de la Universitat de Barcelona Adolf Florensa, s/n 08028 Barcelona Tel.: 934 035 530 Fax: 934 035 531 www.publicacions.ub.edu
[email protected] DISEÑO DE LA CUBIERTA
Quim Duran
IS BN
978-84-475-3686-3
DEPÓSITO LEGAL
B-2.432-2013
Queda rigurosamente prohibida la reproducción total o parcial de esta obra. inguna parte de esta publicación, incluido el diseño de la cubierta, puede ser reproducida, almacenada, transmitida o utilizada mediante ningún tipo de medio o sistema, sin autorización previa por escrito del editor.
ndice
Presentación Música y comunicación Lydia Sánchez Manuel Campos
La física del sonido Aikaterini Konstantinidou
Fundamentos psicológicos y emocionales del sonido en los audiovisuales Caterina Calderón Josep Gustems
Análisis de las cualidades del sonido y los elementos de la música en la expresión audiovisual Josep Gustems
Elementos expresivos y comunicativos de la voz en los audiovisuales Josep Gustems Caterina Calderón
Los recursos auditivos del cine y el audiovisual Jaume Duran
Producción y posproducción sonora en los audiovisuales Francesc Llinares
El sonido como recurso expresivo en los audiovisuales Francesc Llinares
La música en los medios: usos y características Mònica Barberá
PRESENTACIÓN
Josep Gustems Carnicer, Universidad de Barcelona Este libro es el resultado de un Proyecto de Innovación Docente de la Universitat de Barcelona (2010 PID-UB/45) cuya intención era diseñar materiales docentes para el grado de Comunicación Audiovisual, puesto que a los profesores de sonido y música de esta titulación nos resulta difícil aconsejar un libro sobre el tema. La mayoría de los volúmenes están agotados, descatalogados o son muy difíciles de conseguir; por otra parte, muchos de ellos están dedicados a la historia de la música de cine, a sus autores y a las obras más relevantes, descuidando otros géneros audiovisuales, y tampoco dedican ninguna atención a la acústica, la narrativa, las emociones, la comunicación o las nuevas tecnologías en la música, dada la novedad de todos estos temas y la obsolescencia de los contenidos p ropuestos en décadas anteriores. Debido a todos estos motivos, un grupo multidisciplinar de profesores del grado nos decidimos a elaborar un material realizado con una visión completa y multimodal, gracias a un equipo de autores que eran profesionales de diferentes ámbitos: filosofía de la comunicación, montaje audiovisual, música, psicología, física y comunicación audiovisual, y que tenían la experiencia de haber trabajado juntos en la misma facultad y en algunos proyectos de
investigación. Este libro es una completa actualización de los contenidos necesarios para cursar las asignaturas del grado de Comunicación Audiovisual de la Universitat de Barcelona dedicadas al sonido. Contiene una amplia descripción teórica de los contenidos, con un claro componente panorámico de ejemplos, abrazando todo tipo de obras, estilos, géneros y países, desde un posicionamiento respetuoso, no-etnocentrista y ecológico. La bibliografía y las fuentes documentales utilizadas y citadas son una excelente recopilación a través de la cual profundizar en esta temática científica. Es una realidad que la actual «videoesfera» (en palabras de Jaume Radigales) da la preferencia a la imagen por encima de todo. No obstante todos los modelos audiovisuales requieren de contenidos sonoros en cualquiera de sus modalidades. El tratamiento y la atención debida al sonido es mucho menor que los que se dedican a la imagen, al guión o al lenguaje: normalmente la música de cine se escribe con el rodaje acabado o con un montaje provisional (con unas pocas excepciones en el audiovisual, como los videoclips). En la historia del cine, inicialmente la música tuvo una intención emocional, la kinoteca (J. S. Zamenick); después se pasó a utilizar piezas célebres para las distintas escenas (cue sheets, de Max Winkler o Michael P. Krueger). Posteriormente la música y el sonido pasaron a ser un elemento organizado intencionalmente, lo que se denomina banda sonora. En este sentido encontramos binomios de referencia (director/ compositor):
Hitchcock/Hermann; Edwards/Mancini; Fellini/Rota; Spielberg/ Williams; Lynch/Badalamenti; Burton/Elfman, y un largo etcétera. En la banda sonora apreciamos una dependencia entre las artes; la música y la imagen interactúan, tal como ocurre en la ópera. La unidad de lo audiovisual es uno de los puntos de partida de este trabajo, donde encontraremos la música y el sonido formando un entramado inseparable con el resto de los elementos del audiovisual. Copland, ya en 1949, anunciaba algunos roles que se adjudicarían a la música en los audiovisuales y sus funciones, tanto descriptivas (proporciona credibilidad y realismo a una época o lugar) como expresivas (otorga significado e intención, crea o subraya estados psicológicos, pensamientos o implicaciones ocultas de un personaje o de una situación) o narrativas (cohesiona, da sentido a la narración, organiza, anticipa, rellena como un fondo, construye el sentido de continuidad, une, separa, puntúa, diluye, ambienta, retiene, disimula errores de continuidad, sustituye a un personaje o una situación...). Desde entonces las bandas sonoras y su estudio han sido el centro de atención de muchos investigadores, periodistas y creadores. El patrimonio musical y audiovisual producido en estos últimos noventa años quedará en la memoria durante generaciones. No se aprende a bailar con un libro; lo mismo sucede con la música y con el análisis de los audiovisuales. Nada podrá sustituir la presencia y los consejos de un profesorado experimentado. Este libro no pretende cambiar en ningún modo la tradición del aprendizaje presencial, sino ser simplemente un complemento de
éste.
/ Música y comunicación
Lydia Sánchez Gómez, Universidad de Barcelona Manuel Campos Havidich, Universidad de Barcelona La misma inutilidad de la música en lo relativo a la selección natural, así como su extravagancia, obligaron a Darwin a verla como un producto de la selección sexual, procedente de los gritos de rivalidad y apareamiento de nuestros antepasados prehumanos. DENIS DUTTON, El instinto del arte Frecuentemente relacionamos, en contextos discursivos ordinarios, la música con la comunicación. Así, solemos decir cosas del tipo: «Esta melodía transmite tristeza» o «Este movimiento comunica la pasión por los ideales ilustrados y el ansia de libertad popular ejemplificada en los triunfos de los ejércitos napoleónicos». ¿Qué queremos decir con ello? Comparemos las anteriores afirmaciones
con las siguientes: «El profesor anunció a sus alumnos que el lunes era fiesta», «El castor comunica a sus congéneres que el peligro acecha batiendo el agua con la cola» o «Las abejas informan a sus compañeras de colmena de la localización de las fuentes de néctar, invitándolas a acudir a las mismas». ¿Usamos la idea de comunicación en la música en el mismo sentido que en estos ejemplos? Mientras que en el caso del profesor o del castor parece que lo que se comunica es una «porción» de información, un mensaje o contenido preciso, delimitado y cerrado (un contenido proposicional, para utilizar la expresión técnica), en el caso de la música, como en el del resto de las artes, no parece nada claro que sea así. Existe un test muy simple que permite ver de qué estamos hablando. Si hay transmisión de información, tiene sentido hablar de verdad; más en concreto, si algo es «dicho», tiene sentido preguntarse si es cierto o falso. Tiene sentido la pregunta: ¿Es esto (la afirmación, la representación, la pieza musical, el retrato, el bodegón, la danza abejuna, la estatua ecuestre) verdad? Por ejemplo, ¿qué mensaje o información transmite una pieza musical o un crucifijo plantado en la rotonda de entrada a un pueblo ceretano? ¿Es verdad el «666» pintado con espray en dicho crucifijo? ¿Tiene sentido esta pregunta? ¿No sería más correcto decir que lo que estos símbolos producen en el receptor son, en el mejor de los casos, estados emocionales, cuando no indiferencia? ¿Pero es esto equivalente a comunicar? En otro capítulo de esta obra, titulado «Fundamentos
psicológicos y emocionales del sonido en los audiovisuales», por ejemplo, Caterina Calderón y Josep Gustems desarrollan la idea de la existencia de una relación íntima entre música y emoción. De hecho, en la teoría de la comunicación se suelen distinguir dos grandes formas de aproximación al fenómeno comunicativo. Una de ellas entiende, básicamente, la comunicación como transmisión de contenidos, tomando el lenguaje como forma paradigmática de dicho fenómeno. La otra entiende que la comunicación va más allá del mero intercambio de mensajes. Weaver (1949), por ejemplo, nos habla de la posibilidad de contemplar como acto comunicativo cualquier forma de alteración cognitiva producida entre unos agentes, y la semiótica parece favorecer un punto de vista similar a éste. Una de las variedades más populares dentro de la perspectiva contraria a la idea de la comunicación como transmisión entiende la comunicación como una ceremonia, como un ritual.1 Este modelo, conocido como modelo ritual , parte del significado del término latino originario (communicatio , communicare), centrado en la idea de compartir , de participación, de comunión, de estar en relación con, de comunidad (Radford, 2005). Aunque ambos modelos (de transmisión y ritual ) se han presentado a menudo como opuestos e incompatibles, nuestro punto de vista es contrario a esta idea.2 En este capítulo tratamos de ofrecer una interpretación de la posible relación entre música y comunicación que, como ya hemos sugerido, otorgue a las emociones y otros elementos connotados un papel relevante. Para ello partimos de las intuiciones contenidas en el modelo de
transmisión. No es una tarea fácil: como hemos sugerido, el caso de la música, como en general el del arte, es precisamente el más difícil de compatibilizar con el modelo de transmisión. Por este motivo, ofrecer una posible aproximación teórica que dé cuenta del valor comunicativo de la música (y del arte) y que constituya un complemento del modelo de transmisión, tiene, creemos, un interés especial. En particular, si nos comprometemos a aceptar los presupuestos filosóficos realistas y naturalistas que acompañan a la visión de la realidad que nos ofrece la ciencia empírica.3
› Semántica de la «comunicación» En todo caso, y como sugieren los ejemplos utilizados anteriormente, el término comunicación parece ambiguo, plurirreferencial (véase Frege, 1892). Es decir, utilizamos esta palabra en contextos tan diferentes que es difícil concluir que en todos los casos —de la transmisión de estímulos hormonales entre glándulas, a la comunión anímica producida por la entonación de un himno en un partido de fútbol o un mitin patriótico— estemos hablando de un único fenómeno. Esto sugiere la posibilidad de que esta palabra tenga lo que Wittgenstein (1953) denominaba una semántica de racimo: es decir, que lo único que podamos establecer entre distintos ejemplos del fenómeno comunicativo sea un aire de familia, por el que encontramos rasgos comunes entre cada dos casos de dicho fenómeno, pero no un conjunto de características
comunes a todos. ¿Cómo podemos acercarnos, entonces, al estudio de esta materia? La aproximación que nos parece más razonable no es, sin embargo, la wittgensteiniana. Quizá la etiqueta comunicación se aplique a fenómenos diversos, pero es también posible que entre los mismos podamos hallar algunos que por su relevancia teórica y elucidativa, por su sustancialidad (véase Millikan, 2000), puedan sostener el peso de una explicación básica, mientras que los demás resultan secundarios, como lo son los tigres de papel, de peluche o clónicos respecto a los tigres ordinarios. En este sentido, pensamos que está bastante claro que la capacidad que tienen los seres vivos de representarse el mundo, acumular información acerca del mismo y transmitirla a otros individuos se halla en la base de una variedad básica del fenómeno comunicacional. Además, nos encontramos con el hecho de que las aportaciones teóricas en el área de la explicación biológica de la representación han adquirido una relevancia extraordinaria en las últimas décadas. Creemos que estas aportaciones, en especial la de Ruth Millikan, permiten un acercamiento al fenómeno de la comunicación de una fertilidad teórica sorprendente. Pero antes de presentar la visión millikanina veamos algunos de los componentes básicos y las carencias obvias de la idea de comunicación como trasmisión.
› Transmisión de información Como decíamos anteriormente, uno de los puntos de vista más
aceptados sobre la comunicación considera que ésta requiere la transmisión de contenido entre interlocutores. Así, algunos autores se refieren a este punto de vista como el de la comunicación entendida como transmisión de información. La idea básica del mismo puede encontrarse ya en Locke y, más recientemente, en teorías y áreas de investigación como la teoría matemática de la comunicación de Shannon y Weaver (1949), el funcionalismo psicológico, la cibernética o la ciencia cognitiva. Los elementos básicos de la comunicación, según este p unto de vista, incluyen un agente emisor que transmite un mensaje a un receptor con la finalidad de afectar sus disposiciones a la conducta (su arquitectura cognitiva). El mensaje se codifica y transmite a través de un canal y lo descodifica el receptor, que obtiene de este modo el mensaje, significado o contenido codificado. Este punto de vista está inspirado en el modelo del lenguaje humano. Parece claro que una de las funciones básicas del mismo es la de permitir la transmisión de información entre individuos. Esta función se ha entendido tradicionalmente como una forma de intercambio de opiniones, creencias, conocimiento, información, sentimientos, emociones, etc. El lenguaje nos serviría, de forma paradigmática, para expresar lo que pensamos y sentimos, de manera que otros puedan recogerlo y actuar en consecuencia. En este sentido, parecería que en un caso de comunicación hay un conocimiento o contenido que se transmite. Nuestros pensamientos tendrían contenidos que mediante el lenguaje podríamos transmitir a otras personas. Esto se conseguiría a través de la realización de
actos en los que el hablante produciría afirmaciones, que son la unidad lingüística mínima que permitiría la transmisión de contenido. Otra manera de decir lo mismo, o algo muy similar, sería indicar que nuestras afirmaciones tienen significados que el oyente debe entender si aspiramos a la realización de un acto comunicativo exitoso. Está claro, sin embargo, que hay actos lingüísticos completos que no sirven para transmitir información, sino que el lenguaje humano se puede utilizar para una gran variedad de actividades: rogar, preguntar, insultar, ensalzar, ordenar, loar, solicitar, etc.4 No cabe duda de que nos hallamos ante actos de carácter comunicativo en los que el agente busca afectar cognitivamente al receptor. Vemos, pues, claramente, que una versión simple del modelo de transmisión falla a la hora de responder a nuestras intuiciones básicas sobre el uso del término comunicación al no recoger esta variedad de formas de uso lingüísticas. Otra variedad de usos literarios, los ficcionales, a pesar de constituir una forma de comunicación, fallan a la hora de responder a la exigencia de transmisión de información. En casos como éstos, la función del lenguaje no es la de hablar del mundo (incluyendo en él las propias creencias o sentimientos) con la pretensión de describirlo o de hacer referencia a aspectos reales y actuales del mismo, como mínimo de forma directa y literal,5 y esto es conocido y compartido tanto por el autor de la ficción como por el lector. En resumen, pues, nos hallamos ante situaciones que no dudaríamos en calificar de comunicativas, pero que no satisfacen las
restricciones de una versión demasiado simple del modelo de transmisión. Parece claro que esta simplicidad es uno de los ingredientes que más han contribuido al descrédito de este tipo de modelos comunicacionales. ¿Podemos superar esta situación sin abandonar las ideas y presupuestos razonables que contiene el modelo de transmisión? Como hemos dicho, creemos que la introducción de temas biológicos en esta área de reflexión nos puede ayudar a establecer un cierto orden que nos permita separar lo básico de lo secundario. Al fin y al cabo, parece que los únicos animales artistas son los del circo.6 Si la comunicación es un fenómeno de raíz biológica, como parece innegable, quizá sus formas biológicas básicas deberían servirnos p ara una comprensión ordenada del mismo. Existen ciertas intuiciones básicas al respecto, derivadas del conocimiento del mundo que nos proporciona la ciencia empírica contemporánea, que fundamentan esta aproximación. Por un lado, la idea de que los hombres son animales, es decir, de que no existe una discontinuidad en la escala biológica que nos convierta en seres especiales, semiangélicos, con características de naturaleza no biológica. Si nuestras características derivan de este carácter animal, encontrar sus antecedentes en otras especies nos puede servir para conseguir un mejor entendimiento de las mismas: una comprensión filogenética, por decirlo de alguna manera. Ítem más, y como ya hemos adelantado, existen propuestas desarrolladas desde esta perspectiva biologista del fenómeno de la comunicación y, de forma más básica, de esa capacidad, que
encontramos a lo largo de toda la escala biológica, de representarse aspectos de la realidad y que recibe, en contextos filosóficos, el nombre de intencionalidad . Creemos que afrontar los temas de la comunicación a la luz de estos desarrollos puede contribuir a una nueva visión que ataña a los elementos más sustantivos del fenómeno, en la línea de lo que hemos mencionado anteriormente. Por ejemplo, uno de los problemas que generalmente se asocian con el punto de vista de la comunicación como transmisión de información tiene que ver con la noción de contenido. ¿Qué son los contenidos? Éste es uno de los temas centrales de la filosofía del lenguaje y de la mente contemporánea, y tiene un lugar principal en la teoría de la comunicación;7 también es, naturalmente, objeto de grandes discrepancias. ¿Nos puede ayudar la biología a la hora de acercarnos a la comprensión de esta idea? La respuesta, en pocas palabras, es que finalmente tenemos un conjunto de explicaciones razonables que compiten para servir de modelo en esta área (especialmente la proporcionada por Ruth Millikan, 1984). Son explicaciones de lo que puedan ser los contenidos y, en general, del fenómeno de la representación que se atienen al conocimiento del mundo establecido por las ciencias empíricas y, en particular, por la biología, y a los presupuestos realistas y naturalistas que gobiernan la investigación en las mismas. Nos parece que sobre la base de este tipo de explicación podemos empezar a aproximarnos de una manera razonable al fenómeno de la comunicación.
› Comunicación y representación Muchas veces nos referirnos a los objetos8 que sirven como vehículos de comunicación como signos o señales. Sin embargo, hay fenómenos que implican la presencia de eventos calificados de esta manera que no se incluyen dentro de la categoría de los comunicativos. Se trata de unos fenómenos naturales que, estando relacionados causalmente con otros, pueden servir para indicar la ocurrencia de los mismos, para ser sus señales o indicios. Por ejemplo, la presencia de nubes en el cielo en ciertas circunstancias puede considerarse un signo de lluvia inminente. Hay una relación causal entre ambos tipos de fenómenos, pero no podemos decir que la presencia de las nubes nos comunique que lloverá. Parece que no hay comunicación en estos casos porque el signo ni siquiera es el producto de la actividad descriptiva de la realidad llevada a cabo por algún tipo de organismo biológico. Siguiendo las propuestas de Ruth Millikan (1984),9 aceptaremos que la comunicación es un fenómeno biológico, que no puede, por tanto, atribuirse a entidades «prebiológicas». Para esta autora, a nivel básico la comunicación implica el uso de representaciones del mundo. De hecho, el fenómeno de la representación es previo al de la comunicación. Por decirlo de forma simple: una cosa es autorepresentarse el mundo, y otra posterior, comunicar esa información a otros individuos. Si antes decíamos que el concepto de comunicación es ambiguo, también lo es el de representación, pues solemos aplicarlo a
fenómenos diferentes. Así, por ejemplo, tanto podemos decir que el número de anillos en el tronco cortado de un árbol representa su edad como que la frase «Barcelona es una ciudad contaminada» representa el hecho de que una determinada ciudad posee una propiedad concreta, o que una paloma blanca representa la paz. Sin embargo, y desde un punto de vista conceptual, no todos estos usos son relevantes a la hora de establecer una teoría del fenómeno de la representación y de la comunicación. Como decíamos anteriormente, el concepto de representación que creemos ineludible para esta finalidad implica considerarla como un fenómeno de origen biológico. Desde este punto de vista, y como veremos, algunos de los casos a los que solemos aplicar el término representación resultarán serlo sólo derivativamente, como es el caso de los anillos de los troncos de los árboles. Ello nos permitirá delimitar mejor el origen de los fenómenos comunicativos. Según Millikan, una de las características básicas de los organismos vivos es que poseemos sistemas de representación del mundo (como la percepción o el sistema generador de nuestras creencias), que nos permiten mapear aspectos de la realidad10 circundante que son importantes para nuestra supervivencia. A partir de estos sistemas de representación internos, podemos regular nuestra conducta evitando peligros y buscando situaciones favorables. Las representaciones, como los mapas, de las cuales son el ejemplo por antonomasia, contienen información sobre la realidad. Nos dicen que ésta es de una determinada manera y son indicativas
de cómo es. Decimos también que las representaciones tienen o expresan un contenido , que determinan una condición sobre la realidad y que nos indican que la realidad es de una determinada manera.11 Como hemos avanzado anteriormente, en el lenguaje técnico propio de la filosofía se dice que las representaciones expresan proposiciones; por ello, las de este tipo son llamadas roposicionales. Nuestra capacidad de representación del mundo a través de los estados de nuestro organismo debe entenderse como parte de un sistema más complejo cuya finalidad es conseguir que nuestra conducta sea conducente a la supervivencia de la especie. Este complejo sistema de motivación de la conducta implica otra parte, complementaria de la indicativa, cuya función es representar el mundo no tal como es, sino tal y como nos «interesaría» que fuera. No sólo necesitamos estados representacionales indicativos, que contengan información sobre el mundo, sino también otros conativos , que muestren cómo, en tanto que organismos, buscamos que sea el mundo. Sin estos dos componentes la explicación de la generación de la conducta queda coja. Utilizando términos humanos, nos comportamos de manera que procuramos satisfacer nuestros deseos teniendo siempre en cuenta cómo creemos que es el mundo. La complementariedad entre estados representacionales indicativos y conativos parece clara: un ser sin proyectos sería inerte, incapaz de generar conducta alguna; por otro lado, un ser sin creencias sería ciego a las características de su entorno. Esta capacidad de motivar la conducta a partir de
estados indicativos y conativos es, por tanto, también explicable evolutivamente. Por otro lado, también está claro que los estados conativos están asociados a condiciones proposicionales, en este caso no de verdad, sino de satisfacción. El organismo busca que, con su conducta, queden satisfechos sus deseos, apetencias, etc. Más allá de esto, los organismos vivos no sólo poseemos estados representacionales internos, sino que también somos capaces de transmitir la información que manejamos sobre el mundo a través del lenguaje. El lenguaje nos permite codificar dicha información y transmitirla a nuestros congéneres. Sin embargo, esta manera de entender el lenguaje no resulta exclusiva de los seres humanos. Podemos encontrar sistemas de comunicación que cumplen con este tipo de función en una gran variedad de organismos. ›› Algunas características básicas de las representaciones proposicionales De acuerdo con la teoría de las representaciones en la que nos estamos basando, éstas poseen, al menos, una serie de características básicas (Millikan, 1989). En primer lugar, no se generan de forma aislada, sino que son productos de sistemas cuya función es producir una variedad de las representaciones, cada una de ellas dotada de un contenido; Millikan denomina a estos sistemas productores de representaciones. Además, cada tipo de representación tiene una función diferente, dentro de la general de contribuir a la generación de conductas. Así, por ejemplo, los
sistemas generadores de representaciones perceptivas tienen como función generar percepciones que van a desempeñar un papel inmediato sobre la conducta del organismo en cuestión adaptada a las partes de su entorno más próximo que son susceptibles de afectarle a través de los sentidos (por ejemplo, en los actos reflejos). Por otro lado, los efectos conductuales de los recuerdos ejercerán un papel mucho más dilatado en el tiempo y afectarán a situaciones vivenciales de forma mucho menos directa. Por otro lado, para poder cumplir su función, la representación debe ser leída por un sistema consumidor de ésta, el cual ha de «recoger» de alguna manera su contenido para generar una conducta adecuada a él. Esta modificación se ha caracterizado tradicionalmente, en la filosofía analítica, como una alteración de la arquitectura cognitiva del individuo causada por la lectura de la representación. El consumidor o receptor puede formar parte del mismo individuo que genera la representación o de un agente distinto. Las representaciones están asociadas a un contenido único, una condición sobre el mundo que la realidad puede satisfacer o no. Esta condición es el contenido de la representación: aquella circunstancia concreta que, si se da en la realidad, hará que la representación pueda contribuir a la realización de su propósito con éxito a través de la generación de una conducta adecuada. Las representaciones indicativas pueden ser verdaderas o falsas dependiendo de si el contenido expresado por las mismas es satisfecho por el mundo (es decir, si se corresponde o adecúa al
mismo) o no. Si el contenido se corresponde con el mundo, la representación es verdadera. Esta noción de verdad, que coincide con el uso ordinario del término, se denomina teoría de la correspondencia de la verdad . Como hemos dicho anteriormente, en el caso de las representaciones conativas (deseos, órdenes) no se aplica el concepto de verdad, sino el de satisfacción. Por último, cabe decir que la existencia de sistemas productores y consumidores de representaciones se explica en términos de diseño. Cada sistema está diseñado (por la naturaleza, en los casos que estamos considerando)12 para producir representaciones con una cierta finalidad que va desde la reacción inmediata ante un estímulo perceptual de los actos reflejos hasta la conducta diferida que originan los recuerdos y las evocaciones.
› Variedades de representaciones ¿Cómo se puede compaginar esta visión biologista de la representación con el fenómeno comunicacional tal como lo percibimos a nivel ordinario? ¿Cómo queda el panorama tras la propuesta teórica millikaniana? Parece claro que el abanico de entidades (o mejor, de hechos) que pueden pasar por representaciones en fenómenos comunicacionales sobrepasa con creces la esfera de las representaciones proposicionales millikanianas. Repasemos el repertorio comunicativo ordinario para poder proponer una serie de caracterizaciones teóricas de los rasgos
de éste que la propuesta de Millikan no recoge. En primer lugar, y como ya hemos señalado, no todo aquello que agrupamos bajo las etiquetas de señal, indicio, signo, etc. puede ser una parte integrante de un proceso comunicacional. Así, contamos con lo que podemos llamar, siguiendo en parte a Fred Dretske (1981) y a Ruth Millikan (2000), señales naturales o indicadores naturales , los cuales se distinguen claramente de las representaciones proposicionales. Por ejemplo, a partir de un rastro en la arena podemos extraer la información de que alguien ha pasado por aquel lugar. Esto es posible gracias a una regularidad que relaciona causalmente un tipo de hecho (la presencia de las huellas) con otro (el paso reciente de un individuo). Ejemplos similares, algunos de los cuales ya hemos visto anteriormente, pueden obtenerse de manera trivial si nos basamos en regularidades naturales como las siguientes: humo-fuego, número de anillos-edad del árbol, marcas de la viruela-enfermedad, etc. Somos capaces de extraer información de estas áreas de la realidad porque tenemos alguna clase de conocimiento de las regularidades mencionadas. En tanto que seres vivos, el conocimiento de estas relaciones (el hecho de estar en sintonía con ellas, por utilizar una metáfora de John Perry) es fundamental para nuestra supervivencia. Ahora bien, ¿podemos hablar de comunicación en este caso? Como ya adelantamos, y si nos basamos en las características esenciales de las representaciones que hemos comentado en el apartado anterior, no podemos hablar de comunicación en estos casos porque no existe ningún diseño en la regularidad: ésta no ha
sido creada como parte de un mecanismo que implique a un sistema productor de representaciones y a otro consumidor de las mismas (ni mucho menos a agentes productores y lectores). De hecho, no hay diseño detrás de la relación nube-lluvia. En estos casos, claramente, no p odemos hablar de comunicación. En este sentido, cabe enfatizar la diferencia entre mera señal indicadora y representación, y entre información y contenido. Se suele decir que una señal lleva asociada una determinada información; en cambio, en el caso de las representaciones proposicionales hablamos de contenido , el cual también puede constituir información. Es decir, en las circunstancias adecuadas (en particular, si este contenido se corresp onde con el mundo), el contenido de una representación forma parte de la información asociada a la misma; a saber, se trata de aquella parte de la información transmitida que ha sido diseñada. Por tanto, las representaciones pueden actuar como señales. En segundo lugar, encontramos las representaciones proposicionales biológicas (indicativas o conativas), de las que hemos hablado en las secciones anteriores. Éstas han sido diseñadas para almacenar o transmitir un cierto contenido proposicional. En este nivel no podemos, por lo general, hablar de intenciones por parte del agente, pero evidentemente existe un diseño, el natural resultado de la adaptación al medio. El ejemplo por antonomasia de este tipo de representaciones son los bailes a través de los cuales las abejas informan a sus congéneres de la situación de las fuentes de néctar y las instan a acudir a las mismas.
Cabe decir que una propuesta teórica, como la millikaniana, no tiene por qué justificar absolutamente todas y cada una de las intuiciones del sentido común acerca del área sobre la cual versa. Así, por ejemplo, existe un tipo de representaciones biológicas para las que no utilizaríamos ordinariamente el término comunicación y que, sin embargo, se encuentran englobadas dentro de la propuesta de nuestra autora. Por ejemplo, de acuerdo con ésta, tiene sentido decir que una glándula informa a otra sobre, por ejemplo, la dotación ovárica de una persona, de tal manera que el comportamiento de la segunda glándula queda afectado por esta información. No está claro que en este caso pudiéramos decir, en el contexto de una conversación ordinaria y de forma no metafórica, que hay comunicación entre glándulas. En todo caso, en el ser humano podemos encontrar desde ejemplos obvios de representaciones proposicionales de raíz biológica, como nuestras percepciones, juicios, afirmaciones, opiniones y recuerdos sobre el mundo, encuadrables de forma clara dentro del modelo millikaniano, hasta las formas de «representación» o de comunicación que parecen carecer en absoluto de elementos referenciales, como algunas representaciones artísticas y, en particular, musicales. Recordemos, en este sentido, que si Millikan tuviera razón, el origen del fenómeno representacional estaría esencialmente relacionado con la capacidad de la mayoría de los organismos de hacerse mapas de la realidad. Pues bien, está claro que ciertas formas de representación artística carecen no sólo de condiciones de verdad y de contenido
proposicional (no nos pretenden decir cómo es el mundo), sino que ni siquiera denotan o hacen referencia a ninguna de las partes del mismo. En otros casos, por ejemplo, nos encontramos con elementos denotados acerca de los cuales no se especifica nada preciso a través de la representación o el símbolo, por más que pueda connotarse o sugerirse una gran cantidad de cosas, y aunque éstos generen en nosotros una clara respuesta emocional o estética. ¿Podemos explicar la semántica connotacional o emocional de este tipo de producciones? ¿Cuál es el papel de las mismas, asumiendo que claramente no tienen una función descriptiva de la realidad? ¿Podemos incluirlas como ejemplos del modelo ritual de comunicación, puesto que no parecen encajar en el de transmisión?
› Significado como uso Para poder responder a las preguntas del apartado anterior nos vemos obligados a introducir, ahora, una breve reflexión acerca de unas categorías semánticas sobre las cuales hemos pasado hasta ahora de puntillas: significados y sentidos . Se suele decir que las representaciones, especialmente las humanas, tienen significado o sentido, palabras que se utilizan, una vez más, de modo muy ambiguo. Vamos a intentar clarificar su uso de manera similar a como hemos procedido con las representaciones. La palabra significado se utiliza a veces para referirse a la denotación o referencia de una expresión (un uso del propio Frege), como cuando decimos que neige y il pleut significan, en francés,
«nieve» y «está lloviendo». Otras veces, esta palabra se usa para referirse a la definición de una palabra que encontramos en el diccionario. Así, el significado de caballo, de acuerdo con el DRAE , sería: «Mamífero del orden de los Perisodáctilos, solípedo, de cuello y cola poblados de cerdas largas y abundantes, que se domestica fácilmente». Otra manera de presentar la idea de significado es, aplicado a una expresión, aquello que el hablante ha de adquirir para ser considerado competente en el uso de ésta. También se suele pensar que el significado de una palabra debe determinar la referencia de la misma (si es que no consiste ustamente en ésta, tal como decíamos que sucede en la primera de las opciones comentadas). Pero quizá el autor que más ha afinado a la hora de proveernos de una noción de significado más comprensiva e interesante teóricamente haya sido el segundo Wittgenstein, con su idea de que el significado es el uso (Wittgenstein, 1953). Para este autor, las palabra son utilizadas de diversos modos, en diversos juegos de lenguaje (denotar, describir, mapear, sería uno de ellos, pero no el único; la exaltación de valores cohesivos socialmente podría caracterizar otros muchos juegos, así como la mera diversión o el entretenimiento, o incluso la producción de expresiones estéticamente apreciables) sometidos a unas reglas que el hablante ha de asimilar para ser considerado un jugador competente. En otras palabras, un hablante debe ser consciente de las convenciones que rigen el uso del lenguaje, las cuales, en ciertos casos, pueden implicar el conocimiento de ciertas definiciones, pero en otros
pueden involucrar disposiciones a la conducta de género muy distinto (pensemos, por ejemplo, en el uso de expresiones verbales en canciones y juegos infantiles).13 Las citadas convenciones afectan a aspectos muy diversos del fenómeno lingüístico, desde características formales y sintácticas hasta aspectos semánticos. En todo caso, lo que nos parece importante es que este aspecto convencional se aplica a lenguajes como los formales o artísticos que, sin embargo, pueden carecer de una semántica de condiciones de verdad, como la correspondiente a las representaciones proposicionales, y poseer otra menos estricta, de carácter connotativo. De hecho, existe una versión de la idea de lenguaje según la cual se trata de un sistema de signos sometidos a reglas de uso, un concepto muy amplio que abarcaría desde actividades animales hasta las tradiciones artesanas, los cálculos lógicos o los lenguajes informáticos, artesanales, publicitarios, musicales, cinematográficos o artísticos en general, desde los patrones de dibujo de las decoraciones en alfarería hasta las formas musicales tradicionales. Esta idea de lenguaje resalta más el aspecto formal que el semántico y, como veremos, permite explicar la semántica de los lenguajes no proposicionales.
› Conceptos, connotaciones y sentidos La otra noción a la que debemos dedicar una breve reflexión es la de sentido. Para ello es imprescindible mencionar el sistema de
almacenamiento de nuestro conocimiento de la realidad y su intrínseca relación con los lenguajes humanos. Quizá la mejor manera de hacerlo es recurriendo a un modelo propuesto, entre otros, por John Perry (1990) y Ruth Millikan (2000), aunque muchos otros autores hayan hecho propuestas similares (Campos y Cirera, 2003). Simplificando mucho, este sistema de acumulación de información permite estructurar la misma en conceptos (Perry utiliza la analogía de un sistema de archivo en el que cada concepto haría el papel de una carpeta) dotados de un referente o denotación en el mundo, acerca del cual versa la información falible contenida en el mismo. Cada concepto está asociado a una o diversas expresiones lingüísticas que refieren a la entidad denotada y contiene, además, «enlaces» con otros conceptos y con el sistema emocional del agente. La totalidad del sistema constituye una de las partes fundamentales del esqueleto de nuestra estructura cognitiva; hay que tener en cuenta que no todas las partes de este sistema tienen por qué ser accesibles a la conciencia. Naturalmente, las emociones y los sentimientos también tienen una función básica en la generación de la conducta producida por dicha estructura cognitiva.14 Esta estructura nos permite hablar no sólo de conceptos y denotación, sino de connotación y sentido. Nuestros conceptos de las entidades con las que estamos en contacto acumulan información derivada de nuestras interacciones con ellas, de manera que cada uno de nosotros mantiene un sistema conceptual propio, basado en nuestra historia particular, y distinto del de los demás.
Cada entidad con la que interactuamos tiene un sentido particular para nosotros, además de connotaciones epistémicas y emocionales que también son fruto de nuestra relación personal histórica con la misma. Ello implica que cada agente interactuará según su personal arquitectura cognitiva. La utilización de un lenguaje como el humano implica necesariamente la existencia de estas connotaciones o sentidos. Nuestra conducta lingüística, incluso la dedicada exclusivamente a la descripción de nuestra realidad circundante, es demasiado sofisticada para que pueda explicarse sólo en términos de denotación o condiciones de verdad. Además, y como ya hemos adelantado, los lenguajes humanos generan prácticas comunicativas muy diversas, no todas ellas ligadas necesariamente a la función básica de la representación proposicional del mundo. Por ejemplo, podemos preguntar, mentir, usar de manera retórica el lenguaje como vehículo de motivación, hacer un uso derogatorio o de alabanza, o un empleo literario cuyo objetivo central sea producir experiencias estéticas, emocionales o reflexivas en el receptor. En muchos de estos usos, especialmente en los retóricos y artísticos, esta doble dimensión connotativoemocional adquiere una relevancia obvia. Pensemos, por ejemplo, en el caso de la ficción literaria, y en toda la carga emocional y reflexiva que implica. Por lo demás, buena parte de las prácticas de comunicación a través de los medios se basan en explotar, en parte, estas dimensiones emocionales. Consideremos, sin ir más lejos, la
publicidad o la propaganda, cuya función obvia es producir en nosotros, a través de la manipulación de nuestras emociones, un estado conativo conducente a la adquisición de un producto o a la obtención de un voto.
› Otros sistemas simbólicos Más allá de los lenguajes verbales, cuyas expresiones suelen tener un carácter denotativo aunque no siempre un uso proposicional, se abre, por lo tanto, el amplio abanico de las representaciones simbólicas no proposicionales. El himno de la Champions League, la paloma de la paz, la Marcha Radetzky, la estatua ecuestre de Franco en El Ferrol, el Cristo Redentor de Río o la Gioconda no tienen condiciones de verdad, no pretenden decir cómo es la realidad. Aunque podamos afirmar que poseen una denotación, que se refieren a algo (a una federación deportiva o un campeonato, a la idea de la paz, a un general y su ejército, a un dictador, a Cristo, a una mujer), la lectura que se pueda hacer de los mismos varía de un individuo a otro y de una situación a otra, según el sentido que cada una de estas personas les asigne, y según las evocaciones, recuerdos y emociones que le despierte. Por otro lado, este carácter denotativo suele venir dado por la posible intención representacional del autor (por poner otro ejemplo tópico, considérese el poema sinfónico Vltava, de Smetana, en el que se supone que distintos pasajes del poema se refieren a los diferentes parajes que atraviesa el río M oldava y, en cierto modo, los retrata).
El contenido entendido como condición de verdad cede, en casos como éstos, toda la carga semántica al aspecto connotativo. Cuando éste tiene un fuerte componente que concierne a la cohesión social, entramos de lleno en una situación en la que el aspecto ritual , comunitario de la comunicación, oblitera el componente de transmisión de información: por ejemplo, las celebraciones políticas, nacionales o religiosas, con su empleo de símbolos (más allá de la mera palabra), ya sean himnos, banderas, esculturas, ceremonias, construcciones, etc. Finalmente, en el otro extremo del arco representacional, nos hallamos, por ejemplo, con el caso de ciertas formas musicales y poéticas en las que se ha perdido totalmente el componente descriptivo y denotativo, y en las que el significado se centra, por un lado, en aspectos relacionados con usos y convenciones culturales (por ejemplo, rasgos musicales como formas, ritmos, etc., ligadas a tradiciones culturales determinadas, desde las distintas danzas a las que hacen referencia las partes de ciertas obras barrocas a los palos del flamenco), y a los elementos connotativos y emocionales ligados a ellos. Calderón y Gustems nos han mostrado la correlación, en parte natural, entre distintas propiedades musicales y estados emocionales de los oyentes; el caso de los palos del flamenco constituye otro claro ejemplo de relación entre formas musicales y estados de ánimo.
El abanico de la representación
› Consideraciones sobre intención, expresión y conocimiento Nos gustaría insistir en el hecho de que las intenciones del autor, que parecen tener relevancia en el aspecto denotativo de muchas piezas musicales, afectan también a las connotaciones culturales de otras, sin las cuales resultarían difícilmente inteligibles o interpretables. Dichas connotaciones pueden estar presentes incluso cuando el aspecto denotativo ha desaparecido completamente. Basta con pensar, como ejemplo extremo, en ciertas obras de arte contemporáneo en las cuales reflexiones generales sobre el producto artístico (el urinario invertido de Duchamp) o la propia tradición (la controversia alrededor del dodecafonismo) condicionan, en mayor o menor medida, la elaboración de piezas concretas. En este sentido, nos gustaría enfatizar que el producto artístico contemporáneo nos aleja de visiones populares del fenómeno artístico que contemplan éste como el vehículo de expresión de los
sentimientos o pensamientos del autor. Es difícil pensar que el compositor (John Cage) de una pieza consistente en cuatro minutos de silencio pretenda expresar con ella algún sentimiento o emoción, y tan sólo la información acerca de las intenciones (explícitas o implícitas) del mismo nos va a permitir entender o interpretar dicha pieza, captar el sentido pretendido por su autor, llevar a cabo la reflexión sobre el fenómeno musical que, posiblemente, éste quiere generar a partir de la perplejidad del oyente. De hecho, en el caso de la música, esta misma debilidad en la idea de finalidad expresiva es conjeturable de forma mucho más general, y no se limita exclusivamente al arte contemporáneo. Y todo ello a pesar de la abundancia de situaciones en las que las intenciones del autor permiten hablar de la pieza como vehículo de expresión de un mensaje. ¿Qué decir, en este sentido, de piezas (por ejemplo, las Variaciones Goldberg ) compuestas para ayudar a un mecenas (el conde Keyserling) a combatir el insomnio, o para facilitar la práctica de su clavicordista de elección (Johann Gottlieb Goldberg)? Para acabar, nos gustaría mencionar que el tipo de conocimiento que nos proporcionan afirmaciones, artículos, tratados, noticias, etc., es distinto y complementario del producido por experiencias en las que a dichas representaciones proposicionales las sustituy en obras artísticas. Como hemos visto, en el caso de estas últimas, la experimentación de emociones y sentimientos, o la mera experiencia estética, tienen un papel central. Así pues debemos distinguir claramente el conocimiento
roposicional obtenido, por ejemplo, a partir de vehículos proposicionales como los mencionados, del conocimiento vivencial generado por las experiencias que vivimos, incluyendo las de carácter artístico o estético. Y en el caso de experiencias estéticas denotativas, hay que diferenciar entre la vivencia de la obra de arte y la del suceso denotado por la misma. Así, por ejemplo, la lectura de unas memorias de Auschwitz nos transporta metafóricamente al lugar, despertando en nosotros sentimientos de empatía, de modo análogo a lo que sucede con la escucha informada del primer movimiento de Babi Yar . Esperemos que estas distinciones triviales entre formas de conocimiento y de vivencia permitan matizar afirmaciones, tan populares contemporáneamente, como que el verdadero conocimiento (así, de manera tan ambigua) sólo es vehiculable a través del arte,15 especialmente a la luz de las meditaciones darwinianas a las que alude la cita inicial, según las cuales podría parecer que el acmé musical se sitúa en intérpretes como M ick Jagger, Freddie Mercury o M ontserrat Caballé.16
› Conclusión Es una hipótesis plausible que el fenómeno de la comunicación se origina a nivel biológico para permitir a ciertos organismos la transmisión de información acerca del entorno en que se mueven. En este contexto, el modelo de transmisión de información se
adecua perfectamente al fenómeno. A la par, aunque en mucha menor medida, se produce en el reino animal, ligado generalmente a la selección sexual, el desarrollo de lenguajes con una semántica asociada a la disponibilidad reproductiva, los cuales pueden llegar a poseer una notable complejidad sintáctica. Estamos pensando aquí en animales que constituy en en sí mismos obras de arte (la cola del pavo real), o que son capaces de producir objetos no alejados de las mismas (ciertas aves, virtuosas de la arquitectura nupcial). En el caso humano, las cosas se complican por diversos motivos. Como mínimo, por dos. Por un lado surgen representaciones de ficción, historias, relatos ilustrados, ilustraciones, emblemas, monumentos, recordatorios, construcciones funerarias, religiosas, etc., cuyo carácter proposicional es, en muchos casos, cuestionable. Y finalmente aparecen lenguajes carentes de todo aspecto proposicional (ciertas manifestaciones artísticas, entre las que destacan diversas formas musicales), para los cuales la función semántica se reduce al aspecto connotativo. Nos vemos así arrastrados a la apreciación de un doble aspecto semántico, innecesario en el caso de las representaciones proposicionales biológicas básicas. Además de los contenidos proposicionales, debemos postular un nivel de significado relacionado con la connotación y los sentidos.17 Es la aparición de este doble aspecto semántico lo que motiva con mayor fuerza la necesidad de revisión del modelo de comunicación como transmisión de información. Cuando decimos,
por ejemplo, que la música comunica, por lo general nuestra intención es decir que la música suscita en el receptor una experiencia estética, pero no, ciertamente, que le informa de una proposición determinada. Esto es análogo en los casos de otros sistemas simbólicos, en los cuales la parte relevante no es la proposicional, o ni siquiera existe. La conclusión a la que llegamos tentativamente es que el modelo de transmisión es bueno para ciertos aspectos básicos (y generadores) del fenómeno de la comunicación, pero que debe ser ampliado si pretendemos aplicarlo a situaciones comunicacionales derivativas. Hemos apuntado, en parte, hacia dónde nos podría llevar este tipo de conclusiones, y nos remitimos a Sánchez y Campos (2009) para un esbozo más detallado. En cuanto al uso de la etiqueta comunicación en el caso de la música, nos hallamos ante dos alternativas. O bien descartamos su uso, porque desde un punto de vista teórico queremos que la comunicación se circunscriba exclusivamente a cierto tipo de fenómenos: la que se produce entre humanos, a través del lenguaje, para transmitir información, etc. En este caso, la música no podría considerarse una forma de comunicación, y simplemente tendríamos que concluir que el uso de esta palabra en el lenguaje ordinario debería revisarse a este respecto. La otra alternativa es aceptar que la música comunica y ofrecer una explicación de en qué consiste esto, ampliando el modelo que hemos escogido como básico. Ésta es la alternativa que hemos adoptado en este capítulo, la cual, en primer lugar, no abandona la
intuición de que comunicar implica, de forma básica, la transmisión de contenidos a través de representaciones, pero que reconoce que esta idea puede ampliarse para abarcar fenómenos muy diversos, como los de tipo comunitario o ritual, o las experiencias estéticas que nos proporcionan los productos artísticos, las cuales juzgamos ordinariamente como comunicacionales a pesar de su carencia de contenidos proposicionales. Esta ampliación remite necesariamente a la reflexión sobre características semánticas de tipo connotacional o de sentido.
Bibliografía ADORNO, Theodor Wiesengrund (2006). Escritos musicales I-III . Madrid, Akal. C AMPOS, Manuel (2002). El fenómeno de la representación. Barcelona, EDIUOC. C AMPOS, Manuel / C IRERA, Ramón (2003). «Communication without Sense». Teorema, vol. XXII/1-2. C AREY , James (1989). «A cultural approach to communication». En: McQuail, Dennis (ed.). McQuail’s Reader in Mass Communication Theory. Londres, Sage Publications, pp. 37-45. C RAIG, Robert (1999). «Communication theory as a field». Communication Theory, vol. 9, pp. 119-161. DONSBACH, Wolfgang (2006). «The Identity of Communication Research». Journal of Communication, núm. 56, pp. 437-448. DRETSKE, Fred (1981). Knowledge and the Flow of Information. Cambridge (Mass), MIT Press. — (1988). Explaining Behaviour . Reasons in a World of Causes. Cambridge (Mass), MIT Press. DUTTON, Denis (2010). El instinto del arte. Barcelona, Paidós. F REGE, Gottlob (1892). «On Sense and Reference». En: Geach, Peter / Black, Max, ed. (1960). Translations from the Philosophical Writings of Gottlob
Frege. Oxford, Basil Blackwell. MILLIKAN, Ruth (1984). Language, thought and other biological categories. Cambridge, MIT Press. — (1989). «Biosemantics» , Journal of Philosophy, núm. 86, pp. 281-297. — (2000). On Clear and Confused Ideas. Nueva York, Cambridge. University Press. P ERRY, J. (1990). «Self-Notions». LOGOS: Philosophic Issues in Christian Perspective, núm. 11, pp. 17-31. P UTNAM, Hilary (1975). « The meaning of “ meaning”». Mind, Language and Reality. Philosophical Papers, vol. 2. Cambridge, Cambridge University Press. R ADFORD, Gary (2005). On the Philosophy of Communication. Belmont (California), Thomson Wadsworth. S ÁNCHEZ, Lydia / C AMPOS, Manuel (2009). «Content and Sense». Empedocles: European Journal for the Philosophy of Communication, 1, núm. 1. S HANNON, Claude / W EAVER , Warren (1949). The Mathematical Theory o Communication. Urbana, University of Illinois Press. S HEA , Nicholas (2004). On Millikan. Belmont (California), Thomson Wadsworth. W ITTGENSTEIN , Ludwig (1922). Tractatus Logico-Philosophicus. Londres, Routledge & Kegan Paul. — (1953). Philosophical Investigations. Nueva York, Macmillan. 1 2
Carey (1989). Si bien es verdad que la teoría ritual acepta unos presupuestos metafísicos de carácter idealista que consideramos inaceptables (véase Sánchez y Campos, 2009), su énfasis en el aspecto cohesivo, desde un punto de vista social, de la comunicación parece imposible de soslayar. 3 Es decir, las ideas de que existe una realidad independiente del sujeto, ordenada y cognoscible, al menos en parte, y de que los fenómenos antropológicos, como la comunicación, son naturales. 4 En cualquiera de los ejemplos citados, parece ser necesaria la utilización de un enunciado completo o de su equivalente, que exprese un contenido, una
proposición. Sin embargo, con ello no queremos decir que no existan otros usos del lenguaje humano en los que ni siquiera esta exigencia de completud rija. Estamos pensando, en particular, en los usos literarios y artísticos, particularmente poéticos. 5 Una obra literaria nos puede ilustrar, naturalmente, acerca de características de la naturaleza humana, por ejemplo, pero lo hace retratando esta misma «en acción», aunque ésta sea ficticia. No lo hace de manera explícita, como sí lo haría un tratado de psicología al describir su estructura. 6 Como se verá, más adelante deberemos precisar esta afirmación. 7 Véase, por ejemplo, Sánchez y Campos (2009) para una propuesta sobre contenidos dentro de una perspectiva realista. 8 En realidad, los vehículos de comunicación son siempre hechos. 9 Véase también Shea (2004) y Campos (2002); en una línea parecida se mueve Fred Dretske (1987). Tanto este autor como Millikan se inspiran en una semántica tractariana (Wittgenstein, 1922). 10 Tanto Millikan como nosotros adoptamos una actitud realista. No vamos a dedicar espacio, en este artículo, a su justificación. A este respecto, véase Sánchez y Campos (2009). 11 Las representaciones verdaderas determinan una condición sobre la realidad que es satisfecha por la misma, mientras que las representaciones falsas expresan una condición que no es satisfecha por el mundo. 12 Naturalmente, más allá de la naturaleza, al menos los seres humanos somos capaces de diseñar sistemas representacionales: por poner ejemplos triviales, de los relojes a los ordenadores. 13 El propio significado de la palabra caballo se aleja enormemente de la definición del DRAE , como muestra una breve reflexión sobre el tema (¿cuántos usuarios competentes de la palabra saben que los caballos son Perisodáctilos?). Para la semántica de este tipo de palabras de susstancia, la referencia clásica contemporánea es Putnam (1975). 14 Hasta tal punto de que incluso algunos autores de una cierta tradición de pensamiento moral, entre los que destaca Hume, han juzgado que los sentimientos son la base de la conducta ética. 15 Naturalmente, respecto a este tema es inevitable pensar en las reflexiones del filósofo Theodor W. Adorno (2006).
16
Los «grito « gritoss de rivalidad y apare apareamiento» amiento» a los que alu alude de Dutton Dutt on son, claro claro está, posibles ejemplos de representaciones proposicionales indicativas y conativas. Dejamos a la imaginación del lector aplicado la especulación acerca de sus contenidos. El desarrollo de la música nos habría llevado entonces, si Darwin tenía razón, de los aullidos simiescos de contenido proposicional proposicional proca procaz a las forma formass más sublim subl imees de virtuosismo virtuosi smo artístico. rtíst ico. 17 He Hemo moss habl hablado ado del caso caso humano, hum ano, pero pero parece parece obv obvia ia la necesid necesidad ad de investigar la existencia de elementos simbólicos de cohesión social en los primates. primates. Los « gritos de rivali rivalida dadd y apa pare reaamie mi ento» a los que alude Dutton podrían podrían constitui onsti tuirr también ejemplos de los mismos. mi smos.
/ La física física del sonido soni do
Aikaterini Konstantinidou, Universidad de Barcelona
› Ondas On das y propi prop ie dades dade s del de l soni on ido ›› Introducción Las ondas marinas viajan miles de millas a través del océano, pero las partículas de agua no llevan a cabo ese viaje. Cuando le gritas a un amigo, la onda de sonido atraviesa la sala, pero las moléculas de aire no recorren esa distancia. Estamos familiarizados con el hecho de que la energía y el ímpetu se transporten de un lugar a otro en virtud del movimiento de las partículas; el movimiento ondulatorio prop p roporci orciona ona una manera manera alt alt ernat ernat iva de que ambos ambos se muevan muevan de un lugar lugar a otro ot ro sin s in que las p artíc art ículas ulas materia materiale less hag hagan an ese viaje. viaje. Las ondas de agua y las sonoras son ejemplos de ondas mecánicas que viajan a través de un medio, se desplazan de su posici p osición ón normal normal y quedan quedan libera liberadas. das. Debido a las las p ropie rop iedade dadess
elásticas del medio, la perturbación se propaga a través de éste. A nivel microscópico, las propiedades mecánicas, como las fuerzas entre los átomos, son las causantes de la propagación de las ondas mecánicas. Para ilustrar algunas propiedades generales de las ondas mecánicas, que implican la oscilación de una cuerda estirada como las que se utilizan en una guitarra, cuando una onda alcanza a una partícul p artículaa situada sit uada en el medio medio p one a ésta ést a en movimi movimient entoo y la desplaza, transfiriéndole así energía tanto cinética como potencial. Mediante el movimiento ondulatorio, puede transmitirse a grandes distancias no solamente energía, sino además información sobre la naturaleza de la fuente de ondas. Podemos decir que las partículas del medio recorren, al pasar la onda, únicamente distancias peque p equeñas ñas con respec resp ectt o a sus p osiciones osiciones p revias, revias, sin ex expp erime eriment ntar ar un desplazamiento neto en la dirección del viaje de la onda. Por ejemplo, los pequeños objetos flotantes, como una hoja o un corcho, muestran que el movimiento real del agua al paso de la onda es más bien hacia arriba y hacia abajo, y quizás ligeramente en vaivén. Una vez que la onda ha pasado de largo, el objeto está más o menos en el mismo lugar que antes. ›› Oscilaciones Un cuerpo oscila cuando va de un lado a otro, como un ventilador o un péndulo. Una oscilación puede ser libre, como cuando dejamos un péndulo suelto, o forzada, por ejemplo si tomamos el péndulo con la mano y lo movemos de un lado a otro. En las oscilaciones
libres por lo general no podemos elegir el tipo de movimiento del cuerpo que oscila, mientras que en las forzadas podemos determinarlo hasta cierto punto. ›› Vibraciones Una vibración no es más que una oscilación rápida. Tomemos un cuerpo flexible como una regla de plástico y sujetémosla contra el tablero de una mesa; si golpeamos el extremo libre de la regla, ésta comenzará a vibrar. si lo observamos a cámara lenta, veremos que se trata de una oscilación, sin ninguna diferencia más que la rapidez. Un cuerpo oscilante tiene un punto de equilibrio o reposo: aquel en que el cuerpo permanece quieto si se lo deja suelto. Llamaremos en adelante punto punto cer cero a este lugar de equilibrio; en el caso del péndul p éndulo, o, se encuentr encuentraa en la mit mit ad del recorrido recorrido y su p osición osición es perfe p erfectame ctament ntee vert vertic ical al.. ›› Elongación Cuando un cuerpo oscila o vibra, en todo momento hay una cierta distancia hasta el punto cero; naturalmente, si el cuerpo se encuentra ahí, esta distancia es cero. Conforme el cuerpo se aleja del punto cero hacia un lado (por ejemplo, hacia la derecha), esta distancia es positiva; si lo hace en dirección al lado contrario, la distancia es negativa. A esta distancia, positiva o negativa, entre el cuerp cuerpoo y el p unto unt o cero cero la lla llama marem remos os elongación .
Figura 1
›› Amplitud La amplitud es la máxima elongación, es decir: la mayor distancia al punto cero que el cuerpo alcanza cuando oscila (fig. 1); aunque a veces llamamos así a la distancia entre los dos puntos de máxima elongación, el positivo y el negativo. Esta distancia sería, lógicamente, el doble de la anterior. Esto no supone ningún problema para nosotros, pues al ser una el doble de la otra, son proporcionales y nos podemos referir indistintamente a cualquiera de los dos conceptos con el nombre de amplitud . ›› Frecuencia Las oscilaciones se repiten cíclicamente, lo que significa que, en su
movimiento, todo se vuelve a repetir exactamente igual (o casi) llegado un cierto momento. En general tenemos cuatro fases: 1. El cuerpo se encuentra en un extremo de máxima elongación y se dirige al punto cero. 2. El cuerpo está en el punto cero y sigue en la misma dirección hacia el punto opuesto de máxima elongación. 3. El cuerpo llega a este extremo opuesto, se detiene e inicia su camino de retorno. 4. El cuerpo pasa por segunda vez por el punto de equilibrio, camino del punto de partida, donde se detendrá momentáneamente. A partir de este momento decimos que se ha completado un ciclo y observaremos cómo se repite una y otra vez. Si, en un lapso fijo de tiempo (un segundo, por ejemplo), contamos el número de ciclos completos que el cuerpo describe, tendremos una medida de su frecuencia vibratoria en ciclos por segundo. La unidad que usamos para expresar frecuencias es el hertzio o hercio (Hz); una frecuencia de 1 Hz equivale a un ciclo por segundo. El sonido es producido por vibraciones y su altura depende de la frecuencia de éstas.
› Concepto de onda ¿Qué es una onda? A veces puede ser más fácil describir qué no es
una onda. Una corriente de agua, como un río, no es una onda, que se parecería más a las olas del mar. Pensemos en un medio material, formado por una infinidad de pequeñas partículas, como el agua; resulta indiferente que este medio sea sólido, líquido o gaseoso. Representemos las partículas de este medio mediante una fila de cuatro monedas, colocadas sobre una mesa de forma que se toquen las unas con las otras. Sujetemos tres monedas situadas consecutivamente con sendos dedos de una mano, dejando libre la cuarta. Si lanzamos otra moneda contra la primera de la fila, la que estaba libre al otro extremo saldrá despedida. Las monedas que teníamos firmemente sujetas no se han movido. Esto es un ejemplo claro de onda; concretamente de una del tipo mecánico. Pondremos otro ejemplo de onda mecánica: dos personas sostienen una cuerda larga, sin que esté tensa; una de las dos da una sacudida rápida y se verá claramente cómo ésta viaja por la cuerda hasta el otro extremo. ›› Ondas en un medio Lo que distingue una onda de otros fenómenos naturales en que existe un desplazamiento neto de la materia es que en ellas es la energía del movimiento lo que se transmite de una partícula a otra, no las partículas en sí. En un medio material cada partícula tiene un lugar más o menos estable; si una empuja a su vecina, ésta a su vez hará lo mismo con una tercera. Cuando la primera partícula vuelva a su lugar, también lo hará la segunda, más tarde. El movimiento de vaivén se transmite de una a otra. Las partículas no se desplazan
netamente, sino que es la perturbación momentánea de su estado de reposo lo que se traslada. Una onda es un desplazamiento de energía, no de materia. Cuando una piedra cae sobre la superficie del agua, el estado de equilibrio se perturba; esta perturbación se transmite en forma de circunferencias concéntricas, en todas direcciones. Un objeto que flote en la superficie, como un corcho, sube y baja al paso de la onda, pero no necesariamente se mueve del sitio. ›› Otras ondas No todas las ondas necesitan un medio para transmitirse; por ejemplo, las de radio se transmiten a la perfección en el vacío absoluto y el equilibrio perturbado es el de un campo electromagnético. La luz que vemos se comporta en muchas ocasiones como la onda que de hecho es, y también se transmite en el vacío. ›› Ondas transversales y longitudinales Las ondas son una perturbación periódica del medio en que se mueven. En las ondas longitudinales, el medio se desplaza en la dirección de propagación. Por ejemplo, el aire se comprime y expande en la misma dirección en que avanza el sonido (fig. 2). En las ondas transversales, el medio se desplaza en ángulo recto a la dirección de propagación. Por ejemplo, las ondas en un estanque avanzan horizontalmente, pero el agua se desp laza verticalmente.
Los terremotos generan ondas de los dos tipos, que avanzan a distintas velocidades y con diferentes trayectorias. Estas diferencias permiten determinar el epicentro del sismo. Las partículas atómicas y la luz pueden describirse mediante ondas de probabilidad, que en ciertos aspectos se comportan como las ondas de un estanque.
Figura 2
› El sonido El sonido puede ser visto como un movimiento ondulatorio en el aire u otro medio elástico; en este caso, se trata de un estímulo. El sonido también puede ser visto como una excitación del mecanismo del oído humano que da lugar a su percepción; en este caso, es una sensación. Hemos visto en el apartado anterior que el sonido es una onda, concretamente una de carácter mecánico y, más concretamente, longitudinal.
Cuando un cuerpo vibra en el aire, transmite su vibración a las «partículas de aire» que lo circundan. Esto produce pequeñas «olas» que se expanden en forma de esferas concéntricas en todas direcciones; tarde o temprano, éstas alcanzan nuestro tímpano y se inicia el mecanismo de la audición. En ocasiones diremos que el sonido está formado por ondas de presión, lo que significa que las partículas, cuando se juntan y se separan sin alejarse nunca mucho de su posición fija, dan lugar a capas de aire más «concentrado» o «enrarecido», respectivamente. Insistimos en que estas capas (bastante estrechas) que alternan alta y baja presión, tienen forma esférica y su radio crece conforme la onda se transmite. La anchura de una onda de alta o baja presión es ustamente la mitad de la distancia que la separa de la siguiente; las ondas se parecen a las crestas y los valles de las ondulaciones de la superficie del agua. El punto cero a que nos referíamos en el primer apartado corresponde a la presión atmosférica media reinante en la zona. Los instantes de máxima o mínima presión corresponden a los extremos de máxima y mínima elongación del cuerpo que vibra. La distancia entre una cresta y la siguiente es la longitud de onda. Según la forma de la onda, se producen diferentes sonidos: más graves (ondas muy juntas entre sí), más graves (más separadas), más fuertes o débiles (dependiendo de la intensidad). ›› La velocidad del sonido Todas las ondas avanzan a una cierta velocidad: algunas son extremadamente rápidas, como la luz. Otras son bastante lentas,
como una sacudida en la cuerda floja o las olas del mar. El sonido tiene una velocidad en el aire de unos 340 metros por segundo; comparada con la velocidad de la luz, es francamente lenta. El sonido no sólo se transmite por el aire, sino también a través de los sólidos y los líquidos. Las ondas de sonido son longitudinales; es decir, se pueden propagar por cualquier medio, ya sea sólido, ya sea fluido. En la tabla 1 se pueden ver las diferentes velocidades de propagación del sonido. Velocidad del sonido en distintos medios (a 20º C) M aterial
Densidad (kg/m-3)
Velocidad (m/s-1)
Aire
1,20
344
Agua
1.000
1.498
Vidrio
2.300
5.170
Aluminio
2.700
5.000
Hierro
7.900
5.120
Tabla 1
El sonido se transmite por las partículas que forman un medio; a cada una de ellas se le da una energía que le hace vibrar; así transmite su vibración a las partículas que le rodean y transfiere la energía que le han proporcionado. Un claro ejemplo de esto se
puede ver en la superficie del agua: al tirar una piedra, las partículas del agua oscilan y transmiten su movimiento a las contiguas sucesivamente. Después de que haya pasado un tiempo desde el impacto, las ondas se van atenuando hasta desaparecer. Por ello, los diferentes sonidos dependen de los distintos materiales por los que se muevan. No es lo mismo propagar el sonido por el aire, donde las partículas están más sueltas y la transmisión es más difícil, que hacerlo a través del hierro, el cual, al ser un sólido, tiene las partículas muy unidas y permite una transmisión rápida del sonido. Generalmente, el sonido se mueve a mayor velocidad en líquidos y sólidos que en gases. Cuanto más denso es el material, mayor tiende a ser la velocidad del sonido en este medio. Así, en el acero puede llegar a los 5.000 metros por segundo. Una velocidad de 340 metros por segundo se puede convertir de manera aproximada, sin cometer un error excesivo, a la de 1 kilómetro cada 3 segundos. De esta forma es fácil calcular la distancia aproximada de un rayo, simplemente dividiendo por tres el tiempo en segundos que tarda el trueno en llegar, y expresando el resultado en kilómetros. ›› La barrera del sonido Si bien la velocidad de la luz es insuperable, la del sonido es relativamente fácil de sobrepasar por parte de un vehículo supersónico, por ejemplo, el avión Concorde. Las dificultades estriban en la transición entre dos situaciones: la infrasónica y la supersónica. Las ondas de presión, que como hemos visto se
expanden en forma de esferas concéntricas, forman una figura en forma de cono cuando la fuente sonora se desplaza a velocidad supersónica. En el momento del paso de la velocidad infrasónica a la supersónica, las ondas se acumulan en la punta de la aeronave y forman una auténtica barrera de altísima presión; cuando ésta toca el suelo, todo aquel situado en la superficie percibe un gran estruendo. ›› El tono o altura Hemos adelantado ya que la frecuencia de un sonido determina su altura. Es el momento de precisar algo más esta relación entre el tono y la frecuencia. La calidad de agudo o de grave de un sonido es lo que llamamos altura o tono. Es una sensación que tendemos a unificar para cada sonido: siempre que es posible, nuestro oído asigna a un sonido una única altura. Los sonidos de frecuencia más alta se perciben como más agudos; los de más baja, como más graves. ¿Existe alguna otra relación entre las distintas alturas? Efectivamente, cada vez que la frecuencia es doble, el tono que se percibe es una octava más agudo. Hay que tener en cuenta que el concepto de octava no tiene realmente nada que ver con el hecho de que las escalas más comúnmente utilizadas en la música occidental consten de siete notas. En música, una octava es el intervalo que separa dos sonidos cuyas frecuencias fundamentales tienen una relación de dos a uno, y esta denominación proviene exclusivamente de este hecho. Una sucesión de tonos cuyas frecuencias sean el doble, nota a nota, de
otra sucesión, se percibe como una que tiene esencialmente las mismas alturas, sólo que más agudas, y decimos que está una octava por encima.
› Cualidades del sonido ›› Intensidad La intensidad del sonido percibido, o la propiedad que hace que éste se capte como fuerte o como débil, está relacionada con la de la onda sonora correspondiente, también llamada intensidad acústica. Se trata de una magnitud que nos da una idea de la cantidad de energía que fluye por el medio como consecuencia de la propagación de la onda. Se define como la energía que atraviesa por segundo una unidad de superficie dispuesta perpendicularmente a la dirección de propagación. Equivale a una potencia por unidad de superficie y se expresa en W/m2. La intensidad de una onda sonora es proporcional al cuadrado de su frecuencia y al de su amplitud y disminuye con la distancia del foco. La magnitud de la sensación sonora depende de la intensidad acústica, pero también depende de la sensibilidad del oído. El intervalo de intensidades acústicas que va desde el umbral de audibilidad, o valor mínimo perceptible, hasta el umbral del dolor es muy amplio, y ambos valores límite están en una relación del orden de 1014.
Debido a la extensión de este intervalo de audibilidad, para expresar intensidades sonoras se emplea una escala cuyas divisiones son potencias de diez y cuya unidad de medida es el decibelio (dB). Ello significa que una intensidad acústica de 10 decibelios corresponde a una energía diez veces mayor que una intensidad de cero decibelios; una intensidad de 20 dB representa una energía 100 veces mayor que la que corresponde a 0 decibelios y así sucesivamente. Otro de los factores de los que depende la intensidad del sonido percibido es la frecuencia: ello significa que para una frecuencia dada un aumento de intensidad acústica produce un incremento del nivel de sensación sonora, aunque intensidades acústicas iguales a diferentes frecuencias pueden dar lugar a sensaciones distintas. ›› El tono El tono es la cualidad del sonido mediante la cual el oído le asigna un lugar en la escala musical y que permite, por lo tanto, distinguir entre los graves y los agudos. La magnitud física que está asociada al tono es la frecuencia. Los sonidos percibidos como graves corresponden a frecuencias bajas, mientras que los agudos se deben a frecuencias altas. Así, el sonido más grave de una guitarra corresponde a una frecuencia de 82,4 Hz y el más agudo a 698,5 Hz. Junto con la frecuencia, en la percepción sonora del tono intervienen otros factores de carácter psicológico; por ejemplo, en general, al elevar la intensidad aumenta el tono percibido para las frecuencias altas y disminuye para las bajas. Entre las frecuencias
comprendidas entre 1.000 y 3.000 Hz el tono es relativamente independiente de la intensidad. ›› El timbre El timbre es la cualidad del sonido que permite distinguir sonidos procedentes de diferentes instrumentos, aun cuando posean igual tono e intensidad. Debido a esta misma cualidad es posible reconocer a una persona por su voz, que resulta característica de cada individuo. El timbre está relacionado con la complejidad de las ondas sonoras que llegan al oído; pocas veces éstas corresponden a sonidos puros, algo que sólo generan los diapasones, los cuales se deben a una única frecuencia y se representan mediante una onda armónica. Los instrumentos musicales, por el contrario, producen un sonido más rico que procede de vibraciones complejas; cada una de ellas puede considerarse compuesta por una serie de vibraciones armónicas simples de una frecuencia y de una amplitud determinadas que si se consideraran de forma separada, daría lugar a un sonido puro. Esta mezcla de tonos parciales es característica de cada instrumento y define su timbre. Debido a la analogía existente entre el mundo de la luz y el del sonido, al timbre se le denomina también color del tono. Las distintas formas de onda, que se reflejan en diferentes timbres del sonido, tienen su origen en la mezcla de armónicos, los cuales se deben a su vez a la vibración fraccionada de los cuerpos.
›› Difracción Las ondas son capaces de traspasar orificios y bordear obstáculos interpuestos en su camino. Esta propiedad característica del comportamiento ondulatorio puede explicarse como una consecuencia del principio de Huygens y del fenómeno de interferencias. Así, cuando una fuente de ondas alcanza una placa con un orificio o rendija central, cada punto de la porción del frente de ondas que limita la rendija se convierte en foco emisor de ondas secundarias de idéntica frecuencia. Los focos secundarios que corresponden a los extremos de la abertura generan ondas que son las responsables de que el haz se abra tras la rendija y bordee sus esquinas. En los puntos intermedios se producen superposiciones de las ondas secundarias que dan lugar a zonas de intensidad máxima y mínima típicas de los fenómenos de interferencias. ›› Reflexión y refracción del sonido La reflexión es un cambio que se produce en la dirección de propagación de una onda dentro de un medio. Ocurre cuando la onda choca contra la superficie de otro medio, se refleja y cambia su dirección, pero no su forma. La refracción es la consecuencia de que una onda que se propaga por un medio pase a otro en el que su velocidad de propagación es diferente; su dirección también cambia y se produce, además, una pérdida de energía en este proceso. Ahora que ya sabemos ligeramente en qué consisten estas propiedades, veamos algunos de los efectos asociados a ellas, entre
los que se encuentran el eco, los radares y las ecografías. • Eco: a todos nos han engañado alguna vez diciéndonos que el eco era una persona que repetía lo que tú decías. En verdad, un eco es una onda sonora reflejada, cuyo intervalo entre la emisión y la repetición del sonido corresponde al tiempo que tardan las ondas en llegar al obstáculo y volver. Normalmente, el eco es más débil que el sonido original porque no todas las ondas se reflejan; algunas de ellas se desvanecen y, por lo tanto, pierden energía. Generalmente, los ecos escuchados en las montañas se producen cuando las ondas sonoras rebotan en grandes superficies alejadas más de 30 m de la fuente. Si golpeamos levemente un tubo metálico pegado al oído también podemos escuchar ecos. • Radar: es un sistema electrónico que permite detectar objetos fuera del alcance de la vista y determinar la distancia a la que se encuentran proyectando sobre ellos ondas de radio. No sólo indican la presencia y la distancia de un objeto remoto, sino que también fijan su posición en el espacio, su tamaño y su forma, así como su velocidad y la dirección de desplazamiento. Todos los sistemas de radar utilizan un transmisor de radio de alta frecuencia que emite un haz de radiación electromagnética, con una radiación de longitud de onda comprendida entre algunos centímetros y cerca de 1 m. Los objetos que se hallan en la trayectoria del haz reflejan las
ondas de nuevo hacia el transmisor, que las detecta y representa los datos que ha recibido en una pantalla. El radar se fundamenta en las leyes de la reflexión de las ondas de radio. Similar al radar pero de uso diferente es el sonar. Este sistema se utiliza bajo el agua, es decir, en submarinos o buques de guerra. El sonar emite pulsos de ultrasonido mediante un dispositivo transmisor sumergido. Luego, a través de un micrófono sensible, capta los pulsos reflejados por posibles obstáculos o submarinos que se hayan topado con ellos. Con el sonar sólo podemos saber la distancia a la que se encuentra el objeto, pero no su profundidad. • Ecografías: todos hemos visto alguna vez una ecografía, pero en lo que no habremos caído casi nunca es en que se deben al sonido. Sabemos que se utilizan en las embarazadas para seguir un desarrollo detallado del feto sin ningún tipo de riesgo. Es una técnica en la que un sonido de frecuencia muy alta se dirige hacia el organismo, donde se refleja y el sonido resultante se digitaliza para producir una imagen móvil en una pantalla o una fotografía. Esta técnica no se puede utilizar para observar los huesos o los pulmones, ya que el aire y los huesos absorben prácticamente todo el haz de ultrasonidos emitidos.
› Vibración fraccionada de los cuerpos
›› La serie armónica Cuando un cuerpo vibra, lo puede hacer en toda su longitud o por fracciones. Cuando los cuerpos vibrantes, como las cuerdas y los tubos sonoros, vibran por fracciones, éstas son iguales entre sí: por mitades, tercios, etcétera. Para ser exactos, los cuerpos suelen vibrar a la vez en toda su longitud y también por mitades, tercios y las subsiguientes subdivisiones. Esto produce un movimiento generalmente muy complejo, salvo excepciones, ya que mezclan varios modos vibratorios. Cuando una cuerda (o un tubo) vibra en toda su longitud, este modo es el que tiene la frecuencia más baja, o sea, el tono más grave; lo llamaremos a este modo 1. Cuando vibra por mitades, su frecuencia es el doble y su sonido es una octava más aguda que el modo 1; éste se denomina modo 2. Cuando vibra por tercios, la frecuencia es el triple a la del modo 1, y su altura está una quinta por encima de la del modo 2 (una octava más una quinta por encima del modo 1); es el modo 3. Si la relación o proporción entre las frecuencias de los modos 2 y 1 es de 2 a 1, y la del modo 3 con el 1 está en una proporción de 3 a 1, entonces los modos 3 y 2 se encuentran en una proporción de frecuencias de 3 a 2. El modo 4 tiene una frecuencia cuádruple de la del modo 1, y se encuentra en proporción de 2 a 1 respecto al modo 2. Cada vez que la proporción es doble, como en este caso, la altura es una octava más aguda. Por ello tenemos un sonido que es dos octavas más agudo que el sonido 1, y una cuarta por encima del sonido 3. De esta forma vamos construyendo una sucesión de sonidos que
recibe el nombre de serie armónica. Hay que reparar en unos puntos importantes acerca de esta serie: cada sonido de ella corresponde a un modo de vibración de un cuerpo sencillo como una cuerda o un tubo. Los intervalos que forman los sonidos de la serie armónica son iguales, sea cual sea el sonido número 1, el cual corresponde al tono que oímos. Los demás sonidos estarán por encima de éste, guardando las mismas relaciones interválicas. ›› M ezcla de armónicos Es muy importante advertir lo siguiente: la vibración de los cuerpos es compleja y se compone de una combinación o mezcla de otros modos de vibrar más sencillos. Puesto que a cada uno de éstos le corresponde un sonido de la serie armónica, estos sonidos están presentes a la vez en un timbre concreto; si no oímos normalmente cada armónico en particular es porque en nuestro oído los «fundimos» en uno solo, cuya altura es la del sonido número 1 de la serie. De todas formas, con un poco de concentración es posible distinguir, por ejemplo, los primeros armónicos de una nota grave del piano tocada con fuerza. De hecho, si recorremos la serie ascendentemente y vamos tocando suavemente los distintos sonidos, tendremos la sensación de que de alguna manera aquéllos ya estaban sonando antes de tocarlos; ahora podemos decir tranquilamente que, efectivamente, estaban sonando. Otro punto fundamental para comprender el fundamento del timbre es que los armónicos, su cantidad y su intensidad relativa, son los responsables de las diferencias entre unos timbres y otros. Para un
timbre dado, los armónicos son sonidos con unas alturas fijas pero unas intensidades que dependen del tipo de timbre. Un timbre de flauta tiene un primer armónico fuerte; el segundo es mucho más débil y los restantes casi no existen. Un timbre de clarinete tiene principalmente armónicos impares. Un timbre de violín tiene armónicos pares e impares. Además, el timbre depende de la forma de la onda: podemos ver ahora cómo los tres conceptos están íntimamente relacionados: timbre, forma de onda y armónicos. ›› Formas de onda La forma de onda es el resultado directo de los armónicos presentes en un sonido y, a su vez, esto determina el timbre que percibimos. Los timbres más «claros», brillantes o incluso chillones o estridentes, tienen una gran cantidad de armónicos agudos; dicho de otra forma, los armónicos que corresponden a números de orden elevado en la serie tienen una intensidad relativamente alta. Por otro lado, los sonidos con «cuerpo», apagados, dulces o de color «oscuro», son pobres en armónicos agudos. A la vista de una determinada forma de onda, la presencia de ángulos, esquinas y segmentos más o menos rectilíneos es un síntoma de abundancia en armónicos agudos; en cambio, las formas de onda más suaves o redondeadas son más pobres en armónicos agudos. ›› La onda senoidal. El sonido del diapasón
De todas las formas de onda, unas más «puntiagudas» y otras de curvas más suaves, la que con mayor propiedad pertenece al segundo grupo es la onda senoidal, la cual posee muchos significados físicos y tiene importancia por su carácter de onda pura. Los tonos senoidales son extremadamente insípidos al oído. Al golpear un diapasón de horquilla, se produce un sonido con forma de onda senoidal, aunque no en el momento mismo del impacto, sino cuando han transcurrido unos segundos. Los sonidos agudos de la flauta también son aproximadamente senoidales. El análisis de los armónicos presentes en un sonido con un determinado timbre se realiza mediante el análisis de Fourier. El teorema de Fourier viene a decir que cualquier forma de onda, a condición de que sea periódica (es decir, que se repita siempre igual) se puede descomponer en una serie más o menos larga de ondas puras (senoidales) llamadas armónicos. La combinación o mezcla de éstos produce de nuevo el sonido original, y sus frecuencias son múltiplos enteros de la del sonido fundamental. Por supuesto, según esta lógica, los armónicos no pueden descomponerse en otros sonidos distintos, ya que son puros. Un timbre puro (una onda senoidal) consta de un solo sonido, igual a sí mismo, mientras que uno complejo (una forma de onda periódica distinta a la senoidal) consta de una serie de ondas senoidales mezcladas, sumadas o combinadas entre sí. Todos estos sonidos nos llegan fundidos en uno solo de forma que normalmente no podemos distinguir unos de otros. Se puede decir que nuestro oído es una especie de analizador de Fourier.
¿Qué ocurre si la onda no es periódica? En este caso tenemos una representación en forma de un mapa de frecuencias que no está formado por líneas situadas a distancias fijas, sino con algunos sonidos entre ellas. Nuestro oído percibe estos sonidos como ruidos.
Bibliografía EVEREST, Alton (2009). Master Handbook of Acoustics. Nueva York, McGrawHill/TAB Electronics. HALLIDAY, David / R ESNICK , Robert / W ALKER , Jearl (2010). Fundamentals of Physics. Nueva York, John Wiley & Sons.
/ Fundamentos psicológicos y emocionales del sonido en los audiovisuales
Caterina Calderón Garrido, Universidad de Barcelona Josep Gustems Carnicer, Universidad de Barcelona
› Elementos psicobiológicos de la música y del sonido Hablar hoy de música y emoción es algo que no sorprende a nadie. Existe una amplia literatura dedicada a estudiar los efectos psicológicos del sonido y la música en los seres humanos: la musicoterapia y la psicología musical son un claro exponente de este interés creciente en nuestro siglo. El estudio de la emoción musical vive actualmente un renacimiento, aunque la literatura sobre el tema presente un perfil confuso y, con frecuencia, poco científico. El área epistemológica se encuentra aún en proceso de delimitación y necesitamos más precisión respecto al estudio de música y emoción.
A pesar de ello, todo el mundo coincide en señalar que el sonido nos afecta. Las relaciones entre música y comportamiento forman parte de la historia de la humanidad y han sido recogidas por numerosos escritos y autores a lo largo de los tiempos. La tradición primordial es el primer fundamento de dichas relaciones. Por citar algunos ejemplos debemos referirnos a Platón y sus propuestas políticoeducativas recogidas en La República sobre el ethos (proporción, armonía) y el pathos (sentimiento, empatía) de las diferentes músicas de su tiempo y sus efectos sobre la población. De la Grecia clásica nos ha llegado también el mito de Orfeo, el relato de Ulises y las sirenas, y la consideración de las musas como inductoras de estados anímicos especiales. El poder de la música atribuido a la musa Euterpe sería tal que la palabra música acabó designando el nombre colectivo de las musas ( Mousiké). En las culturas tradicionales se vinculan estados de ánimo, momentos del día, del año, etc., con determinadas características de la música apropiada a ellas; tal sería el caso de los talas y los ragas hindúes y de los maqâms árabes. Toda la tradición mitológica, chamánica, mágica y cuentística avala el carácter misterioso de la experiencia musical. Las religiones aprovechan el poder de esta musa que es capaz de amansar las fieras, encantar a unos niños, crear el mundo con una palabra o doblegar la voluntad más poderosa con una canción. En tiempos más recientes, las ciencias biológicas, médicas y psicológicas han investigado las bases que sustentan la relación entre el sonido y los estados de ánimo y las conductas. Es un
campo de estudio de amplio calado, pues abarca la anatomía, la fisiología, el aprendizaje, la motivación, la cultura y el arte, por lo cual la mejor manera de abordar dicho estudio es mediante grupos multidisciplinares cuyo objetivo sea un trabajo conjunto de carácter interdisciplinar. Estamos en condiciones de afirmar que el oído es el primer órgano sensorial del feto, que se forma hacia la mitad del embarazo y es el primer contacto con el mundo exterior que recibe el ser humano. El oído está conectado con áreas del cerebro muy diversas relacionadas con la activación, la emoción, el lenguaje, la orientación espacial, etc. por lo que nacer con un oído en buenas condiciones facilitará el desarrollo normal y óptimo de la persona. Diversos estudios han demostrado que la intensidad del sonido y la velocidad o tempo son los principales agentes de los cambios de conducta; así pues, un ambiente silencioso o de baja intensidad promueve el descanso y la baja activación neuronal, mientras que el ruido intenso molesta y fuerza cambios en nuestra orientación conductual. Actualmente, se admite que existe una corteza auditiva de procesamiento «grosero» del estímulo auditivo, encargada de categorizar éste, y otra más especializada, responsable de integrar la sensación auditiva con conceptos e ideas guardadas en la memoria, lo que permite, por comparación con experiencias previas, la interpretación de estas sensaciones dentro de cánones estéticos, culturales o personales. Esta percepción categórica en el sistema auditivo permite reconocer variaciones de una misma fuente, agrupándolas en unidades mayores: por ejemplo, las sílabas o las notas musicales. Así pues, la modalidad sensorial auditiva
incluye dos procesos cognitivos funcionalmente diferentes: los lingüísticos y los propiamente musicales . Existe, de hecho, una estrecha relación entre música y lenguaje en el nivel perceptivo, de forma que ambos sistemas pueden ser considerados como sistemas formales capaces de transmitir una información concreta, además de valores culturales, sociales, emocionales o intelectuales. En diferentes estudios en los que se han empleado técnicas de imaginación cerebral, se ha podido demostrar que los músicos establecen una percepción categórica para los tonos similar a la establecida para las consonantes en el lenguaje. Para ello, la información musical se lateraliza de forma diferente en los músicos profesionales que en quienes sólo tienen una experiencia musical meramente recreativa. En el primer grupo se interpreta la información musical en el hemisferio izquierdo y se establece un nivel profundo de análisis, mientras que en el segundo se dirige hacia el hemisferio derecho, donde únicamente se capta el contorno melódico, sin penetrar en un nivel analítico profundo. Así, podemos afirmar que la integración y la reelaboración de la información sonora depende de una habilidad tonal innata y de las experiencias previas de cada individuo. Respecto al oído absoluto, actualmente sabemos que quienes lo poseen presentan una asimetría en una de las regiones cerebrales más relacionadas con el lenguaje, el llamado planum temporale. Muchos aspectos del procesamiento melódico dependen de la integración de la corteza temporal superior y la frontal y, más específicamente, de las regiones de la corteza auditiva situadas en el
giro temporal superior derecho, que se encuentran implicadas en el análisis del tono y del timbre. De igual forma, la memoria de trabajo para los tonos musicales depende de la interacción entre la corteza temporal y la frontal. Al contrario que el oído absoluto, la habilidad armónica y el sentido del centro tonal, van aumentando con la edad y son fenómenos básicamente culturales, de forma que las preferencias por la consonancia o la disonancia no son en absoluto transculturales. Otro elemento que condiciona de forma importante el tipo de habilidad musical es la memoria tonal o memoria para configuraciones secuenciales de tonos. Ésta aumenta con la edad, pero no así con el grado de experiencia musical, si bien esta habilidad desaparece más fácilmente en individuos con una formación musical escasa. Más aún, unos niveles elevados de experiencia musical en personas de edad avanzada atenúan el efecto negativo de la edad sobre la pérdida de memoria y la velocidad de percepción. Una forma de objetivar estas respuestas es a través de la medición de las emociones negativas generadas por las disonancias o la desafinación, que parecen ser relativamente consistentes y estables, y no están influidas por las preferencias musicales (Meyer, 2001). Para Hargreaves (1998), el impacto de la experiencia musical sobre la esfera emocional es especialmente importante en determinados colectivos, como en el caso de los adolescentes, en los que tiene una función integradora, pues les permite formar su
imagen del mundo exterior y satisfacer sus necesidades emocionales. A nivel macroestructural, el cerebro se divide en dos mitades aparentemente iguales, los hemisferios cerebrales. La mitad izquierda recibe información y controla los movimientos de la parte derecha de nuestro cuerpo, de manera que las dos mitades del cerebro y las de nuestro cuerpo están «cruzadas». Aparentemente, cada uno de los hemisferios cumple una función biológica distinta: así, el hemisferio izquierdo está implicado en la regulación precisa de las acciones motrices y en el establecimiento de un orden serial de secuencias repetitivas. Desde el punto de vista perceptivo, el hemisferio izquierdo participa en el análisis temporal de secuencias auditivas no-verbales y desde hace tiempo es bien conocida su implicación fundamental en el procesamiento, comprensión y producción del lenguaje. Por el contrario, el hemisferio derecho controla la prosodia del lenguaje y la entonación en el canto. Así, las lesiones en el hemisferio derecho no bloquean el lenguaje, pero generan la producción de un habla monótona, sin inflexiones. Contrariamente, las lesiones en las áreas del hemisferio izquierdo hacen que el paciente no pueda hablar, aunque mantenga la capacidad de cantar canciones con letra. Estudios de varios casos de lesiones cerebrales han demostrado que el hemisferio derecho produce una discapacidad específica para el reconocimiento de la información musical. Por el contrario, las lesiones en el hemisferio izquierdo producen alteraciones en tareas de memoria musical (Desp ins,
1994). La complejidad del procesamiento cerebral que lleva a término un músico implica una fenomenología biológica todavía no del todo clara, más aún cuando se ha podido comprobar que las áreas cerebrales activadas durante la audición musical son sustancialmente diferentes en personas con o sin entrenamiento musical. De entrada, se ha descrito una diferencia general entre personas «musicales» y «no musicales», con lo que se sugiere que existe un innatismo musical. Esto ha supuesto, en algunos casos, una cierta discriminación de aquellas personas que carecen de una habilidad musical innata (Blacking, 1994). Un estudio británico sugería que más de tres cuartas partes de los profesores de música consideraban que un niño no llegaría a ser un buen músico a menos que poseyera este talento innato. En realidad no existen, por el momento, evidencias científicas que apoyen la existencia de una base genética clara para el talento musical. No todo el mundo reacciona de igual forma ante la música, ni sus beneficios son tan patentes. Los músicos profesionales, por ejemplo, deberían ser los principales beneficiados y, en cambio, presentan una esperanza de vida inferior en un 22% al resto de la población (según un estudio de la International Society for M usic Education —ISME—). Por lo tanto, no todo son virtudes en el mundo de la música; tendremos que ser muy prudentes en nuestras aseveraciones.
› Evocar emociones de forma poderosa
La música es el medio de expresión de los estados anímicos. DESCARTES En general, y siguiendo a Bisquerra (2000), podemos afirmar que una emoción es un estado de ánimo complejo del organismo, caracterizado por una excitación o perturbación que predispone a una respuesta organizada. Las emociones se generan como respuesta a un acontecimiento externo o interno, como las interrelaciones sociales, los pensamientos o las sensaciones propioceptivas. Una emoción tiene componentes de tres tipos de respuesta: neurofisiológica, conductual y cognitivo-verbal, que, a su vez, pueden presentarse en tres dimensiones: valencia (agradabledesagradable), arousal (relajante-activante) y dominancia (intensidad-suavidad). El ámbito de las emociones ha sido un terreno ampliamente debatido en la psicología. Quienes se han preocupado de explicar el comportamiento de los seres humanos han buscado razones que motiven la diversidad de conductas del ser humano, vinculándolas con elementos naturales externos, familiares, genéticos y ambientales, y en este sentido el entorno sonoro es uno de los responsables de nuestras conductas. La utilización de determinados tipos de música en ceremonias, actos, rituales, etc. demuestra el interés por ajustar y coincidir nuestra intención con el ambiente propicio y necesario para la comprensión efectiva de un acto. En este sentido, la música en los audiovisuales, y particularmente en el
cine, adopta un rol fundamental en el establecimiento de estados emocionales en el público, ya sean coincidentes o divergentes con la narración y las imágenes. Los compositores de música de películas deben seguir indicaciones emocionales precisas según las intenciones comunicativas del film en que están trabajando. La psicología básica, que se ocupa entre otros temas del lenguaje, ha sido uno de los campos de reflexión en torno a la definición y ubicación de la música y del sonido, dentro de un terreno más amplio que la comunicación verbal. Así pues, Rousseau (siglo XVIII) vinculó e igualó la música al lenguaje. Posteriormente Spencer, en el siglo XIX, propuso que la música fuese un tipo especial dentro de los lenguajes, a saber, uno de ellos; así, todos los componentes de ésta pertenecerían al lenguaje. Darwin, por su parte, pensó todo lo contrario, es decir, que todos los lenguajes serían un subtipo de música, la cual les precedería y sería su sustrato natural. Hoy día, Mithen et al. proponen un acuerdo entre ambas teorías al sostener que existen elementos del lenguaje fuera de la música y elementos de la música fuera del lenguaje; aunque ambos compartirían elementos comunes o vías relacionadas con las tareas de organización temporal, denominadas SSIRH (del inglés Shared Syntactic Integration Resource Hypothesis). Al tratar el tema del significado de la música, debemos tener en cuenta la paradoja de, por un lado, la presencia inevitable de la evocación que suscita el sonido y, por el otro, la imposibilidad de verbalizarla de manera unívoca. La raíz de muchos errores está, en el fondo, en creer que el lenguaje constituye el
modelo de todos los fenómenos simbólicos. El estudio de la música aporta una corrección y una contribución esenciales al conocimiento del mundo simbólico. La traducción de una emoción abstracta en una sensación corporal se lleva a cabo en nuestro cuerpo, y en este proceso intervienen las hormonas y los neurotransmisores que proporcionan señales al cerebro para que nuestro cuerpo reaccione a determinados estímulos. Los avances en las neurociencias son fundamentales para entender el papel de los estímulos en las emociones y sus procesos internos. Se ha comprobado que la percepción de estímulos musicales placenteros o desagradables produce cambios en la presencia de algunas hormonas responsables de los sistemas de neurotransmisión cerebral: la audición de sonidos agradables produce un incremento de cortisol (la hormona contra el estrés), mientras que los de carácter desagradable producirían aumentos en los niveles cerebrales de serotonina, una neurohormona relacionada con fenómenos como la depresión o la agresividad. De modo general, podemos afirmar que existe una memoria de las emociones debida al aprendizaje y una percepción de distintas intensidades en éstas. Otro dato importante es el conocimiento de que las emociones negativas o el malestar tienden a perdurar unas cinco veces más que las positivas o el bienestar (lo que se conoce como Ley de la simetría hedónica, de Frijda), por lo que el ser humano debe perseguir su equilibrio emocional a través de más estímulos positivos que negativos. Esta afirmación puede aplicarse
también a la música para películas y sus características. Las emociones (del latín movere, «mover») son reacciones a las informaciones que recibimos de nuestro entorno. Su intensidad está en función de la evaluación subjetiva que realizamos sobre cómo la información recibida puede afectar a nuestro bienestar. En esta evaluación intervienen conocimientos previos, creencias, objetivos personales, percepción del ambiente provocativo, etc. La función de las emociones es motivar la conducta y, según Darwin, tendrían un carácter adaptativo, por lo tanto, pragmático. Las emociones pueden afectar a la percepción, a la atención, a la memoria, al razonamiento o a la creatividad. En resumen, éstas poseen una función motivadora, adaptativa, informativa y social, y ejercen una importante contribución al desarrollo personal del individuo. La experimentación de las emociones es siempre anterior a la capacidad para expresarlas: los niños saben discriminarlas antes de ser capaces de denominarlas. De todas formas, debemos pensar que una misma música no necesariamente conseguirá en todos sus oyentes los mismos efectos, pues esto dependerá de las características de cada receptor, y de las particulares metáforas personales y sociales vinculadas al hecho sonoro. El poder de la música recae, entre otras cosas, en la experiencia hedonista que provoca, p ues es básicamente placentera y actúa de forma holística en todo el organismo estimulándolo, relajándolo e inspirando la imaginación mediante sensaciones intensas... Cualquier emoción provocada mediante la escucha musical es similar a las conseguidas
por medios no musicales. Aunque es innegable que la música es altamente significativa para nosotros, resulta mucho más dudoso que signifique algo, en el sentido de que represente o se refiera a algo externo a sí misma. Las diferentes posturas teóricas van desde aquellos que niegan una dimensión semántica a la música, que sería entonces un arte de naturaleza abstracta, pasando por quienes defienden que la música ejemplifica relaciones entre sonidos, estructuras más o menos abstractas, hasta los que argumentan que la música representa emociones o, quizá la más extendida, que las expresa. El carácter expresivo de la experiencia musical, su capacidad para emocionarnos, es una intuición extendida, pero la manera de expresión o el tipo de emociones que provoca ya no recibe una respuesta unitaria.
› ¿Una música para cada emoción? Desde la antigüedad, la humanidad ha tratado de clasificar los estados de ánimo y las emociones mediante calificativos de uso común. Descartes, por ejemplo, categorizó las somatizaciones de los seis principales estados de ánimo siguiendo la teoría griega de los cuatro temperamentos psicológicos. Algunos de los términos utilizados para calificar las emociones pasaron en los siglos XVII y XVIII al lenguaje musical a través de la teoría de los afectos y aún hoy perduran en nuestras partituras: nos referimos a palabras tan conocidas como allegro o adagio que provienen claramente de una denominación emotiva, aunque en la actualidad se hayan
transformado en indicadores de velocidad o tempo. En el mismo sentido, compositores y teóricos de la música como Mattheson otorgaron en pleno siglo XVIII a determinados instrumentos y a sus timbres una relación directa con los estados de ánimo o el color emotivo que querían despertar. Kant, años más tarde, atribuiría también a la música una capacidad emocional pasajera, aunque de mayor intimidad que otras artes como la poesía, más reflexivas. Posteriormente, la psicología ha propuesto diferenciar entre las sensaciones emocionales según sean más o menos permanentes en una persona. Así, un estado emocional es una reacción positiva o negativa provocada por un contexto específico; un rasgo emocional es una característica de la persona, una tendencia a reaccionar de una determinada forma que facilita la aparición de determinados estados emocionales. Debido a que las emociones crean hábito, experimentar con frecuencia las de carácter negativo puede provocar que una persona tienda, por ejemplo, a la tristeza. Los teóricos de las emociones, como Goleman (1995), suelen distinguir seis o siete emociones básicas agrupadas en torno a dos polos opuestos: bienestar y malestar. Así tendríamos la felicidad y la alegría en el bienestar, la eutonía o estado neutro, y la tristeza, la ira, el miedo y la vergüenza en la zona del malestar, aunque las reacciones emocionales suelan contener elementos combinados de ellas. La alegría suele expresar un estado de ánimo activo y, por lo tanto, la persona alegre suele moverse y está lista para la acción. Lo contrario sucede en la tristeza, donde la persona tiende al recogimiento y la inacción, la lentitud y la calma. En la ira o la rabia,
por el contrario, la persona vuelve a mostrar una actitud activa, aunque instalada en el malestar. En el extremo del malestar tenemos el miedo y la vergüenza (que combinan el miedo y la rabia en una actitud pasiva e impotente). Las sensaciones corporales vividas y traducidas en esas emociones definirán los estados condicionados en los distintos géneros audiovisuales. De este modo, la publicidad audiovisual suele buscar el bienestar de los consumidores mediante imágenes y sonidos placenteros. También el humor, los musicales o la comedia romántica apuntan hacia las emociones positivas. Los productos audiovisuales infantiles o juveniles también comparten dichas características. Los géneros audiovisuales que persiguen generar en el público un malestar momentáneo, como el terrorífico, el bélico, el trágico o el documental de denuncia, pueden utilizar recursos sonoros que produzcan emociones negativas exacerbadas. Finalmente, otros géneros audiovisuales buscan la combinación de emociones y cambios emocionales dentro de sus productos: los géneros de ciencia ficción, aventuras y thrillers serían buenos ejemplos de ello. Los elementos de la música (ritmo, agógica, dinámica, métrica, melodía, armonía, forma musical, género...) establecen de alguna forma el contenido emocional de cada obra, aunque no debemos caer en el error de establecer una simple relación lineal entre las características de cada parámetro musical y las expresiones emocionales. No obstante, existe un acuerdo importante en el uso emocional de determinados parámetros sonoros en los audiovisuales: el silencio suele ser signo de preparación de una
acción o de miedo; los sonidos agudos en general resultan más alegres y divertidos que los graves; la música con tempo rápido expresa más alegría que la lenta; los sonidos largos son tranquilizadores, mientras que los cambios de tempo suelen expresar una fuerte carga emotiva. En el plano de la intensidad sonora tenemos parecidos resultados respecto a la activación neuronal generada por sonidos fuertes en actividades motrices prolongadas, como la conducción de vehículos por la noche, las fiestas al aire libre o las discotecas. Respecto a la armonía y a los acordes, en Occidente tendemos a otorgar al modo mayor la expresión de la alegría y al modo menor el recogimiento o la tristeza, a pesar de las distinciones y matices otorgados desde lo griegos hasta el Renacimiento, pasando por los modos eclesiásticos, a la distinta organización modal. El estilo musical estaría vinculado a la edad del público y a sus preferencias, así como la elección de timbres instrumentales muy sujetos a modas o atribuciones culturales temporales. La música es, con diferencia, la actividad preferida por la uventud, aunque las encuestas no se refieran sólo a la práctica musical en sí, sino al placer de escuchar o participar en actividades donde se encuentra presente la música, como la danza o el cine. Así pues, programas de radio o televisión dedicados a la promoción o concursos de intérpretes consiguen porcentajes de audiencia dignos de elogio. De todas formas no debemos olvidar que, del mismo modo que la música es fuente de gozo para los que la disfrutan, también puede producir frustración y enojo para quienes se ven
forzados a escucharla sin deseo. Los gustos musicales son muy personales y provocan grandes simpatías y desacuerdos entre los miembros de un grupo; en determinadas edades, coincidir en la admiración de algún músico o banda es motivo suficiente para pertenecer a ese grupo o para iniciar o fortalecer una amistad.
› La expresión musical de las emociones La música es la inminencia de una revelación, que no se produce. J. L. BORGES Si consideramos los elementos comunicativos de la música, debemos analizar la expresión musical como un proceso lingüístico en el que intervienen un emisor, un canal, un mensaje y un receptor. Tanto el emisor como el resto de elementos están sujetos a aspectos que modifican la eficacia comunicativa y que pueden agruparse en dos grandes bloques: denotativos y connotativos. Entendemos por elementos denotativos aquellos aspectos propios del estímulo y de sus características que serán compartidos por todos los seres humanos, con independencia de su origen o formación. Por tanto, consideraremos las bases biológicas y neurológicas como elementos que influirán necesariamente en la comprensión emocional del sonido. Entre ellos destacan la intensidad y la altura (atribuidos a la edad, el género o la actitud del
oyente), el ritmo y el tempo (atribuidos a la actividad y a la edad), el uso prolongado de silencios (según la actividad y edad), la elección de timbres o ruidos característicos (según la edad, género, contexto o actividad cotidiana), el uso de consonancias o disonancias (según el grado de acuerdo), la postergación de una respuesta esperada (Meyer, 2001) o la resolución de una tensión motivada por las expectativas (Sloboda, 2001), entre otros. Los elementos connotativos de la música y el sonido son de carácter sociocultural, psicológico o simbólico, y representan aquellos aspectos de la expresión y comprensión musicales propios de cada sujeto o de cada grupo social según sus experiencias personales, educación, cultura, entorno, época, etc. Los más importantes serían: el género musical (según los usos sociales), el estilo musical (según el origen sociocultural), la intensidad (según el nivel socioeconómico), el uso de determinadas piezas musicales icónicas de una generación, la memoria musical de un grupo de edad, las filias y fobias culturales, las modas, los modos de identificación grupal (himnos, etc.) y, en última instancia, las atribuciones particulares de valor añadido a un sonido determinado. El uso de la música para la regulación de las emociones presenta dos opciones: enfatizar un estado de ánimo a través de la empatía, la profundidad y la comprensión del mismo; o bien buscar uno que contrarreste el sentido por el público. Siguiendo la teoría del ISO (Benenzón, 1981) podemos determinar un ISO presente y uno complementario, según se trate de la primera o segunda opción. En este sentido, muchos autores coinciden al determinar las
modalidades de la relación entre la imagen y el sonido, al igual que que las existentes entre emoción y música. Así hablamos de similitud, convergencia, complementación, contextualización, acentuación, contraste, divergencia, regulación... según se trate de subrayar, añadir, coincidir, ambientar, centrar la atención, compensar, anticipar, sincronizar, retrasar, sustituir, etc. unos contenidos por otros efectos. Siguiendo la estructura y clasificación de las emociones sugerida en el apartado anterior, podemos caracterizar musicalmente la eutonía mediante una música con pocos cambios de intensidad, sin tensiones, pocos saltos melódicos, tempo medio y con un ISO coincidente con el del oyente en relación con los timbres instrumentales y el estilo musical. Valgan como ejemplo muchas de las sintonías elegidas por Woody Allen para las ambientaciones generales de sus películas, una acertada mezcla de nostalgia y alegría contenida.
Si queremos musicalizar la alegría, el elemento más característico es la rapidez en el tempo (Ferri, 2003), que coincide con una cierta similitud con la velocidad del pulso cardíaco de quien está alegre. A mucha distancia, otros elementos musicales pueden reforzar esa sensación, como el uso del modo mayor (que en Occidente tiene
una clara connotación de bienestar), un aumento de intensidad (crescendos ), los saltos melódicos ascendentes, el uso de sonidos agudos, así como los timbres instrumentales brillantes, como el metal, la flauta, la cuerda, el fagot (en un sentido burlesco) o la percusión. Como ejemplos cinematográficos podemos citar el cine infantil (Disney o Pixar serían claros exponentes), musicales uveniles (por ej. High School Musical ), escenas de Chaplin y de comedias estadounidenses, por citar las más convencionales. Algunos autores plantean la felicidad como un estadio algo distinto a la alegría, más consolidado, asentado y libre, por lo que las sensaciones corporales del movimiento y excitación quedan más aletargadas, a pesar del bienestar. Siguiendo este perfil podemos plantear una música para la felicidad parecida a la de eutonía, que evita saltos, cambios y tensiones armónicas, y busca la empatía con el público en el ritmo, el timbre y la intensidad, y por lo general en el modo mayor. Por citar un ejemplo, el uso del vals El Danubio azul en el film 2001: una odisea en el espacio , exhibe una sensación de plenitud y calma cósmicas, que podríamos calificar de feliz. Respecto a la tristeza, existe un amplio consenso entre los compositores y teóricos occidentales en asignarle un tempo lento (Ferri, 2003), que aumenta su fuerza si coincide con el modo menor (con interválica descendente), cambios en la intensidad, disonancias suaves y preparadas (Rameau, 1722) y la preferencia por algunos instrumentos, como el oboe, el corno inglés, el fagot, las campanas o la cuerda grave. Los géneros cinematográficos dramáticos y los documentales son los ejemplos más relevantes de uso de música
«triste». Cineastas españoles como Almodóvar o Amenábar nos han dejado grandes ejemplos de bandas sonoras con elementos de tristeza y dolor. Cercana a la tristeza pero con mucha más energía tenemos a la ira, la cólera o la rabia, como expresión de un conflicto que enerva al oyente. Para ello, los compositores suelen hacer uso de tempos rápidos y del modo menor (Ferri, 2003), saltos melódicos, lissandos, cambios de intensidad y uso de f y ff , melodías dodecafónicas, seriales y no-tonales, empleo de disonancias armónicas, uso de instrumentos de metal (especialmente graves), percusión y música electrónica, etc. Entre los géneros audiovisuales que utilizan este tipo de expresión tenemos el cine bélico, la ciencia ficción y el terror. Cercanos a la ira tenemos el miedo y la vergüenza como exponentes de un estado de ánimo que produce un tremendo malestar, especialmente la vergüenza, que aúna el miedo y la cólera. En general los audiovisuales dedicados a desarrollar estas emociones, como los thrillers , el cine de terror y los documentales de denuncia, suelen contener música lenta y con preferencia por el modo menor respecto al mayor (Ferri, 2003), con muchas disonancias, cambios de intensidad, uso de silencios prolongados e intensidades extremas... Melódicamente tenemos saltos, líneas truncadas, uso de series dodecafónicas, ambigüedad tonal, disonancias mayores y no preparadas... (Rameau, 1722). Respecto a la tímbrica, los instrumentos graves de metal, cuerda y percusión continúan siendo los preferidos.
Cuando no se disponía aún de música original (banda sonora), los músicos encargados de acompañar en cada sala las exhibiciones solían recurrir a compilaciones musicales escritas para ambientar estados de ánimo o situaciones genéricas (kinotecas ), las cuales podían acompañar cualquier film. Las más famosas son las del americano J. S. Zamecnik y las del italiano G. Becce.
› Música, bienestar y significados culturales La música es un fenómeno transcultural, del mismo modo que el lenguaje o las emociones, pues en nuestro cerebro encontramos un impulso básico que nos anima a escucharla o a producirla. Por lo tanto, debe existir un sustrato neurobiológico que sustente tal función y que justifique la habilidad musical implícita del cerebro humano. Efectivamente, incluso aunque carezca de una significación concreta, el esfuerzo empleado al crear o reproducir música es realmente ingente. La habilidad musical, al contrario que la lingüística, no es universal, sino que únicamente la desarrollan algunas personas. Todavía no están claras las causas genéticas o ambientales que determinan la existencia o el desarrollo de tal habilidad, pero es evidente que la interpretación y la composición musicales incluyen un número considerable de habilidades perceptivas visuales, auditivas y motrices. La música no es necesaria para la supervivencia humana, aunque diferentes culturas de todo el mundo le hayan asignado múltiples funciones: la comunicación, la expresión emocional, la
representación simbólica, el placer estético, el entretenimiento, la contribución a la estabilidad y continuidad de la cultura, y a la integración en la sociedad, etc. La música permite entrar en el ritmo y la armonía universales a través de la identificación con los sonidos. Para Lévi-Strauss, la música sería el camino intermedio entre el pensamiento lógico y la percepción estética, lo que la convertiría en un fenómeno que compartiría elementos sígnicos y simbólicos en todas las culturas. Como en todas las formas del discurso simbólico, la música tiene la capacidad de llevarnos más allá de nosotros mismos, de nuestro pequeño espacio y tiempo, ensanchando y manteniendo abierta nuestra capacidad de conocer. La música, al ser un arte no representativo, puede hacer aflorar mejor que ningún otro la capacidad de transformación simbólica de la mente humana. Podríamos calificar el símbolo musical como autorrepresentacional, en el sentido de que su significado está implícito, no fijado convencionalmente; la música no expresa sentimientos, sino que simplemente los exhibe, los presenta. Sus estructuras muestran una cierta analogía con modelos dinámicos presentes en nuestra experiencia interior y de ahí su fuerza como símbolo: la música puede articularse en formas que le son negadas al lenguaje. Más que dirigirse a algún objeto extrínseco, la música se representa como un lenguaje que se significa en sí mismo. Para unos, el significado de la música estaría dado en la descripción del significante, mientras que otros admiten la coexistencia tanto de referencias externas como internas: según las épocas, las culturas y
las teorías se concede al reenvío intrínseco (absoluto) o al externo (referencial) un mayor o menor peso explicativo. En general los significados en música competen a uno de estos tres tipos de representaciones: • Esquemas de tensión y de calma: movimientos corporales y actitudes. • Esquemas de resonancia emocional (afectos y sentimientos): estados de ánimo positivos y negativos, integración y desintegraciónangustia. • Representaciones icónicas y cinéticas. En estos últimos años, el parisino IRCAM (del francés Institut de Recherche et Coordination Acoustique/Musique) ha efectuado estudios de análisis significativo de la música y ha llegado a identificar hasta diecinueve tipos diferentes de unidades semióticas temporales (UST). Entre ellos tenemos: la caída, el estiramiento, el frenado, las olas, el intento de arranque, la trayectoria, la desorientación, la contracción-extensión, el flote, el peso, el avance, la inercia, la interrogación, el impulso, la suspensión, la obsesión, el giro, el movimiento estacionario... La mayoría de estas expresiones tienen relación con la imaginación de un tipo de movimiento determinado que suscita una situación emocional concreta.
› Música y emoción en la infancia
Los ambientes que rodean la infancia cuentan con numerosos elementos musicales. La conversación de las madres con sus hijos es similar a la música y exhibe una variedad de recursos musicales que reflejan su expresividad emocional (como el babytalk ). No obstante, esta comunicación tiene un contorno melódico similar aunque distinto en cada cultura, un hecho que refleja unas intenciones expresivas comparables, aunque cada madre utilice modelos interválicos individualmente distintivos ( speech tunes ). A lo largo de la infancia, el uso de la música en la educación permitirá la práctica individual y social de múltiples actividades que despierten tanto la emoción como la inteligencia de los alumnos. La práctica musical puede considerarse, pues, una verdadera y completa educación intelectual en el sentido más tradicional de la palabra, y abarca la interpretación (canto, instrumentos, danza...), la improvisación, la creación, la audición, la imaginación, etc. Como propone Csikszentmihalyi (1999), la educación musical permite ampliar el número de situaciones vitales en que la música es fuente de placer y por lo tanto de calidad de vida, siempre que se respete el componente de goce en su práctica: debe ser como un juego, donde las dificultades y las propias capacidades vayan en consonancia y estén en una proporción estimulante. La educación tradicional se ha ocupado especialmente del desarrollo cognititivo y ha olvidado demasiado a menudo el emocional. Podemos caracterizar a una persona emocionalmente inteligente por algunas de sus conductas, como por ejemplo:
manifestar una actitud positiva; reconocer los propios sentimientos y emociones; ser capaz de expresar y controlar estos últimos; sentir y mostrar empatía; notarse motivado, ilusionado o interesado; disfrutar de una autoestima suficiente; saber dar y recibir; ser capaz de superar dificultades y frustraciones, de integrar polaridades enfrentadas; en definitiva, ser capaz de tomar las decisiones más adecuadas en la vida (Bisquerra, 2000). Podríamos relacionar la educación emocional con el concepto de inteligencias múltiples propuesto por Gardner (1998), especialmente con la denominada inteligencia intrapersonal , que se ocupa de nuestros aspectos internos como persona: la propia vida emocional, la evaluación de las emociones, la capacidad de discriminar éstas y denominarlas, la capacidad de recurrir a ellas como medio para interpretar y dirigir la propia conducta... Además, de forma secundaria nos permite distinguir matices en los estados de ánimo de los demás, sus motivaciones e intenciones, etc. Para Lazarus (1991), la madurez emocional incluiría tres tipos de conocimientos básicos en todo proceso emocional: • Identificación de las señales sociales. • Conocimiento de las reglas de expresión y de sentido que pueden producirse. • Utilización y control de las emociones. La educación en la etapa infantil y primaria debería ocuparse de proporcionar elementos y contextos de aprendizaje donde desarrollar dichas competencias de forma activa, reflexiva,
participativa y colectiva, aunque la educación de las emociones competa al ámbito privado de cada individuo. La música es una herramienta eficaz, un arte privilegiado en la evocación de las emociones de los sujetos y, por tanto, en la educación emocional. En cualquier caso, la eficacia de la música estará condicionada a las características contextuales en que incida, como la formación del oyente, el valor social que le otorgue el público, etc. No existe una música para cada emoción, sino que depende de cada emisor y receptor. La música no es magia, aunque comparta con ella algunas raíces perdidas en el tiempo, y, al igual que las emociones, nos acerca al misterio del presente.
Bibliografía ALCARAZ, María José / P ÉREZ C ARREÑO , Francisca (eds.). (2010). Significado, emoción y valor. Ensayos sobre filosofía de la música. Madrid, Machado Libros. B ENENZÓN, Rolando O. (1981). Manual de musicoterapia. Barcelona, Paidós. B ETÉS DE T ORO, Mariano (comp.). (2000). Fundamentos de musicoterapia. Madrid, Morata. B ISQUERRA, Rafael (2000). Educación emocional y bienestar . Barcelona, Praxis. B LACKING , John (1994). Fins a quin punt l’home és músic? Vic, Eumo. C OLÓN, Carlos / I NFANTE, Fernando / LOMBARDO , Manuel (1997). Historia y teoría de la música en el cine. Presencias afectivas. Sevilla, Alfar. C ZIKSZENTMIHALYI , Mihály (1999). Fluir . Barcelona, Kairós. DESPINS, Jean Paul (1994). La música y el cerebro. Barcelona, Gedisa. F ERRI , Fabrizio (2003). «Efectos de tempo y modo sobre el contenido
emocional de la música» . En: Fórum de recerca. Universitat Jaume I. Disponible en: http://www.uji.es/bin/publ/edicions/jfi9/psi/5.pdf [Consulta: 30/6/2010] GARDNER , Howard (1998). Inteligencias múltiples. Barcelona, Paidós. GOLEMAN, Daniel (1995). Inteligencia emocional . Barcelona, Kairós. GUSTEMS, Josep (2001). «L’entorn sonor, un element educatiu de primer ordre». Temps d’Educació, núm. 25, pp. 77-88. — (2005). «Escuchar los anuncios: una aproximación al uso de la música y del sonido en la publicidad televisiva». Eufonía, Didáctica de la música, núm. 34, pp. 91-100. — / C ALDERÓN, C. (2005). «No t’emocionis... Escolta! L’ús de la música en l’educació emocional». Revista Catalana de Pedagogia, núm. 3, pp. 331347. Disponible en: http://hdl.handle.net/2072/4283 [consulta: 7/7/2010]. HARGREAVES, David (1998). Música y desarrollo psicológico. Barcelona, Graó. LAKOFF, George / JOHNSON, Mark (1980). Metaphors we live by. Chicago, Chicago University Press. LANGER , Susanne (1953). Feeling and Form. Nueva Cork, Scribner’s. LAZARUS, Richard S. (1991). Emotion and adaptation. Nueva York, Oxford University Press. LEVITIN, Daniel J. (2006). Tu cerebro y la música. Barcelona, RBA. LÓPEZ C ANO , Rubén (2000). Música y retórica en el Barroco. México, UNAM. MEYER , Leonard B. (2001). Emoción y significado en la música. Madrid, Alianza. P OLO , Magda (2007). L’estètica de la música . Barcelona: UOC. R AMEAU, Jean-Philippe (1722/1984). Traité de l’Harmonie. París, Baillard / Madrid, Arte Tripharia (facsímil). R ODRÍGUEZ B RAVO , Ángel (1998). La dimensión sonora del lenguaje audiovisual . Barcelona, Paidós. S LOBODA, John (1985). The Musical Mind . Oxford, Oxford University Press. — / JUSLIN, Patrik (2001). Music and emotion: theory and research. Nueva York, Oxford University Press. S TORR , Anthony (2001). La música y la mente. Barcelona, Paidós. T HAYER GASTON, E. et al. (1989). Tratado de musicoterapia. Barcelona, Paidós.
/ Análisis de las cualidades del sonido y los elementos de la música en la expresión audiovisual
Josep Gustems Carnicer, Universidad de Barcelona Si escuchamos una música desconocida al azar, percibimos globalmente un cúmulo de sensaciones que evocan una serie de significados más o menos familiares. Si nos centramos únicamente en nuestras sensaciones auditivas, veremos que algún elemento sonoro pasa a dominar nuestro campo perceptivo. Se trata de alguna de las llamadas cualidades del sonido , atributos de éste que guardan un especial interés en el ámbito comunicativo. Una obra musical o audiovisual remite inexorablemente a juicios estéticos y técnicos, a experiencias y significaciones, y a juicios de orden introspectivo, como las emociones o las imágenes. En este capítulo nos centraremos en los elementos que permiten desarrollar nuestro uicio técnico respecto al sonido y la música en un audiovisual: la taxonomía, el vocabulario básico, la estructura y su valor expresivo.
El sonido (tal y como se ha explicado en el capítulo dedicado a las bases acústicas) se transmite por el aire en forma de ondas invisibles, pero que pueden visualizarse mediante el osciloscopio y presentan cuatro características principales derivadas de su tipología: •
Su altura o entonación, expresada en herzios (Hz) o vibraciones por segundo. • Su duración o tiempo. • Su intensidad, expresada en decibelios (dB). • Su timbre, según sea la fuente sonora, la forma de la onda y su armonicidad. Hoy en día existen distintas formas de visualizar los sonidos, según sea una manera centrada en el tiempo (oscilograma, en un osciloscopio, de visión lateral) o focalizado en las frecuencias, a partir de sus componentes o formantes (monograma o espectrograma), si se trata de un corte transversal para apreciar sus intensidades relativas. Todas estos rasgos o atributos pueden aplicarse a cualquier sonido, sea del tipo que sea; unos serán más fáciles de caracterizar, otros más complejos, pero de todos ellos podemos intentar destacar cuatro grupos de significados que serán de gran valor para la música y la acústica en particular. Gracias a la tecnología también podemos considerar la dirección del sonido (estéreo, por ejemplo) en los audiovisuales.
› La intensidad La intensidad del sonido guarda relación con la amplitud de las ondas sonoras, designadas por decibelios (dB) y medidas por el sonómetro. Por debajo de 15 dB apenas percibimos un rumor; a los 120 dB el ruido es ensordecedor; habitualmente nos movemos en entornos entre 40 y 100 dB. Etimológicamente, la palabra intensidad remite a intención; es decir, que este rasgo, en un sonido, estará relacionado con el objetivo expresivo o comunicativo propuesto por el emisor. En los audiovisuales se referirá a la emoción, al realismo (que llega al hiperrealismo en algunos anuncios de refrescos gaseosos), a la distancia física y social y a la importancia y alcance territorial. A pesar de que la intensidad es la cualidad del sonido más fácil de observar (los niños de tres años distinguen muchos matices), la práctica musical no ha contemplado una discriminación ajustada a ella hasta hace apenas unas décadas. Así, las indicaciones de intensidad en las partituras no aparecen o son muy ambiguas, a diferencia de las duraciones o las entonaciones. Los términos utilizados para designar la intensidad sonora musical fueron tomados del italiano, pues fue en el siglo XVIII cuando por p rimera vez se anotó esta cualidad del sonido en las partituras. Los términos utilizados corrientemente son:
Fortissimo
ff
muy fuerte
Forte
f
fuerte
Mezzo forte
mf
medio fuerte
Mezzo piano
mp
medio suave
Piano
p
suave
Pianissimo
pp
muy suave
Además de estas intensidades sostenidas, la música experimenta muchos cambios que pueden ser súbitos o progresivos, las llamadas transiciones o cambios de dinámica. En este último caso se expresan mediante los términos:
Crescendo
cresc.
creciendo, aumentando
Diminuendo
dimin.
disminuyendo
Los crescendos son muy utilizados en publicidad audiovisual para vencer la caída atencional en los anuncios. Como podemos apreciar, los términos utilizados aclaran el sentido de la acción sonora pero no su límite, así pues el ff de una trompeta no equivaldrá en dB al ff de una flauta, y así sucesivamente. Tampoco no son perceptibles los cambios de intensidad inferiores a 2 dB: el famoso Boléro de M. Ravel se basa en un crescendo progresivo que duraría más de 10 minutos, pero que es imposible de lograr por este motivo, si no es mediante saltos perceptivos. El umbral de cambios de intensidad sonora se sitúa entre los 2 y los 10 dB según el sonido sea agudo o grave, pues detectamos mejor los cambios de intensidad en los primeros. Perdemos finura a la hora de captar los cambios cuando la intensidad es muy elevada; para medir la
sensibilidad sonora se utiliza otra medida: el limen. La intensidad sonora es responsable de una mayor o menor activación del sistema nervioso: los sonidos suaves ( pp) y sin cambios facilitan la relajación, mientras que los fuertes nos mantienen despiertos. En general el umbral de audición humana está entre los 20 dB y los 120 dB, cuando ya sentimos dolor. Dichos límites dependen de la edad y de cada persona, pues tendemos a reducir esta distancia con la edad. La intensidad depende también de la distancia entre la fuente sonora y el receptor: en general se admite que cada vez que doblamos la distancia disminuimos unos 6 dB. A más distancia física, necesitamos que el sonido sea más fuerte, agudo y afilado si queremos que se escuche bien. Además, este efecto de distancia puede referirse también al ámbito social; un sonido muy suave, una voz susurrante, expresa proximidad personal e intimidad (por ejemplo, en la radio). Podemos establecer una cierta gradación respecto la distancia física y personal: así, en la intimidad la voz es un susurro suave; en la distancia personal es suave, y en la formal o pública, la voz es proyectada y fuerte. M urray Schafer señala tres zonas de proximidad: • La lejana o de fondo, que se oye pero no se escucha. • La media, que es el acompañamiento, el ambiente sonoro. • La inmediata o próxima, que resulta fuerte y se escucha con atención. Combinando intensidades podemos hacer que un sonido se aleje
o se acerque. Lo mismo ocurre si modificamos la intensidad que llega a cada oído; entonces, producimos el efecto llamado estereofonía, que permite distinguir el origen y la dirección de un sonido, el cual llega con más intensidad a un oído que al otro. Este efecto también permite la sensación de movimiento en el cine. Un efecto derivado de los cambios de intensidad es el llamado efecto eco (delay), consistente en la prolongación con intensidad decreciente de un sonido. En realidad se trata de una resonancia añadida, en algunos casos artificialmente, para dar sensación de espacio, amplitud (catedrales, palacios, poder...), misterio (laberintos o criptas), vacío o soledad (Leeuwen, 1999). El eco, físicamente hablando, se da cuando los sonidos están distanciados entre sí por un breve lapso de tiempo, un rebote que se da en espacios amplios y rodeados de paredes de consistencia dura. El efecto eco suele acompañar a escenas de pánico, de lucha (como la persecución en las alcantarillas de El tercer hombre), de alucinaciones y sueños (como los 13 minutos de Rocky II donde está a punto de caer por KO), de pensamientos interiores, obsesiones... Se trata de un recurso marcadamente expresivo del que no se debe abusar porque satura el oído e interfiere en la comunicación. El efecto eco tiene que ver con cambios naturales en la intensidad de un sonido, los cuales suelen ser muy importantes en el final de éste, lo que se conoce como caída del sonido. En general podemos distinguir cuatro tipos de caídas: • Dura: brusca, pasa de 50 a 0 dB en 0,01 s.
• Blanda: tarda más de 0,05 s. • Lenta: tarda aproximadamente 1 s. • M últiple: lenta con fluctuaciones (por ejemplo, la campana o el gong). Según las características de los materiales de las superficies (techos, paredes y suelos) que conforman una sala y su geometría, podemos encontrarnos con distintos efectos de resonancia. A modo de ejemplo, damos los datos promedio de distintos ambientes sonoros: • Estudios de grabación
0,4-0,6 s
• Aulas
0,5-0,9 s
• Salas de conferencias
0,8-1,2 s
• Cines
0,7-1,3 s
• Teatros pequeños
1,1-1,5 s
• Salas de conciertos
1,1-2,3 s
• Iglesias
1,8-2,5 s
• Catedrales
2,4-3,3 s
Como puede comprobarse fácilmente, la resonancia aumenta con la dureza del material de construcción de paredes, techos y suelos. En nuestra propuesta didáctica (fig. 1) plantearemos la posibilidad de expresar mediante un diseño geométrico simple los distintos componentes sonoros de un audiovisual (voces habladas,
música y ruidos) a modo de tabla, en la que la base representa el tiempo (en segundos, por ejemplo) y en el eje vertical encontramos las tres franjas citadas. Esta imagen sonora o audiograma permitirá expresar la intensidad mediante un diseño de distinta amplitud según el caso, además de señalar de modo sencillo las intervenciones sonoras y sus intensidades relativas para destacar los elementos principales, los planos auditivos, evitar los enmascaramientos y potenciar la comunicación de los mensajes sonoros. Podemos añadir a nuestro audiograma una franja destinada a los fotogramas de las principales escenas, lo que nos permitirá analiza las relaciones del sonido con las imágenes.
Figura 1: Ejemplo de audiograma
En el ámbito audiovisual, la intensidad plantea relaciones con la perspectiva del público y la distancia a la que se sitúa (personal, física o social). Además, los planos sonoros permiten la articulación del concepto figura-fondo, desarrollado por la escuela
de la Gestalt.
› La altura La altura o entonación del sonido es uno de los elementos más característicos de la música y del habla. Ésta guarda relación con su frecuencia vibratoria y se mide en herzios (Hz). En el ámbito musical es la causante de las notas, entendidas como los sonidos que conformarán las melodías mediante su distinta entonación. En Occidente tenemos dos sistemas de nomenclatura para ello: el silábico (difundido en el área latina mediterránea: do/ut, re, mi, fa, sol, la, si) y el anglogermánico (C, D, E, F, G, A, B /H). Ambos modelos tienen ventajas e inconvenientes y conviven en la actualidad. La relación de la altura sonora con la visual es muy evidente en cualquier partitura o notación musical, que suele representar los sonidos más agudos (de mayor frecuencia) en la parte superior del gráfico, y los más graves (profundos, de menor frecuencia) en la inferior. Esta particularidad también la expresaremos en nuestro audiograma, de forma que un sonido agudo estará situado en la parte sup erior de la franja y uno grave en la inferior. La distinción entre agudo y grave es bastante universal, aunque hay personas que no la perciben tan fácilmente como la diferenciación de intensidades. Un oído musicalmente educado exige un grado muy elevado de «afinación» o distinción de alturas. Algunos expertos llegan a discriminar las llamadas microtonalidades, subdivisiones de
los intervalos tonales usuales, pero que son comunes en algunos estilos y tradiciones musicales (el vibrato, tan habitual en algunos estilos musicales, sería una oscilación y cambio sutil de entonación), Aunque se requieran 0,10 s para determinar la altura de un sonido (si no se percibirá como un «clic»), la relación entre ellos será lo que permitirá una distinción tonal efectiva. Los sonidos agudos excitan más el sistema nervioso que los graves; así, una voz profunda nos calma mientras que un pitido nos enerva. Este fenómeno se utiliza en las señales acústicas universales, como los pitos, sirenas, etc., que en general suelen ser muy agudas; además, la intensidad ayuda a subrayar dichos sonidos. Según Fletcher (en Rodríguez Bravo, 1998), a medida que aumentamos de frecuencia se incrementa la audiabilidad (nuestra capacidad de escucha de sonidos muy suaves), pues para un sonido muy grave (35 Hz) requerimos al menos 60 dB, mientras que en la zona del canto y de la música instrumental (500 a 3.000 Hz) podemos llegar a percibir sonidos de apenas unos pocos dB. En sonidos mucho más agudos (a partir de 10.000 Hz) volvemos a restringir el campo audible de forma similar a la zona grave. La audición humana puede llegar hasta los 20.000 Hz, por lo que la cualidad técnica del sistema de reproducción de los sonidos audiovisuales ha recibido distintas calificaciones según su respuesta de frecuencia del sonido original. Así tenemos: • Sonido chillón o estridente, si un equipo enfatiza los agudos. • M atiz oscuro, si pierde agudos. • Atronador, si enfatiza los graves.
• M etálico, si pierde los graves. • Si se acentúan las frecuencias medias se produce un sonido «nasal».
› La duración La duración sonora es la responsable de los ritmos y las polirritmias, al combinar y sup erponer distintas duraciones en un discurso musical o sonoro. El mundo natural es polirrítmico por naturaleza: el andar de la gente se combina de forma compleja y caótica entre sí con otros mil ruidos, al igual que en la selva o los grandes bosques. La complejidad que requiere la sociedad humana se expresa mediante sincronías y polirritmias. Los intentos humanos por poner orden en el complejo sistema sonoro del mundo podrían ser un intento de magia, una explicación ancestral al origen de la música. Los sistemas de medida de la duración en contextos musicales se remontan a la antigüedad griega, pues siempre ha sido un elemento fundamental para caracterizar y organizar la música. La notación musical actual asigna a las distintas duraciones de los sonidos unos signos llamados figuras , cuyos trazos y nombres son muy conocidos: redonda, blanca, negra, corchea, etc. En física el tiempo se mide en horas, minutos, segundos, pero este sistema, aunque exacto, no es el utilizado aun en la actualidad por los músicos, que prefieren el metrónomo, el pulso y el paso, sistemas vinculados a movimientos corporales visibles y perceptibles por uno mismo y
por los demás. La medida de la duración en música requiere de unos sonidos identificables y repetitivos, de un ritmo parecido al de un reloj, al que llamaremos pulso, pulsación o tempo, resultante de un sonido que enfatiza la intensidad. En general, el tempo de una obra guarda estrecha relación con la emoción que pretende expresar. En general, los tempos lentos (más lentos que el ritmo cardiorrespiratorio) expresan calma, contención, represión, fatiga, vejez... Los tempos medios (parecidos al ritmo cardiorrespiratorio, unos 90 m.m. de promedio) muestran dignidad, amabilidad, suavidad, madurez, sentimentalismo... Los tempos rápidos expresan alegría, excitación, ilusión, nerviosismo, juventud, actividad, infancia... Si nos fijamos bien, existe una ley de similitud respecto al tempo musical y al corporal: tendemos a coordinarnos con el sonido que escuchamos. A lo largo de una obra el tempo no es regular, sino que puede oscilar en gran medida. A veces no llegamos a percibir pulsos regulares o bien los sonidos se alargan extremadamente (calderones). Ese tiempo no mesurable puede ser continuo o bien fluctuante, dar sensación de eternidad, de inmensidad, de Dios, de naturaleza, sin huella humana. Normalmente la pulsación puede seguirse, a pesar de que los cambios de tempo pueden ser súbitos o bien p rogresivos. Los p rimeros implican una ruptura repentina con la expresión anterior; los segundos excitan o calman progresivamente nuestra actividad (se denominan accelerando, y ritardando o rallentando , respectivamente) y son un recurso afectivo muy eficaz.
Hasta el siglo XVII no aparecen referencias explícitas a la velocidad o el tempo musical. Hasta ese momento, el tempo de una pieza dependía del contexto y el uso de dicha música: danzas altas o bajas, proporciones entre compases y danzas, salas resonantes o secas, habilidad de los instrumentistas, etc. La velocidad de ejecución ha sido a veces un elemento de persuasión de los auditorios y una forma de destacar a aquellos músicos más virtuosos. Los indicadores de tempo son unas palabras que, puestas al inicio de cada fragmento musical, indican la velocidad de la unidad de tiempo para toda la obra. Como el italiano era en aquel entonces la lingua franca en la música, dichas palabras se tomaron de este idioma: vivace, presto, allegro, moderato, andante, largo, adagio... Como vemos, están referidas a movimientos corporales y también a estados de ánimo que caracterizan a una determinada activación corporal y muestra de afecto, derivada de la expresión vocal emotiva (que prolonga las vocales exageradamente). Posteriormente, Maelzel, un relojero, inventó y comercializó en 1808 el metrónomo, que permite un ajuste preciso a fracciones de minuto: 60, 72, 120, etcétera m.m. (batidos por minuto). El metrónomo mide desde los 40 hasta los 208 pulsos por minuto. La duración mínima identificable por el oído humano está en torno a los 5 ms. Si el sonido dura menos de 1 décima de segundo se pierde la sensación tonal (se oye algo parecido a un clic); así pues, los sonidos de una obra musical están sujetos a unas leyes físicas y biológicas que condicionan la escritura compositiva. También hemos de tomar en consideración las implicaciones
derivadas de la ejecución instrumental convencional; así, tenemos que un violín o una flauta pueden emitir sonidos de corta duración enlazados melódicamente, mientras que una tuba o un contrabajo tienen muchas más dificultades de ejecución y de sonoridad en forma de notas cortas y rápidas. La relación del tempo musical con el de las imágenes puede ser de coincidencia o de falta de ella, lo cual claramente tiene efectos expresivos y emocionales respecto al público. Con frecuencia la música enlaza escenas y, por lo tanto, sus frases musicales son independientes del ritmo de las imágenes. De este modo se infunde sensación de coherencia y se homogeneiza la narración, evitando la ruptura narrativa.
› El timbre El timbre es la característica del sonido más apreciada, además de la más difícil de analizar y de designar. Hasta que no hemos sido capaces de visualizar las ondas sonoras, no hemos podido apreciar que éstas tienen unas formas caprichosas que constituyen precisamente la característica que las distingue entre sí, es decir, su timbre. Gracias a la electrónica y a los avances en acústica e informática, hoy día es posible jugar con los timbres y modificarlos a voluntad, de manera parecida a como se hacen los retoques de fotografía y a las imágenes por ordenador. No obstante, en la antigüedad, la fabricación artesanal de instrumentos musicales provocaba distinciones tímbricas notables que daban a los
fabricantes fama universal; los Stradivari serían un claro ejemplo. Los cantantes continúan siendo apreciados, entre otras cosas, por el timbre inconfundible de su voz, y los grupos de música moderna buscan en los estudios de grabación un «sonido» que como grupo les caracterice. A pesar del interés que ha suscitado a lo largo de los tiempos, la definición de timbre no fue necesaria hasta el siglo XVII, pues muchas de las obras escritas hasta entonces no adjudicaban las partes a instrumentos específicos sino que podían ser intercambiables según las circunstancias. A medida que cada estilo musical destacó algunos instrumentos frente a otros, se hizo necesaria la esp ecificación de cuáles se p referían. La caracterización de los timbres suele hacerse mediante palabras del lenguaje corriente que designan características visuales, táctiles, gustativas, etc., que por algún motivo coincidimos en aceptar. La más aceptada es el color , dado que el término alemán para designar el timbre es Klangfarbe, que literalmente significa «color sonoro o del sonido». Normalmente estos adjetivos combinan la descripción del sonido con un cierto matiz evaluativo que permite una cierta gradación (más que dicotomías de opuestos): así hablamos de voz «aterciopelada» o sonido «claro», «rugoso» o «denso», sin poder en realidad asignar estos adjetivos de forma eficaz y precisa. Este uso de metáforas y analogías es una de las bazas preferidas de comentaristas, periodistas, pedagogos y directores musicales. Poder encontrar palabras para definir aquello «invisible» es una capacidad misteriosa y mágica que otorga un
poder de seducción ante el público. La solución en realidad no es nada mágica. Se trata de que la forma de la onda tiene estas características debido a que el sonido nunca es puro ni simple, sino que se trata de la suma de muchos pequeños sonidos combinados, los formantes, los cuales suenan a la vez que el sonido principal (el que percibimos como «tono»). Dichos formantes tienen frecuencias e intensidades distintas entre sí, por lo que resulta una tarea laboriosa llegar a identificarlos completamente. La producción electrónica de sonido intenta imitar los timbres de la realidad, a la vez que crea nuevas sonoridades inexistentes en la naturaleza pero que expresan sensaciones nuevas: el new age y la música electrónica utilizan profusamente dichos recursos compositivos. Para su caracterización se proponen tres dimensiones perceptivas: brillantez (distribución de la energía espectral), flujo espectral y presencia de transitorios agudos en el ataque. La armonicidad de un timbre se debe a la mayor o menor coincidencia de los formantes con la serie armónica del sonido. Si los parciales son armónicos sólo hasta los 1.700 Hz hablamos de un timbre «sucio»; si lo son hasta los 3.300 Hz decimos que el timbre es «basto»; si lo son más allá de los 3.300 Hz, entonces denominamos al timbre «transp arente». La modificación de un timbre puede efectuarse mediante la supresión de gamas de frecuencias a través de filtros; por ejemplo, una voz escuchada por teléfono modifica su timbre, pues el altavoz sólo emite sonidos entre 300 y 3.000 Hz. Los formantes superiores
a estas cifras no se oyen y, por lo tanto, se suprimen. La definición auditiva conseguida de esta forma es un sonido «chato». Algo parecido ocurre con los ecualizadores que tienen algunos equipos de música: permiten aumentar los graves o los agudos y distorsionar ligeramente las voces o los instrumentos a voluntad. Si aumentamos los graves, el sonido se oscurece; si quitamos los agudos y los graves, se achata; si incrementamos los agudos es más brillante y se entiende mejor el texto (por ejemplo, en inglés). El tamaño y la calidad de los micros y altavoces suponen un condicionante. Los formantes se refuerzan según el espacio físico donde se propaguen: si las paredes de la sala son duras entonces resuenan los agudos; si son blandas, se apagan los agudos y el sonido resultante es «mate». Los espacios con mucha resonancia no favorecen la distinción de timbres. La definición auditiva de un sonido es mayor cuanto más amplia sea la gama de frecuencias que lo compongan. En general podemos hablar de: • Baja definición: como el auricular de teléfono (de 300 a 3.000 Hz). • Definición media: al estilo de las grandes radios domésticas de la década de 1950 (de 160 a 6.300 Hz) • Alta definición, alta fidelidad (HD/ HF): como el oído humano (de 20 a 20.000 Hz) En el estudio del timbre es esencial el ataque o inicio del sonido. Suelen considerarse tres tipos:
ATAQUE Características
Ejemplo
Duro
Tambor percutido por baqueta de Inicio rápido En madera. Un ataque duro, con algo 0,01 s puede de ruido, otorga naturalidad y escucharse credibilidad
Blando
Inicio progresivo Tarda más de Instrumentos de viento Tambor 0,05 s en percutido por baqueta de fieltro alcanzar 50 dB
Variaciones de Múltiple intensidad
Violín
En cada cultura y momento histórico han predominado unos timbres sobre otros. Así, hay sonidos que caracterizan un país (las castañuelas o la guitarra, España) o una cultura (gong, Lejano Oriente) o una comunidad (campanas, cristiandad). Los conjuntos musicales suelen agrupar timbres similares o contrastantes según las necesidades expresivas del género musical que practican. Asimismo, la Navidad, la infancia, el rock, o las naves espaciales sugieren a los compositores determinadas analogías y selecciones tímbricas que han alcanzado categoría de símbolo. Las preferencias tímbricas guardan relación con la edad, la educación, la procedencia cultural, la lengua propia, y los aprendizajes y las atribuciones personales de significado. Desde el siglo XVIII, cuando la música instrumental ganó cada
vez más fuerza en el mundo occidental, muchas han sido las atribuciones expresivas a los timbres instrumentales. Los audiovisuales siguen tomando como base las costumbres de los compositores románticos y de la música programática, ampliamente aceptada por el gran público. En un primer momento, los audiovisuales utilizaron el piano como instrumento, además del órgano Wurlitzer para el resto de efectos secundarios (campanas, pitos...). A modo de ejemplo y sin pretender ser dogmáticos podemos sugerir las siguientes relaciones: • Cuerda/arco : melodía, emotividad, colectividad... • Contrabajo: lúgubre (Bernstein, 2009). • Arpa: transparencia, claridad, agua, magia... • Guitarra: calidez, emotividad, intimidad, folklore español y orientalizante. • Piano: dominio, autoridad, versatilidad, seguridad, clasicismo... • Órgano: grandiosidad y solemnidad (Avison, 1752). • Clave: movimientos vivos y adornados (Avison, 1752). • Viento (madera): emociones básicas, personajes. – Oboe: dulzura y majestuosidad (Dart, 2002), cantabile (Avison, 1752) – Flauta: dulce, pálido, sonido etéreo (Bernstein, 2009), melancólico (Avison, 1752). – Fagot : payaso y lúgubre (Bernstein, 2009). • Viento (metal): triunfal, energía, majestuosidad, brillantez, guerra...
– Trompeta: decisión y valor (Avison, 1752), nobleza (Dart, 2002), brillante (Bernstein, 2009). – Trompa: alegría (Avison, 1752). • Percusión: ritmo, acción, movimiento, etnicidad, lejanía, hostilidad, primitivismo, instintos... – Gong : en contextos que tienen que ver con acontecimientos solemnes (Alcaraz, 2010). – Tambor : nos remite al latido del corazón, el primer sonido musical (Siankope y Villa, 2004). • Voz: calidez, p roximidad, comunicación, personaje... La voz es el instrumento privilegiado de la comunicación y en nuestro caso merece una atención preferente, por lo que le hemos dedicado un capítulo aparte en esta obra.
› El ruido y los efectos sonoros La palabra ruido proviene del latín rudus, que significa «sordo»; por lo tanto, alguien que necesita que se le hable a gritos, una dificultad en la comunicación. El ruido se relaciona desde su concepción semántica con una intención estética negativa, distorsionadora, entorpecedora, insana, molesta... La contaminación acústica estudia las repercusiones psicofísicas de la exposición al ruido, tales como: insomnio, interrupción del sueño, malestar, sordera, dolor, dificultades en la comunicación y a la hora de concentrarse, disminución de la atención, ansiedad, estrés,
agresividad, etc. En este sentido, la Agencia Europea del Medio Ambiente (Directiva europea 2002/49/CE) considera tolerables los niveles de 55-65 dB en áreas urbanas, reduciendo aquellos que sobrepasen los 75 dB y diferenciando unos 10 dB entre el día y la noche. En nuestro país tenemos normativas al respecto: Ley 37/2003; RD 1413/2005; RD 1367/2007; RD 1371/2007; y concretamente en Cataluña, la Llei 16/2002 y el Decret 176/2009. Acústicamente hablando, el ruido es un sonido complejo, desordenado, irregular, sin altura determinada en muchas ocasiones y no apto para la música, aunque la historia de la estética musical ha ido desplazando las fronteras de lo que se considera sonido apto y no apto para la música. Muchos instrumentos musicales han pasado de ser meros objetos sonoros a formar parte de la orquesta, debido a una ampliación de nuestra aceptabilidad en términos acústicos. En la música, a nivel expresivo y simbólico, los paisajes sonoros conformados por ruidos han caracterizado en ocasiones al caos, en contraposición al orden que infunde la música. El siglo XX ha sido el gran protagonista a la hora de incluir ruidos en la música culta. En las décadas de 1940 y 1950, la «música concreta» empezó a utilizar grabaciones de ruidos cotidianos con fines artísticos y, desde entonces, la convivencia de éstos con los sonidos musicales ha sido creciente y fructífera en todos los sentidos. La música electrónica parte a veces de ruidos del entorno que modifica posteriormente para crear así nuevos espacios sonoros. En los audiovisuales, la utilización de ruidos suele tener una
función claramente descriptiva y realista de los ambientes tratados. Mediante su uso se infunde presencia, se proporciona al público credibilidad de que lo que está viendo es real y encaja con la memoria acústica que se tiene de ese contexto. Debido a que las grabaciones en estudio no tienen sonidos de fondo, éstos deben añadirse, incluso en forma de un ambiente suave. La eliminación de los ruidos que conforman un paisaje sonoro constituye también un elemento intencionadamente expresivo para realzar otros contenidos del audiovisual (texto, emociones, música, imágenes...). En algunos casos la selección de ruidos es especialmente cruenta (documentales de guerras o de enfermedades); en otras, el aumento de la intensidad de algunos ruidos aumenta su eficacia (por ejemplo, en los anuncios de bebidas con gas). El máximo exponente de los escenarios sonoros se da en la ciencia ficción, pues cuando la imaginación y la técnica se dan la mano, los resultados resultan espectaculares... Actualmente existen muchos archivos de sonidos para crear los efectos sonoros necesarios para ambientar una escena. Suelen recibir el nombre de foleys en homenaje a Jack Foley, el primer especialista en buscar efectos de sonido para una escena en el Hollywood de la década de 1940. A su vez, estos efectos se manipulan para dar más énfasis a la escena y a la expresión.
› El silencio El término silencio deriva del latín silere, que significa «callar»; en
su origen, no designa la ausencia de sonido, sino la deliberada intención de acallar los sonidos mediante la actuación humana. El silencio no es natural, ni tampoco lo encontramos de forma espontánea en las sociedades humanas. En la naturaleza el silencio es inquietante, señala algún peligro. En los ambientes sociales el silencio expresa inhibición, falta de comunicación, aislamiento, control emocional (por ejemplo, cuando se hace un minuto de silencio en honor de alguien fallecido), y puede conducir a la depresión por falta de estímulos sonoros (como sucede en el caso de algunas órdenes religiosas que hacen voto de silencio y viven, además, en entornos extremadamente silenciosos). El Dr. Tomatis realizó algunas investigaciones con estos colectivos y llegó a la conclusión de que sus depresiones estaban motivadas por una excesiva falta de estímulos cerebrales procedentes del ámbito sonoro. Por otra parte, técnicamente el silencio no existe, pues ni siquiera aislados en una cámara anecoica (Rodríguez Bravo, 1998) somos capaces de aislar las sensaciones acústicas. Cuando hablamos de silencio, en realidad nos referimos a la sensación de la ausencia de sonido, al llamado efecto silencio ; para obtenerlo hace falta un espacio de unos tres segundos sin sonido o cuando la intensidad sonora sono ra baja baja de imp improviso roviso de forma for ma notoria notor ia.. Respecto al uso del silencio en los audiovisuales, proponemos diversas funciones: • Para p repara rep ararr una sorp resa o intriga intriga en la narraci narración ón (los (los géneros fantásticos y de terror abusan de este efecto),
aumentando la expectativa. • Como p ausa o separa sep arador dor de dos escenas, escenas, con con objeto objeto de crea crear r un contrast cont rastee escénic escénicoo (p or ejemp ejemplo, lo, en alg algunos anuncios). anuncios). • Para p otenc ot encia iarr otros ot ros conteni cont enidos dos del audiovisual audiovisual,, especialmente los visuales (por ejemplo, la famosa escena de A lfredd Hitchcoc H itchcock). k). Marnie, Marnie, la ladr ladrona ona, de Alfre • Para concienciar concienciar de la contami cont aminación nación sono onora ra de las ciudades (por ejemplo, los conciertos silenciosos de la Banda Municipal de Barcelona, o la pieza de John Cage 4’ 33’’ ). ). • Para pot p otenci enciar ar la ang angus ustt ia de los person p ersonaj ajes es o una larg largaa espera esp era en una situación, proporcionando la sensación de que el tiempo tarda más en pasar. • Para ex expp resar lo desconocido: la la muerte, muert e, el el vacío... vacío... • Para dar sensac sens ación ión de retardar ret ardar las las imág imágenes, enes, el t emp emp o visual. En sus inicios, el cine no utilizó sonidos fijos y organizados hasta 1914, sino que éstos eran fruto del azar, del entorno, de las máquina máquinass y bobinas, bobinas, del d el p úblico, úblico, et et c.
› El rit rit mo Las combinaciones de sonidos con diferentes duraciones provocan el efecto llamado ritmo. Este palabra proviene de la raíz sreu, sreu, «fluir», y desde la antigua Grecia se ha relacionado con un movimiento regular y repetitivo, al igual que la rima poética. No t odas las las músicas músicas t ienen ienen ritmo rit mo en un sentido sent ido estric est rictt o, p ues a
veces es imposible determinar una estructura de duraciones sonoras; en este caso la música toma un aspecto caótico y desordenado. Ejemplos de ritmo fluctuante serían el canto gregoriano, los calderones y los ragas que empiezan sobre un calderón. En todos ellos encontramos la expresión de un cierto inicio de eternidad, mientras que el principio de actividad y humanidad lo hallaríamos en la música con un ritmo medido. Éste perm p ermite ite la fluidez fluidez y la exp exp resión natural natur al vinculada vinculadass al movimie movimient ntoo corporal. Las músicas destinadas a la danza suelen caracterizarse por p or un ritmo constante const ante y p eculi eculiar ar que q ue las disting dist ingue. ue. M uchas uchas veces veces este cometido está asignado a los instrumentos de percusión, aunque las melodías también puedan compartir tales características. Los ritmos característicos provienen de tradiciones musicales que los los han ela elabora borado, do, instau inst aurado rado y t omado omado com comoo prop p ropiios, tan t antt o en tiempos presentes como a lo largo de la historia. Por tanto, la identificación de ritmos peculiares será uno de los elementos de mayor arraigo cultural de una obra y especialmente de un audiovisual. La banda sonora, como ambientación sonora de una cultura, territorio o momento histórico, se verá sustentada mediante el uso de ritmos propios y adecuados al contexto. Los ritmos de una música a veces presentan patrones («diseños» o «células»), agrupamientos característicos que pueden repetirse muchas veces a lo largo de una pieza, por ejemplo en los siguientes géneros: samba, habanera, sardana, swing, chachachá, tango, rock, rumba, etc., entre los más conocidos. Asimismo, algunas melodías célebres permiten ser reconocidas mediante la ejecución de su ritmo (sin necesidad de
partici p articipp ación ación melódi melódica ca). ). Dicha t écnic écnicaa t ambié ambiénn es un recurs recursoo expresivo importante en algunos audiovisuales. Algunos ritmos característicos derivados de danzas populares Nombre
Proce Pr ocedenc dencia ia
Compás Comp ás
Vals
Cent roeurop a
3/4 o 6/8
M az urca
Polonia
3/4
Sardana
Cat aluña
2/4
Swing
Est ados Unidos
2/4
Chachachá
Cent roamérica
4/4
Tango
Argent ina
4/4
Samba
Brasil
2/4
Habanera
Cuba/Esp aña
2/4
Z ort z ico
Euskadi
5/8
Pasodoble
Esp aña
2/4
Respecto a la coincidencia del ritmo de las imágenes con el del sonido, es un recurso menos empleado de lo que podría pensarse: aunque es cierto que otorga fluidez al visionado, también origina monotonía y previsibilidad. Así pues, muchos documentos audiovisuales rompen esta sincronía para dar mayor continuidad y aumentar las expectativas del público.
› La métrica: el compás La métrica es la combinación de ritmos regulares y acentos; tiene su origen en el movimiento y en el habla (en los «metros» de la poesía). Por regla general, el p rimer tiempo de un compás (unidad métrica que se repite a lo largo de una pieza, indicada con un quebrado) es más fuerte que el resto. Hay compases «simples» (cada tiempo puede subdividirse en mitades), «compuestos» (subdivisibles en tercios) e irregulares (amalgamas, que representan un porcentaje mínimo).
Para Aristóteles, en la Retórica, algunos de estos pies estarían
dotados de significado: así, el yámbico (V -) sería la vida en acción; el troqueo (- V) sería apropiado para la danza, y el dactílico (- V V) para lo heroico. La sensación de compás permite la producción de movimientos repetitivos y cíclicos. Muchos de los bailes y danzas populares utilizan los compases de dos tiempos por su analogía con la simetría del cuerpo: el péndulo, la forma de andar, los movimientos de brazos... El compás ternario, en cambio, puede simbolizar lo inusual, la excepción, lo artificial, el valor esp ecífico, lo emotivo...
› La melodía La melodía es un elemento fundamental en una obra musical, pues nos permite recordarla, repetirla, cantarla... La repetición melódica permite fijar en la memoria este elemento tan característico de una obra, por lo que los compositores hacen un uso preferente de este recurso. Ya Rousseau analizó las relaciones de la melodía con el habla y con la música tradicional. La melodía está formada por combinaciones de sonidos según sus alturas (notas) con un ritmo determinado, las cuales generan una línea que puede estructurarse como una frase, con subfrases, períodos, etc. Muchas frases melódicas suelen durar una respiración, es decir, entre 3 y 5 s, y en ellas encontramos un acento principal y quizá algunos secundarios. La frase es un elemento con mucha personalidad que los compositores cuidan en extremo para que sus obras alcancen la fama. La melodía posee una especial dialéctica con su
acompañamiento, en la línea de lo que en la Gestalt viene a llamarse igura/fondo (o campo) . Normalmente el diseño de la partitura para un film se desarrolla en torno a una serie de temas, que suelen ser melódicos, y a la recurrencia de motivos identificables. El lenguaje musical guarda íntima relación con el verbal y su «melodía»; los distintos sentidos de las oraciones (afirmativa, interrogativa...) se transmiten de alguna manera a las melodías. El código simbólico funciona de modo parecido. En general podemos hablar de intervalos ascendentes en las melodías, cuando se pretende expresar abertura, energía, expresión emocional y expansión (como el caso de los himnos heroicos), y descendentes si se persigue la calma, la interiorización, la represión de energía o la condensación (Cooke, 1959). El diseño melódico sigue la tendencia y la costumbre del habla, y relaciona la emocionalidad con el esfuerzo vocal (Fonady y Magdics, 1972): así, en Occidente, por lo general, los finales conclusivos bajan hasta la tónica, mientras que los suspensivos ascienden. De igual modo, las frases asertivas, en las que se proclama una idea, suelen tener forma de arco, que se eleva con la tensión y luego desciende hacia la relajación, mientras que las preguntas suelen formar un arco al revés, con un final ascendente. En la música vocal existió una cierta tradición durante los siglos XV al XVIII de representar los textos mediante líneas melódicas ascendentes o descendentes según su significado (Harman y Mellers, 1962). También la descripción sonora de movimientos en las películas de animación infantil utiliza este recurso ( glissandos descendentes en toboganes, ascendentes en
ovnis que se elevan) o, en palabras de Brazil et al. (1980), en busca del suspense (final que baja y sube repentinamente) o la empatía (bajar al final, ir de lo desconocido a lo conocido). La organización de las notas de una melodía sigue un patrón marcado por una tradición estética determinada. Así, tenemos melodías tonales, modales, dodecafónicas, microtonales, atonales, etc. según provengan de estas prácticas musicales. En el análisis melódico, podemos tomar en consideración el inicio y el final de cada frase, y asignarles los distintos calificativos al uso: final masculino o femenino (según coincida o no el ictus final con la última nota); inicio tético, anacrúsico o acéfalo (según empiece con el primer ictus, antes o después). En los códigos simbólicos occidentales, los tratados de estética musical han asignado al llamado modo mayor la expresión del esplendor, la gracia, la infancia, el estímulo, la extroversión... mientras que al modo menor le corresponderían la tristeza, la intimidad y la pasividad. El uso de músicas con otras organizaciones melódicas ha venido a ampliar y actualizar dichos códigos, que durante siglos han constituido uno de los puntales expresivos de la música occidental. Las estructuras tonales centradas en torno a un eje tonal suelen relacionarse con el orden, mientras que el atonalismo podría expresar suspense (Fraile, 2009). El ámbito melódico está condicionado por las costumbres culturales, aunque, de modo general, Brazil et al. (1980) proponen que la amplitud melódica se relaciona con la sorpresa, la ansiedad, la excitación, la ira o los grandes sentimientos, mientras que un
ámbito estrecho expresa miseria, aburrimiento, modestia, cansancio o miedo. El uso emocional de la música en el cine se alimenta de tales consideraciones. Algunas músicas escénicas han elaborado códigos para caracterizar personajes. Tal es el caso de Wagner y sus famosos leitmotiv o melodías que acompañaban a cada personaje, escena o estado de ánimo. Sirven para referirse o recordar un personaje, a modo de una voz en off . Asimismo la inclusión en un audiovisual de melodías conocidas permite un elemento de mayor identificación del público con la escena o los personajes (por ejemplo, la presencia o el recuerdo del animal en Tiburón mediante su leitmotiv ). Dentro del estudio de la melodía, debemos considerar la articulación, eso es, la forma de enlazarse cada uno de los sonidos de una frase, ya sea mediante continuidad o separaciones. El primer caso (legato) expresa relajación, sensualidad y conectividad, mientras que el segundo ( stacatto) señalaría energía, fuerza, vivacidad o disyuntiva.
› La armonía Es el arte de combinar los sonidos de forma simultánea. Se ocupa de cómo suenan los acordes (notas que suenan a la vez): si nos parecen bellos, los denominamos consonantes y si no, disonantes. Las leyes de la armonía se fundamentan en la acústica, pero han estado influidas por las modas musicales de cada época y lugar.
La consonancia se origina por la superposición de sonidos que comparten muchos formantes de sus series armónicas respectivas. Así pues, tenemos que los intervalos de octava, unísonos, quinta y cuarta (por ejemplo, respecto a la nota do serían: otro do, sol y fa) son los sonidos que comparten mayor número de formantes. A continuación tenemos la tercera y sexta (respecto a do serían mi y la), y en el extremo opuesto tendríamos la segunda y séptima (respecto a do, serían re y si). A grandes rasgos éste sería el modo de caracterizar la simultaneidad sonora. Las consonancias infunden sensación de equilibrio, reposo, alegría y bienestar, mientras que las disonancias nos preocupan, inquietan, infunden tensión o deseo. Dichos elementos compositivos han sido utilizados ampliamente por los compositores como códigos emocionales del discurso musical, aunque el siglo XX se ha caracterizado por la ruptura de los estándares buscando una mayor flexibilidad tonal y armónica. La «música contemporánea» supera dichas categorías y acostumbra al oído humano a convivir con las que anteriormente se consideraban como disonancias, las cuales expresan disconformidad, disentimiento, crisis, revolución... La música para cine las utiliza con una frecuencia mucho mayor que la música de concierto; el público acepta mucho mejor su inclusión debido a una justificación escénica emocional en los audiovisuales. Además, entre las consonancias podemos hablar de algunos tipos de acordes muy utilizados: los mayores (designan el modo mayor y suenan «alegres»), los menores (muy presentes en el
modo menor, suenan «tristes»), los de séptima (añaden una sensación de cambio, de proceso, de algo inacabado que necesita una resolución), los disminuidos y los aumentados (de similar función a los anteriores)... De igual modo, podemos entender que a lo largo de una melodía se pueden generar cambios armónicos más o menos rápidos, así como provocar una cierta quietud o monotonía (el caso de los llamados pedales o bordones), con acompañamientos efectuados con una sola nota, a menudo grave. Algunos instrumentos tradicionales provocan este acompañamiento de forma automática, como la gaita. También en algunos lugares privilegiados de la melodía (como los finales de frase), la armonía suele favorecer la comprensión de la idea melódica mediante las cadencias, unas secuencias de acordes que sugieren un final completo o incompleto. Distinguimos entre las conclusivas (auténtica V-I, plagal IV-I) y las suspensivas (la semicadencia V, y la rota V-VI). La creación de expectativas en el espectador puede provocarse mediante la consecución tonal armónica y la cadencia.
› La forma musical La forma musical se refiere a la estructura que podemos apreciar en una obra y se relaciona con sus intenciones expresivas o estéticas. La comprensión musical es un entendimiento consciente o inconsciente de estructuras, cuyas partes están vinculadas entre sí
mediante algún tipo de lógica. En el estudio formal de la música, solemos distinguir entre melodía o «tema» principal, y su acompañamiento. Solemos asignar letras (A, B, y sus modificaciones A’, B’, etc.), para designar los principales temas o bloques musicales distinguibles que aparecen en una obra, a fin de poder identificarlos más adelante. La estructura puede aparecer de diversas formas en este contexto: los autores suelen reutilizar los materiales a lo largo de una composición, mediante técnicas comunes a otras artes: la repetición (A, A, A), la imitación o semejanza (A, A’, A’’), el contraste (A, B, C), el desarrollo o variación, la improvisación, la combinación, la inversión, la reducción, la sustitución, la expansión... La repetición permite fijar en la memoria los elementos más característicos y valiosos de una obra, por lo que los compositores hacen un uso preferente de este recurso, aunque para mantener el interés sea importante evitar las repeticiones idénticas, especialmente en lo referente a la interpretación. Un ejemplo de ello serían los temas con variaciones, como los grounds, pasacaglias y ostinatos , bases armónico-rítmicas sobre las cuales se construye la melodía principal y que sirven de base al desarrollo narrativo. Muchas formas musicales célebres, con estructuras diferenciadas, han dado nombre a obras muy conocidas. Entre ellas cabe señalar la sonata, la cantata, la fuga, la sinfonía, el concierto, el canon, la canción estrófica, el virelai, el Lied , el rondó, la suite... En algunos casos es el contraste lo que cuenta (como en la suite), en otros el desarrollo (como en la sinfonía), la improvisación (como el
azz ), la repetición (el canon), la imitación (la fuga), etc. El rondó, por ejemplo, puede servir para reiterar una idea o un leitmotiv (como la banda sonora de Indiana Jones , según Radigales, 2007). El ied suele plantear una frase A, una repetición alterada A’ que crea tensión expectante y una respuesta B, tan larga como las dos anteriores unidas. El contraste es uno de los métodos de elaboración de melodías más importante en algunas formas célebres, como la sonata o la sinfonía. Normalmente un tema A (calificado como «masculino») presenta una melodía amplia, con saltos ascendentes, ritmo marcado, articulación separada, enérgico, activo y ejecutado con intervención de metales y percusión. Por el contrario, el llamado tema B («femenino») suele ser descendente, de menor ámbito melódico e intensidad, con cadencias suspensivas, legato, introspectivo, delicado, ejecutado con cuerdas. Si seguimos la estructura narrativa clásica (Aristóteles) tenemos un planteamiento (hasta el 25%), un desarrollo (desde el 25 hasta el 75%), y un desenlace aproximadamente en el punto 75%, con 2 puntos de giro en 25% y 75%. M uchas obras musicales para cine mantienen esta estructura narrativa, aunque, en general, la estructura temporal de las mismas no permite a la música desarrollarse con independencia mediante repeticiones y contrastes, sino que es subsidiaria de la narración y las imágenes.
› El género musical
Otro de los elementos de la música es el género musical, que se refiere al tipo de obra en función de su uso o de la utilidad para que ha sido concebida. De este modo, una composición debe adaptar determinados parámetros (duración, cambios, partes, estructura...) a un concepto extramusical, ya sea un film, un ballet, una escena teatral, una danza... El género vincula una firme relación entre el objetivo que debe cumplir la música y los medios de composición adecuados a tal fin. Encontramos obras «puras», destinadas a un género, sin cambios, mientras que son frecuentes las adaptaciones intergenéricas de músicas preexistentes con otra utilidad: de música sinfónica a música de baile o de cine, de música profana a religiosa, de música popular a culta o viceversa, etc. Sin ánimo de ser exhaustivos proponemos un tipo de clasificación de obras musicales según su género. Para ello debemos considerar distintos parámetros: • Por el tipo de público a que va destinada: música culta / popular. • Por el número de instrumentos: música de cámara / sinfónica. • Por el número de voces: música monódica / polifónica. • Por el uso de instrumentos electrónicos: música acústica / electrónica/ electroacústica • Por el tipo de grupo instrumental: música vocal / instrumental / mixta. • Por el tema: música religiosa / profana • Por su uso: música militar, escénica (ópera, ballet...), de baile,
de cine, de relajación, de trabajo, videoclip... En concreto nos interesa la música para audiovisuales, que puede ser original o provenir de otros géneros. Las principales funciones que se asignan a esta música serían: • Organizar la narración y sus partes. • Dar continuidad a las escenas. • Provocar sincronía o falta de ella para aprovechar su mayor impacto sonoro y humor. • Decorar con elementos que no se ven (sonidos off, lo que Chion llama sup ercampo). • Identificación con un grupo social, generacional, cultural... • Reactiva, emocional, buscando la participación afectiva en el film (veáse el capítulo sobre las emociones).
› El estilo musical Es una característica de la música que engloba cualidades del sonido y de la música con un fin identificador y caracterizador de una época o un grupo social. El estilo musical será un elemento clave para asignar un público potencial a un film. En cada época predominan unas formas musicales, unos géneros, unos instrumentos y grupos instrumentales, unos ritmos característicos... Por tanto, el conocimiento del estilo obligará a un análisis pormenorizado de los atributos de una música y su
asignación a un contexto social e histórico. Para ello deberemos conocer sobradamente las características y atribuciones de cada época y territorio, así como las versiones históricas, sus transformaciones y los principales intérpretes. Conocer los estilos musicales del pasado permitirá una ambientación sonora adecuada para crear audiovisuales de documentales históricos, películas situadas en el pasado, usos locales de determinados sonidos y músicas, aceptación por parte del público oyente de determinados estilos, etc. Su conocimiento es básico en las biografías cinematográficas o biopics . En general, cada época histórica ha preferido un estilo musical propio, aunque otros anteriores hayan convivido con los más experimentales y novedosos. Para clasificar los estilos musicales, debemos acudir a la musicología, tanto en su rama histórica como en su visión etnomusicológica. Los términos utilizados por los expertos guardan relación con las taxonomías más corrientes de la historia del arte, aunque con algunas excepciones y aclaraciones: Renacimiento, clasicismo, barroco, romanticismo, nacionalismo, impresionismo, expresionismo, pop... Otros términos guardan relación sólo con la historia de la música, como Ars Antiqua, Ars Nova, aleatoriedad, atonalismo, música concreta, jazz, rock, música electrónica, dodecafonismo, etc. Las clases sociales dominantes han determinado qué estilo de música es el adecuado para las actuaciones, la educación, la composición, etc., manteniendo unos estereotipos, frente a otros que son arrinconados o abandonados. Hoy día coexisten muchos
estilos musicales, pues el mercado de la música permite cierta difusión de cada uno de ellos en función de targets específicos. La globalización, contrariamente a lo que pueda suponerse, puede llegar a ser un factor de protección de las minorías, las cuales pueden expandir sus modos de expresión más allá de sus fronteras culturales. No obstante, la música de cine es la música culta de nuestra época y, en cierto sentido, es capaz de acercar al gran público a la música clásica y al patrimonio musical de la humanidad.
Bibliografía ALCARAZ, María José / P ÉREZ C ARREÑO, Francisca (2010). Significado, emoción y valor. Ensayos sobre filosofía de la música. Madrid, Machado Libros. B ERNSTEIN, Leonard (2009). El maestro invita a un concierto. Madrid: Siruela. B ORDWELL, David (1997). El cine clásico de Hollywood: estilo cinematográfico y modo de producción hasta 1960. Barcelona, Paidós. B RAZIL, David / C OULTHARD, Malcolm / J OHNS, Catherine (1980). Discourse Intonation and Language Teaching . Londres, Longman. C HION, Michel (1997). La música en el cine. Barcelona, Paidós. — (1999). El sonido. Barcelona, Paidós. C OLÓN, Carlos / I NFANTE, Fernando / LOMBARDO , Manuel (1997). Historia y teoría de la música en el cine. Presencias afectivas. Sevilla: Alfar. C OOKE, Deryck (1959). The language of music. Oxford, Oxford University Press. DART, Thurston (2002). La interpretación de la música. Madrid: Machado Libros. F ERRI , Fabrizio (2003). «Efectos de tempo y modo sobre el contenido emocional de la música». En: Fórum de recerca. Universitat Jaume I.
Disponible en: http://www.uji.es/bin/publ/edicions/jfi9/psi/5.pdf . F ONAGY, Ivan / M AGDICS, Klara (1972). «Emotional patterns in intonation and music». En B OLINGER , Dwight (ed.). Intonation. Harmondsworth, Penguin. F RAILE, Teresa (2009). La creación musical en el cine español contemporáneo. Salamanca, Publicaciones de la Universidad de Salamanca (tesis doctoral). GARCÍA JIMÉNEZ, J. (1996). Narrativa audiovisual. Madrid, Cátedra. GUSTEMS, Josep (2005). «Escuchar los anuncios: una aproximación al uso de la música y del sonido en la publicidad televisiva». Eufonía, Didáctica de la música, núm. 34, pp. 91-100. — / González, O. (2010). «La música y el sonido en la programación infantil de Televisió de Catalunya». En: P ORTA , Amparo (ed.). ¿Qué escuchan los niños en la televisión?. Castelló de la Plana, Edicions Universitat Jaume I, pp. 110-133. HARMAN, Alec / M ELLERS, Wilfrid (1962). Man and his Music. Londres, Barnie and Jenkins. LEEUWEN , Theo van. (1999). Speech, music, sound . Londres, McMillan. LLUÍS F ALCÓ, Josep (1997). «L’anàlisi de la música cinematogràfica com a proposta didàctica». Butlletí del Col·legi Oficial de Doctors i Llicenciats, núm. 99, pp. 23-25. R ADIGALES, Jaume (2007). La música en el cinema. Barcelona, UOC. R ODRÍGUEZ B RAVO , Ángel (1998). La dimensión sonora del lenguaje audiovisual . Barcelona, Paidós. S EDEÑO, Ana María (2004). «Recorrido histórico por las relaciones entre música e imagen: el videoclip musical». Música y Educación, núm. 58, pp. 67-83. S IANKOPE, Joseph / VILLA, Olga (2004). Música e interculturalidad . Madrid, Catarata. T ÉLLEZ, Enrique (1996). «La composición musical al servicio de la imagen cinematográfica». ufonía, didáctica de la música, núm. 4, pp. 47-58. VV. AA. (2010). Sons i Sorolls. Barcelona, Ajuntament de Barcelona.
/ Ele Elem entos expresivo expresivoss y comuni comunica cativos tivos de la voz en los audiovisuales
Josep Gustems Carnicer, Universidad de Barcelona Caterina Calderón Garrido, Universidad de Barcelona
› La vo voz, z, un inst instrume rument ntoo music musical privi priville giado giado Entre los elementos sonoros de un audiovisual debemos considerar quizá la voz como el más importante, tanto por su capacidad comunicativa como por su versatilidad como instrumento musical, lo que la ha situado en un lugar principal durante muchos períodos de la historia de la música. Así pues, una primera distinción pla p lant ntea eará rá diferenc diferencia iass entre entr e la voz cant cantada ada y la hablada hablada,, aun cuando cuando ambas comparan muchos de los elementos musicales que hemos apreciado a lo largo de los anteriores capítulos. Según la programación neurolingüística (PNL; O’Connor y Seymour, 1995), se ha conseguido cuantificar, dentro de la comunicación oral entre personas, el peso de cada elemento en la
eficacia y la expresión: se calcula que las cualidades de la voz hablada alcanzan el 38%, mientras que sólo un 7% se atribuye al contenido de las palabras y un 55% a elementos corporales no sonoros (postura, respiración, piel...). Así pues, hemos de tener en cuenta estos datos a la hora de formar profesionales de la comunicación oral, ya sean maestros, pedagogos, educadores, locutores, presentadores, periodistas, etc., pues en su formación profesiona p rofesionall no suelen suelen ex exist istir ir conteni cont enidos dos espec esp ecífi íficos cos de mejora mejora y cuidado de su voz, y en cambio, ésta será uno de los pilares básicos sobre los los que su t rabaj rabajoo y p resenci resenciaa se susten sust entt arán. arán. Si nos adentramos en las cualidades de una voz, hemos de considerar en primer lugar las lingüísticas y expresivas, que se refieren a rasgos dialectales, nivel de lenguaje, riqueza léxica, estado de ánimo, ánimo, edad, edad, sal s alud, ud, intenc int ención, ión, personaj p ersonajes, es, estere est ereot otip ipos os de oficios oficios en cada momento y el número de voces (lo que da sensación de solidaridad). Pero también debemos tener en cuenta las características musicales de la voz y considerar la intensidad, los acentos, la potencia, la altura o tesituras, la tensión, lo extremo de la tesitura, los cambios de intensidad, el ritmo del habla (el tempo estable y sus cambios), las variaciones micromelódicas emocionales, el timbre general que describe una voz, etc.
› La voz, un re re t rato at o del de l alma En general no estamos a gusto con nuestra voz, no siempre consideramos que sea bonita y cuando la escuchamos grabada nos
sorprende. Sin embargo, no sucede lo mismo con la voz del resto de las personas que nos rodean. ¿A qué se debe esto?, ¿por qué nos cuesta reconocer y aceptar nuestra voz? Justo ahí empieza la para p aradoja doja:: lo que acep aceptt amos amos y reconoce reconocemos mos como como p ropio rop io no es lo que nos define ante los demás: nuestra voz es muy distinta oída desde dentro de nuestro cuerpo que desde fuera, debido a que los demás sólo escuchan el sonido que les llega al oído, mientras que nosotros tenemos una doble audición: la externa y la interna, a través de la cabeza y la trompa de Eustaquio. Tendemos a identificarnos y preferir las voces de otros que se pare p arece cen, n, comp comp leme lement ntan an o comp comp let let an la nuestra. nuest ra. A veces veces buscamos buscamos lo que nos une a esa persona y, en cambio, en ocasiones tan sólo lo que nos diferencia y querríamos incorporar a nosotros, esa máscara vocal. La coincidencia o no con nuestra entonación, intensidad o ritmo hace que las voces de dos personas sean más o menos compatibles y coincidentes, y eso se puede extrapolar a la relación entt re dich en dichas as persona p ersonas. s.
› En bus bu sca de un mode mod e lo de análi análisis vocal voc al El modelo PSICOVOX (Calderón, 2011) pretende facilitar la comprensión de las características psicológicas y de los usos comunicativos de los personajes a través del análisis sonoro de las voces habladas o cantadas presentes en los productos audiovisuales. Para ello se plantea un examen exhaustivo tanto de sus características acústicas (desde los parámetros más simples
hasta los más sutiles) como de sus aspectos expresivos y comunicativos. El Modelo PSICOVOX plantea distintas fases a lo largo de su implantación: 1. Fase Fas e descript descrip t iva: análisis análisis de las las característ característic icas as acús acústt icas icas básicas básicas de cada cada voz: voz : a) Altura: tesitura, uso del falsete, flexibilidad tonal, inflexiones, entonación, musicalidad, sentido melódico, voces extremas, vibrato, etc. b) Timbre: nasalización, ataque duro o rasposo, tensión; voz gutural (no impostada, con aire), impostada (de cabeza, redonda), engolada, opaca, de un actor conocido, desconocida, etc. c) Duración: tempo, cambios de tempo, ritmo regular, pausas, acentos y prolongaciones, eco, fiat fiatoo largo, pocas respiraciones, etc. d ) Intensidad: energía, potencia, grito, afonía, disfonía, cambios de intensidad, vibrato, trémolo, número de voces, etc. 2. Fase int intenc enciona ional: l: p ropuest rop uestaa de sentidos sent idos e intenciones intenciones a p artir de los elementos anteriormente descritos. Análisis de las capacidades comunicativas, expresivas y los rasgos de personal p ersonalida idadd asociados, asociados, seg s egún ún los siguie siguient ntes es elem elementos entos:: a) Altura: habitual o no en una cultura o grupo étnico, atribuciones de edad, fragilidad, sexualidad, sensualidad, personaj p ersonaje, e, estatus est atus,, act act ividad, ividad, energ energía ía,, relaj relajac ación, ión, segurida seguridad, d,
autoridad, emocionabilidad, ambigüedad sexual, inexpresividad, impotencia, fingimiento, empatía, monotonía, oficio, dinamismo, inocencia, protagonismo, virilidad, rivalidad, solemnidad, rigidez, estado de ánimo o emociones, dialecto, origen, nivel cultural, intenciones comunicativas (aseveración, negación, interrogación, exclamación), énfasis, voces extrahumanas (frialdad, técnica, extraterrestres, Dios, ángeles, monstruos, espíritus...), sorpresa, ansiedad, aburrimiento, modestia, cansancio, miedo, etc. b) Timbre: impostación excesiva, dignidad, caricatura, humor, ridículo, protección, otras razas, queja, pena, llanto, inhibición, represión, cortesía, esfuerzo, proximidad, naturalidad, improvisación, disponibilidad, enfermedad, ruidos, fricción, tensión, agresividad, excitación, angustia, naturalidad, vulnerabilidad, compasión, informalidad, susurro, intimidad, sensualidad, erotismo, belleza, armonía, sonoridad, alegría, salud, seguridad, formalidad, tradición, clasicismo, egocentrismo, discreción, inseguridad, identificación, memoria histórica de otros productos audiovisuales a los que remite, valor añadido por ser una voz conocida, inocencia, realismo, etc. c) Duración: identificación de edad, salud, género, clase social, inseguridad, llamar la atención, sorpresa, monotonía, burla, insistencia, reiteración, dignidad, ignorancia, énfasis, solemnidad, soledad, grandiosidad, poder, etc. d ) Intensidad: presencia, edad, actitud, salud, clase social,
estatus, estado de ánimo, proximidad o distancia, susurro, secretismo, confianza, exclamación-grito, impotencia/dolor, dominio, distancia íntima/personal/pública, cansancio, enfermedad, mala salud, marginación, cambios de actitud, llamar la atención, sorpresa, locura, miedo, dudas, énfasis, multiplicidad (voces diferentesdiversidad, o bien uno mismo hace las otras voces-narcisismo), esfuerzo, adaptación, soledad/ comunidad, etc. 3. Fase de reducción fenomenológica: se destacan las coincidencias intencionales en forma de aglutinantes o «nudos» semióticos (memes), a partir de la descripción y el relato intencional (fases 1 y 2). 4. Fase evaluadora: puesta en común de las conclusiones sonoras junto con las visuales y narrativas; coincidencias y contrastes, ampliaciones y complementos de significado; diseño de los personajes y personalidades a partir de los elementos sonoros analizados; redacción de informes.
Ficha de análisis sonoro de la voz para los audiovisuales
Bibliografía B RAZIL, David / C OULTHARD, Malcolm / J OHNS, Catherine (1980). Discourse Intonation and Language Teaching . Londres, Longman. C ALDERÓN, Caterina (2011). Modelo Psicovox. Barcelona, edición propia. N.º Registro: 02/2011/235. C ANTERO , Francisco José (2004). «Comunicació i veu». Articles de Didàctica de la Llengua i la Literatura, núm. 32, pp. 8-24. C RYSTAL, David (1970). «Prosodic and paralinguistic correlates of social categories». En: ARDENER , Edwin (ed.) Social Anthropology and Language. Londres, Tavistock Press. DELATTRE, Pierre (1972). «The distinctive function of intonation». En: B OLINGER , Dwight (ed.). Intonation. Harmondsworth, Penguin. F RANCISCO , Virginia (2008). Identificación automática del contenido afectivo de un texto y su papel en la presentación de información. Madrid, Universidad Complutense (tesis doctoral). IRIONDO , Ignacui (2008). Producción de un corpus oral y modelado prosódico para la síntesis del habla expresiva. Barcelona, Universitat Ramon Llull (tesis doctoral). LEEUWEN , Theo van (1999). Speech, music, sound . Londres, McMillan. LOMAX, Alan (1968). Folk Song Style and Culture. New Brunswick, Transaction Books. MC C ONNELL-GINET, Sally (1977). Intonation in a Man’s World. Signs, núm. 3, pp. 541-559. O’C ONNOR , Joseph / S EYMOUR , John (1995). Introducción al PNL. Barcelona, Urano.
/ Los recursos auditivos del cine y el audiovisual
Jaume Duran Castells, Universidad de Barcelona
› La alianza de la imagen y el sonido La vista se dirige al hombre exterior, y el oído, al hombre interior. R ICHARD WAGNER En 1927 se produjo el cambio más importante en el mundo del cine, el primer gran audiovisual de la historia, con la incorporación del sonido. Habitualmente se denomina al período anterior a esta fecha como cine mudo o silente, pero realmente nunca lo fue. Casi siempre había habido un piano o un comentador a pie de pantalla o, en las grandes ocasiones, una buena orquesta. Ahora bien, a finales de la década de 1920, y aunque ya se
habían producido algunas experimentaciones a principios de este decenio y existía un gran interés desde los orígenes del cine, surgió el Vitaphone, el primer sistema eficaz de sonido sincronizado, registrado en grandes discos que estaban armonizados con la imagen. Un poco más tarde, a principios de la década de 1930, este sistema fue sustituido por el Movietone, que incorporaba la banda sonora en el propio fotograma.
The Jazz Singer (1927).
The Jazz Singer ( El cantor de jazz , 1927), de Alan Crosland,
producido por la Warner Bros., fue el primer film hablado. Este clásico del género musical fue considerado por algunos como un simple disco Vitaphone que recogía canciones de la estrella del film, Al Jolson, simplemente ampliada con imágenes; el papel de éste hubiera tenido que interpretarlo George Jessel, quien finalmente lo rechazó al no poder cobrar dos sueldos, el de cantante y el de actor. No obstante, no se trataba de la primera película con este sistema: anteriormente ya se había estrenado Don Juan (1926), también de Alan Crosland, con el sistema Vitaphone, aunque el film no tenía diálogos. Y el primer film cien por cien hablado fue Lights of New York ( Luces de Nueva York , 1928), de Bryan Foy. En dos años, la mayoría de las compañías se pasaron al sistema sonoro, y la unión entre la Warner Bros. y la Western Electric, subsidiaria de la Telephone and Telegraph (AT&T), fue una de las más importantes para mejorar la reproducción sincronizada de un film y un disco. Ahora bien, algunos directores no reaccionaron de manera positiva ante el cine sonoro. Es el caso del gran Charles Chaplin, quien no introdujo ningún fragmento hablado —sólo una canción elaborada a partir de fragmentos de diversos idiomas e invenciones — en sus películas hasta Modern Times (Tiempos modernos , 1936), y que no hizo su primer film plenamente hablado hasta The Great Dictator ( El gran dictador , 1940). La célebre actriz canadiense del cine mudo Mary Pickford, cofundadora con Chaplin, Douglas Fairbanks y David Wark Griffith de la United Artists, llegó a afirmar que el cine hubiera tenido que ser primero
sonoro y después silente. Singin’ in the Rain (Cantando bajo la lluvia, 1954), de Stanley Donen, es un buen film para observar los problemas de la llegada del sonoro al cine.
Radio Days (1987).
Trois couleurs: blue (1993).
En cualquier caso, la alianza entre la imagen y el sonido ha sido, y es, fundamental en el mundo audiovisual, e incluso la capacidad de construir imágenes a partir de los sonidos y viceversa ha sido, y es, extraordinaria. Y, en concreto, el cine ha reflejado esto brillantemente. Por ejemplo, en Radio Days ( Días de radio, 1987), de Woody Allen, resulta interesante ver cómo, en una secuencia, el tío del protagonista se interesa por la carrera de un jugador de béisbol narrada por un locutor radiofónico que hace creíble aquello que no lo puede ser de ninguna de las maneras. Y dicha alianza entre la imagen y el sonido puede llegar a un tratamiento claramente locuaz en un film como Trois couleurs: blue (Tres colores: azul , 1993), de Krzysztof Kieslowski, donde en una escena vemos a la protagonista, Julie (Juliette Binoche), que acaba
de perder a su marido e hija en un accidente, cómo toca las notas de una partitura con un piano: se nos muestra el seguimiento de ésta y oímos la música resultante, pese a algunos intervalos de silencio. Actualmente, en el cine raramente percibimos momentos de silencio. Siempre hay, pues, algún elemento sonoro, ya que el espectador no acepta el silencio con facilidad, y, posiblemente, nunca lo ha hecho. Aun en momentos en que una determinada escena apela a esta situación, siempre se acaba manteniendo al menos un tímido ruido, y esto cuando no se comete algún error de partida, como en el caso de Titanic (1997), de James Cameron, donde, quizá para romper el silencio, justo después del hundimiento del barco se añade eco a las voces de los supervivientes en pleno mar abierto... Aun así, la mayoría de los comportamientos anormales entre la imagen y el sonido cuestan mucho de percibir. De hecho, el mundo audiovisual ha creado sonidos que no se corresponden exactamente con la realidad. Por consiguiente, se produce una importante influencia del sonido sobre la imagen, aunque es verdad que su estudio empezó relativamente tarde: los primeros escritos serios y profundos sobre la relación entre el sonido y la imagen aparecieron en la década de 1970, sobre todo en la revista francesa Cahiers du Cinéma, y no fue hasta la década de 1990 cuando aparecieron algunos interesantes estudios al respecto, como los llevados a cabo por M ichel Chion. Actualmente, existe una gran preocupación por el sonido. Algunas influencias importantes del sonido sobre la imagen se
encuentran, por ejemplo, en un film como E.T. (1982), de Steven Spielberg, con música de John Williams: el montaje aparentemente tiene mucho dinamismo y todo parece pasar muy rápido, con planos de un segundo o de dos como mucho, pero esto se debe a la banda sonora, p orque, por lo general, dichos planos acostumbran a tener el doble o el triple del tiempo mencionado.
E.T. (1982).
En Sneakers ( Los fisgones, 1992), de Phil Alden Robinson, dicha influencia se presenta en la narración: en una secuencia, Marty (Robert Redford) intenta saber por dónde ha pasado y adónde lo han llevado atendiendo a los sonidos que ha oído mientras iba encerrado en el maletero de un coche; finalmente, consigue reconstruir el camino, no sin alguna contradicción, y gracias también a la ayuda de su compañero ciego Whistler (David
Strathairn). Muchas veces, además, el sonido se utiliza para encabalgar dos planos o secuencias que a nivel visual son muy distintas, lo que se conoce con el nombre de overlapping . Es decir, por ejemplo, durante un cambio de plano a nivel visual, todavía seguimos oyendo el sonido perteneciente al plano anterior (overlapping a posteriori), o antes de que se produzca el cambio ya oímos el sonido perteneciente al plano siguiente (overlapping a priori). En Once Upon a Time in America ( Érase una vez en América, 1984), de Sergio Leone, se pone de manifiesto un overlapping terriblemente largo con el sonido de un teléfono. Finalmente, el sonido o la música de una escena o secuencia puede también conllevar lecturas dobles o más profundas. Esto sucede, por ejemplo, en Apocalypse Now (1979), de Francis Ford Coppola, donde durante el momento en que los helicópteros estadounidenses disparan sobre la población vietnamita oímos música perteneciente al fragmento de la cabalgata de Die Walküre ( Las valquirias ), de Richard Wagner, lo que viene a expresar que el comportamiento del ejército de Estados Unidos en Vietnam es tan reprobable como el de los nazis durante la Segunda Guerra Mundial. Dicho fragmento fue utilizado por Joseph Goebbels, el ministro de Propaganda de Adolf Hitler, para unos documentales sobre la Luftwaffe, la fuerza aérea. Igualmente, la selección responde al galope de las valquirias encima de los caballos con alas de la obra operística, que bien podrían ser los helicópteros. Además, la música, con este sentido y efecto, ya había sido tratada
en filmes como The Birth of a Nation ( El nacimiento de una nación , 1915), de David Wark Griffith, u Otto e mezzo ( Fellini Ocho y medio, 1963), de Federico Fellini.
› El sonido en la escena audiovisual: lo real frente a lo audiovisual De los sentidos, el oído es el más espiritual. SOREN K IERKEGAARD El sonido supera el marco del espacio donde se desarrolla la acción. Es decir, nos da una situación espacial infinitamente superior a la del marco: por ejemplo, podemos tener una pareja que se da un beso en primer plano pero oír las voces que se encuentran mucho más allá, en la profundidad de campo. No obstante, la imagen actúa también como un gran imán que atrae el sonido: por ejemplo, ubicamos la voz de izquierda a derecha de un personaje que se mueve en esta dirección en el cuadro, pero esto normalmente no sucede así. El sonido en la escena audiovisual puede darse: • En tiempo y espacio diegético; que a su vez p uede ser: – Sincrónico (in): por ejemplo, en relación con la música de un piano que toca un personaje, cuando el instrumento está en el campo, dentro de los cuatro segmentos del cuadro de la
imagen, y lo oímos. – En fuera de campo (off ): por ejemplo, igualmente en relación con la música de un piano que toca un personaje, cuando el instrumento, como indica la expresión, no está en el campo, sino fuera de éste, pero lo oímos y sabemos que se encuentra ahí, en la escena. – Interior: por ejemplo, cuando escuchamos sólo el pensamiento de un personaje que está en el campo, sin que éste hable. • En tiempo y espacio extradiegético; esto es, el sonido en un espacio no correspondiente: por ejemplo, la voz narradora o la música en el cine y, antes de la llegada del cine sonoro, la orquesta a pie de pantalla. Entre ambos casos, se pueden dar situaciones donde el sonido circule libremente y transgreda todas las normas. Es decir, en una escena o secuencia determinada puede costar saber cuál es la fuente exacta del sonido en cuestión; se trata del sonido on the air , el que está en el aire. Tomemos como ejemplo, una vez más, Apocalypse ow: al inicio del film, el capitán Willard (Martin Sheen) reposa en una cama y, mediante su recuerdo, el bullicio de la ciudad de Saigón es sustituido por el del ataque de los helicópteros lanzando napalm en una zona frondosa de Vietnam. De entre todos los sonidos que se oyen, y aunque también se escucha la canción The End de The Doors, destaca el de unas aspas de las cuales dudamos si pertenecen a dichos helicópteros, a un ventilador de techo que hay en la habitación o hasta a un helicóptero que finalmente oímos
sobrevolar por encima del lugar donde descansa el personaje.
Apocalypse Now (1979).
A veces también sucede que un sonido que creíamos que tenía una naturaleza determinada resulta que pertenecía a otra o incluso cambia a una tercera. En Eyes Wide Shut (1999), de Stanley Kubrick, observamos que la canción que acompaña a los títulos de crédito iniciales y a las primeras imágenes de la obra cambia de una situación extradiegética a otra diegética sincrónica, ya que Bill (Tom Cruise) la acaba apagando del equipo de música que se encuentra en su habitación. En otros filmes, como en Un condamné à mort s’es échappé (Un condenado a muerte se ha escapado , 1956), de Robert Bresson, existe un verdadero trabajo de cambio de una situación a otra que produce un importante avance en la dramaturgia de la propuesta.
Otro aspecto importante que considerar tiene que ver con la manera en que nos llega el sonido desde un punto de vista técnico. Des de la década de 1970, Walter Murch o George Lucas, por ejemplo, trabajaron con diversos avances. Hasta aquel momento, prácticamente se podría decir que la p royección de un film en una sala de exhibición había tenido un altavoz mono, de un canal, junto a la pantalla (generalmente detrás), o dos a los lados, o detrás, es decir, el estéreo, de dos canales. Más tarde, al sistema Dolby, que mejoraba la calidad del sonido básicamente reduciendo el ruido, se le sumaron otros sistemas de mejora como el THX, y los sistemas de sonido envolvente estuvieron al orden del día. En cualquier caso, la evolución del sonido ha sido tardía, y lenta, respecto a la de la imagen, aunque ciertos directores, como Fritz Lang o Alfred Hitchcock, hubieran sido ya muy sensibles con el tema. Por ejemplo, en M ( El vampiro de Düsseldorf , 1931), de Fritz Lang, la suite «En la gruta del rey de la montaña» de Peer Gynt de Edvard Grieg es silbada por el asesino Hans Beckert (Peter Lorre), un hecho que resulta clave para su captura final. O en Rear Window ( La ventana indiscreta, 1954), de Alfred Hitchcock, el sonido de los flashes de la cámara de fotografía en el momento en que Lars Thorwald (Raymond Burr) pretende asesinar a Jeff (James Stewart) da un valor terriblemente dramático a la escena.
M (1931).
Finalmente, cabe ahondar en el hecho de que muchas veces damos como válidos ciertos sonidos que nunca hemos oído: un tanque de combate pasando por encima de un cuerpo, un cuello que se desnuca... Se trata de convenciones, como quizá también lo sea el sonido de los puñetazos en un western, los cuales tampoco suenan como nos hacen creer. Las percepciones, como el aire que nos toca o los olores que sentimos, se han de transmitir en el cine por lo general también a través de la imagen. Pero en ocasiones, no obstante, hasta puede llegar a haber una intención metafórica en su uso, como en el film Duel ( El diablo sobre ruedas , 1971), de Steven Spielberg, donde si prestamos mucha atención, en el momento en
que el malévolo camión cae por el precipicio y se despeña, oímos también los aullidos de una bestia antes de morir.
Duel (1971).
› La identidad de la música en el cine La música es lo que el silencio nos deja oír. VLADIMIR JANKÉLÉVITCH
La música es un sonido compuesto por la superposición y sucesión de otros sonidos más elementales, las notas. Cada nota posee tres propiedades: el tono, el timbre y la intensidad. La sup erposición de notas define la armonía y la sucesión en el tiempo, el ritmo. Igualmente, la música es un lenguaje artístico asignificante e inexpresivo por sí solo, pero, paradójicamente, y pese a no significar ni expresar nada por sí misma, actúa como mediadora de las emociones y las voluntades expresivas del compositor. Cuando la música, además, se relaciona con la imagen, estos valores emotivos y expresivos acostumbran a adquirir suma importancia. En Marie Antoinette ( María Antonieta, 2006), de Sofia Coppola, para reforzar el retrato de una mujer moderna y alejada de su tiempo en la corte de Versalles de finales del siglo XVIII, la directora escoge música de grupos contemporáneos como Siouxsie & The Banshees, The Cure o The Strokes.
Marie Antoniette (2006).
Sea como sea, y dejando al margen ciertos ejemplos tan peculiares, la música, juntamente con la palabra —en forma de comentario, de voces o de diálogos sincronizados—, los efectos sonoros o ambientales, y, quizá también por su valor expresivo, el silencio forman la llamada banda sonora de un film o programa audiovisual. Dicha banda sonora, en lo que a la música se refiere, se ha llegado a utilizar en ocasiones, a partir de las partituras encontradas, para restaurar el montaje de ciertos filmes, y a lo largo de la historia del cine parece no entenderse la obra de un gran director sin su músico de cabecera. Los binomios Federico Fellini Nino Rota, Alfred Hitchcock-Bernard Herrmann, Sergio LeoneEnnio Morricone, George Lucas o Steven Spielberg-John Williams, David Lynch-Angelo Badalamenti, o Joe Hisaishi-Hayao M iyazaki, parecen inseparables. E ineludibles. En el cine también se puede llegar a describir lo que pasa a través de la imitación musical, lo que se conoce bajo el nombre de mickeymousing . Su nombre viene de una música que puede llegar a marcar el paso del dibujo animado de un ratón que, por ejemplo, baja por unas escaleras. En The Informer ( El delator , 1935), de John Ford, una moneda cae al suelo y la música nos presenta su recorrido. Ante estos paradigmas, parece claro destacar que la música es un trabajo que se elabora a posteriori del film, es decir, en posp roducción. Y, pese a que esto es así por lo general, en alguna
ocasión ha habido alguna excepción, como en Ascenseur pour l’echafaud ( Ascensor para el cadalso , 1957), de Louis Malle, con música de Miles Davis, que prácticamente la compuso con su grupo, improvisando y sin partitura, en el mismo momento de su primer visionado.
Ascenseur pour l’echafaud (1957).
Ahora bien, por lo general, los grandes compositores de música de cine son, y han sido, cineastas, y, por lo tanto, son capaces de proponer alternativas a las imágenes que se les presentan para complementar o mejorar el guion. Así, existen distintas tipologías para referirse a la música de un film:
• En relación con el espectador, puede ser: – Emocional, que transmite emoción: por ejemplo, la bonita partitura de John Barry para Out of Africa ( Memorias de África, 1985), de Sydney Pollack. – Intelectual, que transmite información: por ejemplo, en la trilogía de The Lord of the Rings ( El señor de los anillos , 2001-2003), de Peter Jackson, cuando Frodo (Elijah Wood) piensa en el anillo no es necesario mostrarlo p uesto que con sólo la música ya somos conscientes de ello. • En relación con su origen, puede ser: – Preexistente: por ejemplo, en A Clockwork Orange (La naranja mecánica, 1971), de Stanley Kubrick, la música de Ludwig van Beethoven se justifica en las escenas de violencia porque al protagonista le gusta este compositor. – Original: por ejemplo, Yann Tiersen crea una banda sonora específica para Le fabuleux destin d’Amélie Poulain (Amélie, 2001), de Jean-Pierre Jeunet. • En relación con la forma de aplicación, puede ser: – Diegética, donde los p ersonajes la cantan o la escuchan y su tiempo es finito; es decir, dura lo mismo que en la narración y ocupa todo el espacio de la escena: por ejemplo, los distintos pasajes que aluden a las canciones del álbum de The Beatles de Yellow Submarine (1968), de George Dunning. – Incidental, o extradiegética: por ejemplo, el tema principal de The Great Escape ( La gran evasión, 1963), de John
Sturges, compuesto por Elmer Bernstein. • En relación con la actitud, puede ser: – Empática, que simpatiza con aquello que nos muestra la escena; es decir, una escena y una música bonitas: por ejemplo, toda la secuencia inicial de Breakfast at Tiffany’s (Desayuno con diamantes, 1961), de Blake Edwards, con Holly (Audrey Hepburn) paseando por la Quinta Avenida a primera hora de la mañana, y con la canción Moon River , compuesta por Johnny Mercer y Henry Mancini. – Anempática, que contradice aquello que nos muestra la escena: por ejemplo, en Murder on the Orient Express ( Asesinato en el Orient Express , 1974), de Sydney Lumet, oímos un vals durante el arranque inicial del tren, en lugar de otro tipo de música más acorde con lo que apunta el título del film. • En relación con la vinculación, puede ser: – Integrada, donde la escena se explica por la música y viceversa. Se trata de una relación bilateral; es decir, si un personaje toca el saxo, oímos esta música. – No integrada, donde apenas pasaría nada si la música no estuviera en la escena. • Y finalmente, en relación con el número, puede ser: – Repetida, pues aparece más de una vez y a lo largo del film su significado es el mismo. – Variada, ya que no se repite y a lo largo del film su significado es el mismo.
– Repercutida, pues se repite, aunque, durante el film, su significado no es igual, sino que va cambiando. Por ejemplo, en Rosemary’s Baby ( La semilla del diablo, 1968), de Roman Polanski, la canción de cuna que oímos al principio es la misma que escuchamos al final, pero aquí su significado ha cambiado, porque ahora sabemos que el bebé es el hijo del diablo. También existen distintos temas musicales en un film: • Principal, que sería el tema central más poderoso y cuya presencia ha de ser única; es decir, sólo puede haber uno de este tipo. • Central, que sirve para explicar alguna cosa, requiere que el espectador lo entienda y su presencia es limitada: por ejemplo, en un film sobre Jesucristo y los doce apóstoles no pueden haber trece temas... Asimismo, existe también el contratema; es decir, un tema opuesto al principal o a los centrales: por ejemplo, en la saga de Star Wars ( La guerra de las galaxias , 1977-2005), de George Lucas, y a excepción del primer film —esto es, el cuarto episodio—, podemos oír el llamado The Imperial March , o tema de Darth Vader, como contrapunto a otros temas asociados a las tropas rebeldes. La lucha entre los personajes, pues, se traslada también a la partitura. • Secundario, que no requiere ninguna atención por parte del espectador, pero cuya presencia es significativa.
• Y finalmente, el subtema, el motivo o el fragmento... Con todo, y ya para terminar, resumir la historia de la música cinematográfica sería una tarea ardua y difícil, pero es importante destacar como mínimo algunas épocas, compañías o autores: • En Estados Unidos: la Warner Bros. y el boom de la música en los inicios del cine, con Max Steiner y Erich W. Korngold a la cabeza; el genio musical de Bernard Herrmann; Alfred Newman y Hugo Friedhofer en la 20th Century Fox; los autores centroeuropeos que hicieron carrera en Hollywood, como Franz Waxman, Dimitri Tiomkin, Miklós Rózsa o Bronislau Kaper; otros compositores como Victor Young, David Raksin, Alex North o Elmer Bernstein; la aparición del jazz en el cine; Henry M ancini y la renovación de la música de la década de 1960; el retorno al clasicismo de la mano de John Williams o Jerry Goldsmith; y autores de las últimas décadas como Hans Zimmer, Howard Shore, Dave Grusin, Philip Glass, Danny Elfman, Angelo Badalamenti... • En Europa: los franceses M aurice Jaubert, Maurice Jarre, Georges Delerue o Francis Lai; en Gran Bretaña, William Alwyn, John Barry, Patrick Doyle o John Cale; los italianos Nino Rota y Ennio M orricone; los españoles M anuel Parada, Jesús Quintero, Carmelo Bernaola, Roque Baños, José Nieto o Alberto Iglesias; en Grecia, Vangelis; en Bosnia-Herzegovina, Goran Bregovic... • En otras cinematografías: Lalo Schifrin, en Argentina; Ryuichi
Sakamoto o Joe Hisaishi, en Japón; Gabriel Yared, en el Líbano... Todos ellos elaboran una música original que acaba formando la banda sonora de un film y que aglutina a su vez los créditos iniciales o finales (los cuales, por cierto, han pasado de tener aproximadamente una media de un minuto de duración antes de la década de 1960 a más de ocho minutos en la actualidad). Es evidente, no obstante, que la música preexistente o adaptada se combina a menudo con la original. E igualmente, que para muchos productores resulta a veces más fácil comprar los derechos de ciertas canciones o partituras que encargar toda una propuesta a un buen músico. El cine, quizás desgraciadamente, también es tiempo y dinero.
Bibliografía C HION, Michel (1993). La audiovisión. Introducción a un análisis conjunto de la imagen y el sonido. Barcelona, Paidós. — (1999). El sonido: música, cine, literatura... Barcelona, Paidós. DURAN, Jaume / S ÁNCHEZ, Lydia (2008). Industrias de la comunicación audiovisual . Barcelona, Publicacions de la Universitat de Barcelona. LACK , Russell (1999). La música en el cine. Madrid, Cátedra. LATINI , Giulio (2006). L’immagine sonora. Caratteri essenziali del suono cinematografico. Roma, Artemide. P ADROL, Joan (2006). Conversaciones con músicos de cine. Badajoz, Diputación Provincial de Badajoz. R ADIGALES, Jaume (2007). La música en el cinema. Barcelona, UOC.
/ Producción y posproducción sonora en los audiovisuales
Francesc Llinares Heredia , Universidad de Barcelona Desde la aparición de la primera película con sonido grabado en 1926, Don Juan, de Alan Crosland, o el primer largometraje sonoro con voces sincronizadas en 1927, El cantor de jazz , también de Alan Crosland, la industria audiovisual ha experimentado una importante evolución. Si a esto añadimos la irrupción, en los últimos años, de la tecnología digital se puede ver cómo se han simplificado enormemente los procesos técnicos necesarios relacionados con la producción y la edición de sonido para audiovisuales. A pesar de esta importante evolución tecnológica, la metodología de trabajo no ha variado mucho, y pueden distinguirse tres fases en la elaboración del sonido para un proyecto audiovisual: preproducción, producción y posproducción.
› Preproducción La fase de preproducción es muy importante, ya que implica una cuidadosa planificación de lo que será todo el proceso de producción audiovisual, en nuestro caso sonora, de manera que la posp roducción no se convierta en un proceso donde tengan que subsanarse todos los errores que se han ido acumulando debido a una planificación incorrecta o inexistente. En esta fase se especificarán los diálogos, la música, los efectos sonoros, los sonidos de ambiente y los silencios que han de acompañar a la acción sin olvidar que el sonido en una producción audiovisual puede ser visto bajo dos aspectos: el técnico y el creativo. El primero estaría relacionado con la calidad de las grabaciones y la edición del sonido y el segundo con el uso que se le da a los diferentes elementos sonoros (diálogos, narración, música, efectos sonoros, silencio, sonido ambiente, etc.) para crear una trama sonora que se complemente con la imagen. También es conveniente visitar los escenarios y localizaciones donde se ha de realizar la grabación, de manera que, a partir del propio entorno sonoro, se puedan valorar los elementos y situaciones posibles para minimizar al máximo los problemas que puedan surgir durante el rodaje.
› Producción
A partir de la planificación realizada en la etapa anterior se lleva a cabo la fase de producción, que implica el rodaje del proyecto audiovisual. Es importante que la grabación del sonido se lleve a cabo de manera que sea posible editarlo y mezclarlo correctamente en la fase de posproducción. En esta fase del rodaje se realizan grabaciones sincronizadas de los diálogos y el sonido ambiente simultáneamente a la imagen. También se procede a la grabación de wild tracks (literalmente, «pistas salvajes») que son registros de sonido ambiente, efectos o diálogo que se graban de forma independiente de las imágenes. ›› Captación del sonido Uno de los objetivos principales en la captación del sonido es conseguir una buena grabación del diálogo de los actores, limpia y sin ruidos, así como lograr, especialmente en las localizaciones, una gran cantidad de sonido ambiente que permita recrear y, si conviene, enriquecer el entorno sonoro durante la mezcla final. A lo largo del rodaje, además de las grabaciones de voz y sonido ambiente sincronizado con la imagen, es conveniente registrar sonido ambiente independiente de la imagen, que después puede ser útil en las sesiones de posproducción; estas grabaciones son las ya citadas wild tracks . Algunos de los motivos para grabar estos sonidos libres (wil tracks ) pueden ser: • Que sólo se necesite el sonido, no la imagen; por ejemplo, la
grabación de un grito que se escucha fuera de cuadro. • Que no ha sido posible obtener, en la misma toma, un buen sonido e imagen. • Que en una toma, difícil de repetir, se ha conseguido una buena imagen, pero ha habido alguna alteración en el sonido. • Para obtener sonidos de fondo (room tone) o ambiente que serán útiles en la posproducción. Para que la grabación de una wild track sea lo más parecida posible al original y por tanto válida, no es conveniente dejar pasar demasiado tiempo entre la filmación de una escena y la grabación de la wild track de la misma, de manera que se puedan reproducir las mismas condiciones. En el proceso de grabación de sonido es importante tener en cuenta una serie de factores: • Que la grabación sea lo más fiel posible a la interpretación original. • Que la diferencia en la calidad del sonido dentro de la misma escena, de toma a toma, sea mínima. • Reducir al máximo todos los ruidos extraños a la grabación. • Efectuar grabaciones adicionales de sonido ambiente o de sonido de fondo (room tone). • Grabar con la mínima reverberación posible, pues ésta se puede añadir posteriormente pero no se puede eliminar. • Evitar solapamientos de sonido en los diálogos.
El sonido se puede grabar por separado o en el mismo medio en que se graba la imagen; en el segundo caso se evitarán problemas de sincronización en la posproducción. Los auriculares son muy importantes en el proceso de captación y grabación del sonido, especialmente si esto se realiza fuera de estudio. La respuesta de los auriculares ha de ser plana y de una amplia gama de frecuencias, y es necesario que cubran toda la oreja para aislar el oído del exterior lo máximo posible. ›› Grabación en estudio y en localizaciones La grabación del sonido se puede realizar en un estudio, donde los problemas que puedan surgir serán menores, pues se trata de un espacio preparado para este cometido, o fuera del mismo, ya sea al aire libre o en el interior de un local. El término localizaciones se utiliza para indicar cualquier lugar fuera del entorno del estudio, ya sea tanto interior como exterior. Des Lyver (2000) enumera tres tipos distintos de localización sobre los que basar la planificación necesaria: 1. Exteriores sin toma de corriente disp onible (entrevistas en la calle, escenas de campo, dentro de vehículos móviles). 2. Interiores con una potencia eléctrica limitada (entrevistas en interiores, persecuciones por pasillos, ficción a pequeña escala). 3. Interiores con potencia eléctrica disponible (estudio para teatro, conciertos, ficción a gran escala)
Según cual sea el tipo de localización habrá que elaborar una lista del material necesario que utilizar (tipos de micrófonos, longitud de los cables, jirafas o pértigas para los micrófonos, etc.). Algunas de las decisiones se basarán en el conocimiento que se tenga sobre cómo se comportan los sonidos en diferentes ámbitos (exteriores, interiores, espacios con reverberación, etc.). También es conveniente saber dónde se encuentran los puntos de toma de corriente si está previsto llevar equipos que necesiten electricidad y ésta no pueda ser suministrada por baterías.
Exteriores Normalmente la grabación en exteriores entraña más dificultades, ya que suele haber más ruido de fondo y de mayor intensidad que en interiores: tráfico, gente y ambiente, en general. Debido a esto es muy importante situar el micrófono lo más cerca posible de la fuente sonora; así, la señal que captará de dicha fuente será más fuerte que el resto y así se reducirá el ruido de fondo. En la fase de posp roducción y con la ayuda de las grabaciones que se han realizado por separado de todos los sonidos de ambiente o de fondo se procederá a buscar un equilibrio de toda la banda sonora, de manera que el sonido nos muestre que se trata de un exterior sin por ello perjudicar la calidad de audio ni la inteligibilidad del diálogo.
Interiores
El hecho de que un interior esté delimitado por unas paredes y un techo hace que el comportamiento del sonido sea distinto que en exteriores. Uno de los problemas más frecuentes de la grabación en interiores se encuentra en el tiempo de reverberación, que es el tiempo que tarda el sonido indirecto en decrecer hasta un nivel en el cual ya no contribuye al sonido total. La reverberación se puede controlar alterando el volumen del espacio o cambiando los materiales absorbentes dentro de éste. La situación ideal es que la reverberación sea mínima, ya que, como se ha dicho anteriormente, siempre se puede añadir pero no reducir.
Microfonía Las herramientas principales en la captación de sonido son los micrófonos. Éstos transforman la energía producida por las ondas sonoras en una señal eléctrica, de manera que se pueda manipular y almacenar en algún soporte, ya sea en formato analógico o digital. La función de un micrófono es captar lo más fielmente posible todos los sonidos que se desea grabar. Por tanto, su buen uso resulta de vital importancia porque, tal y como dice Torres Alberich (2009), el micrófono es el primer responsable de la calidad sonora. Los usos más adecuados para un micrófono se deciden considerando sus ventajas e inconvenientes y para esto es necesario conocer sus características principales. Existe una gran variedad de micrófonos que se clasifican en
función de unas determinadas características. Los tres rasgos básicos que conviene valorar a la hora de escoger un micrófono son su principio de funcionamiento, su respuesta polar y su sensibilidad. Si nos atenemos a su principio de funcionamiento se puede hablar de micrófonos dinámicos y de condensador. Los micrófonos dinámicos son robustos, resistentes a los cambios de temperatura y a la humedad, y se pueden utilizar bajo la lluvia, lo que los hace ideales para las grabaciones en exteriores. Son bastante buenos a la hora de evitar ruidos y los cables no producen demasiado ruido no deseado. Resultan apropiados para adaptarlos a pértigas. Los micrófonos de condensador no son especialmente robustos y no resulta conveniente utilizarlos con altos niveles de humedad y mucho menos que se mojen, por lo que, según las condiciones atmosféricas, su uso en exteriores puede ser poco adecuado. Tampoco es conveniente que sufran cambios de temperatura. No están especialmente indicados para captar sonidos muy intensos, ya que se saturan con facilidad y producen una cierta distorsión. Tienen una mejor respuesta de frecuencia, aunque, normalmente, son más ruidosos que los dinámicos. Su mayor sensibilidad los hace adecuados para seguir escenas de acción pero los cables son más sensibles al ruido. En el ámbito del sonido profesional se suelen utilizar micrófonos de baja impedancia (una magnitud que establece la relación entre la tensión o voltaje y la intensidad de la corriente), y a
que generan menos ruido, son mucho menos sensibles a las interferencias eléctricas y se pueden utilizar con cables de larga longitud. Otra de las características importantes de los micrófonos es su direccionalidad: la sensibilidad de éstos varía según el ángulo respecto al eje del que procede el sonido y nos permite controlar los sonidos que queremos grabar y los que no. Hay tres tipos básicos de micrófonos según su respuesta polar o direccionalidad: Los micrófonos omnidireccionales captan todos los sonidos por igual, vengan de la dirección que sea. Son poco sensibles al viento y al ruido que pueda generar su uso. El hecho de que tengan la misma sensibilidad en todas las direcciones hace que no requieran ser enfocados hacia la fuente. Este tipo de micrófono se utiliza para captar sonido ambiental, sin importar su ángulo de procedencia. Los micrófonos unidireccionales captan especialmente los sonidos provenientes de la parte frontal y, en menor medida, los laterales; en la parte posterior su sensibilidad es mínima. Estos micrófonos se denominan cardioides, porque el esquema de su respuesta direccional tiene forma de corazón. En ellos suele producirse lo que se conoce como efecto de proximidad : cuando la fuente se aproxima mucho al micrófono (3 o 4 cm), la respuesta de la frecuencia cambia y aumenta la sensibilidad en las bajas frecuencias. Son adecuados para grabaciones en entornos donde hay un exceso de ruido ambiente no deseado. En este grupo también podemos hablar de micrófonos sup ercardioides o hipercardiodes
según su direccionalidad sea mayor. Los micrófonos bidireccionales captan sonidos que procedan de la parte trasera o delantera del micrófono pero no de los lados. Esto los hace útiles para minimizar la captación de una señal que proceda de una zona lateral a la fuente sonora que se desea captar. No tienen una buena respuesta a frecuencias muy bajas. En estos micrófonos, de la misma manera que en los unidireccionales, también se produce el efecto de proximidad. Otros tipos de micrófonos utilizados habitualmente en las grabaciones de sonido para audiovisuales son: el lavalier, de tamaño muy pequeño y también llamado de corbata o de solapa, a menudo es inalámbrico y suele ser omnidireccional; y el de cañón, un micrófono unidireccional alargado y muy útil para captar una fuente sonora específica, incluso en ambientes ruidosos. Suele ir adaptado a una pértiga (también llamada jirafa), un tubo telescópico diseñado para sostener en uno de sus extremos un micrófono por encima de los intérpretes y que se mantiene fuera del plano visual.
Grabadoras de sonido La forma más simple de grabar sonido es haciéndolo en el mismo medio que la imagen. Generalmente, los micrófonos internos de las cámaras son omnidireccionales, lo que quiere decir que el sonido se graba sin tener un objetivo concreto, junto con los ruidos extraños. Para evitar captar los sonidos no deseados se puede incorporar a la cámara un micrófono de cañón, muy utilizado en las producciones
audiovisuales realizadas en exteriores p or su gran direccionalidad. Existen formatos de vídeo con diversas pistas de audio (DVCPRO, HDCAM, DVCAM), pero hay que tener en cuenta que, para muchas producciones audiovisuales, dos canales de audio pueden ser suficientes. También se pueden usar micrófonos independientes de la cámara. Una de las opciones posibles es el micrófono con pértiga, anteriormente mencionado, que se puede situar por encima del plano visual. También existe la posibilidad de utilizar micrófonos fijos, móviles, de escenario, suspendidos, de mano, lavalier, etc., según el tipo de proyecto audiovisual que se lleve a cabo: película, documental, reportaje, videoclip, etc. La grabación del sonido con independencia de la cámara hará necesario el uso de grabadores con código de tiempo para la posterior sincronización del sonido y la imagen en la fase de posp roducción. En cualquier caso, durante este proceso, ya sea en grabadoras monopista o multipista, es importante monitorizar la grabación o la mezcla, preferentemente a través de unos buenos auriculares. Además de grabarlo directamente en la cámara, el sonido se puede almacenar en diferentes soportes. Los sop ortes digitales más habituales son: • El DAT (Acrónimo de Digital Audio Tape), un aparato que graba la señal digital en una cinta magnética. • El MiniDisc, un disco magneto-óptico de menor tamaño que los CD convencionales que puede almacenar más de una hora
de sonido de calidad digital. • El disco duro, un dispositivo que emplea un sistema de grabación magnética para almacenar datos digitales.
› Posproducción La posproducción de sonido es una de las últimas etapas en el proceso de creación audiovisual en la que se da la forma definitiva a los diversos materiales (efectos sonoros, diálogos, música) que constituy en la banda sonora de una producción audiovisual. La combinación, mezcla y masterización de los elementos sonoros vendrá marcada por diversos factores como el tipo de producción audiovisual o el soporte al que va destinada. Esta etapa implica diversos procesos: grabación, edición, procesado, mezclas y masterización. ›› Edición La edición de sonido es el proceso a través del cual se transforman, se integran y se unen los sonidos ya grabados convirtiendo en definitivos los elementos sonoros que se combinan en una producción audiovisual. En la actualidad, la edición de sonido se suele realizar digitalmente usando un software especializado, aunque no siempre fue así. Desde la década de 1940 hasta la de 1990, momento en que los ordenadores y los programas digitales revolucionaron la edición
de sonido, éste se editaba manipulando una cinta magnética. Este proceso era complejo, y a que la cinta se había de cortar por donde se considerara necesario para empalmarla posteriormente. Todo el trabajo se realizaba de oído, sin ninguna ayuda visual. La edición del sonido a partir del uso de soportes digitales recibe el nombre de edición no lineal . Edición no lineal Los términos lineal y no lineal en relación con la edición se empiezan a utilizar a final de la década de 1980, momento en que la edición digital comienza a marcar la diferencia entre ambos procedimientos. En la edición lineal el proceso se debe realizar de manera secuencial manipulando una o varias cintas, lo que implica que si hay que borrar o insertar alguna escena será necesario seleccionarla y reeditar todo el material posterior. En cambio, en la edición no lineal, la digitalización de la imagen y el sonido y su almacenamiento en discos duros permite insertar fragmentos sonoros, eliminarlos y cambiar su posición en cualquier momento de la edición, lo cual ofrece una amplia libertad de movimientos. Otra ventaja que ofrece la edición digital es que tanto la imagen como el sonido pueden alterarse, manipularse y probarse en una «grabación virtual», lo que significa que el montador no está grabando realmente sobre una cinta, sino que tan sólo está elaborando una lista de decisiones de edición conocida como EDL (del inglés Edit Decision List); que registra todos los cambios
realizados y sus respectivos códigos de tiempo. También se utiliza el término edición no destructiva para referirse a este tipo de edición digital, ya que los cambios que se produzcan no afectarán al material grabado originalmente. Para llevar a cabo estos procesos de edición sonora que en la actualidad, tal y como hemos apuntado, suelen ser totalmente digitales y no destructivos, a menudo se utiliza una estación de trabajo de audio digital conocida como DAW (del inglés Digital Audio Workstation), que consiste en un sistema controlado por ordenador con el que se puede grabar, editar, procesar y reproducir el sonido. Bajo este término podemos encontrar numerosos sistemas con diferentes grados de sofisticación, que van desde un nivel profesional hasta uno de aficionado. Con pequeñas diferencias, la mayoría de las plataformas digitales de edición de sonido funcionan de forma parecida. El estándar a nivel profesional es el ProTools, aunque podemos encontrar otros programas que ofrecen resultados óptimos como Sound Track —vinculado al editor digital de vídeo Final Cut—, Sound Forge, Nuendo, etc. Actualmente, en la mayoría de los programas de edición de audio se puede manipular el vídeo, lo cual ayuda enormemente en la edición y sincronización del sonido con la imagen. Asimismo, los programas de edición no lineal de vídeo también ofrecen p oderosas herramientas de edición de audio. En el proceso de edición no lineal o digital, lo primero que se debe hacer es seleccionar el material sonoro para escoger el que
funciona o descartar aquel que no, basándose en parámetros relacionados con la calidad, la duración o los niveles de sonido. Si disponemos de material sonoro en formato analógico se deberá digitalizar para poderlo manipular y tratar. Hay que tener en cuenta que, en la edición de sonido para un proyecto audiovisual, a menudo se trabajará con diversas capas sonoras: diálogo, tráfico exterior, sonidos interiores, música, etc., las cuales se han de encajar y sincronizar adecuadamente. Para realizar una posproducción digital es necesario disponer en formato digital de todos los elementos de la banda sonora, así como de las imágenes que tenemos que sonorizar y de una serie de programas de edición, procesado y mezcla. Elementos de la banda sonora La banda sonora de un audiovisual está integrada por diversos elementos: la voz, ya sea en forma de diálogo, monólogo o voz en off ; los sonidos ambiente que contribuyen a la sensación de realismo; los efectos especiales sonoros y la música. Voz En las producciones audiovisuales en las que interviene, el diálogo es el elemento sonoro más importante de la misma, por lo que es importante escucharlo mezclado con música o efectos sonoros para poder realizar una evaluación correcta del mismo.
Doblaje Cuando los diálogos capturados en la fase de producción no son lo bastante aceptables, se han de efectuar algunas modificaciones en ellos o se necesita recurrir a otro idioma, han de regrabarse en un proceso llamado ADR (del inglés Automatic Dialog Replacement). Este proceso consiste en que un actor visiona diversas veces el fragmento que debe doblar mientras escucha la grabación original, a modo de guía, por los auriculares. Una vez finalizado el ensayo, el actor interpretará el texto de manera que coincida con el movimiento de los labios que se ve en pantalla. La técnica ADR también se conoce como looping , debido a que el fragmento que hay que doblar se reproduce automáticamente en forma de bucle. Un factor muy importante para una buena grabación ADR es la elección del micrófono, pues no todos tienen la misma coloración o carácter; es necesario saber exactamente qué micrófonos se utilizaron en el escenario, de forma que se utilice el mismo modelo a la hora de grabar el ADR. En el doblaje o grabación ADR es importante estudiar los movimientos de la boca humana cuando habla para conseguir que cuando se cierre la boca no salga ninguna modulación extra. Los errores de un doblaje incorrecto o mal ajustado se detectarán principalmente en los sonidos labiales, especialmente en los oclusivos, ya que la brevedad y precisión tanto del sonido como del movimiento que lo produce dejan poco margen de error en su percepción simultánea.
Grupo Walla Normalmente, cuando los actores principales tienen diálogos en escenas con mucha gente, los extras simulan estar hablando sin emitir sonido alguno para que el diálogo principal se pueda grabar lo más nítido posible. Posteriormente, en la fase de posproducción, se grabarán los sonidos de la gente (una multitud en un disturbio, un grupo de soldados en una batalla o gente hablando en un restaurante) con un grupo de especialistas, a los que se les conoce como grupo Walla o loop group. Parece ser que el término Walla tiene su origen en los comienzos del cine sonoro, cuando grupos de extras repetían una y otra vez esta palabra delante de un micrófono para crear el efecto sonoro de una multitud. Amyes (2005) sugiere que, para crear la sensación de multitud, se pueden grabar dos pistas similares de rumores y duplicarlas, apuntando que este ambiente se puede destacar creando la sensación de profundidad espacial dentro de la escena. Efectos de sonido Otro de los componentes sonoros de un audiovisual está formado por los efectos de sonido. Bajo este nombre se agrupan los sonidos de una producción audiovisual que no pertenecen ni al diálogo, ni a la voz en off , ni a la música, y que se añaden, normalmente, en el proceso de posp roducción con intención de enfatizar algún detalle que el sonido ambiente no pueda ofrecer. Los efectos de sonido, que alcanzarán una gran importancia con la aparición de la radio,
adquirirán cada vez más peso en cualquier tipo de producto audiovisual. Wyatt (2005) considera que, además de otras muchas funciones, el principal objetivo de los efectos de sonido es crear un paisaje sonoro que atraiga al espectador al interior de la «realidad» creada por el director y fuera del entorno en el que se encuentra viendo la película. Esta afirmación es igualmente válida para cualquier tipo de producción audiovisual. Algunas de las funciones de los efectos de sonido son: • • • • • • • •
Crear una ilusión de realidad. Crear un efecto de continuidad. Crear una ilusión de profundidad espacial. Crear una ilusión de espacio. Subrayar acciones o narrar otras que no aparecen en pantalla. Solucionar problemas en la pista de diálogo. Ayudar en la creación de un ambiente. Proporcionar elementos dinámicos.
Según su función en un audiovisual, Herrera distingue entre: •
Sonidos objetivos:
aquellos que suenan a partir de la aparición de la imagen del objeto que emite el sonido. • Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de los personajes sin que necesariamente aparezca en imagen la fuente de sonido. • Sonidos descriptivos: aquellos que no representan ningún
objeto de los que aparecen en imagen, sino que son abstracciones o idealizaciones de los sonidos supuestamente originales. Según Wyatt (2005) se puede hablar de tres tipos de efectos de sonido: •
Efectos puntuales :
aquellos individuales, normalmente sincronizados y relacionados con una sola fuente (un avión, una puerta, etc.). • Efectos de ambiente/atmósfera: aquellos no sincronizados que se añaden para crear una presencia o un ambiente en una escena, con la finalidad de situarla en una localización específica (las olas del mar, el tráfico de una ciudad, etc.) • Efectos de sala o foley: aquellos sonidos grabados en estudio directamente a partir del visionado de la imagen (movimientos, pisadas y efectos específicos). Reciben este nombre en homenaje a Jack Foley, creador de innovadoras técnicas en la producción de efectos de sonido utilizados en el cine. Los efectos de sala o Foley y los doblajes o grabaciones ADR se deben realizar, en la medida de lo posible, en un entorno acústico similar al de la escena original. Si esto no fuera posible, las grabaciones han de tener una calidad que intente recrear la acústica apropiada. Herrera, por su parte, clasifica los diferentes efectos sonoros ateniéndose a su relación con la imagen en:
• Sonidos naturales: cuando el efecto sonoro es el propio sonido del objeto que se oye. Es real, sin ornamentos, y más propio de documentales y de reportajes. Por otra parte, en las producciones de ficción, las expectativas del público hacen que se tienda a sustituir los sonidos naturales por otros que no lo son. • Sonidos característicos : cuando el efecto sonoro es una imitación del sonido natural del objeto que se oye. Puede reconocerse de qué se trata, pero no es el sonido original de la fuente sonora. Habitualmente se realiza esta imitación o deformación del sonido para intensificar el impacto sobre el espectador. Los sonidos característicos se pueden subdividir en imitativos, si tienen propiedades físicas similares a las del sonido original, y en interpretativos, que no poseen ningún parecido con el sonido original.
Colecciones de efectos de sonido Con la posibilidad de la grabación y la reproducción sonora surgió la comercialización de las primeras colecciones de efectos, y las grandes industrias y productoras de Hollywood crearon bancos de sonido para su comercialización. Los efectos de sonido pueden ser pregrabados —clasificados en colecciones o librerías de sonido—, registrados en un estudio o directamente durante el rodaje —lo que permite manipularlos
después— o generados electrónicamente. Las bibliotecas de sonidos ponen a nuestro alcance, de manera sencilla, numerosos efectos, normalmente de excelente calidad y que serían bastante difíciles de grabar por nosotros mismos. Música Tal y como se ha visto en anteriores capítulos, la música es una importante herramienta en la producción audiovisual. Ésta se ha de concebir pensando que también hay efectos sonoros y, sobre todo, diálogo, el cual es normalmente la pista de sonido dominante. Por eso Yewdal (2008) apunta que el compositor experimentado escribe la música de manera que pueda expandirse, alargarse o envolverse cuando no tiene que competir con las señales de diálogo. El compositor también escribe música que complementa o aumenta el diálogo de una forma colaborativa. A menudo se denomina banda sonora a la grabación comercial de la música de una película pero, tal y como se ha establecido anteriormente, en realidad este término describe el conjunto de los elementos sonoros de una película: diálogo, efectos sonoros y música. Mel Lewis (citado en Yewdall, 2008) propone un paralelismo de estos elementos con las tres fuentes del comportamiento humano de Platón: conocimiento, instinto y emoción. El conocimiento, como el diálogo, ofrece información para razonar; los efectos sonoros, como el instinto, son el impulso, y la música funciona como la emoción. Tal y como lo expresa Nieto (1996), la característica más
importante que diferencia la composición de música para bandas sonoras de la de cualquier otro tipo de música es la necesidad de crear una estructura que ha de integrarse en otra estructura preexistente. La mayoría de las veces, la música se plantea como una estructura completamente cerrada: no sólo porque en ella ya están definidas la trama, las situaciones, los personajes y los diálogos, sino porque también están determinadas las duraciones de los planos y de las secuencias que describen la acción. Al editar la música en relación con la imagen, es importante tener en cuenta la estructura de la primera y intentar que los cortes y las transformaciones que se produzcan en la edición tengan sentido musical. En su obra, Wyatt (2005) propone diversas formas de perfeccionar el proceso de edición musical: • Pensar más como un compositor que como un editor de sonido. • Realizar los cortes a partir de la estructura rítmica. • Asegurarse de que los fundidos encadenados estén bien ajustados. • Tratar de hacer siempre una escena musical, aunque sea a costa de que la música predomine sobre la imagen. • M antener las frases de transición entre cambios de registro o de tonalidad musical, cuando se realicen cortes. • Omitir la introducción en la utilización de música diegética; ésta sonará más natural y menos premeditada. • Evitar que la música interfiera en la inteligibilidad del diálogo.
Sincronización Los diferentes elementos que componen la banda sonora de un audiovisual —música, efectos y diálogo— han de estar sincronizados con la imagen. Para conseguir esta sincronía en el ámbito de la edición lineal se han utilizado diversos métodos, como la claqueta, que permite sincronizar el punto de imagen que coincide con el cierre de la claqueta y el golpe de sonido de ésta en ese mismo momento. Si nos encontramos en un entorno digital o no lineal, se requiere un código electrónico estándar de sincronización, llamado time code o código de tiempos . El código más utilizado para sincronizar imagen y sonido es el SMPTE (del inglés Society of Motion Pictures and Televisión Engineering), una señal digital que contiene una referencia temporal absoluta. Consta de ocho dígitos que representan horas, minutos, segundos y fotogramas (00:00:00:00): los dos primeros dígitos van de 0 a 23; los minutos y los segundos van de 00 a 59, igual que en un reloj digital, y la cantidad de cuadros o fotogramas por segundo depende del tipo de código de tiempo que se utilice. Según el número de fotogramas, cuadros o frames por segundo ( fps) p odemos encontrar diferentes variaciones del código SMPTE: • 24 fps: utilizado en el cine. • 25 fps: conocido como EBU (del inglés European Broadcast Union) o SMPTE/EBU, utilizado, en Europa, en los sistemas de vídeo PAL y SECAM . • 29,97 fps: utilizado en el sistema de vídeo estadounidense
NTSC. Esta variante del código SM PTE, denominada drop frame o con eliminación de cuadro, se sincroniza realmente a 30 fps, pero se eliminan los dos primeros fotogramas de cada minuto, a excepción de los minutos 00, 10, 20, 30, 40 y 50. Por ejemplo, después de 00:17:59:29 vendría 00:18:00:02; pero desp ués de 00:19:59:29 pasaríamos a 00:20:00:00. • 30 fps: sistema estadounidense de vídeo en blanco y negro y relegado a las aplicaciones de audio. Para sonorizar un vídeo es importante disponer de una copia del mismo con el código SMPTE y poder ver éste sobreimpresionado en pantalla. Por lo que se refiere a la percepción de sincronía, el adelanto del sonido, a excepción de los diálogos, respecto a la imagen es más difícil de percibir como asincrónico que su retraso. Si la falta de sincronía entre una imagen y un sonido es de uno o dos fotogramas de diferencia, ésta es indetectable por los seres humanos pero puede producir efectos diferentes. Cuando se produce una anticipación del sonido respecto a la imagen se denomina sincronía dura; si se retarda el sonido, sincronía blanda. Otro código utilizado a menudo cuando se trabaja con dispositivos MIDI es el MTC (del inglés, MIDI Time Code) que es la versión del código SMPTE al formato de datos MIDI. Mezcla Una vez procesadas todas las pistas de sonido, éstas se han de
combinar para conformar la banda sonora definitiva. El proceso de mezcla variará dependiendo del tipo de producción audiovisual a la que va destinada (documentales, anuncios, largometrajes, teleseries, videoclips, multimedia), que puede condicionar el sistema de sonido utilizado y el tipo de sala o entorno donde se audiovisione, utilizando la denominación propuesta por Chion (1990). Con frecuencia se realizan mezclas previas de las diferentes pistas de sonido agrupándolas en los tres bloques sonoros principales: diálogos, música y efectos sonoros. Esto p ermite simplificar el trabajo agrupando elementos comunes y reduciendo, de esta manera, el número de pistas con las que se ha de trabajar. El número de pistas independientes que se han de preparar de cada uno de estos bloques sonoros dependerá de la complejidad de los elementos que haya que procesar. La mezcla de sonido comporta tanto aspectos técnicos como creativos. Además de ajustar correctamente el sonido con las imágenes, algunos de los procesos técnicos habituales en la mezcla son: • Ecualización: para realzar o atenuar las diferentes frecuencias de un sonido. • Panoramización: para distribuir y localizar espacialmente las diferentes fuentes sonoras. • Reverberación: para conseguir una ligera permanencia del sonido una vez que la fuente ha dejado de emitirlo. • Compresión: para reducir el rango dinámico del sonido.
Es muy importante que la respuesta acústica del espacio o sala donde se realice la mezcla sea plana, es decir, que prácticamente no haya reverberación y se evite la tendencia a realzar o a atenuar determinadas frecuencias. Desde una perspectiva creativa, el conjunto de ruidos, ambientes, efectos especiales, música y diálogos deben ser combinados y mezclados de manera conveniente para su inteligibilidad según su contenido dramático en cada momento de la película. El sonido puede resaltar o no los cortes entre planos afectando a la percepción del ritmo o influir en la continuidad de la narración, entendiendo como tal la función que interrelaciona espacial y temporalmente un plano con el siguiente y permite asociar dos planos seguidos como consecutivos aunque estén rodados en momentos y lugares distintos. Para Tim Amyes (2005) las funciones de la mezcla son: • • • • • •
Realzar las imágenes y subrayar los efectos visuales. Añadir perspectiva tridimensional. Ayudar a situar geográficamente las imágenes. Añadir impacto dramático. Añadir contraste mediante cambios de volumen. Producir un sonido inteligible y de fácil escucha en cualquier entorno.
Coincidimos con Nieto (1996) en el hecho de que la efectividad de cada uno de los componentes de la banda sonora de un audiovisual estará en relación directa con su capacidad de
convivencia con los otros, especialmente con el diálogo, cuya inteligibilidad, objetivo prioritario de la mezcla final, condicionará la presencia de los demás. En el caso de una producción cinematográfica, una vez acabadas las mezclas se realiza una mezcla sin diálogos conocida como M&E (música y efectos), pensada para la distribución de la película en el extranjero. De hecho, se trata de una mezcla adicional en las que se eliminan los diálogos manteniendo el resto de los elementos. Hay que tener en cuenta que también desaparecerán los ruidos y el sonidos ambiente que se grabaron en el momento del rodaje a la vez que los diálogos, por lo que en la mezcla M&E se deberá añadir el sonido que falte, ya sean ruidos o sonido ambiente a partir de efectos de sala o wild tracks . En el proceso de la mezcla final se deberá tener en cuenta el medio al que va destinada y realizar una copia distinta para cada uno de los diferentes medios donde se desee exhibir el proyecto audiovisual: cine, televisión, multimedia... Hay que tener en cuenta que cada medio posee unas características propias, como el soporte de grabación, la velocidad de reproducción, el rango dinámico o el número de canales. Si la mezcla se hace en estéreo, aunque se utilicen dos canales independientes (izquierdo y derecho), la señal de uno de ellos habitualmente está relacionada con la del otro, por lo que si se graba lo mismo en ambos, los sonidos parecen provenir del punto medio de los dos altavoces y puede decirse que se distribuyen entre derecha, centro e izquierda. Es conveniente situar en la parte central los sonidos
correspondientes a lo que aparece en la imagen y a la izquierda o a la derecha aquellos que estén fuera de campo. Habitualmente, tanto los diálogos como la voz en off se deberán situar centrados y localizarlos levemente hacia el lado de donde provenga una voz fuera de campo. Los sonidos de ambiente y la música, a no ser que ésta sea diegética (es decir, que provenga de una fuente que aparece en la imagen), se mezclarán en estéreo. Respecto a los efectos sonoros, la localización de los mismos será más variable teniendo en cuenta si son elementos que cruzan la imagen de un lado a otro, efectos fuera de campo o subjetivos, aunque la mayor parte de los que salen en la pantalla se situarán en el centro.
Principios de sonido digital y MIDI Podemos definir el sonido digital como la representación de una señal sonora mediante números codificados en sistema binario. La calidad del sonido digital depende directamente de dos variables: la frecuencia de muestreo de la señal sonora y la cuantificación de la misma. El muestreo de una señal sonora consiste en la toma de muestras de la señal analógica a intervalos regulares. La frecuencia de muestreo se indica en Hz; por ejemplo, una de 48 kHz significa que se toman 48.000 muestras por segundo. Para muestrear correctamente una señal sonora, la frecuencia ha de ser superior al doble de la señal original (teorema de Nyquist). Esto significa que si se desea que una grabación digital alcance los 20 kHz (frecuencia
máxima capaz de ser detectada por el oído humano), la frecuencia de muestreo deberá ser como mínimo de 40 kHz. Respecto a la cuantificación, una vez que se haya muestreado la señal debe expresarse el valor de cada muestra mediante el código binario basado en dos cifras, el 0 y el 1. A cada una de ellas se le llamará bit (acrónimo de dígito binario). Según el número de bits utilizado, la precisión del muestreo será mayor o menor. Por ejemplo, un número de 8 bits implica 256 valores posibles; un número de 16 bits, ofrece una escala de 65.536 valores; si es de 20 bits pasan a ser 1.048.576 valores. Cuanto mayor sea la profundidad de bits en una cuantificación, más parecida será la señal digital al sonido analógico original y más amplio el rango dinámico. La cuantificación de los CD de audio es de 16 bits y la frecuencia de muestreo de 44,1kHz; el estándar de cine y televisión mantiene los 16 bits de cuantificación pero con un muestreo de 48 kHz. En algunos formatos de alta definición, la profundidad de bits o cuantificación puede llegar a ser de 20 bits.
Formatos de audio digital Los diferentes sistemas de edición de sonido manejan formatos propios y reconocen los más comunes: • AIFF: formato habitual de M acintosh. No ofrece código de tiempos. • WAV: archivo de audio de M icrosoft propio de PC. No ofrece
código de tiempos. • SDII (Sound Designer II): creado por Digidesign, que a su vez también desarrolla el programa ProTools. Ofrece código de tiempos. • BWAV (Broadcast Wave Film): archivo WAV mejorado, compatible con Mac y PC. Un cambio de formato, por lo general, no debe afectar a la calidad del sonido (siempre que se mantenga la resolución y la frecuencia de muestreo), sino que sólo se modifica la cantidad y el tipo de información que se almacene en la cabecera. De ahí que, con un cambio de formato, el tamaño del archivo no se altere en exceso. Los archivos de audio pueden comprimirse para facilitar su distribución, por ejemplo los MP3. La compresión reduce el tamaño del archivo y permite una transferencia más rápida, pero esto también acarrea una pérdida de calidad que, coincidiendo con Wyatt (2005), en algunas circunstancias puede resultar inaceptable. En muchas aplicaciones profesionales el audio se transfiere sin comprimir.
MIDI El MIDI (acrónimo del inglés Musical Instruments Digital Interface) es un sistema estándar de comunicación de información musical entre aparatos electrónicos y que permite interconectar ordenadores, sintetizadores, secuenciadores, controladores y otros dispositivos musicales electrónicos. Con el fin de hacer posible esta
comunicación, el MIDI describe dos cosas al mismo tiempo: • Un método para codificar la música basado en cifras numéricas que se transmiten una detrás de otra. • Un sistema de conexiones físicas entre los aparatos : cables, conectores, tensiones eléctricas, frecuencias... Es importante tener presente que el MIDI no transmite sonidos, sino datos que se pueden interpretar en función de la programación del dispositivo que los recibe, es decir, transfiere sólo información sobre cómo se ha de reproducir una determinada pieza musical. Sería el equivalente informático de la partitura, el rodillo de una pianola o el tambor de agujas de una caja de música: contiene toda la información necesaria para interpretar una pieza musical, pero si la queremos convertir en sonidos necesitaremos un buen instrumento y un músico o un mecanismo capaz de interpretarla.
Bibliografía ALTEN, Stanley R. (2008). El sonido en los medios audiovisuales. Andoaín, Escuela de Cine y Vídeo. C EBRIÁN HERREROS, Mariano (1994). Información radiofónica. Madrid, Síntesis. HERRERA B OYER , Perfecto (2001). Postproducción de sonido. Disponible en: www.dtic.upf.edu/~perfe/cursos/postaudio.html. JORDÁ P UIG, Sergi (1997). Audio digital y MIDI . Madrid: Ediciones Anaya Multimedia. Disponible en: www.ccapitalia.net/reso/articulos/audiodigital/ . LYVER , Des (2000). Principios básicos del sonido para vídeo. Barcelona,
Gedisa. MCC ORMICK , Tim / R UMSEY, Francis (2008). Sonido y grabación. Introducción a las técnicas sonoras . Barcelona, Omega. IETO, José (1996). Música para la imagen. La influencia secreta. Madrid, Publicaciones y Ediciones SGAE. T ORRES ALBERICH, Pascual (2009). Micrófonos: Mirando el sonido. Castellón de la Plana, Publicacions Universitat Jaume I. W YATT, Hilary / AMYES, Tim (2005). Postproducción de audio para TV y Cine. Andoaín, Escuela de Cine y Vídeo. YEWDALL, David Lewis (2008). Uso práctico del sonido en el cine . Andoaín, Escuela de Cine y Vídeo.
/ El sonido como recurso expresivo en los audiovisuales
Francesc Llinares Heredia , Universidad de Barcelona El sonido en el audiovisual no se debe considerar únicamente desde el ámbito técnico, sino que también hay que tener en cuenta las posibilidades expresivas como partes integrantes de la narratividad del audiovisual. A menudo hay discrepancias sobre cuál de los dos sentidos, la vista o el oído, es más importante. Ambos lo son, y cada uno de ellos cumple unas funciones específicas y complementarias. Tal y como afirma Rodríguez Bravo (1998), el conocimiento sobre la percepción y la narración visual ha avanzado mucho más rápidamente que el existente sobre la narración sonora, pero no por ello ésta es menos importante. Chion (1993) subraya la importancia del sonido en relación con la imagen destacando el valor añadido que representa sobre ella, y el cual define como el valor expresivo e informativo con el que un sonido enriquece una imagen dada. Chion concede al valor añadido
un carácter de reciprocidad: «si el sonido hace ver la imagen de modo diferente a lo que esta imagen muestra sin él, la imagen, por su parte, hace oír el sonido de modo distinto a como éste resonaría en la oscuridad». Sin embargo, Rodríguez Bravo (1998) afirma que la capacidad expresiva del sonido en un audiovisual va más allá del valor añadido tal y como lo expresa Chion, y considera que el sonido, más que enriquecer la imagen actuando de manera subordinada a ésta, modifica la percepción global del receptor. Por lo tanto, sonido e imagen se complementan en función de la tendencia natural a la coherencia perceptiva, ya que nuestros sentidos tienden a interactuar de manera global para producir una percepción coherente del entorno que nos rodea. El cineasta Francis Ford Coppola ha afirmado que «el sonido es el mejor amigo del director, porque influye en el público de forma secreta». Por su parte Nieto (1996), que subtitula su obra a partir de la idea que expresa Coppola, destaca que la selección auditiva es menos consciente que la visual, ya que está en función de elementos que no dependen de nuestra voluntad. Este menor control sobre la percepción auditiva que sobre la visual otorga al sonido un gran poder expresivo, mayor si cabe que el de la imagen. Sea como fuere, el ámbito de la producción audiovisual implica la fusión entre vista y oído, y no se debe olvidar que vivimos en un mundo donde las imágenes y los sonidos se superponen, se mezclan, interactúan y colisionan entre sí.
› El sonido como parte intrínseca del audiovisual
El espectador percibe las obras audiovisuales simultáneamente a través de los sentidos de la vista y el oído, experimentando diversas sensaciones. En el caso del relato audiovisual, el espectador, además, ha de comprender y ser capaz de organizar y estructurar el espacio, el tiempo, los hechos y las ideas de manera conveniente para poder interpretar el mensaje audiovisual contenido en la obra. El sonido juega un papel fundamental en este proceso. Es importante destacar la profundidad emocional, la dimensionalidad y la presencia que transmiten los sonidos al fundirse con las imágenes. Para conseguir esta simbiosis expresiva en la elaboración de un audiovisual la utilización del sonido se ha de plantear desde el inicio del guion. A partir de su experiencia, Labrada (2009) plantea que si en el guion original no aparece el sonido como parte de la narración, estaremos ante una historia que descansa básicamente en elementos visuales y será filmada y montada de esta manera, por lo que resultará muy difícil tratar de incorporar el sonido como recurso expresivo, ya que éste no forma parte de la historia. Además, puntualiza que cada historia debe tener un sonido propio, del mismo modo que posee su argumento, sus imágenes, sus personajes, etc. Por lo tanto, para que el sonido pueda desplegar todo su poder expresivo y su efectividad narrativa como integrante de un audiovisual es importante que forme parte de su relato y que se aplique un tratamiento sonoro ya desde el guion. Difícilmente se
puede conseguir el mismo resultado si se trata el sonido en la etapa final de posproducción, después de haber editado la imagen. Labrada (2009) considera que vale la pena hacer un esfuerzo y pensar en cómo suena una historia, en lo que escuchan los personajes y en cómo el sonido influye en su acción y en sus emociones, tal y como sucede en la vida misma.
› Aportaciones del sonido a los audiovisuales Partiendo de la importancia del sonido dentro de la narración audiovisual y del hecho que va mucho más allá de un mero acompañamiento de la imagen se pueden tratar algunas de las aportaciones del sonido a los audiovisuales. El sonido puede atraer la atención del espectador dirigiéndola a un punto concreto de la imagen. Puede anticipar, clarificar, contradecir o crear ambigüedad sobre cualquier hecho que muestre la imagen. Sirve para aumentar la sensación de realidad de una imagen, transmite información y ayuda a crear ambientes desempeñando una función figurativa, semántica y evocativa, respectivamente. En un audiovisual, se entiende el sonido como tal, a la interacción de los tres elementos que conforman una banda sonora: efectos sonoros, música y voz, añadiendo a éstos las posibilidades expresivas del silencio (el cual no necesariamente ha de ser absoluto, sino que se define por contraste). El sonido puede desempeñar diversas funciones:
• Función descriptiva: imita el sonido que en la realidad debería existir en el lugar que aparece en la imagen o al describir un lugar determinado o un entorno geográfico. • Función expresiva: adquiere un importante valor comunicativo, y es capaz de sugerir o de generar sensaciones. Por ejemplo: – M odificando una sensación a p artir del uso del principio de sincronía: impacta más un sonido repentino e inesperado que una imagen imprevista. – Sugiriendo un estado de ánimo o evocando un sentimiento. – Representando una identidad o leitmotiv : un efecto sonoro puede asociarse a personajes, situaciones dramáticas, sucesos, etc., de manera que la aparición del mismo sirva para presentar, acompañar, anticipar, evocar o sustituir a éstos. – Definiendo un personaje. • Función narrativa: juega un importante papel en el proceso narrativo del relato y en la consecución de su estructura. Por ejemplo: – Centrando la atención y dirigiéndola a un punto concreto de la imagen. – M arcando el ritmo. Según Nieto (1996), no sólo afectará a la percepción de éste, sino que también, al poner de relieve algunos elementos, puede modificar sensiblemente, si no el contenido, sí el valor expresivo de la secuencia. – Identificando causa-efecto: un sonido reconocido por el
receptor puede representar una imagen aunque no aparezca en la pantalla. – Organizando narrativamente el flujo audiovisual: el sonido se utiliza para dar mayor o menor continuidad narrativa a los materiales visuales. – Contribuyendo al reconocimiento de los espacios sonoros permitiendo la reconstrucción de éstos y la ubicación del espectador en el espacio de la narración. • Función ornamental: realza una escena determinada. • Función simbólica: adquiere, más allá de las apariencias realistas, un valor más amplio y profundo. Por ejemplo, utilizándose de forma metafórica. • Función de ambientación: forma parte, supuestamente real, de la escena visualizada. Por ejemplo: – Determinando un escenario geográfico: efectos de sonido característicos de entornos concretos. – Determinando un entorno cultural o social: determinados sonidos se pueden relacionar con entornos culturales y sociales específicos. – Creando atmósferas y ambientes. – Determinando un período histórico: algunos efectos sonoros pueden remitirnos a épocas concretas. – Determinando unas condiciones climáticas concretas: el sonido de lluvia o de viento hará que el espectador visualice esa situación climática, aunque no aparezcan en pantalla. – Transmitiendo sensaciones espaciales: percepción de
distancia y direccionalidad, identificación de formas y volúmenes. • Función dramática: intensifica la acción dramática en una escena. Por ejemplo: – Ayudando a intensificar o atenuar la tensión que pueda producir una acción determinada. – Realzando un hecho, clarificando su carácter o abundando en su definición concreta. • Función gramatical: organiza narrativamente el relato. – Generando continuidad o discontinuidad esp aciotemporal. – Unificando o separando los planos o las secuencias que configuran la narrativa audiovisual. Un sonido puede desempeñar diversas de estas funciones de manera simultánea. ›› Recursos narrativos del sonido Cuando el sonido añade a la escena algo más de lo que se ve, está cumpliendo una función narrativa. Algunos de los recursos narrativos del sonido son: • Fuera de campo: la imagen de una escena está definida por el espacio y por el sonido; así, una acción, aunque se desarrolle fuera de pantalla, puede narrarse por el sonido, de manera que el esp ectador «visualiza» en su imaginación dicha acción. • Voz en «off»: se trata de una voz que se escucha en el transcurso de una escena pero que no pertenece
sincrónicamente a ningún personaje que esté hablando en pantalla. • S onidos «on the air»: Chion (1993) los define como presentes en una escena, pero sup uestamente retransmitidos eléctricamente por radio, teléfono, amplificación, etc.; por lo tanto, escapan a las leyes mecánicas «naturales» de propagación del sonido. M ediante este recurso, normalmente fuera de campo, se pueden aportar datos significativos a la narración audiovisual. • «Leitmotiv»: consiste en una melodía o una secuencia sonora que se asocia a un personaje, un lugar o una idea, de manera que su simple audición los evoque, aunque no aparezcan en pantalla. • S onido interno: que corresponde a un personaje, ya sea fisiológico (respiración, latidos del corazón, etc.) o mental (pensamientos, recuerdos, etc.). ›› Transiciones sonoras Las transiciones o enlaces, tanto visuales como sonoros, ayudan a articular y dar ritmo al relato. Por lo que respecta a las transiciones sonoras encontramos: • Corte: esta transición, que tiene su correlación con la imagen,
implica la aparición de una imagen o un sonido inmediatamente después de que los anteriores desaparezcan; es decir, se trata de la sustitución brusca de un sonido por
otro. Es la transición más utilizada y elemental. • Fundido: también tiene su correlación con la imagen y consiste en la sustitución de un sonido por otro superponiendo momentáneamente el que aparece sobre el anterior, que se desvanece. Este recurso transitivo es útil para pequeños cambios en el tiempo, la localización o la acción. • Anticipación sonora: este recurso enlaza dos secuencias anticipando el sonido de la segunda a la primera y reforzando, de esta manera, el flujo narrativo. Esta anticipacióndesincronización genera expectación ante el cambio de secuencia. • Enmascaramiento: este recurso, que también se utiliza con la imagen, consiste en que un efecto sonoro se superpone a una transición, ya sea por corte o por fundido, e impide la escucha del punto donde se produce. ›› Expresión y procesado de sonido Las posibilidades narrativas y expresivas del sonido no sólo dependen de éste en sí, sino también de la forma en que está procesado. Nieto (1996) considera que la forma más simple, y quizá también la más usada, de manipular un sonido para darle un contenido dramático es alterar su intensidad sonora normal para su percepción como un elemento que forma parte de la narración.
›› Espacialización sonora La capacidad sensorial del oído humano en la percepción espacial permite que, a través del sonido, se puedan construir espacios generando, de manera simultánea en el tiempo, sensaciones de dirección y profundidad. Esta sensación espacial, que determina un espacio sonoro, permite reconocer las distancias entre las fuentes sonoras y el receptor, la dirección de la que provienen los sonidos y la identificación del volumen espacial donde se encuentra la fuente sonora. De hecho, la radio ha utilizado profusamente el sonido como recurso para generar auditivamente sensaciones espaciales. La diferencia de intensidad se puede relacionar con la mayor o menor distancia a la que se encuentra una fuente sonora; la panoramización (la situación más o menos lateral, a izquierda y derecha, del sonido en un sistema estéreo) de una fuente sonora se puede asociar a la sensación de direccionalidad, y el volumen espacial viene dado por la manipulación del sonido, aplicando al mismo una mayor o menor reverberación. El volumen es directamente proporcional a la reverberación; por lo tanto, cuanto mayor es el primero, también lo es el segundo. El efecto de profundidad sonora, que se puede generar a partir de la manipulación de las intensidades, crea en la imagen plana la sensación de espacialidad acentuada por el sonido. El tratamiento de cada objeto sonoro con una intensidad diferente permite situarlos en diferentes lugares del espacio sonoro; al moverlos modificamos, de esta manera, la sensación de perspectiva sonora.
Para Rodríguez Bravo (1998), la clave narrativa fundamental de la creación de espacios sonoros es el punto de audición, definido como el punto de referencia espacial a partir del cual se construye toda perspectiva sonora. Otro recurso dramático importante, definido anteriormente, en el tratamiento del espacio sonoro es la utilización de sonidos fuera de campo, ya que éstos son capaces de generar en el espectador auténticas imágenes, en ocasiones tan fuertes y claras como las de origen visual. ›› El plano sonoro Este concepto, que tiene su origen en el de plano visual, se relaciona con la idea de la distancia aparente del sonido respecto al oyente. Como se ha dicho anteriormente, a partir de la manipulación de la intensidad se puede reproducir acústicamente la sensación de distancia, pero, aunque el parámetro dominante en la sensación de distancia sea la intensidad, la modulación de ésta siempre va acompañada de otro tipo de variaciones sonoras; el conjunto de éstas determinan la citada sensación de distancia. Cebrián Herreros (1994) puntualiza que es la presencia sonora (es decir, la distancia entre la fuente sonora y el micrófono) la que hace referencia al plano sonoro o plano de profundidad sonora, tal y como él lo denomina, y no la intensidad, que se refiere a la fuerza o debilidad de los sonidos. Rodríguez Bravo (1998) propone, para evitar confusiones y teniendo en cuenta que son dos técnicas distintas de realización, que se denomine distancia a la separación
entre la fuente sonora y el micrófono y plano sonoro a la manipulación de la intensidad que normalmente se realiza en la fase de posproducción. Teniendo en cuenta la distancia de la fuente sonora respecto al oyente se pueden distinguir diversos planos de presencia sonora: • Primerísimo primer plano: también llamado plano íntimo , en él la fuente sonora está situada junto al oyente. Sirve para expresar intimidad entre los personajes; se trata de un plano muy subjetivo. • Primer plano: indica una distancia próxima al oyente y entre los distintos objetos sonoros que se expresan en el plano. • Plano de fondo: plano sonoro generado por diversos sonidos que suenan lejanos respecto a otros situados en primer término. Produce sensación de profundidad. • Plano general o lejano: marca la distancia más alejada del primer plano. En algunos casos sería el destinado al ambiente sonoro. Con la irrupción de los sistemas de sonido envolvente se puede hablar del tipo de plano sonoro que algunos teóricos han denominado como superplano, el cual abarca los sonidos procedentes de los 360º del espacio donde se desarrolla la acción. La utilización de los planos sonoros no siempre responde a criterios físicos de distancia entre objetos, sino que también pueden emplearse para expresar tensión emocional, discrepancias, diferencias, etc. En estos casos se podría hablar de planos de
intención. ›› Función estructural del plano de sonido ambiente Como ya se ha dicho anteriormente, el sonido es un importante elemento en la organización narrativa unificando o separando estructuralmente las secuencias visuales. Un ejemplo de ello lo tenemos en la función estructural que puede desempeñar un plano de sonido ambiente, que puede permanecer en el mismo punto de audición sin que se produzcan variaciones significativas o saltos temporales. A diferencia de los planos visuales en constante cambio (plano, contraplano, etc.), el de sonido ambiente, que no sufre modificaciones a no ser que se produzca un cambio de lugar o de tiempo, permite mantener una unidad de tiempo y de lugar organizando estructuralmente todo lo que transcurre en la escena, además de cumplir una función de ambientación o decorado propia de este tipo de plano sonoro. Esta función estructural del plano de sonido ambiente posibilita unificar planos visuales de un mismo lugar y tiempo, separarlos en sitios o momentos diferentes, o indicar el lugar donde transcurre la acción, diferenciando interior y exterior. La posible permanencia de un elemento de un plano sonoro en el plano siguiente (efecto de encabalgamiento u overlapping ) lo convierte en un elemento de enlace que genera una sensación de unidad entre los planos visuales, aunque éstos sean completamente distintos. Por el contrario, una posible ausencia de planos de sonido
ambiente puede dificultar la percepción de cambio de lugar y tiempo y el reconocimiento de los diferentes lugares (calle, despacho, bar, etc.) en los que se desarrolla la acción.
› La voz y el lenguaje En cualquier narración audiovisual, el contenido semántico del discurso lingüístico es uno de los instrumentos expresivos fundamentales y su importancia aumenta cuando una secuencia está construida con formas sonoras incompletas. Hay que tener presente que la expresión acústica tiene un peso importante en la capacidad expresiva del lenguaje audiovisual. No hay que olvidar la importancia del potencial emotivo y sugestivo de la voz en la relación que pueda haber entre las características psicológicas de los personajes, su tono y su manera de hablar. Labrada (2009), para quien el oído sin la imagen se vuelve implacable a la hora de valorar estas sensaciones, opina que estas consideraciones sobre las voces y los personajes cobran su máxima importancia en medios no visuales como la radio.
› Sincronismo Podemos definirlo como la alineación del sonido y la imagen de forma que el primero parezca proceder directamente de alguna acción producida en la segunda.
Cuando se percibe una coincidencia precisa en el tiempo entre un estímulo sonoro y uno visual se produce una fusión perceptiva audiovisual que los relaciona como provenientes de una misma fuente. Tanto Chion (1993) como Rodríguez Bravo (1998) establecen diferentes grados de sincronía, aunque el segundo los vincula a efectos narrativos o perceptivos: • Sincronía unificadora: cuando es permanente y muy precisa. Ambos fenómenos se perciben como provenientes de la misma fuente. • Sincronía estética: cuando es extensa en el tiempo pero con un margen de precisión escaso al tomar puntos concretos de referencia. Ambos fenómenos se perciben ambos p rovenientes de fuentes distintas. • Sincronía casual: cuando es puntual, esporádica e imprevisible. Ambos fenómenos se perciben como totalmente independientes. Un recurso expresivo habitual es el desfase temporal de la sincronía, ya sea la posibilidad de adelantar el sonido con respecto a la imagen (sincronía dura) o de retrasarlo el sonido con respecto a la imagen (sincronía blanda). En el primer caso potenciará el efecto que produciría la percepción simultanea y en el segundo contribuirá a suavizarlo o a anularlo en cierta medida. Exceptuando los diálogos, el adelanto del sonido respecto a la imagen es más difícil de percibir como asincrónico que su retraso.
› Memoria y asociaciones sonoras Adame (1989) afirma que generalmente la memoria auditiva, a pesar de que retiene menos información, es más imaginativa que la visual. Muchos de nosotros tenemos una actitud más perceptiva y discriminativa hacia lo que vemos que hacia lo que escuchamos. Para Labrada (2009) la memoria sonora juega un papel importante en la percepción de lo audiovisual apuntando que existen básicamente tres tipos de asociaciones o códigos sonoros: • Códigos naturales: sonidos asociados, para la mayoría de los espectadores, a un determinado suceso real, como un trueno, la lluvia, la bocina de un coche, etc. • Códigos del cine: aquellos que el cine ha ido creando a lo largo de su historia y que no coinciden, necesariamente, con la realidad: golpes en las peleas, disparos... • Códigos de la película: sonidos que se constituyen en códigos sonoros de la narración audiovisual repitiéndose a lo largo del relato hasta que funcionan por sí solos.
Bibliografía ADAME GODDARD, Lourdes (1989). Guionismo. México D. F., Diana. ALTEN, Stanley R. (2008). El sonido en los medios audiovisuales. Andoaín, Escuela de Cine y Vídeo. C EBRIÁN HERREROS, Mariano (1994). Información radiofónica. Madrid,
Síntesis. C HION, Michel (1993). La audiovisión. Barcelona, Paidós. LABRADA, Jerónimo (2009). El sentido del sonido: la expresión sonora en el medio audiovisual . Barcelona, Alba. IETO, José (1996). Música para la imagen. La influencia secreta. Madrid, Publicaciones y Ediciones SGAE. R ODRÍGUEZ B RAVO , Ángel. (1998). La dimensión sonora del lenguaje audiovisual . Barcelona, Paidós. S CHAEFFER , Pierre (1988). Tratado de los objetos musicales. Madrid, Alianza.
/ La música en los medios: usos y características
Mònica Barberá González, Universidad de Barcelona La música es uno de los elementos que mejor ayudan a dar sentido a una narración y más aún si ésta implica imágenes. Pero dejando a un lado las generalidades que le son intrínsecas podemos distinguir ciertas diferencias según el medio de comunicación del que se trate, el género o el formato al que pertenezca; así, no tendrá la misma función ni trato una música pensada para un anuncio que un tema compuesto para un videojuego. Veamos cuáles son las particularidades de los usos musicales en determinados medios y géneros.
› Televisión y radio La música aparece en muchos ámbitos dentro de la televisión. Dado que las funciones de la música en el cine y en la imagen en general
ya se tratan en otros capítulos vamos a centrarnos en las pec p eculi uliari aridade dadess de este est e medio. medio. Los géneros éneros t elevi elevisivos, sivos, a diferenc diferencia ia de lo que sucede en el cine, tienen una estructura diferenciada en bloques; bloques; así como como una p elíc elícula ula t iene iene una continuidad continuidad y p uede ser consumida de un tirón, los programas televisivos se presentan fragmentados: ya sea para ir a publicidad, separar secciones, la present p resentac ación ión o el final final.. Por lo tanto, t anto, la música música en en la tel t elevi evisión sión t iene iene princ p rincip ipal alme ment ntee una función función gramatica ramatical,l, p ues se util ut iliza iza p ara marcar marcar pausas, p ausas, present p resentar ar cont conteni enidos dos y organi organizz arlos. arlos. Los eleme element ntos os narrat narrat ivos más comunes comunes son los sig s iguie uient ntes: es: • La sintonía sint onía es un fragme fragment ntoo musical musical que ap ap arece arece al inici inicioo y al final del programa o en las diferentes pausas. • La cortina cort ina es un fragme fragment ntoo mus music ical al que sirve de signo signo de punt p untuac uación ión p ara determinar determinar un cambi cambioo de secuenci secuencia. a. Acostumbra a empezar con un fade fade in in en la primera secuencia y terminar en un fade en la siguiente con la que enlaza. En fade out out en las teleseries suele marcar cambios de ubicación. • La ráfaga ráfaga es es un un fragme fragment ntoo más breve que la la cort cortina ina que se usa us a para p ara separa sep ararr bloques bloques t emáticos, emáticos, y que acost acostumbra umbra a emp emp ezar y terminar con un corte. Por ejemplo, suele usarse en el paso de una sección a otra de un informativo o telediario. • El golpe olp e musical musical es una entrada ent rada súbit sú bitaa de un fragme fragment ntoo musical que da gran efectismo y fuerza a la imagen. Como en el videoclip, se usa en un momento determinado de manera que un cambio de plano, un zoom rápido, una frase o cualquier otro detalle queda claramente destacado. Resulta más eficaz
después de un silencio prolongado. De modo semejante a la televisión, el papel principal de la música dentro de la radio también se encuentra en la función estructural. En este medio existen los mismos elementos narrativos que en la televisión, pero p ero debe tene t enerse rse en cuent cuentaa que, al no haber haber imag imagen, en, el sonido toma una dimensión mucho más relevante. Así, por ejemplo, habrá que tomar especial atención a los silencios: tres segundos de silencio en la radio generan mucha más inquietud o tensión que en la televisión.
› Publicidad La publicidad ha acompañado siempre a todos los medios de comunicación. Si nos centramos en aquellos que incluyen sonido podem p odemos os habl h ablar ar de t elevi elevisión, sión, radio radio e int interne ernett . La música que acompaña a la publicidad tiene un claro objetivo: vender. Dado que la media de un anuncio es de 20 segundos todo debe ser muy conciso y directo. Generalmente se busca que la música refuerce el mensaje implícito en el texto (sobre todo en la radio) y en la imagen (en el caso de los medios visuales); así, se viste el producto para que sea más atractivo. Al igual que en otros géneros, puede tratarse de música instrumental o vocal. La primera va encaminada a crear un ambiente que cuadre con la imagen (o en el caso de la radio, con el producto que se anuncia) y que lleve al espectador a sentirse inmerso en el conjunto, una música de tipo descriptivo; en general, no difiere
mucho de la música cinematográfica, que también busca esa implicación emocional. La segunda tiene dos posibles vertientes: puede p uede t ratarse ratars e de una canci canción ón y a ex exist istente ente que conecte conecte con un segmento concreto de la población al que se dirige (target ). ). Por ejemplo, éste sería el caso de un anuncio de una revista o perfume uvenil, donde sería adecuado jugar con una canción pop-rock de moda como «gancho» para captar la atención del público joven. También puede darse el caso de que se opte por crear una canción exclusiva para el anuncio. En este caso la letra es crucial: deberá sintetizar una idea clara y directa a modo de eslogan. Así, lo más eficaz es que la letra sea fácil de recordar, el mensaje corto y la música pegadiza. Hace treinta o cuarenta años la canción rimada era un recurso muy utilizado, primero en la radio y luego en la televisión. Hoy día ha pasado bastante de moda, pero en su momento cosechó grandes éxitos como la canción del Cola Cao (radio), la del bolígrafo Bic o la de las muñecas de Famosa (televisión). Algunos eslóganes cantados han triunfado y perdurado a lo largo de años: por ejemplo, ¿quién no recuerda la cantinela de «Sensación de vivir» de Coca-Cola? O el no tan popular pero también famoso «I’m lovin’ it» de McDonald’s? Incluso si oímos las versiones instrumentales de dichos eslóganes somos capaces de reconocerlos y asociarlos a tales productos. Otros ejemplos de alcance nacional serían: «Un poco de pasta basta, Gior» o «El lobo, qué gran turrón» o el todavía actual «Wipp Express». Y en el ámbito cinematográfico el famoso «Moooovierecord» que suena en las salas antes del inicio de la película.
En la radio, la modalidad más corriente es el fondo musical que acompaña en segundo término a la locución publicitaria (lo que comúnmente se conoce como cuña). En este caso, dado que no hay imagen del producto, es bueno tener en cuenta que el género musical debe reflejar las características fundamentales de lo anunciado: anunciado: eleg elegante, ant e, humorístic humoríst ico, o, ex exót ótic ico, o, infantil infant il,, seduct s eductor or,, etc. et c. Los espots publicitarios suelen resolverse con algún efecto musical corto y percusivo que subraya la imagen, si la hay, en sus momentos álgidos. A veces no se cuidan de manera suficiente los finales y se deja el tema musical a medias al terminar el anuncio; la interrupción de una melodía sin coincidir con un final de frase o cadencia produce un mal efecto, pues no se establece una relación sincrónica entre ambos planos (visual y sonoro) o simplemente no existe una correspondencia entre el final de anuncio y el de la música (este tipo de errores suelen ocurrir cuando el montador no tiene sentido musical o el director no es sensible a ello).
› Videoclip Ya hemos visto que la función gramatical o narrativa se produce cuando la música se sincroniza estratégicamente con la edición de los planos y no se limita a ser una música de fondo, sino que interfiere en la estructura narrativa visual, ayuda a dar mayor sentido al guion, ubica la acción, o introduce o cierra la narración. Un ejemplo muy claro de esta función estructural llevada al máximo exponente la podemos encontrar en los montajes de videoclips: un
formato televisivo donde la música marca claramente los cambios de plano y las transiciones, y va estrechamente ligada a la edición o montaje visual. Aquí empezaremos a hablar de un concepto clave: la sincronía. Según el tipo de producción audiovisual o de escena que tengamos delante podemos encontrar diferentes grados de sincronía de la música respecto la imagen. Así, en el caso de los videoclips, los golpes musicales coinciden con cambios de plano u otros efectos de edición. Por ejemplo un fade out de la imagen puede ir acompañada de uno musical. Es muy habitual que los cambios de plano se hagan siguiendo el tempo o beat de la música en cuestión; éstos se acompañan rítmicamente y los compases se sincronizan con los cortes del montaje cuando se desarrollan isocrónicamente y en un tiempo muy breve. La música, además, no sólo marca la posterior edición, sino que también condiciona las coreografías —si las hay— de los personajes que protagonicen los videoclips. De hecho, éste es uno de los pocos casos en que la música existe antes que la imagen y ésta se encuentra totalmente supeditada a aquélla. Aun así, cabe comentar que el videoclip ha llevado a crear auténticas obras visuales que a veces han llegado a superar a la música de la que dependían o le han añadido un valor sustancial. La cadena internacional MTV ha sido la gran difusora de videoclips en los que no se puede determinar quién es más responsable del buen resultado, si el director del vídeo o los autores originales de las canciones. Hay grupos y cantantes como Michael Jackson o Madonna sobre cuya obra se duda si es mejor interpretarla a partir
de su música o de sus vídeos, con sus fabulosos montajes visuales.
› Film musical Aquí, la imagen será tratada en función de la música cada vez que haya una canción. Así, podemos observar cómo los personajes se mueven al son de la música, los planos cambian también en función de ésta y el ritmo en general de la estructura fílmica se muestra supeditado a ella. En otro tipo de filmes, la música sigue a la imagen pero en este caso ocurre todo lo contrario. Encontramos múltiples ejemplos en la historia de Hollywood: muchos musicales conocidos fueron llevados brillantemente al cine, con actores como Fred Astaire y Gene Kelly. Películas como Cabaret , A Chorus Line, El antasma de la ópera (The Phantom of the Opera ), Sonrisas y lágrimas (The Sound of Music) o Chicago están basadas en obras de teatro musicales. También encontramos sincronía de forma bien marcada en escenas de acción, donde la música refuerza ciertos momentos para que tengan más impacto: así, podemos oír un plato de batería justo en el momento en que un coche choca; o, en una escena de intriga, puede sonar una nota aguda y repentina en las cuerdas justo cuando aparece el rostro del villano, etc. Un caso extremo de concordancia entre música e imagen es el denominado mickeymousing , que se da en los dibujos animados: se trata de la meticulosa descripción sonora de los movimientos del personaje, un recurso heredado del cine de animación iniciado por
Disney: por ejemplo, en «El concertista desconcertado», todos los movimientos de Tom y Jerry sincronizan a la perfección con la apsodia húngara n.º 2 de Liszt. Cuando la música no es preexistente sino original, el compositor deberá tener en cuenta todos los momentos álgidos o importantes de la imagen y anotarlos para traducirlos en golpes musicales en la partitura. Según José Nieto (2003), esos puntos, llamados arciales , se anotan en minutos, segundos y fotogramas o frames para luego traducirlos a tiempos musicales dentro del compás (en lenguaje audiovisual se conoce este código de tiempo como TC, del vocablo inglés Time Code). Puede haber una escena donde, cada vez que tengamos un cambio de plano, alternemos entre un tema A y uno B; en este caso estaríamos hablando de un ritmo de montaje relativamente rápido. Otros tipos de escenas no requieren esta precisión sincrónica. Así, ante un paisaje bucólico, la música puede estar de fondo acompañando las imágenes o reflejando el estado de ánimo de un personaje, por ejemplo, pero sin necesidad de marcar puntos concretos de la imagen.
› Videojuego El medio del videojuego tiene una particularidad que no tiene ningún otro: la interacción directa con el consumidor; es decir, que al estar la narración abierta su devenir depende del jugador. Cada pantalla o nivel que tenga delante durará más o menos en función
del tiempo que tarde en superarla. Esto obliga a tratar el audio de un modo muy distinto que en otros productos lineales como una película o un espot publicitario (los cuales están cerrados y son finitos). El papel que toman en general la música y el audio en un uego es muy relevante. De modo semejante al cine, la música y los efectos en los videojuegos pueden generar todo tipo de emociones, orientar al jugador y generar en él una sensación muy real. La gran diferencia con el audio de la gran pantalla se debe a la música interactiva: según cuáles sean las decisiones del jugador, ésta irá variando e integrándose en el juego. Así, si el personaje principal está en un espacio abierto y en un momento dado entra en una cueva, mansión u otro lugar, la música se transformará dando lugar a un nuevo ambiente, aunque sin cortes ni brusquedades. Para ello se requieren piezas musicales que puedan relacionarse fácilmente entre sí, y que estén programadas de manera que el cambio sea acorde. De este modo se tendrá en cuenta que estén en la misma tonalidad y, según cómo, que mantengan un tempo y un estilo semejantes. Otro ejemplo puede ser el paso de un nivel o pantalla X al nivel final con el monstruo o jefe (conocido en inglés como boss ) que el ugador debe derrotar. Al desplazarse por el nivel anterior, el juego ofrece una música que recrea cierto ambiente y sitúa al jugador en un lugar específico. A medida que el jugador se aproxima al boss final la música juega con la emoción: la tensión aumenta, y el entorno se vuelve más oscuro y pesado. A nivel instrumental se pueden ir agregando elementos, o bien esa música puede ir transformándose en otra composición. Podría, por ejemplo,
comenzar con cierta percusión, premonitoria de que algo sucederá; luego se irían añadiendo colchones de cuerdas y metales para dar ese toque bélico y, finalmente, podría terminar en un tutti orquestal lleno de fuerza, perfecto para ambientar una batalla. En los inicios del videojuego este nivel de interacción no era posible. En las bandas sonoras se han conseguido grados de sincronía muy reales gracias al iMUSE (acrónimo del inglés Interactive Music Streaming Engine), un sistema desarrollado por la productora LucasArts, que permite que una misma melodía o composición vaya mutando según el lugar donde el jugador se esté internando, sin que se produzcan cortes. Un ejemplo de ello es el uego pionero Monkey Island ; partiendo de una base musical, las melodías e instrumentos van variando según el lugar de la pantalla donde se encuentre el jugador. Esta misma tecnología permite jugar también con los efectos de sonido y la voz de un modo mucho más real que en los inicios del videojuego. Así, por ejemplo, en cada aparición de un personaje se puede asociar una frase, como si hablara dirigiéndose al jugador, o un ruido concreto. Imaginemos que aparece un monstruo que nos ataca: sin sonido no tendría el mismo impacto que si se programa un rugido para que suene cada vez que abra las fauces. Si en vez de ruido o voz se trata de música lograremos crear un leit motiv , como en el cine (por ejemplo, el tema de Harry Lime en El tercer hombre). Otra diferencia importante que comporta su carácter no lineal es la presencia de loops o bucles: como la duración de cada nivel es
variable, la música creada para ese nivel deberá estar montada de modo que al terminar vuelva a comenzar hasta que el jugador pierda o pase al siguiente nivel. Si ese enlace está bien creado y editado será casi imperceptible para el jugador. En este aspecto hay que tener en cuenta que cuanto más corto sea el loop, más cansino será para el que lo escucha, con lo cual es recomendable que al menos dure un minuto, aunque esa decisión debe tomarse a partir del tiempo estimado de cada pantalla y juego, según su dificultad. Aparte de las pantallas de duración indeterminada existen otras que, como en el cine, están cerradas; se trata por ejemplo de las pantallas de presentación y final de juego: en ellas el jugador no decide, sino que simplemente observa, como si de una película se tratara, por lo que a esas secuencias se las llama cinemáticas . En todos estos casos suelen necesitarse los conocimientos de un músico que asista al editor/ montador de vídeo para cuadrar ambas doctrinas con mayor rigurosidad. Un buen montador otorga a los cambios de plano un ritmo adecuado y natural según la necesidad de cada escena. A menudo se valora que el propio montador de vídeo tenga conocimientos musicales; de este modo, el sentido rítmico, el tempo y otras cualidades musicales se verán reflejados muy probablemente en el resultado final del montaje.
› Webs, móviles y demás gadgets tecnológicos ›› La era del almacenaje masivo
La velocidad a la que avanza la tecnología en nuestros días se refleja en el tratamiento y almacenaje del audio en un doble aspecto que cabe destacar aquí: la cantidad frente a la calidad. Hace no muchos años hablábamos de «kas» (Kb), y luego de «megas» (Mb), para referirnos a unidades de información digital; ahora ya es habitual hablar de gigas y teras. Dejando a un lado los ya casi «viejos» CD y DVD, han ido apareciendo gran diversidad de aparatos, cada vez de tamaño más pequeño y de mayor capacidad: memorias USB, móviles, pads o tabletas, reproductores de mp3 y ordenadores portátiles. La búsqueda del almacenaje masivo ha ido pareja al desarrollo de formatos comprimidos, tanto de audio como de vídeo. En el caso de la música han triunfado el mp3 y el MIDI (aunque existan otros); hay que distinguir que el primero sigue siendo audio, mientras que el segundo es un código digital de unos y ceros que transmite información sobre un sonido (frecuencia, duración y a veces timbre) pero que no contiene audio. El formato mp3 permite reducir entre diez y veinte veces las necesidades de almacenamiento de un archivo musical sin que haya una gran pérdida en la calidad de reproducción de dicho archivo; de todos modos, esto depende del grado de compresión que se le aplique: generalmente se parte de un audio original al que se le recortan frecuencias agudas. Si el recorte va de los 18.000 a 20.000 Hz, por ejemplo, estaremos ahorrando espacio y nuestro oído no percibirá cambio alguno, pues se trata de frecuencias cercanas al límite humano audible. Ahora bien, cuando se trata de recortes mayores sí hay una pérdida sensible en la calidad. Por ello, en
medios como la televisión, y en el audio profesional en general, no se admite este formato como adecuado para su difusión. En cambio, su consumo doméstico está extendido. En el caso del MIDI las posibilidades son enormes: al tratarse de un código digital ocupa muy poco espacio, generalmente kilobytes. Eso facilita enormemente su transporte y almacenaje pero además abre la oportunidad de sonar diferente cada vez. Esa información de unos y ceros requerirá pasar por algún módulo de sonido para poder oír el archivo. Así, según el sonido que se le otorgue a cada uno de los canales (los cuales pueden contener muchísimos para cada instrumento requerido), el resultado final puede llegar a ser muy diverso; en este caso dependerá de la calidad de muestreo de las librerías de sonidos utilizadas. ›› Internet y las páginas web En este apartado se hablará de la revolución que ha supuesto internet en todos los ámbitos y, cómo no, también en el de la música. La gran red llegó para transformar las convenciones de una generación. El mundo de la industria discográfica está modificando sus formas de producción y distribución; las nuevas redes y tecnologías digitales, dados sus reducidos costes de almacenamiento, distribución y comercialización y la mayor extensión geográfica a la que dan acceso, han dado lugar a nuevos mercados musicales digitales. Es cierto que actualmente un artista puede producir y distribuir su obra musical sin la mediación de una discográfica y obtener directamente ganancias dados los bajos
costes de producción. También los medios tradicionales como la radio, la televisión o la prensa se han visto transformados: ver y oír contenidos a la carta es hoy uno de los p untos fuertes sobre los que se ha empezado a apostar. Con la banda ancha, los archivos de música comenzaron a circular en internet en una escala nunca antes pensada. Las posibilidades de consumo son casi infinitas: ya sea a través de tecnología streaming (como en el caso de YouTube, MySpace o Last.fm), que permite la escucha directa de un archivo colgado en un espacio virtual de la red, como a través de redes de usuarios peer to peer o red entre iguales (como Kaaza, eMule o LimeWare, que consisten en compartir e intercambiar archivos entre particulares, o buscadores, como Google), los internautas del mundo entero pueden publicar, descargar e intercambiar entre sí archivos musicales. El alcance de la música a la carta es hoy inmenso; los programas radiofónicos en los que el oyente puede solicitar tal o cual tema han quedado ya desfasados y, aunque siguen existiendo, su existencia no tiene mucho sentido dadas las enormes posibilidades que ofrece la web. YouTube, por ejemplo, nos permite ver y escuchar casi todo lo que queramos. Esa oferta desmedida y «desmediada» hace más compleja y amplia que nunca la selección de un contenido. Este intrincado mundo de las webs ha dado lugar, entre muchos, a dos grandes dilemas en lo que se refiere a la música: el de la piratería y el de la privacidad. No entraremos en detalle en algo que ocuparía un libro entero dedicado al debate social, pero sí nos
gustaría destacar algún rasgo de ellos. Por un lado, internet ha permitido el pay per view («pagar para ver»), o en este caso escuchar, al gusto del consumidor. No hace falta ya comprar un CD o vinilo entero cuando nos gustan sólo uno o dos temas de él, una posibilidad que da una salida al castigado mercado del disco y resulta más barata al usuario. Pero, por otro lado, la libre circulación de archivos hace que por cada uno que compra un tema en la red o en una tienda física sean miles los que lo comparten y descargan en internet sin coste alguno, con el problema legal que eso conlleva. El otro dilema es el de la intimidad: el nivel de control del usuario al que se está llegando roza los límites de lo ético y, según su uso, puede ser positivo o negativo. Hay páginas como Spotify que permiten definir un perfil de usuario: existen mecanismos en la red capaces de analizar qué tipo o estilo de música nos gusta a partir de nuestras selecciones y sugerirnos luego música anticipándose a nuestra búsqueda. Así, la interacción que permite internet empieza a cuestionar nuestra libertad de circulación por ella y la publicidad está haciendo un gran uso de esta arma. Muy a menudo, si buscamos un tema musical en YouTube nos vemos obligados a ver un anuncio previo. ›› Los móviles Dejando a un lado el gran almacenaje de música en formato mp3 que permiten los móviles de última generación, veamos los rasgos que caracterizan la música de los teléfonos móviles. Para empezar,
el tono de una llamada tiene que ser un fragmento corto. Es cierto que sigue existiendo el clásico «riiing» para aquellos más nostálgicos o acostumbrados a dicho timbres; pero, en general, ese ruido típico de los teléfonos fijos ha sido sustituido por canciones y temas conocidos. Para ello casi siempre se toma el estribillo o una parte p arte de él, él, p ues t iene iene que ser un fragme fragment ntoo que dure sólo unos segundos. Miles de temas quedan mutilados mediante esta opera op eraci ción, ón, que produce p roduce los los conocidos conocidos «poli «p olitt onos»; onos» ; muchos muchos de ellos ellos se pueden descargar de la gran red, ya sea en formato mp3 o MIDI: volviendo a este último, me gustaría destacar que al usuario se le perm p ermite ite t omar omar esos t emas emas secuenci secuenciados ados y cambi cambiar ar la instrumentación a su gusto si dispone de las herramientas necesarias. Si no, dependiendo de las posibilidades del terminal y el banco banco de sonidos de que dispong disp onga, a, sonará de un modo u otro. ot ro. Eso sí, los temas serán instrumentales, pues el MIDI no permite su transformación en voz real, pues todos los instrumentos son virtuales.
Bibliografía BELTRÁN, Rafael (2005). La L a ambientación ambientación musical en radio y televisi televisión. ón. Selección, montaje y sonorización. Madrid, sonorización. Madrid, Instituto RTVE. CALVI , Juan C. «La industria de la música, las nuevas tecnologías digitales e Internet. Algunas transformaciones y salto en la concentración». Disponible en: ww www w. ehu. hu.ees/oj s/ojs/i s/inde ndex. x.php/Zer php/Zer/ar /arti ticcle/downloa le/download/3726/ d/3726/3356 3356.. MARTÍN MALDONADO , Alejandro. «La invención de un género: los vídeos musicale musicales» s».. Disponible en: en: www.ochoymedio.info/review/191/La-invención-