Tecnologías informáticas aplicada a la Música Curso 1º Luis Alfonso Torres Mancilla Conservatorio Superior de Música de Málaga
Contenido
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
1
El Sonido
5
Acústica
5
El Sonido
5
Cualidades del sonido
7
Intensidad del sonido
8
Sensibilidad del oído
9
Medida de sensación de intensidad Altura: su definición y dependencia
9 11
Efecto Doppler
12
El timbre: su definición y dependencia
13
Duración
15
Ejercicios
15
Textos
15
Prácticos
16
La Cadena de Audio
18
Sistemas
18
Microfonía
18
Tipos de micrófonos
19
Dinámico
19
Condensador
20
Conexiones
21
Previos
26
El audio digital
27
Introducción
27
Soporte digital y analógico
28
Soporte Analógico
28
Soporte Digital
29
Formatos digitales
29
Frecuencia de muestreo Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
32 1
Resolución de Bits
32
Rango dinámico/Relación señal-ruido
33
Interface
34
EL PC u ORDENADOR PERSONAL
34
MICROPROCESADOR
36
MEMORIA
36
Módulo de memoria RAM CONTROLADORES
36 37
DISPOSITIVOS DE ALMACENAMIENTO DE DATOS
39
PERIFÉRICOS EXTERNOS
39
CONEXIÓN A UNA RED INTERNA E INTERNET
39
FUNCIONAMIENTO DEL ORDENADOR
41
ARRANQUE O INICIALIZACIÓN DEL ORDENADOR
42
SECUENCIA DE ARRANQUE DE WINDOWS XP
43
SECUENCIA DE ARRANQUE DE WINDOWS 95 y 98
44
TRABAJO CON PROGRAMAS DE APLICACIONES
44
Software de edición y manipulación del audio digital
46
Multipistas de audio digital
49
Secuenciador MIDI/Audio Digital
50
Amplificadores
51
Etapa de potencia
51
Impedancia
51
Factor de amortiguación
51
Potencia de salida
52
Relación señal/ruido
53
Acoplamiento
53
Respuesta en frecuencia
53
Respuesta de fase
54
Ganancia
54
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
2
Sensibilidad
55
Distorsión
55
Diafonía
55
Tipos de Amplificadores de Potencia
56
Altavoces
56
El altavoz de graves (woofer)
56
Altavoces de gamas media y ampliada Altavoces para frecuencias altas
57 59
• Altavoces de agudos (tweeters) del tipo de cono
59
• Altavoces de agudos del tipo de bocina
60
Electroacústica Introducción a la Tecnología Musical
63 63
Antecedentes
63
Audiciones
64
CORALE – LUIGI & ANTONIO RUSSOLO (1921) (1:57)
64
Audiciones recomendadas:
65
WOCHENDE – WALTER RUTTMAN (1930) (11:17)
66
TELHARMONIUM
66
THEREMIN
67
Theremín moderno
68
Audiciones recomendadas:
68
ONDAS MARTENOT
68
Audiciones recomendadas:
69
HAMMOND
69
FONÓGRAFOS DE VELOCIDAD VARIABLES.
70
Estudios electrónicos
70
Audiciones
71
Audiciones
74
Mezclas de ejecución en vivo y elementos electrónicos
75
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
3
Música electrónica en directo
76
Audiciones
77
Serialismo e indeterminación
77
Indeterminación
78
Serialismo
78
Música Concreta (Musique Concrète) Los defectos comunes a ambas músicas Audiciones recomendadas:
79 84 86
Síntesis sonora
86
Antecedentes
86
Elementos de síntesis
91
SÍNTESIS VERTICAL
93
Síntesis Aditiva
93
Audiciones
95
Síntesis sustractiva
95
Filtros y tipos Audición
97 99
Síntesis no lineal
99
Síntesis FM
99
Ejemplos prácticos
100
Síntesis AM
103
Distorsión de fase (PD)
104
SÍNTESIS HORIZONTAL
104
Sampling
104
Síntesis granular
106
Modelado de onda
108
Modelos físicos
109
Síntesis cruzada
109
Métodos relacionados con la síntesis de voz
110
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
4
El Sonido Nuestra herramienta de trabajo ACÚSTICA Akoustikós (acústica) - Akuein (oir)
Se define acústica como la parte de la Ciencia Física dedicada al estudio del sonido, es decir, la ciencia y técnica del sonido entendido como fenómeno físico en el más amplio sentido, y del conjunto de señales de forma más o menos parecida a las ondas sonoras, producidas en diversos medios por distintos dispositivos.
EL SONIDO No haré nada más que escuchar… Oiré todos los sonidos juntos, combinados, fusionamos o seguidos… Sonidos de la ciudad, y de fuera, sonidos del día y de la noche. Walt Whitman
El sonido se produce cuando un objeto (la fuente) vibra y srcina que se mueva el aire a su alrededor. Mientras esté vibrando comprimirá y descomprimirá el aire de su alrededor, dando como resultado una serie de compresiones y rarefacciones que se alejan en forma de esfera. La velocidad a la que oscila una fuente determina la frecuencia de la onda sonora producida y se mide en hercios (Hz) o ciclos por segundo. La cantidad de compresión y rarefacción del aire que se srcina a causa del movimiento de la esfera se conoce como la amplitud de la onda sonora, y está relacionada con el nivel sonoro que finalmente es percibido por el oído. La distancia entre dos picos adyacentes de compresión y rarefacción de una onda que viaja por el aire recibe el nombre de longitud de onda, dependiendo esta de lo rápido que viaja la onda sonora. El aire se compone de moléculas de gas y tiene propiedades elásticas. La mitad del ciclo de compresión creado por la fuente vibratoria causa que se muevan las partículas próximas a su alrededor a modo de efecto en cadena, y a esto le sigue una rarefacción equilibran que causa un movimiento de partículas similar en la dirección opuesta. Se puede ver que el efecto neto Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
5
resultante es que las partículas individuales de aire no viajan realmente (oscilan alrededor de un punto fijo) pero el resultado es que forman una onda que parece que se va alejando de la fuente. La velocidad a la que se aleja de la fuente depende de la densidad y elasticidad de la sustancia que atraviesa. En el aire la velocidad del sonido es aproximadamente de 340 metros por segundo.
Se dice que un cuerpo realiza un Movimiento Periódico cuando a intervalos regulares de tiempo pasa por los mismos puntos con idénticos sentidos. Dado la gran y diversa clase de movimientos periódicos que existen, éstos se clasifican en grupos, atendiendo a características comunes entre ellos. El caso más importante de movimiento periódico es a que en el que el móvil se desplaza siguiendo una trayectoria rectilínea (como una bola colgada de un muelle o resorte) o curvilínea (como el péndulo de un reloj). Un caso particular del Movimiento Oscilatorio Rectilíneo lo tenemos en el Movimiento Vibratorio, cuando las oscilaciones son muy pequeñas, denominándose vibraciones y dando lugar al Movimiento Vibratorio. Cuando el cuerpo vibra siguiendo una sola trayectoria se denomina simple. En caso contrario se le llama complejo o compuesto. El roce y la resistencia del medio en el cual se realiza el movimiento, hace que dichas características vayan variando en el tiempo, surgiendo las leyes del Movimiento Vibratorio Amortiguado. La amplitud del movimiento vibratorio amortiguado es la de la primera vibración. Dicha amplitud disminuye en cada vibración con un decrecimiento que se llama logarítmico. Por su parte el período se conserva constante dentro de ciertos límites de amortiguamiento. Si el amortiguamiento rebasa dichos límites, las vibraciones se hacen aperiódicas. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
6
Cualidades del sonido Se distinguen habitualmente en la sensación sonora cuatro cualidades principales: altura, intensidad, duración y timbre, que por su importancia y diversidad constituyen otras tantas sensaciones. Es costumbre correlacionar la altura de un sonido con la frecuencia de las vibraciones que lo srcinan, la intensidad con la amplitud y el timbre con la ley que rige dicho movimiento vibratorio. Todo esto es cierto en primera aproximación, pero analizando más profundamente las sensaciones y sus respectivos estímulos como lo haremos en los párrafos siguientes, veremos que la realidad no es tan sencilla. Además de las cualidades del sonido ya mencionadas suelen atribuírsele otras como el volumen y la densidad; esto es perfectamente posible pues con las dos variables (frecuencia y amplitud), pueden existir infinitas funciones diferentes. El volumen es una sensación que aumenta al aumentar la amplitud y disminuye al crecer la frecuencia: una nota de flautín parece tener menos "volumen", menos cuerpo, que una nota de contrabajo de la misma intensidad; al aumentar la intensidad de los sonidos emitidos por un instrumento, parece aumentar su volumen. La densidad de un sonido es una sensación que producen ciertos sonidos de ser más compactos, más "densos" que otros; esta sensación parece depender de la frecuencia y aumentar con ella, debido probablemente a la mayor velocidad con que se suceden las vibraciones en los sonidos agudos. La respuesta del oído a las ondas sonoras no es lineal, por lo cual el sonido escuchado difiere a veces considerablemente del que correspondería a las ondas sonoras emitidas en la fuente. La razón de este comportamiento del oído es clara: para que un cuerpo o sistema de cuerpos pueda presentar respuesta lineal es necesario que pueda desplazarse simétricamente y con igual facilidad a cada lado de su posición de equilibrio. En el oído, esto no es posible, pues de un lado del tímpano se halla el mango del martillo, unido a su vez a los demás huesecillos del oído medio y del otro lado hay aire; por otra parte, el oído interno introduce nuevas modificaciones en la respuesta debido a la impedancia de los líquidos linfáticos y sus numerosas asimetrías de construcción, todo lo cual se traduce en una distorsión final considerable.
figura 1 Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
7
En la figura 1 que representa este fenómeno, la sinusoide trazada con línea punteada representa la onda sonora que llega al oído y la onda en trazo lleno, el sonido que resulta de la distorsión; puede verse que la onda resultante ya no es sinusoidal sino que es una curva compleja, descomponible por el teorema de Fourrier en varias sinusoides, cada una de las cuales corresponde a un armónico introducido por el oído. Estos armónicos introducidos por el oído se llaman armónicos aurales.
Intensidad del sonido La intensidad del sonido desde el punto de vista psicológico, es la cualidad de la sensación sonora que queremos indicar cuando decimos que un sonido es más fuerte o más débil que otro; depende principalmente de la amplitud del movimiento vibratorio que srcina el sonido. Llámase umbral de audibilidad para un sonido de frecuencia dada, el punto en que la intensidad de dicho sonido no puede disminuirse sin que cese de ser oído. La cima de las sensaciones de intensidad es el punto donde éstas no pueden aumentar sin cambiar de especie, convirtiéndose en sensaciones dolorosas; por lo tanto, el umbral de estas últimas es simultáneamente, cima de las primeras. El oído puede experimentar sensaciones de intensidad, mismo si la duración del sonido que las produce es de 0,0003 de segundo. Desde el punto de vista físico, la intensidad del sonido se mide de dos maneras: como intensidad absoluta, expresando la energía de la onda sonora en unidades de potencia o de presión y como intensidad relativa, mediante escalas que se forman tomando como unidad de medida para cada sonido, su intensidad absoluta en el umbral de audibilidad. Cuando se percibe un sonido cualquiera, se tiene conciencia de que dicho sonido posee tres propiedades fundamentales: su intensidad (es débil o intenso), su altura (es grave o agudo), su timbre. Se llama tono puro a un sonido sinusoidal simple -privado de armónicos-, tal como puede producirlo el aparato utilizado en música con el nombre de diapasón. La experiencia demuestra que el timbre de un tono puro permanece invariable cualesquiera que sean las condiciones en las que se haya producido el sonido. La presencia de armónicos más o menos numerosos y más o menos intensos modifica ese timbre: cuanto más considerables son los armónicos, más lleno y cálido parece el sonido, mientras que un tono puro es siempre endeble. Sin embargo, la presencia de armónicos demasiado agudos produce efectos de silbido y aspereza. El tono puro tiene una intensidad que varía con la amplitud de presión de la onda y una altura que varía según su frecuencia. El mecanismo de esta variación interesa sobremanera al músico y al físico acústico.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
8
Sensibilidad del oído Un oído corriente sólo puede percibir una onda sinusoidal si la frecuencia de la misma se halla comprendida entre 20 y 20.000 Hz aproximadamente. Se llama umbral de audibilidad a la curva que, para cada frecuencia, da la energía expresada en watts, a partir de la cual el sonido se vuelve audible.
Campo de audibilidad (esquema)
El umbral del dolor indica la energía a partir de la cual el oído no experimenta ya una sensación sonora sino una impresión dolorosa. Estos dos umbrales limitan una zona del plano energía-frecuencia, llamado campo de audibilidad del oído -ver esquema de Campo de audibilidad-. El valor absoluto de los umbrales, como su separación entre sí, varían enormemente según la frecuencia: es con relación a las frecuencias medias, 500 a 5.000 Hz, cuando el oído es más sensible (umbral de audibilidad muy bajo) y presenta a la vez una zona de audibilidad (distancia entre los umbrales) máxima. Pueden mencionarse dos propiedades bastante notables del oído con relación a la percepción de la intensidad: para que una perturbación sonora se vuelva audible, basta con que desarrolle una energía extremadamente débil, apenas superior a la producida por la energía de agitación térmica, a temperatura ordinaria; la relación de las energías extremas audibles sin destrucción del oído interno (10-17 y 10-4 watts) alcanza la cifra fantástica de diez billones.
Medida de sensación de intensidad Se ha comprobado que, en la zona central del campo de audibilidad, la sensación de intensidad es sensiblemente igual al logaritmo de la energía que produce la excitación (ley de Weber-Fechner). De hecho, la sensibilidad del oído decrece al aproximarse a los límites del campo de audibilidad: cuando la frecuencia cambia, a una misma energía ya no corresponde, pues, la misma sensación de intensidad. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 9
Fletcher y Munson trazaron las curvas de isosonía. Estas curvas fueron numeradas por sus autores, suponiendo que la fórmula logarítmica se aplica íntegramente a la frecuencia 1.000 Hz; las sensaciones se expresan entonces en fones. No existe ninguna fórmula matemática que permita pasar de un dato físico conocido (la energía, por ejemplo) al valor de la sensación medida con esta nueva unidad. Para referirse a las curvas de Fletcher, que fueron normalizadas en el plano internacional, es necesario recordar que la escala de los fones y la de los decibeles coinciden en la frecuencia 1.000 Hz.
Curvas de isosonía
Se dio un nuevo paso adelante cuando se trató de dar a las curvas de isosonía una numeración que respondiese a una ley de suma de intensidades. Es evidentemente muy difícil decir que un sonido es dos o tres veces más intenso que otro. Gracias a la multiplicación de experiencias, se pudo, sin embargo, definir una nueva escala de sensación aditiva, esto es la escala de sones. Esta escala, que debe en principio traducir las variaciones de sensibilidad del oído en los diferentes niveles, es la más corrientemente utilizada. Parece que es la más fiel a la realidad. Cualquiera que sea la numeración que se les aplique, las curvas de isosonía se presentan bajo un aspecto que pone en evidencia un fenómeno fisiológico de grandes consecuencias: contrariamente a lo que suele creerse, una modificación de la intensidad media de percepción altera el timbre musical. Esta posibilidad de modificar la intensidad de audición de una obra musical o hablada es un aporte de técnicas relativamente recientes de conservación -en disco o cinta magnetofónica- y de difusión -por medio de la radiotelefonía- del sonido. La audición de un concierto dado en una gran sala sería intolerable en un cuarto dormitorio si se conservara su intensidad srcinal; por esa razón el oyente dispone de un botón regulador en su aparato, que le permite adaptar la intensidad a las condiciones locales de audición. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
10
La reducción del nivel sonoro provoca, sin embargo, un empobrecimiento relativo de los sonidos graves, puesto fácilmente de manifiesto si se reduce poco a poco la intensidad del sonido: se tiene la impresión de que la orquesta se hace cada vez más pequeña y se reduce por fin a unos pocos instrumentos. Artificialmente se puede solucionar este efecto si se introducen en el aparato correctores adaptables a voluntad, cuyo papel consiste en realzar en mayor o menor medida las bandas de frecuencias graves. La unidad conocida como decibelio dB, a menudo se prefiere a otras unidades como voltio, vatios y otras absolutas. Se utilizan en los casos donde se expresa la relación entre dos señales o el nivel de una señal por encima de una referencia, además de para especificar la ganancia de tensión de un dispositivo. El dB está basado en el logaritmo de la relación entre dos números. Indica la mayor o menor potencia de un valor respecto a otro. También puede utilizarse como unidad absoluta de medida si el valor de referencia es fijo y conocido. Es concretamente diez veces el logaritmo en base diez de la relación entre las potencias de dos señales: dB=10 log 10 (P1/P2). Por ejemplo, la diferencia en dB entre una señal con una potencia de 1 vatio y una de 2 vatios es [10 lob (2/1)=3dB]. El rango que percibe el oído humano es de 0 a 140 dB (del orden de 10 elevado a 14, desde 0,000000000001 W/ m-2 hasta cerca de los 100 Wm-2).
Altura: su definición y dependencia La altura de un sonido es la cualidad de la sensación sonora a que nos referimos cuando decimos que un sonido es más agudo (alto) o más grave (bajo) que otro. Depende principalmente de la frecuencia aunque también es afectada por la amplitud del movimiento vibratorio, como veremos de inmediato. Los sonidos agudos corresponden a los de frecuencia elevada y los graves a los de baja frecuencia. Es curioso constatar que en la mayoría de las lenguas europeas los vocablos "alto" y "bajo" corresponden respectivamente a los sonidos agudos y a los graves; la razón de esta asociación no es muy clara pero ha sido observado que al pedir a varios observadores que localicen la fuente aparente de una serie de sonidos emitidos detrás de una pantalla, tienden a situar el punto de emisión de los sonidos agudos a mayor altura que para los sonidos graves, aunque el punto real de emisión no varíe. El umbral para la sensación de altura está entre los 16 y los 18 ciclos, denominándose infrasonidos los movimientos vibratorios de frecuencia inferior a ésta. Dicho umbral no es estrictamente el de todas las sensaciones auditivas, pero con frecuencias menores que las citadas, como pulsaciones aisladas, a veces de carácter táctil. Además, es difícil separar los sonidos graves de los armónicos aurales que se srcinan en el oído del observador. La cima de las sensaciones de altura oscila entre los 16000 y los 20000 ciclos, variando considerablemente de sujeto a sujeto; la sensibilidad del oído para los sonidos agudos comienza a decrecer a partir de los 30 años.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
11
La amplitud afecta la altura: los sonidos de frecuencia baja (hasta 500 ciclos) parecen más graves cuando aumenta su amplitud, ocurriendo lo contrario con los sonidos de alta frecuencia (sobre los 4000 ciclos); los sonidos de frecuencia media sufren poca variación. Los sonidos utilizados en música casi no presentan este fenómeno pues generalmente contienen armónicos situados en la región de las frecuencias medias donde no se lo observa; en cambio, es observable sobre los sonidos puros como los que produce el diapasón: pídase a una persona que reproduzca con la voz el sonido producido por un diapasón, colocándolo primero a un metro y luego al lado del oído del observador; el sonido reproducido en segundo término será más bajo que el reproducido primero, pues al acercar el diapasón al observador, los sonidos que emite llegan a éste con más fuerza. Por lo tanto, para controlar la afinación de un instrumento no conviene acercar mucho el diapasón al oído. Es de gran interés determinar si la relación armónica de dos sonidos depende de su altura o de su frecuencia. Las investigaciones realizadas por Fletcher en este sentido, muestran que es la frecuencia y no la altura la que determina esta relación. Ejecutados sucesivamente, un sonido de 400 ciclos y un sonido de 205, pueden producir la sensación de octava, pero simultáneamente son discordantes. Los umbrales diferenciales para la sensación de altura varían considerablemente con la frecuencia y la intensidad de los sonidos estudiados. En la región de los 1000 ciclos, el oído puede percibir diferencias de frecuencia de 3 ciclos (0,3 %), o sea de 1/16 de semitono, mientras que en la región de los 60 ciclos, la sensibilidad es de 1 % o sea de casi un semitono. En condiciones favorables, puede distinguirse en aguda, la sensibilidad del oído decae nuevamente. Para que un sonido produzca una sensación clara de altura, su duración mínima debe ser del orden del vigésimo de segundo. Se llama oído absoluto la cualidad poseída por ciertas personas de reconocer un sonido basándose únicamente sobre su altura. Las experiencias deben hacerse con sonidos puros sin que el observador intente tararearlos o silbarlos pues de otro modo intervendría en el reconocimiento la memoria muscular. Debe notarse que la mayoría de los músicos que creen poseer oído absoluto, sólo lo poseen para el instrumento que ejecutan y cuando los sonidos varían en forma discontinua como en las escalas musicales. Si las frecuencias varían en forma continua, la individualización de una nota determinada es mucho más difícil. El oído absoluto tiene una utilidad musical relativa, siendo mucho más importante el oído de relación.
Efecto Doppler Al estudiar la relación entre frecuencia y altura, es interesante mencionar un fenómeno fácilmente observable en esta época donde la velocidad de los medios de locomoción aumenta constantemente: el efecto Doppler, llamado así en honor del físico alemán que lo descubrió por primera vez en 1842. El efecto Doppler consiste en lo siguiente: cuando entre una fuente sonora y un observador existe un movimiento relativo, sea de alejamiento o acercamiento, el observador no oye el sonido con la altura que le correspondería por su frecuencia sino que ésta aumenta en el primer caso y disminuye en el Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 12
segundo. Por ejemplo, si una locomotora pasa a gran velocidad por una estación haciendo sonar su silbato, los observadores situados sobre los andenes de la estación escuchan dicho silbato como un sonido cuya altura aumenta constantemente mientras la locomotora se acerca, llegando a un máximo cuando la locomotora pasa frente a ellos y disminuyendo luego al alejarse ésta. Esto ocurre porque al aumentar o disminuir la distancia entre la fuente y el observador, éste recibe una cantidad de ondas respectivamente menor o mayor que las que corresponden al sonido producido por aquélla.
El timbre: su definición y dependencia El timbre es la cualidad de la sensación sonora que permite establecer la proveniencia de los diferentes sonidos y ruidos. Los sonidos producidos por un mismo instrumento tienen todos un timbre igual o similar, cualquiera sea su altura e intensidad; por otra parte, dos sonidos de igual altura e intensidad ejecutados por instrumentos distintos serán inconfundibles, pues su timbre será diferente. Dos movimientos vibratorios de igual frecuencia y amplitud producirán sonidos de la misma altura e intensidad; si estos sonidos difieren en su timbre, es evidente que habrá una tercera característica del movimiento vibratorio que será la que producirá dicha diferencia. Esta característica del movimiento vibratorio es la ley según la cual varía la elongación en función del tiempo en el intervalo de un período. La representación gráfica de la variación de la elongación en función del tiempo, srcina las distintas curvas que caracterizan el timbre de cada sonido. Por esta razón, se dice frecuentemente que el timbre depende de la forma o de la complejidad de la onda sonora. Debe recordarse que las curvas correspondientes a movimientos vibratorios o a las ondas sonoras que éstas srcinan, no indican el movimiento real de las partículas del cuerpo sonoro o del medio en el cual se propaga la onda sino que representan las variaciones en función del tiempo de la elongación de dichas partículas, mientras que los movimientos se realizan sobre pequeñísimas trayectorias rectilíneas. Para aclarar esto, recurramos a la sinusoide; sabemos que ésta representa el movimiento de un punto que se mueve con movimiento armónico simple, ya sea éste el punto material de un péndulo que oscila lateralmente sobre un arco de circunferencia o la pesa de un resorte oscilando sobre una línea vertical. Es evidente que la curva representa solamente la variación de la elongación en función del tiempo, pues de otro modo, el movimiento de la pesa y el movimiento curvilíneo del punto material de la pesa debieran representarse de manera distinta. El físico alemán G. S. Ohm fue el primero en proponer una explicación de las sensaciones tímbricas. Expresa la ley de Ohm que el oído analiza las ondas complejas que sobre él inciden, descomponiéndolas en sus componentes sinusoidales, comportándose como si estuviera constituido por una multitud de resonadores, cada uno de los cuales resuena para un sonido simple determinado; entiéndese por sonido simple el producido por una única onda sinusoidal. Los sonidos simples que componen el sonido complejo se llaman en este caso armónico.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
13
Se llaman armónicos aurales los sonidos generados por la distorsión introducida por el oído. Es fácil demostrar su existencia, creando pulsaciones con sonidos puros de frecuencia próxima. Al estudiar el timbre de sonidos producidos por percusión es necesario tomar en cuenta la existencia de parciales transitorios o fugaces, que aparecen inmediatamente después de la percusión y duran fracciones pequeñas de segundo, modificando grandemente sin embargo, el timbre del sonido. Hermann von Helmholtz en su libro "Sensaciones sonoras", publicado en 1862, resumió los resultados de 8 años de experiencias realizadas para confirmar la ley de Ohm diciendo: "las diferencias de timbre de los distintos sonidos, provienen únicamente de la presencia de armónicos y de su intensidad relativa". Helmholtz y Ohm sostenían que la fase de los diferentes armónicos no influye en el timbre del complejo, pero este aspecto de su teoría ha sido refutado por observadores más recientes. En su aspecto fisiológico, las teorías de Helmholtz y Ohm suponen que las fibras de la membrana basilar y los órganos de Corti desempeñan el papel de resonadores para los sonidos simples. La teoría de Helmholtz, muy conveniente bajo ciertos aspectos, no explica con todo varios fenómenos como ser las pulsaciones y el enmascaramiento, razón por la cual ha caído en desuso. El profesor Fritz Volbach, en su interesante libro "La orquesta moderna", sostiene que hay sólo dos formas básicas en las ondas sonoras: una forma sinuosa y una forma dentada, con todos los posibles tipos de transición, correspondiendo las formas sinuosas a los sonidos de la flauta y la trompa y las formas dentadas al oboe y la trompeta; los armónicos se agregan a estas ondas formando ondas de superposición, pero sin alterar su carácter básico; sostiene además, que los armónicos de un sonido poseen ya el timbre de éste. Según Volbach, no podrá nunca sintetizarse el timbre de la trompeta a partir de parciales de la flauta, por ejemplo, aunque se varíen sus intensidades y se quiten o añadan parciales. Haciendo estudios sobre los instrumentos de viento, deduce que el modo de provocar la vibración del aire influye decisivamente sobre el timbre: si las compresiones y dilataciones se producen suavemente, la forma básica de la onda será sinuosa, evolucionando hacia la forma dentada cuanto más violenta es la producción de las ondas. El estudio de las ondas producidas por explosiones, parece confirmar esta teoría. Una de las contribuciones modernas que más interesa al estudio del timbre, es la teoría del formante. Según la teoría clásica de Helmholtz, el timbre de los sonidos, dependía de la relación entre las frecuencias de los distintos armónicos y la frecuencia de lacada fundamental, cualquiera sea estaestrecha última. La teoría del formante sostiene por el contrario que para timbre existe una banda de frecuencias, de altura absoluta fija, que está siempre presente, cualquiera sea la frecuencia de la fundamental. En el caso del violín, las frecuencias formantes que caracterizan su timbre estarían siempre comprendidas entre 3500 y 5000 ciclos. Las sensaciones de timbre no son mensurables como las de altura y de intensidad, pues la mayor o menor complejidad de un movimiento vibratorio no constituye una magnitud para la cual pueda establecerse unidad de medida ni escalas. No existen por lo tanto umbral ni cima para las sensaciones Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 14
de timbre. Para ordenar los sonidos según su complejidad, se establece una relación entre la energía total y la energía de todos los parciales menos la fundamental; un sonido con 3 % de distorsión será uno en que la fundamental posee el 97 % de la energía total. El estudio del timbre se puede realizar por dos vías opuestas y complementarias: por análisis y por síntesis. El primero en analizar sonidos fue Helmholtz que efectuó sus análisis mediante los resonadores por él inventados. El uso de resonadores permite determinar cuales son los armónicos presentes pero no su intensidad; para esto se recurre actualmente a los analizadores armónicos, que muestran simultáneamente las intensidades de los armónicos componentes mediante diversos circuitos eléctricos. Los resultados de estos análisis son expuestos en lo que se llama espectros armónicos. Los espectros armónicos de los distintos instrumentos: las ordenadas son proporcionales a las intensidades (medida en decibeles) y las abscisas a las frecuencias de los armónicos. La síntesis de sonidos es también de gran utilidad, pues permite confirmar los resultados del análisis. Helmholtz y Koenig construyeron un aparato formado por diez diapasones y sus correspondientes resonadores mediante el cual sintetizaron con bastante éxito algunos sonidos. Actualmente se utiliza un aparato llamado "synthephone" que permite sintetizar la mayoría de los sonidos conocidos y crear timbres nuevos. El "phonodeik", inventado por el físico norteamericano Dayton C. Miller, permite obtener y fotografiar los oscilogramas correspondientes a los diversos sonidos.
Duración La duración es una cualidad del sonido que no hemos mencionado hasta ahora pero que posee gran importancia musical pues es la que determina el ritmo, uno de los elementos básicos de la música. La duración de una sensación sonora depende directamente de la duración del movimiento vibratorio que srcina el sonido, aunque en algunos casos la sensación persiste después del cesar el estímulo. Cuando la duración es muy pequeña afecta nuestra percepción de la altura: según experiencias realizadas por Ekdahl y Stevens, un sonido de 1000 ciclos cuya duración es de 0,01 segundos produce una sensación cuya altura es igual a la de un sonido de 842 ciclos cuya duración es de 1,5 segundos. Con la intensidad del sonido ocurren fenómenos similares.
EJERCICIOS Incidunt quis, vulputate sit amet, placerat vitae, mass amet, placerat vitae, massa.
Textos 1. Khaos - Ignacio Pecino 2. Cuestionario Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
15
3. El futurismo 4. Escritos al oído - John Cage 5. Una Música para un hombre nuevo - Rodolfo Arizaga 6. Estructura y experiencia del tiempo - Karlheinz Stockhausen 7. Música e integibilidad - Edson Zampronha
Prácticos 1. Grabación de un sonido concreto. 2. Edición del sonido. 3. Convertirlo en un sonido largo. 4. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura realizando diferentes cambios de dinámica súbitos. 5. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura realizando cambios de dinámicas con cress. y dism. 6. Sobre dos sonidos en paralelo de larga duración, de unos 40 Sg, crea una estructura utilizando un contrapunto dinámico. 7. Sobre un sonido de larga duración, de unos 20 Sg, y con complejidad dinámica, aplica una puerta de ruido para cambiar su textura. 8. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura utilizando una envolvente en un deformador de tono. 9. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura utilizando un cambio de tono y preservando el tiempo. 10. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura utilizando un cambio de tiempo y preservando el tono. 11. Sobre un sonido cualquiera, utiliza un ecualizador paramétrico de 30 bandas. Elimin ando ciertas frecuencias y combinando otras, al menos 10 sonidos, crea timbres diferentes al srcinal. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
16
12. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura utilizando filtros dinámicos. 13. Espacialización 14. Sobre un sonido de larga duración, de unos 40 Sg, crea una estructura utilizando movimientos de panoramización. 15. Sobre unos sonidos de corta duración, crea una estructura utilizando una reverberación y colocando los sonidos en diferentes espacios virtuales. 16. Sobre unos sonidos de corta duración, crea una estructura utilizando diferentes ecos en estéreo y retocando su frecuencia. 17. Modulación 18. Flanger 19. Chorus 20. Phaser
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
17
La Cadena de Audio Tu equipo sonará como suene el peor de los componentes de tu equipo SISTEMAS La interconexión entre dos o más dispositivos da srcen a lo que se denomina un sistema. Para representar gráficamente las interconexiones entre los diversos dispositivos se utilizan diagramas en bloques, con un símbolo adecuado y con una o más entradas, por las cuales ingresan las señales a procesar y con unos o más salidas por donde salen las señales ya procesadas.
Cadena de Audio
MICROFONÍA El mundo de la microfonía es extenso y nada fácil hoy en día, debido a la gran variedad de tipos, modelos y marcas que existen hoy en día en el mercado. Todos ellos giran alrededor de las mismas características, más o menos 3 db (más o menos ganancia en ciertas frecuencias), sensibilidad ( más o menos captación según intensidad), calidad , respuesta de frecuencia, etc... ¿Qué es un micrófono? Micrófono es el término genérico que se usa para hablar de los elementos que transforman la energía acústica, (sonido - fuente srcinal : guitarra, voz), en energía eléctrica, (la señal de audio - ya sea Digital o analógica). El micrófono es un tipo de transductor, un dispositivo, que transforma energía de una forma a otra. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
18
Es decir estas teorías dicen que el micrófono se usa para amplificar la señal de audio srcinal, la cual reproduciremos o copiaremos (ya sea similar o distorsionada) a otra por medio de dispositivos eléctricos, teniendo en cuenta que nunca volverán a ser como habían sido en un principio (por muy buen micro que se tenga, nunca se logrará el sonido srcinal que emite la fuente), es decir, no existe el micro perfecto y nunca reproduciremos el sonido srcinal como la fuente nos a lo ha hecho llegar, pero según el micro lograremos mas calidez, semejanza, cercanía, cuerpo, etc... Todo aquello que nos rodea, que es lo que nos va a afectar en la grabación y hay que tenerlo en cuenta en la elección de un micrófono, ya sea la localización, cableado, mesa, conversores, dinámica, acústica de la sala de captación, etc... Tipos de micrófonos Dicho esto, aclararé que la calidad que genera un micrófono en su representación eléctrica del sonido, depende en gran parte de: EL METODO EN QUE SE HACE LA CONVERSION DE ENERGIA. En otras palabras, la calidad depende del tipo de micrófono, o sea la membrana que utilicemos. Históricamente ha habido muchísimos modos de captación del sonido, y hoy en día existen en el mercado una gran variedad de tipos de micrófonos y una gran parte de esta pueden ser usados en una misma situación. Los 6 tipos de micros que existen en la actualidad son: 1.
DINÁMICOS
2.
CONDENSADOR
3.
CONDENSADOR-ELECTRET
4.
CINTA
5.
CARBONO
6.
PIEZO-ELECTRICO
De estos 6 tipos de micrófonos, los más usados (más o menos el 95 % ) y los que tendréis más oídos son los dinámicos y los de condensador, de los cuales haremos una pequeña introducción.
Dinámico Es el tipo de micrófono más común y usado actualmente. Diremos que el micrófono dinámico es igual a un pequeño altavoz en miniatura, (ciertos elementos dinámicos son usados como ambas cosas: micrófonos y altavoces, p. ej. Intercoms).
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
19
Los micrófonos dinámicos son los más versátiles, ya que son los más duros contra los golpes, los que menos sonido ambiente recogen, ya que no son tan sensibles como los de condensador (por estas dos características son los reyes del directo), pero por otro lado se sacrifica la calidad que tendría uno de condensador. Los dinámicos se pueden utilizar en todas las aplicaciones, y así se hace ya sea en directo o en estudio, y por que no son los que mas usaremos en el "Home Studio" sin duda alguna, ya que seguro que nuestro Home studio no cuenta con un aislamiento acústico maravilloso y por ello son una buena opción , por el poco ruido ambiente que captan. Los dinámicos no son los mejores micros en cuanto a calidad, eso esta claro, ya que no hay comparación con los de condensador, pero son una buena opción calidad - precio.
Condensador Al igual que los dinámicos son los condensadores también son micrófonos muy comunes, su estructura es mas compleja que la del dinámico y esta construida de la siguiente manera: Un diafragma de plástico revestido con un pequeño baño de oro, montado sobre un metal conductivo, el diafragma y el metal están separados por una pequeña capa de aire y forman un componente eléctrico llamado capacitador o condensador, un voltaje polarizante de entre 9 y 48 v. es aplicado al diafragma por corriente externa cargándolo con un voltaje estático y fijo. Cuando el diafragma vibra en respuesta a algún sonido se mueve cerca de el metal posterior y cuando esto sucede la carga eléctrica que induce la placa de metal va cambiando proporcionalmente, el voltaje fluctuante del metal posterior es entonces una representación del movimiento del diafragma. Los elementos de un micrófono de condensador producen una señal de voltaje sin casi energía, por eso presentan una gran impedancia (ya que los elementos que forman la estructura de un micrófono de condensador, no representan apenas resistencia al sonido o si lo preferis a los cambios de presión en el aire), por eso todos los micrófonos de condensador incorporan un amplificador, el cual conduce el micrófono linealmente.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
20
Los condensadores más antiguos llevaban tubos amplificadores y por eso físicamente eran súper largos, (ahora se están empezando a usar tipo retro), los modernos son diferentes ya que usan amplificadores de transistores y pueden fabricarse mucho más pequeños (también los hay de tubo, muy usados actualmente, aunque uno de estos de calidad media alta nos será casi inalcanzable económicamente). La respuesta de un micrófono de condensador es generalmente excelente y son usados en casi todos los instrumentos en estudio, uno de los porqués es porque el diafragma de los micrófonos de condensador no esta construido en espiral (como los dinámicos), y eso les hace responder mas rápido y de forma más fina a cualquier sonido. En cuanto a calidad sonido losque condensadores los mejores hay grabación duda de ellocon y este será el tipo de micrófono que de tendremos comprar si son queremos hacernouna el mínimo de garantías eso esta claro, pero hay que tener en cuenta que son los mas susceptibles al ruido y ello hace que para el "Home Studio" no nos valla al 100% bien este tipo de micros ya que recoge casi todo el ruido ambiente que hay en nuestro estudio.
CONEXIONES En el campo del audio, una línea es un camino de ida y vuelta (circuito) que transporta la señal de audio desde un punto de srcen (equipo, dispositivo) a otro de llegada. Una línea indistintamente, sirve para enviar la señal o recibirla, dependiendo de lo que haya conectado al principio y al final de la misma. La línea siempre lleva la señal desde la salida (Out) de un equipo a la entrada de otro (In). Hay que tener en cuenta que si se conecta entrada con entrada o salida con salida la línea no transporta señal alguna. Al definir la línea como camino de ida y vuelta, queda establecido que la línea siempre está constituida por dos conductores, en los que la señal que parte de A, llega a B y termina su recorrido (cierra el circuito) nuevamente en A. No hay que confundir línea con cable. La línea sigue una ruta a través de cables, patch o conectores, etc. La línea forma parte del cable, no es el cable en sí: En las líneas no balanceadas, dentro del cable hay un conductor que transporta la señal de ida (conductor vivo o caliente), mientras que el cierre del Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
21
circuito (conductor de retorno o frío) se hace por la malla que recubre al anterior. Un caso típico de línea desequilibrada es la formada por un par coaxial. En las líneas balanceadas, dentro del cable hay dos conductores idénticos, uno para la ida y otro para el retorno. Casos típicos de líneas balanceadas son las constituidas mediante par simétrico o par
trenzado.
Tampoco hay que confundir línea de audio con canal de audio. Además del concepto retorno de la señal o más exactamente cierre del circuito que antes se ha definido, hay ciertas líneas especiales que reciben el nombre de retorno, pero ambas cosas aunque son conceptos próximos, no son sinónimos. El retorno es una línea propiamente dicha a través de la cual el equipo devuelve, hacia el punto de srcen, la señal tras ser procesada. Por ejemplo... este concepto se usa mucho en radio, donde el locutor escucha lo que sale de la propia mesa (lo que sale al aire tal como sale) a través de los cascos. La línea no balanceada también es conocida como línea no equilibrada. Se trata de una línea de audio en la que el retorno de la señal (señal retorno o frío) se produce a través de la malla exterior que cubre el conductor de ida (señal vivo o caliente), protegiéndolo contra interferencias electromagnéticas externas, aunque no las elimina completamente. Las líneas no equilibradas terminan normalmente con conectores RCA, DIN o JACK. Normalmente, las líneas no balanceadas no se utilizan para el audio profesional, porque cuando se requiere longitud de cable, el efecto acumulativo de las interferencias puede producir tal nivel de distorsión que el sonido final sea inemitible por su pésima calidad. Otro problema con una longitud de cable grande es que se puede formar el llamado bucle de tierra. Este efecto se puede producir en las líneas no balanceadas porque la malla exterior del cable está conectada a tierra en ambos extremos. La resistencia del conductor que constituye la línea, normalmente, no supone un problema, porque es unas 100 veces inferior a la impedancia del equipo al que está conectado. Lo habitual es que los fabricantes de cable faciliten el valor de la resistencia para corriente continua de un metro de cable. Un valor estandarizado de resistencia de cable es 0,012 ohmios para 5 metros. La resistencia del cable sólo puede ser vital cuando se trata de altavoces, donde las impedancias 1 habituales son 4, 8 y 15 ohmios. Por ello, los altavoces requieren cables de mucha sección, con resistencias sensiblemente inferiores (del orden de 0,04-0,08 ") para evitar que se pierda una parte considerable de la potencia antes de que la señal alcance el altavoz. Un caso típico de línea desequilibrada es la formada por un par coaxial. El término línea balanceada es un anglicismo derivado de Balance, (que significa Equilibrio), por ello también se le conoce como línea equilibrada. Las líneas son equilibradas mediante transformadores o electrónicamente.
1 La impedancia (Z) es la medida de oposición que presenta un circuito a una corriente cuando se aplica un voltaje. La impedancia extiende el concepto de resistencia a los circuitos de corriente alterna (CA), y posee tanto en magnitud y fase, a diferencia de la resistencia, que sólo tiene magnitud. Cuando un circuito es accionado con corriente continua (CC), no hay distinción entre la impedancia y la resistencia; este último puede ser pensado como la impedancia con ángulo de fase cero.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
22
En una línea equilibrada tanto el camino de ida (señal vivo o caliente) como el retorno (señal retorno o frío) lo forman conductores idénticos independientes que van cubiertos por la malla del cable, por lo que la pantalla no forma parte del circuito de audio. Con esta disposición, se logra mejorar la respuesta ante las interferencias que ofrece la línea no balanceada de audio. La diferencia entre ambas es considerable, pudiendo llegar a los 80 dB (más cuando se trata de líneas microfónicas de alta calidad). Dicha mejora se fundamenta en que si una interferencia logra atravesar la malla, inducirá una corriente (o ruido) de la misma magnitud en ambos conductores de la línea, pero como esta corriente inducida circula por los dos conductores en el mismo sentido, cuando se encuentran en el extremo receptor, se anulan mutuamente. A este tipo de interferencia se la conoce como señal de modo común. Precisamente, en muchas especificaciones aparece como dato el CMRR que es la relación de rechazo del modo común (CMR) y como ha quedado dicho, su valor debe ser, al menos, de 80 dB. Esta buena respuesta ante el ataque de interferencias es la razón por la que las líneas balanceadas se utilizan en el campo profesional. Casos típicos de líneas balanceadas son las constituidas mediante par simétrico o par trenzado Los cables de pares simétricos son utilizados en la transmisión de señales telefónicas y los distintos tipos, según la aplicación son: Cables de acometida Cables terminales Cables de distribución Cables de enlace Cables de interiores de abonado
Las partes fundamentales de un cable de par simétrico usados en las redes telefónicas públicas son: Conductor. Usualmente son de cobre obtenido por procedimientos electrolíticos y luego recocido. El calibre del conductor es proporcional a la distancia a enlazar, siendo los calibres usuales en España 0,405, 0,51, 0,64 y 0,91 mm. Aislamiento: Salvo en los antiguos cables que era de papel, la capa de aislamiento es fabricada con un polímero para evitar la exposición del conductor al medio ambiente y que la señal se disperse. Las características importantes de la capa aislante son: Alta capacidad de aislamiento eléctrico Excelente procesabilidad Buenas propiedades mecánicas Alta resistencia al envejecimiento térmico. Formación de pares y núcleo. El paso de pareado (longitud de la torsión) es diferente para reducir desequilibrios de capacidad y por tanto la diafonía entre pares, los pares a su vez se cablean entre sí para formar capas concéntricas. En algunos casos, los intersticios existentes entre los hilos se rellenan con petrolato, de forma que se evite la entrada de humedad, o incluso de agua, en caso de producirse alguna fisura en la cubierta del cable. Capa envolvente Pantalla Cubierta negra. Usualmente constituida de capas de aluminio y polietileno, la cubierta negra proporciona soporte mecánico al núcleo. Un Cable de par trenzado es uno de los tipos de cables de pares compuesto por hilos, normalmente de cobre, trenzados entre sí. Hay cables de 2, 4, 25 o 100 pares de hilos e incluso de más. El trenzado Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 23
mantiene estable las propiedades eléctricas a lo largo de toda la longitud del cable y reduce las interferencias creadas por los hilos adyacentes en los cables compuestos por varios pares. Aún teniendo trenzado a veces es necesario apantallar estos cables con un recubrimiento metálico o incluso apantallar cada par trenzado dentro del cable completo para evitar interferencias entre estos. Definimos 3 tipos básicos de pares trenzados según su recubrimiento: UTP: (Unshielded Twisted Pair) Sin ningún tipo de recubrimiento metálico. STP: (Shielded Twisted Pair) Recubrimiento metálico alrededor del cable completo. S/STP: (Screened STP) Recubrimiento metálico alrededor de cada par trenzado y del cable completo.
Canon XLR
El XLR-3 o canon es un tipo de conector balanceado. De hecho, es el conector balanceado más utilizado para aplicaciones de audio profesional, y también es usado por algunas marcas fabricantes de equipos de iluminación espectacular, para transmitir la señal digital de control "DMX". Su apodo canon, por el que es más conocido en España se debe a que los primeros que se usaron en este país, estaban fabricados por la marca ITT/CANON, y llevaban "canon" grabado en el chasis.
XLR son las siglas en inglés de Xternal Live Return; en español, Externo Vivo Retorno. El 3 indica que dispone de 3 pines, ya que posteriormente a su aceptación como estándar se introdujeron los conectores de 4,5,6,7 y 8 pines. Cuenta con tres patillas y su conexión habitual en Europa para señales de audio es la siguiente: para la pantalla o malla. para la señal de ida, conocida como vivo o caliente para la señal de vuelta, conocida como retorno o frío. En los EEUU y en UK hasta hace pocos años se utilizaba con las señales de los pines 2 y 3 invertidas, por lo que es importante conocer el estándar utilizado por los equipos que queremos conectar para no cruzar las señales e invertir su fase.
Conector RCA Conectores RCA de audio Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
24
El conector RCA es un tipo de conector eléctrico común en el mercado audiovisual. El nombre "RCA" deriva de la Radio Corporation of America, que introdujo el diseño en los 1940. En muchas áreas ha sustituido al conector típico de audio (jack), muy usado desde que los reproductores de casete se hicieron populares, en los años 1970. Ahora se encuentra en la mayoría de televisores y en otros equipos, como grabadores de vídeo o DVDs. El conector macho tiene un polo en el centro (+), rodeado de un pequeño anillo metálico (-) (a veces con ranuras), que sobresale. El conector hembra tiene como polo central un agujero cubierto por otro aro de metal, más pequeño que el del macho para que éste se sujete sin problemas. Ambos conectores (macho y hembra) tienen una parte intermedia de plástico, que hace de dieléctrico.
Un problema del sistema RCA es que cada señal necesita su propio cable. Otros tipos de conectores son combinados, como el euroconector (SCART), usado exclusivamente en Europa. La señal de los RCA no es balanceada por lo que corresponde generalmente a -10dBu. Esto hace que no se utilicen profesionalmente.
Conector Jack De izquierda a derecha: mono de 2,5 mm.;mono y estéreo de 3,5 mm.; estéreo de 6,3 mm.
El conector Jack esanalógico. un conector de audio utilizado en numerosos dispositivos para la transmisión de sonido en formato Hay conectores Jack de varios diámetros: 2.5mm, 3.5mm y 6.35mm. Los más usados son los de 3.5mm, también llamados minijack; son los que se utilizan en dispositivos portátiles, como los mp3, para la salida de los cascos. El de 2.5mm es menos utilizado, pero se utiliza también en dispositivos pequeños. El de 6.35mm se utiliza sobre todo en audio profesional e instrumentos musicales eléctricos. Un Jack de audio puede llevar dos canales de audio por separado, por lo que es un conector estéreo, o bien uno sólo mono. El Jack estéreo lleva tres pines para soldar y por tanto tres divisiones metálicas en Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 25
su cuerpo, una para cada canal y una más que sería la masa o malla. El jack de tres pines también puede mandar una señal mono balanceada al igual que los Bantham. El jack mono lleva dos pines y por tanto, dos divisiones metálicas en su cuerpo. En los Jacks stereo el extremo (tip) se considera siempre el canal izquierdo (L), el anillo (ring) se considera el canal derecho (R), y la base es siempre masa (GND -de GrouND-). Existen Jacks de 4 vías, usados para aplicaciones de audio-vídeo. Las tarjetas de sonido de los ordenadores comunes utilizan este tipo de conectores, siempre de tipo hembra, al que hay que conectar los altavoces u otros dispositivos por medio de un conector macho Jack de 3.5mm de diámetro. En el caso de los ordenadores, como tienen varios conectores de este tipo, se utiliza un código de colores para distinguirlos: # Verde: Salida de línea estéreo para conectar altavoces o cascos. # Azul: Entrada de línea estéreo, para capturar sonido de cualquier fuente, excepto micrófonos. # Rosa: Entrada de audio mono, para conectar un micrófono.
Los ordenadores dotados de sistema de sonido envolvente usan además estas conexiones: 1.
#
Gris: Salida de línea para conectar los altavoces delanteros.
2.
#
Negro: Salida de línea para conectar los altavoces traseros
3.
#
Calabaza: Salida de línea para conectar el altavoz central o el subwoofer (subgrave).
PREVIOS Un preamplificador es un tipo de amplificador electrónico utilizado en la cadena de audio, durante la reproducción del sonido. Como en todo amplificador, la finalidad de un preamplificador es aumentar el nivel de la señal y, para ello, actúa sobre la tensión de la señal de entrada. Cuando las señales salgan del preamplificador, habrán alcanzado el nivel de línea, estandarizado en los 0dB. El preamplificador se encarga de nivelar la tensión eléctrica que le llega de las distintas fuentes de audio (cada equipo tiene una tensión de salida diferentes), para luego, una vez igualadas, enviarlas, como señal de entrada, a otro equipo (generalmente, una etapa de potencia). La relación entre nivel de salida y de entrada es la ganancia. Así, la ganancia, expresada en decibelios, indica el grado de amplificación de una señal. Algunos equipos preamplificados poseen controles que les permiten, además de regular la tensión de salida, regular el tono, el balance, etc. Además de reforzar la sonoridad con bajo volumen (loudness). A pesar de lo dicho, normalmente, los equipos para audiófilos (Persona interesada en la tecnología relativa a la reproducción fiel del sonido) no incluyen ninguno de estos controles, pues pueden distorsionar la señal srcinal. Estas actuaciones se pueden realizar, sin introducir pérdidas en la señal durante el proceso, más adelante, en la etapa de potencia, en la mesa de mezclas o, incluso, en el altavoz.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
26
EL AUDIO DIGITAL
Podríamos definir audio digital como la representación de una señal de audio mediante números, en general codificados en forma binaria (es decir con ceros y unos, el lenguaje interno de los ordenadores). Entendemos como señal de audio cualquier objeto sonoro audible. Cualquier sonido puede representarse en números, al igual que cualquier imagen o gráfico. En términos menos genéricos, también podemos llamar audio digital a la tecnología que permite grabar, editar, mezclar y masterizar una señal de audio completamente en el dominio digital. Para ello existe unque amplio surtido de aparatos y equipos procesan la"tratable" señal de audio el dominioesdigital, dominio ofrece muchas más ventajas ya queque es totalmente por unenordenador, decir, permite un grado de manipulación sin precedentes.
Introducción Para la gran industria de la música, el audio digital nació de una necesidad muy concreta; ahorrar tiempo de producción. Antes del audio digital, el método de grabación era lo que hoy en día se conoce como grabación analógica, los impulsos del sonido se registraban en una bobina o cinta. La edición de esa bobina era un proceso muy largo y tedioso, en el que la precisión y paciencia eran algo obligado. Por otro lado, obtener un buen equipo analógico era algo realmente caro. Hablando de creatividad de mezclas y producción de audio, los procesos que podían aplicarse eran muy limitados comparados con los de hoy en día. Por poner un ejemplo, si se requería una reverberación concreta el músico debía registrar su interpretación en la sala que producía esa reverberación. La introducción del audio digital ha revolucionado, sin duda alguna, toda la industria de la música, las empresas que construyen instrumentos, los creadores o músicos, los procedimientos de edición y mezcla, y desde luego el soporte; es decir lo que nosotros oímos en casa: un CD de audio o los tan famosos MP3. La tecnología del audio digital ha dado lugar a toda una nueva legión de instrumentos musicales que prometen un grado de libertad de creación de sonidos sin precedentes (solo superada por al síntesis virtual). Estos nuevos instrumentos han propiciado la existencia d nuevos estilos musicales que dependen en gran parte de esa tecnología. El músico tradicional ha tenido que adaptarse a esos cambios. Cuando nacieron los primeros instrumentos digitales los músicos eran reacios a utilizarlos (el sintetizador el instrumento musical con más rechazo de toda la historia). Muchos pensaban que eran máquinas malditas que pretendían sustituir o imitar instrumentos tradicionales. No les faltaba parte de razón. El audio digital son fotografías digitales de sonido, por lo que no hacia falta tratar de imitar un piano, ya que tenemos la foto del sonido de un piano. La primera consecuencia fue la drástica reducción de costes de grabación. Para grabar un piano hacen falta micrófonos. Los micrófonos deben situarse correctamente según el ambiente y color que pretendemos dar a ese piano. Eso representa horas de pruebas y corrección de pequeñas imperfecciones porde el solapamiento de las señales los micros. Si utilizamos instrumento digital con unproducidas buen sonido piano, sólo requerimos dos de cables, izquierdo y derechouny siempre sonará igual de bien sea cual sea el entorno acústico. Aunque los primeros instrumentos digitales eran muy caros, hoy en cualquier ordenador incluye un instrumento digital, la tarjeta de sonido, que es muy limitada en comparación con los grandes sintetizadores de la industria , pero extremadamente más avanzada que los primeros instrumento digitales. En el entorno del estudio de grabación, el audio digital también ha supuesto un importante avance. Ya no hace falta guardar celosamente las bobinas master (para que el paso del tiempo no las merme) el audio digital es indestructible, sólo puede destruirse deteriorando el medio en el que se almacena; un CD, un disco duro, etc.... También han desaparecido los tediosos procesos de cortar y pegar (hechos Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
27
literalmente con tijeras y cola). Ahora existe la edición no lineal que como veremos más adelante puede ser destructiva o no. La ambientación de la mezcla ha pasado a ser una realidad palpable. Donde antes existían habitaciones enormes con paredes móviles para recrear reverberaciones, ahora existen pequeños equipos de no más de 5kg que incluyen ambientes de salas y halls famosos; podríamos cantar con el ambiente de en la opera de Sydney, aunque eso sólo existirá en nuestro cerebro, ya que en realidad estaríamos solos delante de un ordenador. Existen otros detalles menores, como el hecho de que por primera vez el músico puede grabar parte de su música en casa y luego seguir en un estudio, transfiriendo digitalmente las pistas. Esto ofrece una libertad de mezclas y producción de audio increíbles: un usuario sin recursos puede acudir a un estudio y seguir editando sin perder la calidad srcinal. Por último, tenemos el soporte digital, es decir el medio en el que recibimos el producto musical acabado. Donde ante teníamos los discos de vinilo o las cintas de cassette, ahora tenemos el CD / DVD y el minidisc. Desde el punto de vista de fiabilidad, estos soportes no fallan (¿cuantas veces se nos ha enganchado una cinta en el cabezal?) y físicamente son más duros y compactos, para que dejen de funcionar hay que destruir el medio, no basta con una rayada. Soporte digital y analógico Las diferencias más importantes entre el soporte analógico y el digital son: Soporte Analógico Degradable: Cuantas más veces se usa, mayor degradación se obtiene. Los datos se almacenan físicamente sobre un sustrato que es mucho más alterable con el paso del tiempo. Lineal:deElejecución, audio se graba secuencialmente orden de principio a fin. en el tiempo y con el mismo Calidad de audio: La calidad de un sistema de grabación analógico resulta inferior a la mínima calidad de audio ofrecida por un sistema digital. En la práctica, un sistema analógico rara vez supera los 70dB de relación señal ruido (SNR). Un grabador profesional analógico puede alcanzar los 85dB SNR. Por otro lado, deberíamos evitar una sensación de triunfalismo absoluto del audio digital frente al analógico. Un buen técnico de sonido puede lograr que una canción suene increíblemente bien en sistemas analógicos, de hecho tenemos toda la industria de la música para demostrarlo. Aunque el medio analógico sufre muchos problemas de calidad e inestabilidad, los grandes profesionales de producción saben como solucionar estos problemas. ¿Qué problemas? Por ejemplo, la diafonía e imperfecciones de la mecánica. Los distintos canales de una grabadora analógica suelen mezclarse, es decir, parte de la señal de un canal también se percibe en otro canal. El propio medio analógico provoca que parte de la señal de un canal se "cuele" en el otro canal. Un método para evitar este problema consiste en utilizar cintas más anchas, en las que las pistas ocupan más espacio físico. Por otro lado, las imperfecciones de la mecánica empleada para la reproducción sonora dan lugar a problemas de wow, flutter, tremolo, etc. Otras notables diferencias son la separación entre los canales izquierdo y derecho, la relación entre la señal y el ruido de fondo, la linealidad de la respuesta en frecuencias y de fase, la relación entre el nivel más bajo y el más alto. Edición destructiva: La edición de las grabaciones de audio en el mundo analógico es totalmente destructiva. La edición en el mundo analógico es siempre destructiva e incluso a veces se destruye parte del propio medio en el que reside la grabación, la cinta o bobina (en operaciones de copia en las que se requiere cortar físicamente la cinta). Por otro lado, el tiempo invertido en la edición es extremadamente elevado así como los costes en términos el precio en términos de pruebas fallidas y errores humanos. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 28
Soporte Digital No degradable: Una grabación de audio digital es una cadena gigante de 0 y 1 perfectamente ordenados. Es imposible que "el paso del tiempo" convierte un 0 a un 1, es decir que pueda alterar esa cadena. Como mucho, es posible que una mala manipulación del soporte (por ejemplo el CD) provoque que durante un instante aparezcan artefactos o ruidos que srcinalmente no estaban. Lo que nunca ocurrirá es que el audio de ese soporte digital vaya apagándose , perdiendo brillo con el paso del tiempo. La durabilidad de los datos es eterna, puesto que pueden ser almacenados en cualquier dispositivo de almacenamiento, como puede ser un disco duro, una memoria, etc., y recuperados en cualquier momento Lineal / No-lineal (acceso aleatorio): Si en el mundo analógico el tiempo es algo fijo e invariable (una obra se registra deestá principio en elanalógica mundo digital noen tiene ser así. llamado DAT que basadoa fin) en cinta aunque ellaporque se registran 0 yExiste 1 comoununsoporte en CDdigital pero con una calidad superior a éste. En este caso, la grabación y reproducción es lineal. Considerando el disco duro de nuestro ordenador como soporte digital (archivos wav, aiff o MP3) llegamos a la inequívoca conclusión de que es un soporte no lineal. Los 0 y 1 de las canciones que registramos se almacenan por todo el disco duro sin orden alguno. El acceso a cualquier parte de esta canción (una vez grabada) es instantáneo, no hay tiempo de espera, dicho de otra forma, se tarda tanto en reproducir desde el inicio de la obra como, en mitad de ella: apenas unos milisegundos. Calidad de audio: La calidad de audio del soporte digital, es mayor que la del analógico. La respuesta de frecuencias, es decir el espectro de frecuencias que el grabador digital es capaz de grabar es mucho mayor que el analógico, aunque en el caso del mundo digital la teoría y la práctica siguen caminos que pueden ser muy distintos, es decir, la calidad teórica de un sistema de audio a 24 bits es superior a la calidad que ofrece en la realidad, aunque esta realidad mermada es muy superior a la analógica; sea como sea, el audio digital siempre puede tener más calidad que el analógico. Diafonía imperceptible o casi nula: En los grabadores de audio digital, nunca ocurrirá que monitorizando una pista aislada podamossus oírpropias parte decadenas la señalgigantes de sus pistas Cada que pistaelde ese grabador digital registra y reproduce de 0adyacentes. y 1. Es imposible ordenador se equivoque y sume 0 y 1 de distintas pistas. Edición no destructiva: El último aspecto es quizás el mas interesante dentro de la vertiente creativa del sonido. Por primera vez es posible crear audio. La música siempre ha tenido efectos como reverberación, retardos, distorsiones y ecualización, pero por primera vez estamos ante el nacimiento de nuevos efectos de indescriptibles resultados. El procesado de estos efectos puede ser destructivo, es decir alterando la grabación srcinal (los 0 y 1) son manipulados y alterados o bien no destructiva en el que los cálculos se realizan a tiempo real, es decir, "mientras el audio suena". En este caso el archivo srcinal se mantiene intacto.
Formatos digitales Debes saber que no hay límites, ni siquiera pienses que la calidad de tus composiciones tiene que ser inferior a la que obtendrían unos músicos profesionales. Pero para todo esto es necesario conocer bien las herramientas de las que vas a disponer y saber cómo aplicarlas en cada momento, y en esto se centrará éste y los próximos artículos. Presentamos el MIDI y el audio digital, dos de las tecnologías más utilizadas para hacer música por ordenador y vemos su funcionamiento básico y algunas diferencias entre ambas. Existe una curiosa analogía entre el mundo del sonido y el de la imagen por ordenador. Un ordenador es capaz de trabajar, básicamente, con dos tipos de gráficos: gráficos vectoriales, como los generados por CorelDraw o FreeHand y gráficos rasterizados o de mapa de bits, como las fotografías generadas con AdobePhotoshop. Para simplificar la explicación, supondremos que trabajamos de imágenes en rojo y negro (sólo dos colores). Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
29
El funcionamiento del gráfico vectorial se basa en definir puntos en el plano mediante coordenadas y acciones. Para dibujar un triángulo, bastaría con definir las coordenadas de los tres vértices y aplicar la acción de unirlos por una línea.
En el caso de el gráfico de mapa de bits se tiene una matriz o rejilla de píxels y se indica, para cada uno de ellos, si está coloreado o no.
Comparemos ahora el espacio de cada imagen. La vectorial necesitará unos pocos bytes, los suficientes para almacenar tres coordenadas y tres líneas. En cambio la de mapa de bits tendrá que almacenar todos y cada uno de los pixels o huecos de la rejilla que conforman el triángulo. Como este gráfico es de unas dimensiones de 9x5 píxels tendrá que almacenar 45 píxels. Si queremos doblar el tamaño del tiangulo, el gráfico sería de 18x10 y tendría que almacenar 180 bytes. En cambio, en el caso del gráfico vectorial, el tamaño siempre será constante (sólo cambiará el valor de las coordenadas).
¡Ya sé que las imágenes no suenan! así que volvamos a nuestro mundo musical.
El gráfico vectorial define puntos y acciones como dibujar línea; el MIDI define instantes de tiempo y eventos, como tocar una nota o cambiar instrumento. De este modo, podría crear un evento Toca_nota Do en el segundo 1 y Toca_nota Re y Sol dos segundos después y cada uno de estos eventos es independiente del resto. ¡Tranquilo, que no es así como se compone! Después veremos que hay varias formas de representar esta información. En cambio, el audio digitalizado define (va “dibujando”) una señal dentro de una rejilla conforme avanza el tiempo. Por ejemplo, un solo segundo de una señal digitalizada con calidad de CD (44KHz, 16bits/muestra) sería una rejilla de 44.000 columnas y 65536 (216) filas, y por cada columna sólo una casilla puede estar coloreada, ya que una señal debe tener un valor único a cada instante de tiempo. Basta este ejemplo para darse cuenta de que trabajar con audio digitalizado va a requerir un equipo más potente y con más espacio, a priori, que trabajar con ficheros MIDI. Profundizaré en este tema más adelante, en la sección dedicada al audio digital.
Bien, continuemos en nuestro mundo de imágenes y sonidos. Imagina ahora que queremos modificar uno de los vértices del triángulo del ejemplo anterior y estirarlo hacia arriba, por ejemplo. ¡Qué sencillo será hacer esto con el gráfico vectorial! No tendremos más que modificar las coordenadas del vertice deseado y listo. Veamos ahora que pasaría con la imagen de mapa de bits. Tendríamos que borrar todas las líneas afectadas y redibujarlas de nuevo con los nuevos datos. Como puedes ver, este método es menos flexible a la hora de editar los datos.
Una vez más, en el sonido ocurre lo mismo. El MIDI permite, por ejemplo, definir el valor de una nota y el instante en el que empieza. Cambiar estos valores no repercute en absoluto en el resto de la canción, mientras que si nosotros grabamos con un micrófono una melodía mezclada con otro sonido va a ser mucho más costoso cambiar una de sus notas a otra y, en algunos casos, puede ser tarea imposible. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 30
Es posible que te estés preguntando “entonces, ¿es mejor el MIDI que el audio digitalizado?” Pues no exactamente. Veremos cuando conviene usar cada una de estas tecnologías y que cada una de ellas tiene sus ventajas e inconvenientes. Y ahora, un último experimento con imágenes. Tenemos un triángulo en una imagen vectorial y en una imagen de mapa de bits. Proporcionamos los datos de la imagen vectorial a varias personas para que lo dibujen. ¿Qué va a ocurrir? Ocurrirá que aquellas personas con más destreza o con mejor mano para el dibujo harán una representación de los datos mejor que las otras, aunque seguramente en todos los dibujos reconoceremos el triángulo que les hemos entregado.
El MIDI es al gráfico vectorial lo que el audio al gráfico de mapa de bits. La representación gráfica necesita dimensiones en el espacio y la representación sonora, dimensiones en el tiempo. Ahora repetimos el experimento, pero en vez de darles las coordenadas les entregamos una cuadrícula en el que está indicado qué rectángulos han de colorearse y cuáles no. Parece evidente que en este caso todos los dibujos serán (casi) exactamente iguales, ya que lo único que han de hacer es colorear o no por completo cierto número de cuadraditos. Una vez más, veamos qué sentido tiene esto en el MIDI y en el audio digitalizado. El MIDI, como ya hemos dicho, permite definir eventos como “Toca nota” o “Cambia instrumento”. Pero, cuando el MIDI dice “Toca nota DO con instrumento Piano”, ¿quién interpreta ésta orden? Pues bien, esta órden la recibirá una tarjeta de sonido, un teclado MIDI o cualquier otro dispositivo MIDI y usará su propio banco de instrumentos. Esto quiere decir que la misma obra MIDI interpretada por dos tarjetas de sonido diferentes no tiene por qué usar los mismos sonidos. De este modo, si componemos una obra a piano con nuestro ordenador es posible que cuando se la enseñemos a un amigo en su ordenador no suene exactamente igual, aunque sí identificaremos la melodía de nuestra composición (tal como ocurría con los triángulos.) El hecho de que una obra MIDI no lleve implícitos los instrumentos que hemos usado al componerla ¿debe entenderse como una ventaja o como un inconveniente? La respuesta no es, en absoluto, evidente. En el próximo apartado dedicado al MIDI veremos cómo aprovechar esta característica y como solucionar los posibles problemas que puedan surgir. En cuanto al audio digitalizado, podemos entenderlo como una representación digital de una señal de audio. Para reproducir una señal de audio digital (por ejemplo un CD de audio o un fichero WAV o AIFF) es necesario lo que se conoce como un “Convertidor Digital-Analógico” o DAC, presente en tarjetas de sonido, lectores de CD, etc. Este DAC convierte una señal digitalizada en ondas analógicas que, una vez amplificadas, serán capaces de hacer vibrar la membrana de un altavoz. Existen DACs que hacen esta conversión con mejor por o peor No voy a decir que todos los DACs de suenan igual, de hecho ¿nunca te has preguntado quécalidad. valen muchisimo más unos reproductores CD que otros? A parte de otros factores como el juego de lentes, la marca, etc., la calidad del DAC es un punto decisivo en la bondad de la reproducción final. Aunque esta diferencia de calidades sólo se percibirá si tanto la grabación como el equipo completo (amplificador, ecualizador y altavoces) es tan exigente como el propio DAC. Todo esto viene para concluir que el audio digitalizado tiene implícita la información del sonido y que no depende en ningún modo de los instrumentos del aparato reproductor (ejem, reproductor de sonido, se sobreentiende) como ocurría en el MIDI. De hecho, ni siquiera diferenciará si la información que tiene es de una guitarra, un piano, una voz humana o todo junto a la vez. Simplemente Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
31
convertirá una señal digital a analógica. Y cuando grabes tu primer MP3 o tu primer CD esperarás que las obras suenen lo más parecido a como tú los compusiste, tanto si el que los escucha lo está haciendo desde un CD portátil o desde un Bang & Olufsen. Y para esto, sin duda, deberás recurrir a esta técnica. En el apartado dedicado al audio digital veremos en qué ocasiones conviene usar esta tecnología para hacer tus composiciones y hablaremos de ese gran aliado que tiene, que son los filtros y efectos.
Frecuencia de muestreo El proceso de captura de audio a soporte digital se conoce como "muestreo" (sampling, en el ámbito de los DJ). Esta operación de codificación del audio analógico a 0, 1 tiene lugar a tiempo real, es decir tanto en sistemas mientras la señal de dedicados audio analógico como en(audio las tarjetas "real") de sonido se reproduce. populares, En los existe grabadores un componente de audiollamado digital, conversor AD (analógico-digital, es decir el componente que se encarga de convertir señales eléctricas a cadenas binarias). El proceso inverso, es decir la reproducción utiliza un conversor DA (digitalanalógico). El conversor aplica una "rejilla" de tiempo al audio y captura el audio comprendido en las casillas de la rejilla. Podemos utilizar un ejemplo muy sencillo. Si queremos grabar un atleta que corre durante" x" metros en una pista olímpica, necesitamos una cámara que corra junto a éste (imagina la clásica cámara montada en raíles). Esta cámara capturará 25 fotos (frames, en el argot) por segundo. ¿25 y no 98 o 4.7? 25 fotos por segundo es más que suficiente para engañar al ojo humano y hacerle creer que esta sucesión de fotos es un movimiento real de un señor corriendo. Para capturar el audio de ese corredor necesitamos un micrófono y un grabador de audio que "fotografíe" el sonido. Para engañar al oído, necesitamos más de 25 fotos por segundo, bastantes más...44.100 fotos por segundo, para ser exactos. En el mundo del audio no se utiliza la expresión fotos por segundo, sino que se habla de la Frecuencia de Muestreo. Una frecuencia de muestreo de 44.100 se conoce como 44.1 kHz (Kilo Hercios). Esta frecuencia de muestreo permitiría no diferenciar la fuente un sonido que se produce en la habitación de al lado, oiríamos un señor hablando y nofuera sabríamos si es o una grabación queese se señor está tendría reproduciendo. Si laafrecuencia de muestreo menor, porreal ejemplo 22.050 kHz, una voz muy opaca, como si hablase con una mano tapándose la boca. Nos parecería muy raro, no seria una voz natural. ¡No podrían engañarnos! Existe una relación matemática que relaciona la frecuencia máxima registrable (es decir, hasta qué frecuencia podremos grabar) en función de la frecuencia de muestreo. Estamos hablando del teorema de Nyquist y básicamente nos dice que si queremos grabar una señal de audio que llega hasta "x" frecuencia, debemos utilizar una frecuencia de muestreo mínima de "2x", es decir el doble de la frecuencia más alta srcinada en la señal que deseamos grabar. Por ejemplo, si queremos grabar una señal de audio que llega hasta los 20 KHz, Nyquist nos dice que necesitamos una frecuencia de muestreo mayor o igual a 40kHz. Todos los CD del mercado reproducen audio con una frecuencia de muestreo de 44.1kHz, es decir, pueden reproducir perfectamente señales de audio con frecuencias de hasta 22050Hz (que es justamente el límite de frecuencias teórico que podemos oír los humanos; los elefantes poseen un limite inferior por debajo de los 10Hz y las hormigas mayor a 22kHz). La radio digital emplea una frecuencia de muestreo de 32kHz (hasta los 16000Hz) frente a los 96kHz del estándar DVD (hasta los 48000Hz). Por lo tanto...
Según Nyquist, es posible repetir con exactitud una señal de audio si la frecuencia de muestreo es como mínimo el doble de la frecuencia de la componente de mayor frecuencia.
Resolución de Bits Ya sabemos que necesitamos tomar 44100 "fotos" del sonido por segundo, pero ¿estas fotos cómo se almacenan?. En forma de bits, cadenas de 0 y 1 totalmente manejables por el ordenador. La cantidad de bits que se utilizan para representar la muestra del audio es la resolución de la muestra. Una resolución de 8 bits (1 byte) permite manejar valores de entre 0 a 255 (256 valores). Dicho de otra forma, para representar una señal máxima de 255 necesitaré 8 dígitos binarios (0 o 1) y en este Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 32
ejemplo, 255 es 1111111 en binario (8 dígitos 1). Una palabra de 16 bits (2 bytes) maneja un valor máximo de 65535 (65536 si contamos el 0 como valor), 1111111111111111=65535. De esta forma, cada uno de las 44100 capturas realizadas contienen un valor codificado en "x" bits. Cuanto mayor sea la resolución, más calidad tendrá la grabación. Tanto la frecuencia de muestreo como la resolución tienen incidencia directa en la calidad de la grabación y reproducción de audio digital. La resolución, por su parte, también tiene incidencia directa en el rango dinámico o relación señal-ruido de la grabación (abreviada S/R o S/N en inglés y se mide en dB o decibelios). Existe una relación que indica que esta relación S/N es igual al resultado de multiplicar la resolución de bits por 6. Una grabación a 8 bits posee una relación S/N de 54dB, una de 16 bits 96dB y 144dB a 24 bits. Tengamos en cuenta que estos dB son valores teóricos y que en la práctica bajan sustancialmente debido a los componentes analógicos de los grabadores tarjetas de sondo, etc... Lo normal es que un grabador a 16 bits alcance los 90-92dB y lo extraordinario es que efectivamente nos entregue una S/N de 96dB. Para nosotros, los humanos, un rango dinámico de entre 90 y 100dB es suficiente. Estas cifras salen del propio rango dinámico humano, la diferencia entre el umbral de dolor y el umbral de audición...
Rango dinámico/Relación señal-ruido La relación señal ruido (S/N) es la diferencia entre el nivel de señal útil (música, sonido, etc...) y el nivel de ruido (ruido provocado por señales eléctricas en el interior de un equipo electrónico). El ruido se mide sin ninguna señal a la entrada del equipo. Para calcular este valor se toman mediciones del nivel de señal cuando se captura o se reproduce audio y se restan de las mediciones al mismo nivel sin señalesalguna en las entre que puede apreciarse el ruido inherente Dicho de otra forma, la diferencia el nivel de la señal nominal y el niveldeldepropio la señalaparato. residual, al mismo nivel de trabajo. Una prueba muy sencilla, al escuchar música en tu mini-cadena hi-fi, sube el volumen al máximo (en modo stop) y comprobarás como el ruido
Existe una relación matemática entre los bits y la relación señal-ruido o rango dinámico: S/N = 6x(resolución de bits) residual aumenta ¿te gusta?. Si con el volumen máximo pulsases el "play", el audio se reproduciría a su máximo volumen, la diferencia de volumen entre ese audio "a tope" y ese ruido residual es la S/N. Cuanto mayor sea la diferencia de volumen entre la señal útil y el ruido, mayor calidad tendrá el mismo. Técnicamente la señal se mide en voltios y para pasar a dB se calcula Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
33
el 20!log(S/N) donde S es el valor de la "Señal" y N el valor del "Ruido" o "Noise", en inglés. Cuanto mayor sea el valor de S/N mayor calidad tendrá el audio. Ahora planteémonos un problema muy interesante. El hombre, como especie animal, tiene una limitación en su oído; no podemos oír toda la gran gama de frecuencias generadas en la naturaleza (o por medios artificiales, como esos antiguos mandos a distancia por ultra-sonidos). A partir de las frecuencias cercanas a los 20.000Hz, el silencio penetra en nuestro oídos. ¿Qué puede ocurrir si registro una señal de audio con un sonido que va más allá del umbral humano? Imaginemos que estamos grabando audio con una frecuencia de muestreo de 44.1kHz y en ese audio se reproducen frecuencias cercanas a los 29.000Hz (que naturalmente no podemos oír). Nuestra grabación registrará todas las frecuencias hasta los 22.050Hz pero aparecerá un ruido de 15.1Hz (44.1kHz-29kHz), algonombre totalmente que en el srcinal no existía. EstasPara frecuencias llaman "alias", dando a unaaudible distorsión conocida como "aliasing". prevenir fantasma esto, tantose los sistemas de grabación de audio como las tarjetas de sido incluyen un filtro "anti- alisasing" que no permite la entrada de frecuencias superiores a la mitad de la frecuencia de muestro; estamos hablando otra vez de Nyquist. INTERFACE
EL PC u ORDENADOR PERSONAL Desde hace varios años el PC (Personal Computer – Computadora Personal), conocido como ordenador personal o, simplemente, como computadora, se ha convertido para muchas personas en un instrumento indispensable de trabajo e incluso de ocio. Todo usuario de un ordenador lógicamente conoce los pasos a seguir para ponerlo en funcionamiento, pero no todos conocen cómo funciona, ni pueden identificar su configuración interna, es decir, las piezas y dispositivos principales que se encuentran alojados en el interior de la carcasa o cubierta metálica de protección. Sin embargo, podemos decir que todo el que trabaja con un ordenador o computadora personal conoce cuáles son los dispositivos de hardware o periféricos más visibles y comunes que la componen, como son: • Cuerpo del ordenador • Disquetera para disquetes de 3,5 pulgadas (prácticamente en desuso) • Lector y/o grabador de CDs o DVDs • Monitor • Teclado • Ratón • Altavoces Pero, por otro lado, ni siquiera un especialista en informática puede diferenciar un ordenador más potente de otro que no lo sea solamente por su aspecto externo, ni tampoco uno rápido de otro más lento. Esas características dependen, exclusivamente, de los dispositivos que tenga el ordenador instalados interiormente en la placa base, cuyas características no se reconocen a simple vista, a no ser que la persona sea un entendido en la materia y pueda interpretar los datos que tienen inscritos exteriormente los dispositivos. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 34
La alternativa más práctica para conocer los datos técnicos del ordenador es consultar el manual de instrucciones, o preguntarle directamente al vendedor, en el caso de adquirir uno nuevo, cuáles son las características principales de configuración como, por ejemplo: tipo de microprocesador y su velocidad o frecuencia de trabajo en Gigahertz (GHz), cantidad de memoria RAM en Megabytes (MB) o en Gigabyte GB y si permite su posterior ampliación, capacidad del disco duro en GB y si permite también su posterior sustitución por otro de mayor capacidad de almacenamiento de datos en caso que sea necesario, así como el tipo de tarjeta gráfica que utiliza. Otra dificultad para conocer las características cuando no se tiene a mano un manual de referencia es que, además de ordenadores fabricados por marcas de reconocido prestigio con elementos y dispositivos de calidad, existen también los llamados "ordenadores clónicos", ensamblados por pequeñas empresas o vendedores particulares, que generalmente emplean piezas y dispositivos de diferentes fabricantes, que en ocasiones no son de marcas reconocidas. En principio todos los PCs u ordenadores personales tienen instalados en su placa base los mismos dispositivos, pero con diferentes características de capacidad y velocidad de procesamiento de datos, lo que hace que puedan realizar las operaciones con mayor o menor rapidez y permitan trabajar con más o menos programas abiertos al mismo tiempo. Si abrimos la tapa lateral de la carcasa de un ordenador nos encontraremos con una tarjeta o placa de mayores dimensiones que las restantes. generalmente colocada en posición vertical. Es la placa base (conocida también como “mother board” o placa madre), en donde se instalan directamente o por medio de tarjetas provistas de conectores apropiados, los dispositivos periféricos o de hardware como, por ejemplo, la disquetera para discos de 3,5 pulgadas (eliminada ya en los ordenadores más actuales), el lector/grabador de CDs y DVDs de doble capa, el monitor, el teclado, el ratón, la impresora, los altavoces, etc., que permiten el intercambio y procesamiento de la información, así como el disfrute de los mejores programas y presentaciones multimedia, incluyendo la reproducción de películas. Ordenador o computadora personal de sobremesa< moderna, con la cubierta protectora lateral abierta. Este es un ordenador de gama alta, con doble< microprocesador o CPU tipo Dual-Core de 3 GHz< cada uno.
1) Lector y grabador de CDs y DVDs de doble capa. 2) Ventilador del procesador Dual-Core. 3) Doble disco duro Serial ATA. 4) Transformador de tensión o voltaje. 5) Placa base. 6) Tarjeta de video.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
35
(A) Parte trasera de un ordenador o computadora personal de mesa. (B) Elementos y dispositivos alojados dentro de la carcasa o cubierta protectora (no se representan los cables de conexión).(C) Parte frontal.
MICROPROCESADOR
Conocido como CPU (Central Processing Unit), la Unidad Central de Proceso, microprocesador, o simplemente "procesador", constituye el “cerebro” o parte “inteligente” de todo el sistema informático. En líneas generales su misión es supervisar todas las funciones que realiza el ordenador, comparar el resultado de las operaciones, incluyendo las matemáticas, y seguir las instrucciones contenidas en los programas que se ejecutan. Entre los procesadores de gama baja más empleados en los ordenadores personales o PC se encuentran el Celeron, de INTEL y el Sempron (sucesor del Duron) de AMD. Entre los de gama alta y, por tanto, más rápidos y costosos, se encuentran el Pentium, de INTEL y el Athlon de AMD. Actualmente tanto Intel como AMD producen también procesadores de doble núcleo (Dual-Core), que permiten realizar multitareas con mucha más rapidez y eficiencia que las que permitían hacer los anteriores procesadores de un solo núcleo. Una característica fundamental que distingue a los microprocesadores es su velocidad de trabajo, que en la actualidad supera el Gigahertz (GHz) de frecuencia. Mientras más alta sea la frecuencia del microprocesador, mayor será la cantidad de operaciones por segundo que podrá realizar el ordenador.
MEMORIA La memoria es el dispositivo que almacena, transitoriamente, los datos que procesa el ordenador. Físicamente una memoria está constituida por circuitos integrados grabados en un chip u oblea de silicio. El ordenador, para trabajar, utiliza varios tipos de memorias, como son: RAM, ROM, BIOS, Caché y Virtual
Módulo de memoria RAM
RAM. (Random Access Memory – Memoria de acceso aleatorio). Constituye la memoria principal de trabajo. En ella se carga parte del sistema operativo instantes después que se pone en funcionamiento el ordenador. En este dispositivo cargancon también todosnos losencontramos programas que vamos abriendo para trabajar con ellos, el archivo o los se archivos los cuales trabajando en un momento dado, así como también los que abrimos para verlos o modificarlos. La RAM es una memoria volátil, es decir, que todo el contenido que tiene transitoriamente almacenado se borra o se pierde cuando se ejecuta el "reset" o se apaga el ordenador. ROM. Read Only Memory – Memoria de sólo lectura. Es un tipo de memoria permanente que contiene grabada instrucciones que no cambian y que el ordenador necesita para trabajar. El BIOS es una memoria ROM. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
36
BIOS. (Basic Input/Output System – Sistema Básico de Entrada/Salida). Es una memoria, que contiene grabadas las instrucciones POST (Power-On Self Test - Autocomprobación de arranque o encendido) que controla la secuencia de revisión de los dispositivos del ordenador y proporciona la puesta en marcha e inicialización del programa del sistema operativo cuando lo encendemos. Caché. Tipo de memoria muy rápida donde se van almacenando datos de los programas en ejecución que el microprocesador necesita utilizar reiteradamente mientras estamos trabajando con el ordenador, aliviando así el trabajo de la memoria RAM. El ordenador trabaja con tres tipos de memorias caché: de nivel 1, de nivel 2 y de nivel 3. Virtual. Esta memoria físicamente no está constituida por un chip de silicio como las que se han relacionado anteriormente, sino que es un archivo o fichero de paginación o intercambio, que en Windows 95, 98 y Me se denominaba "win386.swp, mientras que en Windows 2000 y XP se denomina "pagefile.sys". Este es un fichero oculto, que se regenera en el disco duro cada vez que se pone en funcionamiento el ordenador como apoyo a la memoria RAM. Cuando la capacidad de la RAM no es suficiente para mantener en un momento determinado varios programas abiertos y funcionando de forma simultánea, la memoria virtual asume parte de esas funciones.
CONTROLADORES Las controladoras de uso más generalizado son la IDE y la EIDE, mientras que la más profesional y, por tanto, más costosa es la SCSI. IDE. (Integrated Drive Electronics – Electrónica integrada en la unidad). Socket o conector destinado apulgadas conectar(ya dispositivos la controladora IDE, como la disquetera de discos 3.5 en desuso),que losutilizan discos duros y los lectores-grabadores de CDs y/o DVDs.flexibles La placadebase posee dos conectores IDE, que permiten instalar dos dispositivos de este tipo a cada uno de ellos por medio de un cable plano de 40 hilos. En los ordenadores más actuales esta controladora se ha sustituido por la EIDE (Enhanced IDE - IDE Mejorada), que permite el uso de dispositivos Serial ATA (Serial Advanced Technology Attachment - Conexión de Tecnología Avanzada Serie) como, por ejemplo, discos duros fabricados específicamente para esta tecnología, cuya tasa de transferencia de datos es mucho mayor que la que permitían los anteriores de tecnología ATA. SCSI. (Small Computer System Interface – Sistema de interfaz para pequeños ordenadores). Controladora de uso profesional para disqueteras, unidades lectoras/grabadoras de CDs /DVDs y discos duros de tecnología SCSI, que permite transferir y recuperar datos a gran velocidad. Además este tipo de controladora es más fiable que la IDE o la EIDE y permite instalar hasta siete dispositivos también SCSI. Ni la controladora SCSI, ni los dispositivos preparados para utilizar esta tecnología se encuentran normalmente en los ordenadores personales domésticos, pues su instalación se realiza exclusivamente a solicitud de los clientes que la requieran según el tipo de trabajo que vayan a desempeñar. Por ejemplo, para edición de vídeo digital se recomienda utilizar discos duros SCSI con su correspondiente controladora, en lugar de discos duros para tecnología IDE o EIDE. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
37
Bus. Así se denominan los conductos o cableado impreso de la placa base, por donde circulan los datos entre los diferentes dispositivos que se encuentran conectados a la misma. Las placas base de los primeros ordenadores solamente disponían de un solo bus, al que se conectaban todos los elementos y dispositivos periféricos. En la actualidad las placas bases disponen de más de un bus, siendo el principal el PCI. Los otros son el bus USB (donde van conectados todos los dispositivos periféricos que admiten ese tipo de conexión) y el Bus IDE dual (donde van conectados el disco duro y el lector/ grabador de CDs o DVDs.
Slots. Son sockets o ranuras de expansión situados en la placa base donde se insertan o conectan a presión las correspondientes tarjetas de interface de los distintos dispositivos periféricos o de hardware que se instalan en el ordenador, como por ejemplo: tarjeta gráfica o de vídeo, tarjeta de sonido (en caso de que el sonido no esté integrado ya en la propia placa base); tarjeta Ethernet, que permite la conexión del ordenador a una red local y a Internet; módem interno para la conexión al correo electrónico o a Internet; tarjeta para captura de imágenes destinadas a la edición de vídeo, etc. Los ordenadores más antiguos empleaban en la placa base ranuras ISA (Industry Standard Arquitecture - Arquitectura Estándar de la Industria) para conectar las tarjetas controladoras de dispositivos. A partir de la aparición del microprocesador Pentium 4 esas ranuras fueron sustituidas por las actuales PCI (Peripheral Component< Interconnect - Interconexión de Componentes Periféricos). Hasta hace poco se utilizaba también la ranura AGP (Advanced Graphic Port - Puerto de Gráficos Avanzados) para la conexión de la tarjeta gráfica a la que se conecta, a su vez, el monitor. Sin embargo, con el avance de los videojuegos y las presentaciones multimedia que requieren una mayor velocidad para la formación de la imagen (rendering) esta ranura se ha ido sustituyendo en los ordenadores más modernos por los slots o ranuras PCI Express x1, x4 y x16 para conectar las actuales tarjetas gráficas. Chipset. Conjunto de chips o circuitos integrados, cuya función es gestionar los buses de datos situados en la placa base. En la placa base existen dos tipos de chipsets: 1. El denominado "North Bridge" o Puente Norte, que conecta el microprocesador, la memoria RAM y la tarjeta de vídeo directamente con el Bus PCI. 2. El "South Bridge" o Puente Sur, que conecta el Bus IDE y el Bus USB igualmente con el Bus PCI Batería CMOS. Fuente de energía eléctrica que mantiene la configuración del sistema del ordenador, así como la fecha y hora actualizada. Generalmente es una batería redonda y plana, tipo CR 2032, de 3 volt de tensión. Puertos. La placa base de los ordenadores presentan normalmente diferentes puertos I/O (Input/ Output - Entrada/Salida) de datos. En los más antiguos podemos encontrar los puertos paralelo, serie Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 38
y PS/2 que ya han sido prácticamente sustituidos por puertos USB-2, Firewire, Bluetooth y de rayos infrarrojos (IR) en los ordenadores más actuales.. Suministro de energía eléctrica Todos los ordenadores cuentan con un transformador que suministra corriente eléctrica de diferentes tensiones o voltajes para que puedan funcionar los diferentes elementos instalados en la placa base y los dispositivos internos como la disquetera, el disco duro y el lector/grabador de CDs o DVDs.
DISPOSITIVOS DE ALMACENAMIENTO DE DATOS
Un ordenador cuenta también en su interior con dispositivos de hardware para el almacenamiento de datos, ya sea de forma magnética, óptica o electrónica, que no forman parte de la placa base, pero que se instalan a ésta, como el disco duro, la disquetera para disquetes de 3,5 pulgadas (ya en desuso), el lector/grabador de CD y/o DVD, etc. Últimamente algunos fabricantes le incorporan también a sus ordenadores lectores de tarjetas externas como Compact Flash (CF), Secure Digital (SD), Memory Stick, XD, etc., que permiten pasar directamente al ordenador datos almacenados en esas tarjetas como, por ejemplo, fotos y videos tomados con una cámara digital. Otro dispositivo utilizado para el almacenamiento de datos es el Pen Drive (memoria flash portátil en forma de llavero) que se puede conectar a un puerto USB para intercambiar datos entre ese dispositivo y el ordenador.
PERIFÉRICOS EXTERNOS Todos los ordenadores personales utilizan dispositivos periféricos de hardware externos, indispensables para su funcionamiento, como son, fundamentalmente, monitor, teclado y ratón, y otros opcionales como impresora láser o de tinta y altavoces, aunque existen muchos otros dispositivos más para ejecutar diferentes funciones, que se pueden conectar también al ordenador.
CONEXIÓN A UNA RED INTERNA E INTERNET La conexión de los ordenadores a una LAN (Local Area Network – Red de área local) o red local, se puede efectuar de dos formas diferentes: Mediante una tarjeta de red Ethernet conectada a un Hub o concentrador.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
39
Por medio de una WLAN (Wireless Local Area Network – Red inalámbrica de área local) utilizando cualesquiera de las siguientes tecnologías: Bluetooth Rayos infrarrojos WiFi Hub concentrador Ethernet de cinco puertos, que permite conectar varios ordenadores a una red local. Conexión a Internet
Para la conexión de un ordenador a Internet es requisito indispensable contar con una línea RTB (Red de telefonía básica), un módem (modulador/demodulador) común de 56 kbps (kilobaudios por segundo) y el establecimiento de un contrato con una empresa que nos suministre ese servicio. La conexión por módem común se puede efectuar de dos formas: empleando uno del tipo tarjeta conectada internamente a un puerto PCI del ordenador, o por mediación de uno externo conectado a un puerto USB. Como segunda y mejor opción está la banda ancha de alta velocidad, que permite la navegación por Internet de una forma mucho más rápida que la que proporciona un módem de 56 kbps conectado a una línea RTB. Este tipo de conexión de alta velocidad se puede contratar con una empresa suministradora de servicios de Internet en alguna de las siguientes variantes, de acuerdo con las posibilidades que para ello ofrezca la zona donde se resida: ADSL (Asymmetric Digital Subscriber Line - Línea Digital Asimétrica de abonado). Cable coaxial. Cable de fibra óptica. La velocidad de una conexión ADSL abarca desde los 256 kbps hasta los 2 Mbps, dependiendo del tipo de contrato que se establezca con el proveedor del servicio telefónico. Este tipo de conexión a Internet permite establecer y recibir llamadas por teléfono de forma simultánea a la navegación por Internet empleando la misma línea, cosa que no se puede hacer utilizando un módem común conectado a la Red de Telefonía Básica (RTB), pues en ese caso, si se emplea el teléfono no se puede navegar por Internet y viceversa, si se navega no se puede ni establecer, ni recibir llamadas. Paralelamente a las líneas telefónicas, para la conexión a Internet se está tratando de difundir también la tecnología PLC (Power Line Communication – Comunicación por línea de fuerza), que permite Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
40
utilizar la propia red de distribución eléctrica doméstica para recibir y transmitir datos informáticos o señales digitales, incluyendo voz e imagen. Para este tipo de conexión a la banda ancha o de alta velocidad de Internet se emplea un módem especial conectado al ordenador y a un tomacorriente normal de la misma red eléctrica doméstica, o sea, la misma que le suministra la corriente eléctrica al ordenador para funcionar y al resto de la vivienda u oficina, sin necesidad de estar conectados a una línea telefónica tradicional.
FUNCIONAMIENTO DEL ORDENADOR ¿Qué ocurre cuando encendemos el ordenador? Placa base (mother board), donde aparecen los pasos que sigue la inicialización del ordenador para su puesta en funcionamiento a partir del momento que oprimimos el botón de encendido. Cuando encendemos el ordenador, la corriente eléctrica (1) llega al transformador de fuerza o potencia (2). A través del conector (3) el transformador distribuye las diferentes tensiones o voltajes de trabajo a la placa base, incluyendo el microprocesador o CPU (4). Inmediatamente que el microprocesador recibe corriente, envía una orden al chip de la memoria ROM del BIOS (5) (Basic Input/Output System – Sistema básico de entrada/salida), donde se encuentran grabadas las rutinas del POST ( Power-On Self-Test – Autocomprobación diagnóstica de encendido) o programa de arranque. Si no existiera el BIOS conteniendo ese conjunto de instrucciones grabadas en su memoria, el sistema informático del ordenador no podría cargar en la memoria RAM la parte de los ficheros del Sistema Operativo que se requieren para iniciar el arranque y permitir que se puedan utilizar el resto de los programas instalados. Una vez que el BIOS recibe la orden del microprocesador, el POST comienza a ejecutar una secuencia de pruebas diagnósticas para comprobar sí la tarjeta de vídeo (6), la memoria RAM (7), las unidades de discos [disquetera si la tiene, disco duro (8), reproductor y/o grabador de CD o DVD], el teclado, el ratón y otros dispositivos de hardware conectados al ordenador, se encuentran en condiciones de funcionar correctamente. Cuando el BIOS no puede detectar un determinado dispositivo instalado o detecta fallos en alguno de ellos, se oirán una serie sonidos en forma de “beeps” o pitidos y aparecerán en la pantalla del monitor mensajes de error, indicando que hay problemas. En caso que el BIOS no detecte nada anormal durante la revisión, se dirigirá al boot sector (sector de arranque del disco duro) para proseguir con el arranque del ordenador. Durante el chequeo previo, el BIOS va mostrando en la pantalla del monitor diferentes informaciones con textos en letras blancas y fondo negro. A partir del momento que comienza el chequeo de la memoria RAM, un contador numérico muestra la cantidad de bytes que va comprobando y, si no hay ningún fallo, la cifra que aparece al final de la operación coincidirá con la cantidad total de megabytes Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 41
instalada y disponible en memoria RAM que tiene el ordenador para ser utilizada. Durante el resto del proceso de revisión, el POST muestra también en el monitor un listado con la relación de los dispositivos de almacenamiento masivo de datos que tiene el ordenador instalados y que han sido comprobados como, por ejemplo, el disco o discos duros y el lector/grabador de CD o DVD si lo hubiera. Cualquier error que encuentre el BIOS durante el proceso de chequeo se clasifica como “no grave” o como “grave”. Si el error no es grave el BIOS sólo muestra algún mensaje de texto o sonidos de “beep” sin que el proceso de arranque y carga del Sistema Operativo se vea afectado. Pero si el error fuera grave, el proceso se detiene y el ordenador se quedará bloqueado o colgado. En ese caso lo más probable es que exista algún dispositivo de hardware que no funcione bien, por lo que será necesario revisarlo, repararlo o sustituirlo. Cuando aparecieron los primeros ordenadores personales no existían todavía los discos duros, por lo que tanto el sistema operativo como los programas de usuarios había que cargarlos en la memoria RAM a partir de un disquete que se colocaba en la disquetera. Cuando surgió el disco duro y no existían todavía los CDs, los programas se continuaron introduciendo en el ordenador a través de la disquetera para grabarlos de forma permanente en el disco duro, para lo que era necesario utilizar, en la mayoría de los casos, más de un disquete para instalar un solo programa completo. Por ese motivo, hasta la aparición de los lectores de CDs, el programa POST de la BIOS continuaba dirigiéndose primero a buscar el sistema operativo en la disquetera y si como no lo encontraba allí, pasaba entonces a buscarlo en el disco duro. Si por olvido al apagar esos antiguos ordenadores se nos había quedado por olvido algún disquete de datos introducido en la disquetera, al encender de nuevo el equipo el proceso de inicialización se detenía a los pocos segundos, porque el BIOS al leer el contenido de ese disquete encontraba otro tipo de datos y no el sistema operativo. Cuando eso ocurría solamente había que extraer el disquete de la disquetera y oprimir cualquier tecla en el teclado. De inmediato el BIOS continuaba la búsqueda, dirigiéndose al disco duro, lugar donde se encontraba y encontramos grabado todavía el sistema operativo, incluso en los ordenadores más actuales.
ARRANQUE O INICIALIZACIÓN DEL ORDENADOR Una vez que el BIOS termina de chequear las condiciones de funcionamiento de los diferentes dispositivos del ordenador, si no encuentra nada anormal continúa el proceso de “booting” (secuencia de instrucciones de inicialización o de arranque del ordenador), cuya información se encuentra grabada en una pequeña memoria ROM denominada CMOS (Complementary Metal-Oxide Semiconductor – Semiconductor de óxido-metal complementario). Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
42
Para comenzar el proceso de inicialización, el BIOS localiza primeramente la información de configuración del CMOS, que contiene, entre otros datos, la fecha y la hora actualizada, configuración de los puertos, parámetros del disco duro y la secuencia de inicialización o arranque. Esta última es una de las rutinas más importantes que contiene el programa del CMOS, porque le indica al BIOS el orden en que debe comenzar a examinar los discos o soportes que guardan la información para encontrar en cuál de ellos se encuentra alojado el sistema operativo o programa principal, sin el cual el ordenador no podría ejecutar ninguna función. Entre los sistemas operativos más comúnmente utilizados hoy en día en los ordenadores personales o PC, se encuentra, en primer lugar, el Windows (de Microsoft), siguiéndole el Linux (de código abierto) y el Mac-OS (Macintosh Operating System sistema operativo Macintosh), que emplean los ordenadores Apple. En los ordenadores personales actuales, el BIOS está programado para que el POST se dirija primero a buscar el "boot sector" o sector de arranque al disco duro. En el primer sector físico del disco duro (correspondiente también al sector de arranque), se encuentra grabado el MBR (Master Boot Record Registro Maestro de Arranque) o simplemente "boot record", que contiene las instrucciones necesarias que permiten realizar el proceso de carga en la memoria RAM de una parte de los ficheros del sistema operativo que se encuentra grabado en la partición activa del disco duro y que permite iniciar el proceso de carga. Generalmente el disco duro posee una sola partición activa, coincidente con la unidad "C:/", que es donde se encuentra localizado el sistema operativo. No obstante, de acuerdo a como lo haya decidido el usuario, un mismo disco duro puede estar dividido en dos o más particiones, e incluso tener un sistema operativo diferente en cada una de esas particiones (nunca dos sistemas operativos en una misma partición).
SECUENCIA DE ARRANQUE DE WINDOWS XP Después que el MBR comienza el proceso de carga, el programa del sector de arranque ejecuta las instrucciones de inicialización o de arranque para el microprocesador, las de la BPD (BIOS Parameter Block - Bloque de Parámetros del BIOS) y las del código que permite poner en ejecución los ficheros correspondientes al sistema operativo. En el caso de Windows 2000 y Windows XP el fichero que asume la función de cargador del sistema se denomina NTLDR (NT Loader - Cargador NT). Ese fichero carga los controles básicos de los dispositivos y ejecuta también los ficheros ntdetec.com, boot.in y bootsect.dos hasta que el sistema operativo Windows XP queda cargado. Una vez que el sistema se pone en funcionamiento, NTLDR carga los ficheros ntoskenl.exe y hall.dll, Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
43
cuya función es mostrar las ventanas de Windows.
SECUENCIA DE ARRANQUE DE WINDOWS 95 y 98 La secuencia de inicialización de los sistemas operativos Windows 95 y Windows 98 estaba basada en el primero que comercializó Microsoft: el MS-DOS. En esos sistemas operativos, finalizado el cheque previo del POST del BIOS, el Bootstrap Loader localizaba el MBR, que cargaba el fichero io.sys para la correspondiente versión de Windows. Este fichero chequeaba los parámetros de configuración del sistema contenidos en config.sys y cargaba después msdos.sys para chequear también la información que contenía y poder poner en funcionamiento el sistema operativo. En algunos casos io.sys también ejecutaba el fichero command.com y éste, a su vez, a autoexec.bat. Una vez que se ha cargado el sistema operativo, el ordenador ya puede funcionar en estrecha relación con el microprocesador, obedeciendo las órdenes procedente de los programas de aplicaciones o software que emplean los usuarios como, por ejemplo: procesador o editor de texto, hoja de cálculo, base de datos, programas multimedia, etc. A partir del momento en que el sistema operativo se encuentra cargado y en pleno funcionamiento, será el encargado de manejar el microprocesador, la memoria RAM, los programas o software que se ejecutan, los diferentes dispositivos conectados al ordenador, el almacenamiento de datos y la interacción entre el usuario y el ordenador.
TRABAJO CON PROGRAMAS DE APLICACIONES Desde el mismo momento en que ya el sistema operativo se encuentra funcionando, podemos proceder a abrir el programa utilitario o aplicación con la que deseamos trabajar. El funcionamiento de un programa o software utilitario de aplicación, al igual que el sistema operativo, se basa en seguir un conjunto de instrucciones programadas que nos permiten realizar un trabajo. Existen infinidad de aplicaciones de uso común, que van desde el procesador o editor de textos hasta otras con las que podemos realizar diseños gráficos, editar video, editar sonido, ejecutar videojuegos, etc. Las instrucciones de todos los programas están escritas en líneas de texto o lenguaje de alto nivel, comprensible para el programador que crea el software o programa, pero no para el ordenador. Para que el ordenador entienda esas instrucciones es necesario traducirlas primero, con la ayuda de otro programa, a un lenguaje de bajo nivel o código máquina, que convierte las líneas de texto en código binario, es decir, en dígitos “0” y “1”, o bits de código binario, que es el único lenguaje que entiende Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
44
el microprocesador y los dispositivos que integran el ordenador. El conjunto que forma la combinación de ocho unos y ceros como, por ejemplo, 10001010, o lo que es igual, ocho bits (un bit correspondiente a cada uno y otro bit correspondiente a cada cero), recibe el nombre de “Byte”. Cuando utilizamos un programa, por ejemplo, el procesador o editor de texto u otro similar, las palabras que escribimos en el teclado y las órdenes que introducimos por medio del ratón las recibe el sistema operativo en código binario. Éste, en primera instancia, identifica de donde procede la información que le llega (en este caso el editor de textos), la acepta como datos que le envía ese programa y por medio del microprocesador o CPU los reenvía a la memoria RAM, igualmente en código binario. A partir de ese momento la información quedará almacenada en la RAM de forma temporal, incluyendo también la información del formato que tiene el documento de texto, o sea, tipo y puntaje o tamaño de la fuente de letras, colores, ancho de los márgenes de la página, etc. Esa información relacionada con los datos del formato del documento constituyen instrucciones prefijadas por el programador, pero que en la mayoría de los caso podemos cambiar o ajustar a nuestra conveniencia, siempre y cuando el programa haya sido preconcebido para permitir que se introduzcan esos cambios. Toda la información que supervisa el sistema operativo la envía al microprocesador y éste a su vez a la tarjeta gráfica para representarla visualmente en la pantalla del monitor.
Una vez que el usuario termina de trabajar en un fichero lo más normal es que lo quiera guardar pasándolo al disco duro, o a cualquier otro soporte de almacenamiento de datos. Para ello, cuando se selecciona la opción “Guardar” que tienen todos los programas, el sistema operativo recibe la solicitud y hace que se despliegue una ventana para que el usuario seleccione el camino o lugar donde se encuentra la carpeta en la cual se quiere guardar dicho fichero o archivo (aunque también se puede crear una nueva carpeta para guardarlo). A continuación se escribe el nombre con el que se identificará al fichero y se concluye la operación de guardar. Inmediatamente el sistema operativo envía una orden a la memoria RAM y el documento que se encontraba ahí guardado, de forma transitoria, pasa a almacenarse en el soporte magnético u óptico seleccionado. En ese soporte el fichero permanecerá guardado indefinidamente, aunque se apague el ordenador, permitiendo que posteriormente podamos leerlo, modificarlo o borrarlo cuando sea necesario al abrirlo de nuevo. Mientras el fichero con el que estamos trabajando no se guarde en el disco duro o en cualquier otro soporte de almacenamiento de datos, se corre el peligro de perder la información si ocurriera un fallo como, por ejemplo, el cuelgue o bloqueo del programa con el cual estamos trabajando, o del propio programa del sistema operativo. Cuando eso ocurre y no es raro que ocurra, nos veremos impedidos de ejecutar la acción de “guardar”, con lo cual no sólo se perderá todo el contenido del fichero, sino también todo el tiempo de trabajo que habíamos invertido en crearlo. La pérdida de la información de un fichero cuando se cuelga o bloquea el programa con el cual lo Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
45
estamos creando o el propio ordenador ordenador, se debe a que todo el contenido de la memoria RAM se borra cuando nos vemos obligados a cerrar forzosamente una aplicación sin que ofrezca la posibilidad de salvar primeramente el fichero, por tener que reiniciar de nuevo el ordenador (reset) para desbloquearlo, o también cuando apagamos nosotros mismos el ordenador sin haber procedido primero a guardar debidamente la aplicación, aunque en este último caso siempre aparece una ventana alertando que el fichero no ha sido guardado. Como la RAM es una memoria volátil o transitoria, que sólo almacena los datos mientras se encuentra energizada, lo más recomendable es ir guardando cada cierto tiempo el fichero mientras lo estamos trabajando. De esa forma si ocurriera un cuelgue o bloqueo en el ordenador solamente se pierde la información correspondiente a los últimos minutos invertidos después de haberlo guardado por última vez. Cuando el usuario termina de trabajar con el ordenador y quiere apagarlo, no lo puede hacer directamente oprimiendo el botón de encendido/apagado del equipo. Para apagar el ordenador sin correr riesgos es estrictamente necesario seguir los pasos estipulados para realizar esa acción, porque de no hacerse así se pudiera ver afectado el sistema operativo pudiendo llegar hasta el punto de que posteriormente no arranque. Lo normal es cerrar siempre primero todos los programas que se encuentran abiertos después de haber guardado el fichero o ficheros con los que hemos estado trabajando y por último proceder a cerrar el sistema operativo siguiendo los pasos específicos para ese fin. Hay sistemas operativos como Windows, que apagan automáticamente el ordenador después que el usuario selecciona la opción "Apagar el Equipo". Si esa propiedad no está activada o no está disponible (cosa que depende también de la antigüedad del ordenador), entonces habrá que proceder a cerrar igualmente el sistema operativo de la misma forma más arriba explicada y una vez que se muestre un texto en la pantalla del monitor indicando “puede apagar su equipo con seguridad”, se procede a oprimir manualmente durante unos segundos el mismo botón o interruptor que utilizamos para el encendido, hasta que se apague.
Software de edición y manipulación del audio digital Introducción Cuando hablamos de herramientas de edición y manipulación del audio digital nos estamos refiriendo, sin duda alguna, a todas aquellas aplicaciones en forma de software, y en cierta medida hardware, que nos permiten alterar las cadenas de 0 y 1 que forman el audio digital. Las necesidades son poder, en primer lugar, registrar y almacenar audio digital, alterar los datos almacenados y reproducirlos. Si bien el primer escalón y último son realmente exactos (grabar y reproducir no conlleva confusión alguna), "alterar los datos grabados" incluye todo un abanico de Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
46
funciones, manipulaciones y procesos donde la imaginación es sólo el limite. Hablamos de la edición / proceso de audio digital, que puede ser destructiva (el archivo se procesa y se altera) o a tiempo real (se calcula el resultado a medida que va sonando y el archivo no se modifica) Un software que tratase el audio debiera, en primer lugar capturar el audio. Editor de audio digital (Editor Wave) En este grupo englobaremos todas las aplicaciones que permiten grabar, importar / exportar y manipular audio digital de forma muy extensa sin incluir funciones de mezcla y producción musical. Esto significa que el programa no posee la capacidad de reproducción de múltiples pistas de forma simultánea con un mezclador asociado en el que poder realizar la mezcla y ecualización de dichas pistas. Un buen editor de audio debe poder abrir muchos formatos de archivo. Aunque en el mundo del PC se utilizan, básicamente, los formatos "wav" y "AIFF" y en Mac "snd II" y también "AIFF", existen muchos otros formatos dedicados a la multimedia en general (audio para Internet, juegos, codificación, compresión, etc..) y sobretodo formatos de audio de hardware externo al ordenador como grabadores de audio digital autónomos o samplers (sintetizadores que utilizan muestras de audio digital como ondas para sus osciladores). Los samplers suelen incluir una unidad de discos, conector SCSI e incluso unidades ZIP. Las muestras utilizadas por éstos pueden ser cargadas y abiertas por un editor de audio que posea la habilidad de leer esos datos. Esto amplia enormemente las posibilidades del sampler ya que podemos suplir las carencias de éste (por ejemplo, si nuestro sampler es barato y posee una pobre edición de audio) con la ayuda de un editor de audio. El sampler es un instrumento electrónico ampliamente utilizado, el porcentaje de usuarios de un editor de audio que poseen un sampler es muy elevado. Es normal que los editores de audio tengan en cuenta este dato. Existen muchos samplers que no poseen unidad de discos y para éstos se ofrecen opciones de importación de archivos mediante volcados MIDI (una técnica extremadamente lenta) o transferencias vía SCSI. En cuando a la edición del audio, la gran mayoría de las funciones son destructivas, es decir alteran los datos srcinalmente grabados, eso sí, ofrecen historial de procesos "Undo" (Deshacer) con lo que recuperar las distintas versiones del audio. Gran parte de la edición de los editores de audio se basa en procesos utilizados en el proceso de masterización, es decir la creación del archivo master final. Estas herramientas son procesos de ecualización, dinámica ypor dithering mayoritariamente. dither sistema de reducción del ruido y distorsión producido el truncamiento de bits (alElpasar dees24un a 16 bits) o incluso en pasajes de música en que se utilizan menos bits para representar la señal (música clásica con baja dinámica por ejemplo). El dither añade un tipo de ruido que elimina el ruido "aliasing" automáticamente. Se incluyen, naturalmente, otros procesos no tan comunes en la masterización, como pueden ser: efectos de amplitud, timbre, tiempo-tono, delay y reducción de la calidad (distorsión y reducción de bits). Cabe destacar que los algoritmos de los procesos destructivos (no a tiempo real) deben tener más calidad que los procesos a tiempo real ya que no existe una Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
47
exigencia de rapidez de proceso pues el resultado no debe entregarse a tiempo real. Por otro lado, al ser procesos destructivos, los editores de audio suelen incluir utilidades de proceso y conversión por lotes, es decir, poder listar "x" archivos de audio, seleccionar los procesos a aplicar y que el programa se encargue del resto mientras nos vamos a cenar...Otro aspecto importante son las funciones de medición, análisis y estadísticas del audio. A parte de mostrar espectrogramas del audio (representaciones del audio dependiendo de la amplitud y frecuencias). !"#$%"&'() .(/+0"#1 3$45)(6 V'*+%&
V'*+%&
75+,'#() 8#+,9+&,6 75+,'#() :(&
V'*+%&
75+,'#() :;(4+ 8#+,9+&,6 <&()64$4 :;(4+ <&()64$4
<15)$'9=+ 7'('$4'$,4
V'*+%& W,*0/*10'"
*+#'$,()
B13*1#')")
-")"#
R
W,*0/*10'" S'0'71 *1 X )*! S"1
B13*1#')") 4)* 0&!&,*# @,D " 0"!'*13*#8 F&!&,*# 0!",R+J# '13*1#')")
Y" @"#* *1 =,") B13*1#')")
Z"#3" L '1#3"13"1*"#
F"1"!*# *#32,*& RA'3") R[&!" ,&5"R@/*," )* @"#* RB;.R%'3'<& #/%*,'&, *1 R[&!" "+",'!!"R*1 *! !D+'3* RC*,*0R1*="3'<& @"#* R[&!" <*,)*R*1 @"#* RA'3") R[!"10&R"10?& )* !" '+"=*1 *#3*,*& '1@*,'&, RU;/!R+J# )*13,& )* !" @"#* )*@"#")& R,&5&R+J# @/*," )* !" @"#* U+%!'3/) *1 )[ S,*<"!*10'" U;/!RB;./'*,)" ] \&5&RC*,*0?" /#"1)& W7,+/!" \AE
Las estadísticas de audio nos indican el volumen máximo y mínimo del audio, volumen medio, duración, picos máximos, desviaciones del eje 0 (DC-Offset), etc. Existen funcionalidades extra que pueden ayudar en el mundo del video. Por ejemplo, extraer el audio de una película digital, procesarlo (o sustituirlo) y volver a montar la película final. Otra funcionalidad extra (aunque anteriormente muy utilizada, antes de la aparición de los secuenciadores MIDI / audio) son las listas de reproducción. Creando regiones (marcando fragmentos del audio y dándoles un nombre) para posteriormente situar su orden de reproducción en una lista virtual. Esta función se combina con la capacidad del programa para sincronizarse a código de tiempo SMPTE, lo cual es imprescindible para sincronizar el audio a video externo. También resaltar las funciones de exportación del audio. El resultado obtenido con éstos es superior a los codificadores mp3 shareware que se encuentran en Internet, como por ejemplo el popular algoritmo Fraunhofer IIS. La última funcionalidad propia de estas aplicaciones es también el último proceso en el largo camino de creación de un disco; la creación del CD. Aunque existen varias aplicaciones shareware que permiten crear un CD de audio, los editores incluyen edición de las pistas del CD gráfica utilizando Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
48
formas de onda en las que podemos crear fundidos de volumen de entrada y salida entre otras avanzadas funciones.
Multipistas de audio digital Los multipistas de audio son aquellas aplicaciones que permiten grabar, manipular y mezclar audio digital. Estos programas pueden reproducir varios archivos de audio de forma simultánea, es decir, al mismo tiempo en forma de pistas. Por esta razón, los archivos de audio de la obra deben poseer el mismo formato (mismos kHz y bits) aunque existe un grupo de programas muy selecto que realiza una conversión de archivo a tiempo real en el caso de que los archivos posean un formato distinto. En las pistas el audio se dispone en forma de regiones o clips de audio, que son una representación virtual de un fragmento del audio del disco duro. Es posible repetir de forma muy sencilla y rápida estos fragmentos, aplicarles curvas de volumen y construir, en general, un nuevo "arreglo" de la obra mediante la reestructuración de los fragmentos. Las pistas están asociadas a un mezclador que permite la producción de audio y mezclas. Cada pista posee un canal en dicho mezclador en el que se puede ajustar el volumen, panorama, ecualización, insertar efectos (plug-ins en distintos formatos) etc... La mezcla se realiza a tiempo real lo cual supone que son aplicaciones muy exigentes con el ordenador, consumen muchos más recursos que un editor de audio. Un multipistas de audio requiere una tarjeta de audio profesional que aparte de una buena calidad de audio posea un chip DSP que acelere la gestión y trasmisión del audio liberando al ordenador de esta tarea. Estas tarjetas suelen incluir un tipo de drivers de (controladores poraudio) software hardware) especial con tiempos de latencia (tiempo de respuesta las ordenes de muydel bajos. Existenmuy drivers tipo ASIO (de Steinberg, código abierto), EASI (de Emagic, muy similar a ASIO), DAE (de Digidesign, un "super-driver" que incluye todo el manejo del motor DSP de Pro Tools) y E-WDM (de Ego-Sys, un formato que mejora el nuevo WDM o Windows Model Driver de Microsoft. Este formato es muy nuevo y todavía no ha cuajado en la comunidad de programadores). Estos drivers deben ser proporcionados por los fabricantes de las tarjetas de audio profesionales, siendo el mas común, sin duda alguna y con diferencia el formato ASIO (ASIO 2.0 en la actualidad). Los drivers multimedia normales (insuficientes en el mundo de los multipistas y secuenciadores MIDI) son los llamados MME o Microsoft Multimedia Extensions y Direct X. Las funciones de procesado de volumen, dinámica y efectos se calculan de forma independiente por cada pista aunque la mesa virtual suele incluir sub-buses, envíos y retornos de efectos tanto internos (por software) como externos (utilizando las entradas y salidas de la tarjeta, para lo cual ésta debe poseer múltiples entradas y salidas de audio). El proceso de los efectos puede ser de dos tipos (que pueden combinarse entre sí). 1. Proceso por DSP físico: Los efectos son procesados por chips DSP ubicados en tarjetas PCI especificas, el ejemplo clásico es Pro Tools, un excelente software acompañado de una potente tarjeta con 6, 12 o 18 chips DSP ampliable. En este caso el ordenador solamente gestiona los gráficos del programa y realiza un control exhaustivo de todos los procesos, pero en ningún caso requiere una Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
49
ingente cantidad de recursos (léase Mhz de velocidad de proceso). Los efectos DSP existen porqué un mismo fabricante desarrolla el hardware (la tarjeta DSP) y el software, lo cual supone una dependencia hacia ese fabricante. No obstante esta es la solución más profesional, sin duda alguna. 2. Proceso nativo: Los efectos nativos son los más comunes y no requieren una tarjeta PCI con chips DSP especifica. Utilizan la CPU del ordenador, para calcular los efectos a tiempo real. En este caso, el ordenador debe realizar lo mismo que antes (gráficos y control de las funciones) y todos los cálculos del audio (mezcla, efectos) lo cual requiere una gran cantidad de recursos, pero evita depender de un único fabricante. Existen varios formatos de plug-ins nativos. El más utilizado es el VST. En la actualidad, las mesas virtuales de estos programas son tan sofisticadas y complejas que en muchos casos requieren el uso de una superficie de control hardware par poder aprovechar todas sus ventajas (como la automatización, la capacidad de grabar cada control manipulado en el tiempo para su posterior reproducción). Para ello, están apareciendo una gran cantidad de mesas "de control" que no mezclan el audio, sino que controlan la mezcla del programa. Un buen multipista de audio debería poseer capacidad de mezcla Surround (otra cosa es que pueda codificar en Surround). La mezcla Surround incluye la posibilidad de manejar los envíos a efectos Surround (o efectos por software con varias entradas y salidas de audio). Para la simulación del Surround los programas utilizan las múltiples salidas de audio de la tarjeta si ésta no posee varias salidas no podrás conectar más de 2 altavoces.
Secuenciador MIDI/Audio Digital Si un software multipistas de audio es una aplicación exigente con la potencia del ordenador, el secuenciador es un devorador de recursos todavía más implacable. Esto es en parte porque un secuenciador MIDI / audio debe poseer la funcionalidad de un multipistas de audio más la funcionalidad de todo un secuenciador MIDI, que no es poco. Los datos MIDI son mucho más pequeños que los datos de audio, es decir, es mucho más exigente el cálculo de una reverberación a tiempo real que no una cuantización o transposición MIDI a tiempo real por ejemplo. El problema real es la estabilidad de la sincronización entre el audio digital y el MIDI, dos mundos muy distintos. Baste con decir que un segundo de audio se divide en 44.100 "casillas" mientras que la resolución de un secuenciador es mucho menor. Un secuenciador requiere una buena tarjeta de audio, al igual que el multipista de audio digital, pero además requiere un buen interface MIDI que ayude al ordenador en la gestión y transmisión de datos MIDI. Se utilizan los mismos tipos de drivers que en los multipistas de audio ya que la exigencia de rendimiento es la misma o superior. Los secuenciadores incluyen una sencilla edición de audio, es decir que también participan de la funcionalidad de un editor de audio aunque sin ofrecer ese grado de profundidad. Como siempre, la edición de estos editores es destructiva. Las pistas de audio están asociadas a un mezclador virtual DSP del mismo modo que en los multipistas de audio y toda la mezcla se realiza a tiempo real.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
50
AMPLIFICADORES
Etapa de potencia Etapa de potencia, amplificador de potencia o etapa de ganancia son los nombres que se usan para denominar a un amplificador de audio. La función del amplificador es aumentar el nivel de una señal, incrementando, para ello, la amplitud de la señal de entrada mediante corrientes de polarización (voltaje negativo, voltaje positivo) en el transistor de salida. El amplificador necesita de un transformador, pues, internamente, trabaja con corriente continua. Cuando se diseña un amplificador, es fundamental la ventilación del mismo. Por ello, siempre encontraremos rejilla de ventilación y los fabricantes habrán instalado en su interior ventiladores (como en el ordenador). Esto es porque durante el procesado de la señal, en su interior, se desprende gran cantidad calor. Físicamente, cuando vemos un amplificador, nos encontramos con un equipo en el que, habitualmente, sólo hay un botón: el power para enchufarlo o apagarlo. En la parte posterior, no obstante, esta el panel con las correspondientes entradas y salida que estarán en función de la cantidad de señales que puede soportar un determinado modelo de amplificador. Las características técnicas de cada modelo determinarán la calidad del amplificador:
Impedancia La impedancia es la resistencia (oposición) que presenta cualquier dispositivo al paso de una corriente alterna. La impedancia de entrada de un amplificador debe ser de, al menos, 10 k". Estos 10 k" se dan para que en el caso de posicionar 10 amplificadores en paralelo la carga total sea de un k". (10 k" / 10 = 1 k").
Factor de amortiguación Indica la relación entre la impedancia de salida del amplificador y la impedancia nominal del altavoz al que va conectado. Cuanto mayor sea el factor de amortiguamiento mejor, pero por encima de doscientos, puede significar que el amplificador está deficientemente protegido contra cargas reactivas que pueden deteriorarlo. El factor de amortiguamiento se expresa: 200 sobre 8 ", lo que significaría que este factor de amortiguamiento es de 0,04 " (8/200). Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
51
Muchos fabricantes incluyen el factor de amortiguamiento para graves, lo que resulta muy útil, porque sabemos que ésa es la respuesta en frecuencia crítica. Vendría indicado como 150 sobre 8 " a 40 Hz.
Potencia de salida Hace referencia a la potencia eléctrica, no confundir con la potencia acústica. Como en el altavoz, es la cantidad de energía que se puede introducir en la etapa de potencia antes de que distorsione en exceso o de que pueda sufrir desperfectos. Se especifica la potencia máxima del amplificador en función de una determinada impedancia, generalmente, 8 ". Por ejemplo: 175 W sobre 8 "). Si el amplificador es estéreo, hay que tener en cuenta si esa potencia se refiere a cada uno de los canales o a ambos. Por ello, en las especificaciones técnicas, se añade una de estas dos indicaciones: Con los dos canales alimentados. Por canal. En el ejemplo anterior con una potencia de salida de 175 W sobre 8 ", si se añade con los dos canales alimentados significa que por canal la potencia será la mitad (87,5 W sobre 8 "). Por el contrario, con una potencia de salida de 175 vatios sobre 8 ohmios por canal, tendremos 350 W sobre 8 " con los dos canales alimentados. En los equipos que permiten modificar la impedancia de entrada, también hay que tener en cuenta las modificaciones que el variar este parámetro introducen en la potencia. En este caso, se hacen aproximaciones cercanas, nunca son absolutas, porque, en el estado actual de los amplificadores, esto no es posible. Así, si tenemos un amplificador en el que en las especificaciones técnicas figura 175 W sobre 8 ", si reducimos la impedancia a 4 ", la potencia será cercana al doble, los 350 W (en un amplificador ideal, debería ser justamente estos 350 W). Dentro de la potencia se diferencia entre potencia nominal y potencia de pico. Potencia máxima Potencia máxima eficaz, o potencia media a régimen continuo es la potencia eléctrica real verificable con instrumentos que puede proporcionar la etapa de salida durante un minuto a una frecuencia de 1 KHz (kilo hertcio) sobre la impedancia nominal especificada por el fabricante (normalmente 4, 6 u 8 Ohmnios) y viene dada por la expresión Po= Vo(rms)2/Zo. Donde: Po.- es la potencia de salida. Vo.- es el voltaje (tensión electrica) eficaz de salida. Zo.- es la impedancia nominal del amplificador Nota: para medir la potencia se emplea una resistencia de igual valor, pues una impedancia compleja altera el desempeño del amplificador. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
52
Potencia máxima útil La potencia eficaz esta limitada por la distorsión del equipo, ya que esta crece con la potencia, de modo que se especifica la potencia útil a un nivel de distorsión nominal, como 1, 2 ó 5% (10% en amplificadores de baja calidad) o menos de 0.25% en otros de alta calidad, esta medida es inferior a la anterior. Potencia de pico, admisible o musical Potencia máxima impulsiva (un pico de señal'), que puede soportar cada cierto tiempo el amplificador antes de deteriorarse. Algunos fabricantes en lugar de especificar la potencia nominal, especifican la potencia de pico, para maquillar el alcance del amplificador, pues la potencia de pico siempre es superior a la potencia nominal. Hay que estar alerta a este detalle y tener en cuenta que la potencia de pico de un amplificador es 1,4142 (raíz cuadrada de 2) veces su valor nominal.
Relación señal/ruido Hace referencia al voltaje de ruido residual a la salida y se expresa en dB. Para que la relación señal /ruido esté por debajo del umbral de audición, debe ser de al menos 100 dB. Mayor, 110 dB, en el caso los amplificadores de alta potencia (por encima de los 200 vatios) la cual surge al hacer frotación
Acoplamiento Indica la forma en que el amplificador está conectado al altavoz. Se habla de “acoplamiento directo”, cuando ambos esta acoplados directamente, sin pasos intermedios. Internamente, el amplificador funciona con tensión continua, pero a la salida convierte la señal en corriente alterna. Cuando conectamos directamente un amplificador con el altavoz, este acoplamiento directo debe hacerse de forma que la corriente continua residual (DC offsets) sea lo más baja posible, no superando los 40 milivoltios. (Los más habituales están en 15 milivoltios).
Respuesta en frecuencia Calcula el límite dentro del cual el amplificador responde de igual forma (respuesta plana) a las audiofrecuencias (20 a 20.000 Hz) con una potencia muy baja. La respuesta en frecuencia en los amplificadores se mide en dB tomando como referencia potencia de 1 vatio con una impedancia de 8 ohmios. Para obtener una óptima respuesta en frecuencia, ésta debe estar en torno a 5 dB por encima (+ 5 dB) o por abajo (- 5 dB).
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
53
Muchos fabricantes, en lugar de usar sólo las audiofrecuencias, para proteger a los amplificadores de perturbaciones suprasónicas o subsónicas, lo que hacen es medir la respuesta en frecuencia para una banda de frecuencias superior (generalmente de 12 a 40.000 Hz). En este caso una respuesta en frecuencia óptima debe estar en torno a 3 dB por encima (+ 3 dB) o por abajo (- 3 dB).
Respuesta de fase Indica la relación en la fase entre las frecuencias medias con respecto a las altas o las bajas. Este desfase (adelantamiento o retraso) en el espectro de audiofrecuencias (20 – 20.000 Hz) no debería ser superior a los 15o, para que no se produzca distorsión o cancelamientos de la señal. Existen ciertos modelos de amplificador que invierte la fase en toda su banda de paso, lo que puede ocasionar dificultades en su operatividad (sino lo tenemos presente podremos estar cancelando toda la señal).
Ganancia Es la relación entre la potencia de salida y la potencia de entrada de la señal. Se expresa siempre como una relación logarítmica, y la unidad suele ser el dB, esto es, diez veces el logaritmo decimal del cociente entre potencias (si se relaciones tensiones, sería veinte veces en lugar de diez debido a que la potencia es proporcional al cuadrado de la tensión). Si la potencia de salida es 40 W (vatios) y la de entrada 20 W, la ganancia es: 3dB. Si la tensión de salida es de 4 VRMS y la de entrada 2 VRMS, la ganancia es: 6 dB. Cuando la ganancia es menor que 1, hablamos de atenuación. En lo relativo a amplificadores, como el decibelio siempre expresa una comparación hablaremos de dBW o dBu, lo que nos indicara cual es la referencia. dBW: La W indica que el decibelio hace referencia a vatios. Es decir, se toma como referencia 1 W (vatio). Así, a un watio le corresponden 0 dBw. dBm: Cuando el valor expresado en vatios es muy elevado, se usa el milivatio (mW). Así, a un mW le corresponden 0 dBm. dBu: El dBu expresa el nivel de señal en decibelios y referido a 0,7746 VRMS . 0,7746 VRMS es la tensión aproximada que aplicada a una impedancia de 600 ", disipa una potencia de 1mW. Se emplea la referencia de una impedancia de 600 " por razones históricas1. En un circuito en el que intervienen varios amplificadores, las ganancias individuales expresadas en decibelios ( en cualquiera de sus fórmulas tanto dB, dBw, dBm o dBu) se suman (restan si son negativas y es atenuación).
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
54
Sensibilidad Indica la cantidad de flujo eléctrico necesario de entrada para producir la máxima potencia de salida. La sensibilidad viene indicada por dBu a una determinada impedancia. El dBu expresa el nivel de señal en decibelios y referido a 0,7746 VRMS. (Al hacer referencia a voltios, en muchos manuales, principalmente norteamericanos, en lugar de dBu usan dBV). Así, 774,6 mVRMS equivaldrán a 0 dBu. Si se supera el valor especificado por la sensibilidad la señal de salida sufrirá un recorte (tanto por arriba como por abajo), como ocurre en los limitadores, y quedara distorsionada de tal modo que puede causar daño en ciertos equipos como en los tweeter. Para evitar este gran problema, la mayoría de equipos profesionales cuentan con un control de nivel de la entrada, que nos permiten atenuar la señal si resulta excesiva.
Distorsión La distorsión (distorsión armónica) describe la variación de la forma de onda a la salida del equipo, con respecto a la señal que entró y se debe a que los equipos de audio, no sólo los amplificadores, introducen armónicos en la señal. Las causas de esta distorsión pueden ser múltiples. En el caso de los amplificadores, la más usual es la sobrecarga a la entrada, es decir, sobrepasar la potencia recomendada por el fabricante, lo que produce a la salida un recorte de la señal, queda el sonido "roto". La distorsión armónica total, debe ser, como máximo de 0,1 % THD(total harmonic distortion) en todo el espectro de frecuencias (las frecuencias altas – agudos, distorsionan más que la bajas – graves). La distorsión también puede expresarse en dB en relación a una frecuencia. Es lo que se conoce como distorsión por intermodulación de transistores. Para medir esta distorsión lo que se hace calcular la distorsión del amplificador para dos ondas senoidales diferentes (generalmente, 19 y 20 kHz) y ver cuál es la diferencia entre estas señales expresada en dB. Los amplificadores de calidad deben estar en los 70 dB de diferencia en ese tono diferencial de 1 Khz.
Diafonía La diafonía indica que en un sistema estéreo, un canal de audio, afecta al otro. La diafonía depende de la frecuencia. Así hablaremos de que la diafonía es soportable cuando este en torno a 50 dB para graves y agudos y 70 dB para los tonos medios. Para eliminar problemas de diafonía, los amplificadores cuentan con rectificadores, condensadores de filtro. Además, muchos fabricantes introducen fuentes de alimentación independientes para cada canal, lo que resulta muy efectivo.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
55
Tipos de Amplificadores de Potencia Entre las diferentes tipologías de etapas de potencia encontramos: • ClaseA • ClaseB • ClaseAB • ClaseC • ClaseD • ClaseG • MOSFET
ALTAVOCES El altavoz de graves (woofer) El altavoz de bajas frecuencias, conocido corrientemente, por su denominación inglesa, «woofer», proporciona los graves en el equipo de alta fidelidad. Su única finalidad es reproducir las notas de baja frecuencia de la fuente del programa. El requisito primordial de una buena reproducción de los graves es un diafragma o cono ancho, cuanto mayor mejor (el menor tamaño de cono para un altavoz de graves medio aceptable es de 8 pulgadas). Además de tener gran tamaño, el cono debe ser de construcción sólida, más bien pesada. Los conos de tipo ligero no pueden soportar las vibraciones que se producen en las gamas de sonidos más graves. Después, un altavoz para notas bajas no debe tener su cono acoplado rígidamente al bastidor. Es decir, el aro que fija la perifería del cono al bastidor del altavoz debe estar montado de manera que el conjunto vibratorio pueda separarse de su soporte, pero no debe obstaculizar su vibración, tal como indica esquemáticamente la figura 3-8. En otras palabras, un «woofer» debe tener «flexibilidad acústica» en el borde. Con una flexibilidad elevada, el cono necesita menos fuerza para -desplazarse una determinada distancia. Dicho en términos sencillos, una gran flexibilidad significa que se necesita menos esfuerzos (en este caso, potencia acústica) para desplazar el cono hasta una cierta distancia (es decir, menos potencia para una «excursión» determinada del elemento vibrante). Otro requisito de un buen altavoz de graves es que tenga una bobina móvil grande. Esto se debe a que la bobina es capaz de disipar una cantidad considerable de calor; el calor lo generan las intensas corrientes producidas por el circuito de salida del amplificador. Cuanto mayor sea la bobina móvil, más corriente puede soportar el altavoz y, por consiguiente, mayor será su potencia acústica. Finalmente, un imán potente puede ayudar; sin él no sería posible desplazar el pesado conjunto formado por el cono y la bobina móvil. Así resulta que cuanto mayor es el «woofer», más pesado es el conjunto magnético, a menos que éste sea del tipo cerámico.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
56
Resumiendo, un buen altavoz de graves debe tener un cono grande y robusto, un imán grande y potente, elevada flexibilidad y una gran bobina móvil.
Altavoces de gamas media y ampliada Un altavoz para frecuencias medias se supone que tiene una buena respuesta para la gama de frecuencias comprendida entre las cubiertas por el altavoz de graves y el altavoz de agudos. No obstante, se puede emplear un altavoz de gama extendida o ampliada como único reproductor de frecuencias, para toda la gama de audio en general. Dado que un gran número de aficionados desean iniciar su instalación de alta fidelidad a base de una inversión pequeña o moderada, los fabricantes de altavoces han presentado excelentes ejemplos de estas unidades de uso general. Dado que, en realidad, no hay unidades para el margen medio, cuando el usuario decide pasar del sistema con un solo altavoz a un montaje con varios altavoces, puede convertir un altavoz de margen de frecuencias ampliado en uno de margen medio, e incluso usar aquél como un aceptable altavoz de graves. Según se ha indicado anteriormente, un cono grande significa buena respuesta a los bajos. Sin embargo, un buen altavoz de uso general debe tener una buena respuesta tanto en los extremos de graves y agudos del margen audible y, naturalmente, en la parte media. Los ensayos realizados por diversos fabricantes han proporcionado los siguientes datos: Un altavoz de 15" de diámetro dará una excelente respuesta a las bajas frecuencias, pero será muy deficiente para las altas. Un altavoz de 12" de diámetro dará buena respuesta en frecuencias bajas, una respuesta aceptable en frecuencias medias y precaria para los agudos. El altavoz de 8" de diámetro, uno de los más empleados en la actualidad, es el de menor tamaño que permite una respuesta francamente buena en los bajos, buena para las frecuencias medias y buena para los agudos. La figura 3-9 muestra las curvas de respuesta de frecuencia que corresponden a los tres diámetros de altavoces mencionados. Los altavoces de gama ampliada se pueden encontrar para márgenes de frecuencia tan amplios como el comprendido entre 45 y 15.000 Hz, aunque para cubrir este margen necesitan una buena caja acústica. Para obtener este tipo de respuesta, el altavoz debe estar diseñado de manera que el diafragma o cono vibre bien a las frecuencias medias y bajas y que tenga algún tipo de compensación que le permita alcanzar buena respuesta para las frecuencias elevadas. En la figura 3-10 el dibujo de la parte superior muestra el tipo convexo de cono. Aquí la curvatura del mismo permite aislar el vértice del cono sin necesidad de dispositivos especiales de desacoplo. El dibujo de la parte central muestra el desacoplador situado cerca del vértice. El dibujo de la parte inferior muestra el acoplamiento de dos conos mediante una conexión flexible. Así, uno de los diafragmas puede vibrar, mientras que el otro no se halla en vibración.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
57
Existe otro tipo de altavoz, denominado «difaxial», ilustrado en la figura 3-11. Aquí, un sistema de separación de frecuencias de tipo mecánico, incorporado al altavoz, permite que una sola bobina móvil actúe sobre dos conos. Uno de éstos es el diafragma mayor y exterior, y el otro lo constituye el anillo de difusión perforado y la cazoleta de aluminio. La respuesta conjunta de este altavoz para todas las frecuencias es muy buena. Un último tipo es el ilustrado en la figura 3-12. Aquí se tiene una bocina para agudos, centrada respecto al bastidor del altavoz para bajas frecuencias. Este altavoz se conoce como tipo «duplex» y también como «coaxial». Sin embargo, sólo hay una bobina móvil, Por lo que propiamente cae en la clasificación de altavoz simple de gama ampliada. El paso de la respuesta a agudos y a bajos se obtiene mediante un dispositivo mecánico de transición incorporado en el bastidor del altavoz, de manera similar al «difaxial».
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
58
Altavoces para frecuencias altas Normalmente, los altavoces para agudos, conocidos por «tweeters», se usan solamente en conjuntos de varios altavoces. Sin embargo, son altavoces independientes y de gran importancia en un conjunto reproductor de calidad. Existen tres tipos básicos de altavoces para agudos. El tipo de cono es, físicamente, una versión a menor tamaño de un «woofer» de baja frecuencia. El segundo tipo es el de bocina o trompa, llamada así porque realmente actúa como tal. El tercer tipo, va descrito anteriormente, es el electrostático o de condensador.
• Altavoces de agudos (tweeters) del tipo de cono Dado que los «tweeters» han de reproducir las notas agudas, deben resonar a frecuencias elevadas. Esto se obtiene a base de mecanismos muy ligeros y sustentados rígidamente, como el representado en la figura 3-13. del Paracono, que elhabrá conoque de disminuir un «tweeter» sea ligero, sermóvil. pequeño. Disminuyendolas el tamaño y el peso el tamaño de ladebe bobina Afortunadamente, frecuencias elevadas solamente transportan una cantidad relativamente pequeña de potencia eléctrica, y, por consiguiente, la pequeña bobina móvil no se halla sujeta a sobrecarga. Sin excepciones, está devanada con hilo muy ligero, tal como alambre o cinta de aluminio. La ligereza del sistema móvil que proporciona el aluminio hace que la respuesta a las notas bajas sea mucho mejor que si se emplease cobre.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
59
Un altavoz para agudos del tipo de cono reproduce los sonidos altos de manera desigual. Difunde las frecuencias elevadas en «lóbulos» o zonas situadas enfrente de él y tiende a producir una disminución de efecto en los lados, como indica la figura 3-14. Este efecto se puede corregir disponiendo dos o más «tweeters» del tipo de cono en la forma representada en la figura 3-15. De esta manera, el solapado de los lóbulos producido por los dos altavoces cubre el área de audición.
• Altavoces de agudos del tipo de bocina Para obtener una potencia razonable de un altavoz, debemos producir la vibración de grandes masas de aire. A su vez, para conseguir esto, usualmente son necesarias grandes superficies vibratorias, tales como los conos de los «woofers». Cuanto mayor sea la superficie del cono o diafragma, mayor será la potencia. Pero el diafragma de los «tweeters» debe ser pequeño para poder
alcanzar una respuesta aceptable a las altas frecuencias, por lo que sólo se puede actuar sobre una cantidad pequeña de aire, disminuyendo la potencia de salida. Se puede aumentar la potencia acústica de cualquier tipo de diafragma si lo asociamos directamente a una bocina, convirtiendo el sistema en uno del tipo de bocina. La figura 3-16 muestra la diferencia relativa de tamaño entre los diafragmas de un «tweeter» del tipo de cono y uno del tipo de bocina. La fuerza de propulsión de la bobina móvil del segundo de ellos se distribuye mejor entre la masa pequeña del diafragma y la masa del aire en la bocina. Dado que el aire pesa mucho menos que el papel, la carga conjunta sobre la bobina móvil, para la misma potencia acústica que para el «tweeter» del tipo de cono, puede disminuirse considerablemente. Asimismo, para una misma señal eléctrica aplicada, la salida del sistema de bocina es mayor. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
60
Para obtener el máximo rendimiento, las unidades excitadoras de la bocina son del tipo de compresión 3-17. La parte posterior del reproductor se halla totalmente cerrada para proporcionar un robusto cojín de aire detrás del diafragma.
Sin embargo, se trata de algo más que del rendimiento acústico. También existe la cuestión de la distribución del sonido en un ángulo (horizontalmente), tan amplio como sea posible. Las bocinas pueden diseñarse, y de hecho se producen así, de manera que la abertura angular sea controlable. Tales bocinas o pantallas acústicas son rectangulares, como las representadas en las figuras 3-18 y 3-19, y se observa que los dos tipos obtienen resultados similares de dos maneras distintas. El tipo de bocina de difracción, representado en la figura 3-18 actúa sobre el principio de que el sonido que procede de una rendija estrecha, de pequeño tamaño en comparación con la longitud de onda, emerge en forma cilíndrica de frente de onda a partir de aquella hendidura. Es decir, el frente de onda se difracta a partir de la hendidura. Este tipo de bocina tiene una respuesta uniforme suave, sin lóbulos ni valles en la característica de radiación del sonido.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
61
La bocina alternativa de la figura 3-19 distribuye el sonido en un amplio ángulo, invirtiendo la dirección según la cual se produce la presión en la bocina. Su forma de construcción la hace apropiada para una dispersión horizontal del sonido. La superficie de la bocina se expande rápidamente al principio en dirección vertical, sin existir prácticamente expansión horizontal. La presión sonora que se propaga verticalmente. a lo largo de Pero un conducto de este tipo encuentra un camino relativamente fácilchoca para expandirse cuando tiende a expandirse horizontalmente, la presión sonora contra las paredes laterales de la bocina. En consecuencia, la presión del sonido aumenta en dichas paredes. Retrocediendo un poco, diremos que toda sección transversal de una bocina puede considerarse como área parcial de garganta de la bocina que la precede inmediatamente. Una sección alimenta a la siguiente; así, una sección de la bocina se puede considerar como «excitador» para la siguiente, excitador que, en este caso, crea una presión sonora horizontal mayor que la vertical. Si se modifica la forma en dirección del ensanchamiento o de manera que éste resulte mayor que en la dirección horizontal, tendremos, en efecto, una nueva bocina con una característica de dispersión horizontal. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 62
Por otra parte, tenemos un excitador con alta presión sonora horizontal intrínseca; el resultado final será una bocina con una dispersión horizontal excepcionalmente ancha.
Electroacústica El Arte del Sonido INTRODUCCIÓN A LA TECNOLOGÍA MUSICAL Antecedentes Las innovaciones en la tecnología musical, especialmente la creación de nuevos instrumentos y la modificación de los viejos, ha sido una característica normal de la historia de la música occidental, que se ha ido moviendo de mano en mano con la expansión de los recursos composicionales. Desde el momento en que las extensiones en el lenguaje musical necesitan a menudo nuevos instrumentos para su realización adecuada, mientras los nuevos instrumentos abren posibilidades composicionales que hasta entonces no habían existido y, por tanto, animan a la transformación estilística. A lo largo del siglo XIX la expansión de los materiales composicionales nos llevó a romper una especie de barrera estimulando una verdadera explosión de nuevos desarrollos técnicos a principios del siglo XX. El factor más importante fue la llegada de la atonalidad que, al igualar las relaciones melódicas y abolir las distinciones entre consonancia y disonancia, planteó la cuestión de si las notas de la melodía tenían que formar necesariamente el elemento dominante de la construcción musical. Los futuristas redefinieron la música como un “arte de ruidos” y Varése realizó sus primeras apelaciones hacia “nuevos medios técnicos que puedan conducir por sí mismos a cualquier expresión”. No contentos con un cuerpo “especializado”, enormemente limitado de material específicamente musical, los compositores comenzaron a concebir la composición como la organización de todos los sonidos posibles, especialmente de aquellos disponibles gracias a la tecnología del siglo XX. Pronto aparecieron nuevos instrumentos que comenzaron a producir estos nuevos sonidos. Retrospectivamente, los presagios más evidentes de la situación postonal fueron los primeros intentos de crear instrumentos electrónicos, capaces de producir una variedad de sonidos que fuera mucho más allá de cualquier otra imaginada anteriormente. Estos intentos incluyeron el telharmonium de Thaddeus Cahill (1906), un instrumento two-hundred-ton (doscientas toneladas) que producía sonidos “artificiales” con generadores electrónicos; el theremin de Lev Termen (1920), capaz de interpretar una extensión continua de notas alterando la frecuencia de un oscilador electrónico; las ondas martenot de Maurice Martenot (1928), también capaces de desarrollar una extensión de frecuencias continua, pero con un mejor control melódico y una variedad tímbrica; y el primer órgano electrónico inventado por Louis Hammond en 1929. Además, se introdujeron instrumentos mecánicamente innovadores (por ejemplo, los no electrónicos) como el intonarumori del Futurista Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 63
Luigi Russolo y los fonógrafos de velocidad variable que se utilizaron para transformar sonidos grabados con anterioridad, experimentados en primer lugar por compositores como Milhaud, Hindemith y Varése y en composiciones de John Cage (comenzando por su Imaginary Landscape no 1, 1939). A pesar de estos desarrollos, la actividad en la música electrónica y la utilización del ruido como fuente musical de primer orden permaneció en los márgenes de las principales corrientes musicales de este período. Una razón fue técnica: los primeros instrumentos electrónicos fueron bastantes primitivos tanto en su construcción como en su capacidad de producir sonidos. Además, no existieron medios eficientes de almacenamiento, transformación y combinación de los sonidos musicales grabados; la grabación de una cinta magnetofónica, aunque inventada en 1935, no se hizo extensible hasta después de la segunda guerra mundial. Igualmente importante, el clima musical general no condujo hacia una concepción radicalmente nueva de la música en la que este tipo de experimentos podían prosperar. Algunos compositores posteriores a Webern han llegado tan lejos como es posible llegar con la idea del serialismo total, expresando ideas musicales con instrumentos y notación tradicionales. La complejidad matemática del planteamiento de algunas composiciones llegó a un punto en el que los rápidos avances electrónicos empezaban a ofrecer soluciones técnicas más adecuadas para la realización de algunas ideas musicales. Ese fue el momento en el que la música electroacústica se consolidó, y por ello supone una continuación lógica de la preocupación obsesiva de Webern por el serialismo como fuerza absoluta dominante en el pensamiento compositivo.
Audiciones CORALE – LUIGI & ANTONIO RUSSOLO (1921) (1:57) Las piezas de 1921 de Antonio Russolo Corale y Serenata, en las que el autor combina sonidos provenientes de instrumentos tradicionales con los del intonarumori. El intonarumori era un conjunto de instrumentos inventado por su hermano Luigi junto a Ugo Piatti. Era grande (para ser más precisos, extremadamente grande), y emitía, como su nombre lo indica: ruidos. Estaba compuesto por el crepitatore, ululatore, gorgogliatore, y otros más, que producían distintos ruidos. Estos, que ahora al escucharlos no nos llaman la atención, asombró durante su presentación al público en 1913; aunque, seguramente influyó en su reacción, el tener delante la gran máquina que los producía.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
64
Las breves obras de Antonio permiten apreciar una muy buena combinación entre ruidos y música tradicional, los ruidos no parecen “interferir” en el discurso de los instrumentos, sino que se integran. Y es porque Antonio era músico. Pero más famoso es su hermano Luigi, principalmente, por estar dentro de los primeros en dar importancia a los ruidos como material sonoro apreciable. Fue precedido por otros, pero él escribió el texto que podríamos llamar “Dignifiquemos a los ruidos”, aunque ha pasado a la historia con un título más serio: “El arte de los ruidos”. En ese texto, dado a conocer en 1913, afirma que antiguamente reinaba el silencio, pero que en el siglo XIX, con la invención de las máquinas, nació el ruido. Que los ruidos no son todos necesariamente fuertes y desagradables, que los hay también que provocan sensaciones acústicas placenteras; que la música tradicional está limitada a un número determinado de timbres, e invita a jóvenes músicos –a los “geniales y audaces”, dice–, a observar los distintos ruidos y analizarlos, asegurándoles que se apasionarán por ellos. Clasifica los ruidos en seis “familias”, y finaliza: “He podido intuir la gran renovación de la música mediante el arte de los ruidos”. Pero Russolo no tenía formación musical, era pintor; por eso su Risveglio de una città (Despertar de una ciudad), no es más que una sucesión de ruidos, y pareciera tener como único fin, el escuchar atentamente algunos de los ruidos que nos rodean. Son ruidos a los cuales no solemos prestarles mayor atención en nuestras vidas, por estar muy acostumbrados a ellos.
Audiciones recomendadas: Luigi Russolo - Risveglio Di Una Citta Antonio Russolo - Serenata Luigi Russolo - Ululatore Luigi Russolo - Crepitatore Luigi Russolo - Canzone Rumorista Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
65
WOCHENDE – WALTER RUTTMAN (1930) (11:17) (Frankfurt, 1887-Berlín, 1941) Director de cine alemán. Fue pintor dadaísta antes de empezar a cultivar, a partir de 1922, el cine abstracto (Opus 1, 2, 3 y 4). Influido por las teorías de Dziga Vertov, rodó uno de los más ambiciosos e importantes documentales de la vanguardia europea: Berlín, sinfonía de una gran ciudad (1927), descripción impresionista y de brillante ritmo de una jornada berlinesa. En 1929 realizó La melodía del mundo, innovador ensayo de montaje audiovisual. Después de filmar el corto In der Nacht (1931), basado en la música de Schumann, dirigió en Italia su primer filme narrativo, Acero (1933), con guión de Luigi Pirandello. A partir de entonces se alejó paulatinamente de los experimentos de vanguardia, pasando a dedicarse casi exclusivamente al documental. De esta última etapa destacan su colaboración en Olimpiada (1936), de Leni Riefenstahl, y los documentales Mannesmann (1937) -sobre la industria metalúrgica- y Deutsche Panzer (1940) sobre el avance de las tropas nazis hacia París-. Fue herido mientras operaba como camarógrafo en el frente del Este, y falleció en Berlín poco después.
TELHARMONIUM El Telarmonio (Telharmonium) o Dinamófono (Dynamophone) es un instrumento musical electrónico, patentado en 1897 por el inventor estadounidense, Thaddeus Cahill. No obstante, el invento no estaría terminado hasta 1906. Ese año fue presentado en sociedad en Holyoke. El primer prototipo de telearmomio costó cerca de 200.000 dólares, pesaba aproximadamente 200 toneladas y tenía una longitud de 18 metros de largo. El Telarmonio usaba una rueda tonal electromagnética para generar sonidos típicos del órgano y piano. El sonido que producía el telarmono ofrecía hasta 7 octavas, 36 notas por octavas y frecuencias entre los 40 a 4000 Hz. A pesar de las excesivas proporciones del Telarmonio, el instrumento fue transportado desde Holyoke a Nueva York. Para ello, fueron necesarios 30 vagones de tren. En Nueva York, ocupó una planta entera del teatro situado en la esquina de calle 39 de Broadway. Allí permaneció durante dos décadas, por ello, el edificio se conocería con el sobrenombre de Telharmonic Hall. Cahill se asoció con la Nueva Inglaterra Electric Music Company para transmitir el Telarmono a los hoteles, restaurantes, teatros y hogares a través de la línea telefónica, cobrando a los abonados por este peculiar hilo musical. El negocio fue bien y sobrevivió al desplome de Wall Street y a la Primera Guerra Mundial, pero quebró con el "boom" de la radiodifusión. Tras el primer modelo se construyeron otros dos telearmonios, mayores y más caros. Cahill terminó el tercer y último en marzo de 1911. Este tercer Telarmonio funcionó hasta 1916. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
66
Ninguno de los tres prototipos del Telarmonio existe en la actualidad, ni tampoco se ha encontrado alguna grabación con dicho instrumento, pero se cree que su sonido era similar al del órgano Hammond.
THEREMIN El theremin (theremin, théremin o théreminvox), llamado en su versión primitiva aetherophone (eterófono), es uno de los primeros instrumentos musicales electrónicos, y el primer sintetizador de la Historia, inventado en 1919 por el físico ruso Lev Serguéievich Termen (quien luego afrancesó su nombre a León Thérémin).
León Thérémin tocando el theremín
El diseño clásico consiste en una caja con dos antenas. Se ejecuta acercando y alejando la mano de cada una de las antenas correspondientes, sin llegar a tocarlas. La antena izquierda (desde el punto de vista de un ejecutante diestro) es horizontal y con forma de bucle, y sirve para controlar el volumen: cuanto más cerca de la misma esté la mano izquierda, más baja el volumen, y viceversa. La antena derecha suele ser recta y en vertical, y sirve para controlar la frecuencia: cuanto más cerca esté la mano derecha de la misma, más agudo será el sonido producido.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
67
Theremín moderno Originalmente, su versión más primitiva fue llamada Aetherophone (se podría traducir como Eterófono), y constaba sólo de la antena de tono. Dicho diseño fue tempranamente mejorado por el inventor, añadiendo posteriormente una antena para controlar el volumen tal y como hemos descrito. Actualmente, algunos de los modelos caseros y comercializados de Theremin disponen tan sólo de la antena que controla el tono, lo cual siendo rigurosos les convierte en realidad en un "Eterófono", y su uso frecuentemente es el de un aparato para efectos especiales más que un instrumento musical, al no poder acentuar ni separar las notas producidas.
También se han llegado a producir theremines de forma más o menos artesanal con formas de interactuar muy distintas, como por ejemplo, teremines ópticos que miden la cantidad de luz que les llega a un sensor. También la casa Roland comercializa en algunos de sus módulos un sensor de infrarrojos llamado D-Beam, con el cual se puede controlar no sólo el tono, sino alternativamente el parámetro que se elija.
Audiciones recomendadas: En el pasado las figuras más representativas asociadas al instrumento fueron Clara Rockmore, Dr. Samuel Hoffman y Lucie Bigelow Rosen entre otros. Hoy en día, un gran número de thereministas buscan seguir el legado de los grandes virtuosos del instrumento, algunos de ellos: Lydia Kavina, Barbara Buchholz, Carolina Eyck, Ernesto Mendoza, Ciro Mendoza, Peter Pringle, Robby Virus, Pamelia Kurstin.
ONDAS MARTENOT Las ondas de Martenot es un instrumento electrónico inventado en 1928 por el compositor, ingeniero y cellista francés Maurice Martenot. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
68
El instrumento está formado por un teclado, un altavoz y un generador de baja frecuencia. Las ondas Martenot es un instrumento monofónico, es decir que no produce notas simultáneas. Cuando se presiona una tecla sólo puede producirse un único sonido. Maurice Martenot ofreció la primera demostración de las Ondas Martenot en el Conservatorio de París el 20 de abril de 1928 con una obra de Dmitrios Levidis.
Audiciones recomendadas: Las ondas Martenot fueron usadas por muchos compositores, entre ellos Olivier Messiaen, que las incluye en Turangalîla-Symphonie, en Trois Petites Liturgies de la Présence Divine y en su ópera Saint-François d'Assise. Otros compositores que han escrito para este instrumento son Pierre Boulez, Edgar Varèse, Darius Milhaud, Arthur Honegger, Maurice Jarre y André Jolivet. Bohuslav Martin $ autorizó la adaptación de su "Fantasie" para ondas Martenot cuando concluyó que era difícil interpretarla en el theremin, para el cual había sido srcinalmente escrita.
HAMMOND Un órgano Hammond es un instrumento musical basado en los principios del electromagnetismo y de la amplificación a través de altavoces individuales, creado por el inventor estadounidense Laurens Hammond y cuyavinculada producción desde sino 1935 que hastatambién 1978. Ladesarrolló empresa ydel inventor deotras este instrumento(1895-1973) no sólo estuvo a la vamúsica, comericalizó invenciones, tales como dispositivos de cambio automático para automóviles, relojes de pared, etc. Como características principales, este órgano presenta un mueble de madera, cerrado o con cuatro patas (modelo B3), de aspecto sobrio con un sistema de 25 (modelo B3) ó 32 (modelo RT3) pedales para los sonidos del bajo. En la cónsola, hay dos teclados de cinco octavas y encima de éstos, hay cuatro juegos de nueve drawbars o barras deslizantes que permiten añadir armónicos (generados mediante ruedas fónicas -Tone Wheels, por su nombre en inglés-) a los sonidos fundamentales del instrumento. Cuenta con un altavoz giratorio acabado en dos trompetas (una de ellas muda) instalado sobre un motor que gira a dos diferentes velocidades: Slow-Fast (Lento- Rápido)/Tremolo-Chorale. Este sistema de amplificación, llamado Leslie, es en gran parte responsable de su característico timbre, pero no fue nunca vendido por Hammond, ya que Leslie y Hammond fueron (durante el período dorado de la marca) empresas totalmente separadas, y rivales puesto que Laurens Hammond nunca fue partidario de la utilización de este tipo de altavoz. El apogeo del Órgano Hammond tuvo lugar en los años 60 y 70, destacando en diversos géneros musicales, tanto en el jazz, en el rock, como también en el soul, el gospel y la música ligera. 67
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
69
FONÓGRAFOS DE VELOCIDAD VARIABLES. Imaginary Landscape No. 1, pieza que emplea fonógrafos a distintas velocidades y tonos de frecuencias a lo largo de un piano silenciado y un enorme címbalo chino.
Estudios electrónicos
El primer estudio destinado a producir música exclusivamente mediante medios electrónicos fue fundado en 1952 por el compositor alemán Herbert Eimert (1897) en la radio de Colonia de Alemania Occidental. Además de los materiales que solían existir en los estudios de musique concrète, el estudio de Eimert también contó con aparatos electrónicos productores de sonido: los osciladores y los generadores de ruidos. Con ellos, los compositores pudieron construir su propio material en lugar de tomar como base sonidos naturales con características tímbricas predeterminadas que, incluso cuando se modifican, no cambian totalmente. Para los compositores seriales esto fue una distinción muy importante ya que vieron en la música electrónica un medio de controlar, no sólo las notas y sus duraciones, sino también los materiales sonoros en sí mismos. Además de generar la estructura de la música a partir de un único plan composicional integrado, su timbre también puede derivarse. Las primeras composiciones de Stockhausen realizadas en el estudio de Colonia, Study I (1953) y Study II (1954), fueron los primeros ejemplos de música electrónica pura. Ellos exploraron sistemáticamente una de las técnicas básicas de las primeras construcciones sonoras electrónicas, la síntesis “auditiva”, mediante la cual, los sonidos se crean al combinar distintas ondas de forma indefinida (los sonidos “puros” sin armónicos) con el fin de crear estructuras armónicas artificiales y, por lo tanto, nuevos timbres. La insatisfacción que surgió a mediados de la década de 1950 debido a las limitaciones que traía consigo un serialismo aplicado de formas rigurosas se reflejaron pronto en el descontento que produjeron las posibilidades de la síntesis electrónica pura. Las ventajas de precisión y control total fueron compensadas por la pobreza tímbrica de los sonidos que se conseguían con la técnica y los equipos que estaban disponibles entonces. La cualidad “sin vida” del estudio, característica de la música electrónica pura, trajo muchos problemas a los compositores y a los oyentes. Aunque tuvieron una considerable importancia histórica y fueron un indicador de su capacidad para pensar dentro de los nuevos marcos composicionales, los dos primeros estudios de Stockhausen fueron, en muchos aspecto, bastantes primitivos. El compositor desconfió, cada vez más, de un abierto acercamiento rígido en el que todo sonido estaba determinado de antemano ya que era el resultado del ordenamiento serial de los elementos. Su siguiente composición electrónica, Gesang der jünglinge (canto de los adolescentes) (1956), combinan los sonidos concrète, basados en una grabación del canto de un niño, con los sonidos puramente electrónicos. Esta obra incluye no sólo ondas senoidales, tanto de forma individual como en grupo, sino también ruidos filtrados que se logran mediante una segunda técnica basada existente desde los comienzos de la música electrónica: la síntesis “sustractiva” en la que los componentes de un Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 70
complejo sonoro (generalmente el “ruido blanco” produciendo de forma electrónica, que contiene el espectro completo de frecuencias audibles) se filtra con el fin de producir nuevos timbres. (La síntesis sustractivas aplicada a sonidos naturales ha sido una técnica estándar de la musique concrète.) Por lo tanto, Gesang der jünglinge trata con una mayor variedad de material sonoro que sus estudios anteriores. Ésta más mejorada debido a la utilización elaborada de la reverberación y del “movimiento especial” produciendo mediante la rotación del sonido en cinco altavoces colocados en circulo alrededor del espacio de audición. La obra resultante, de una importante riqueza, fue una piedra angular en la música electrónica, ya que fue la primera obra maestra del género y la primera composición c que combinó elementos electrónicos y concrète. Comenzaron a aparecer nuevos estudios en lo que no existían una distinción rígida entre los medios electrónicos y concrète. A finales de la década de 1950, se fundaron estudios en Tokio, Warsaw, Londres, Bruselas y Estocolmo, todos ellos patrocinados, al igual que los anteriores de París, Colonia y Milán, por sistemas de radio estatales. El primer estudio privado había sido fundado algunos años antes por Louis y Bebe Baron en Nueva York. (Los Barons, que en primer momento se ocuparon de la música comercial, produjeron la primera partitura electrónica para el cine, la película de ciencia ficción clásica Forbidden planet, el planeta prohibido.)
Audiciones Herbert Eimert nació en Bad Kreuznach (Alemania), en 1897 y fallecido en Düsseldorf (Alemania), en 1972, estudió en el conservatorio de Colonia, del que fue expulsado por escribir un libro sobre atonalidad. Durante la segunda guerra mundial trabajó como periodista, y cuando la radio alemana fue reconstruida, se incorporó a ella como programador y editor musical. Junto a su colega Robert Beyer, ingeniero de sonido, fundaron el famoso estudio de música electrónica (WDR) en 1951. Antes incluso de haber fundado oficialmente el estudio, ambos habían producido algunas pequeñas piezas con un equipo muy primitivo (destacando Klangstudie II) . Como Eimert no se consideraba suficientemente cualificado como para llevar el peso musical del estudio, decidió invitar a Stockhausen a trabajar allí. Un año más tarde haría lo mismo con Gofried Michel Koenig. Estos dos músicos constituyeron el inicio de la pionera música electroacústica que ha caracterizado a Colonia en este aspecto. Posteriormente, pasarían por el WDR personalidades como Ligeti y Kagel, lo que da una idea de la relevancia que tiene esta zona en el desarrollo de la música electrónica. Stockhausen empezó a componer durante su tercer año de conservatorio, pero solo ha publicado cuatro de sus primeras composiciones de estudiante: Chöre für Doris, Drei Lieder, para voz de alto y orquesta de cámara, Choral, para coro a capella (las tres de 1950), y una Sonatina para violín y piano (1951). En agosto de 1951, justo después de su primera visita a Darmstadt, Stockhausen empezó a trabajar con una forma de música atemática compuesta serialmente que rechazaba la técnica de 12 tonos de Schoenberg. Stockhausen calificó muchas de esasen tempranas composiciones como puntual», aunque algún crítico concluye después de analizar profundidad esas partituras que«música Stockhausen «nunca compuso puntualmente». Las composiciones de esta época incluyen obras como Kreuzspiel (1951), el Klavierstücke I–IV (1952) —la cuarta pieza es especialmente citada por Stockhausen como un ejemplo de «música puntual»8 ), y la primera versión (no publicada) de Punkte y Kontra- Punkte (1952). De lo que no hay duda es que algunas obras de esos años muestran a Stockhausen formulando sus primeras contribuciones, rompedoras y revolucionarias, a la teoría y práctica de la composición, como la «composición grupal», una técnica usada en sus composiciones desde 1952 y durante toda su obra. Este principio fue descrito públicamente por primera vez por Stockhausen en una locución de radio de diciembre de 1955 titulada «Gruppenkomposition: Klavierstücke I». Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
71
En diciembre de 1952 compuso un Konkrete Etüde,en el estudio de música concreta de Pierre Schaeffer en París. En marzo de 1953 se trasladó al estudio de la radio NWDR de Colonia y cambió a la música electrónica con dos Estudios Electrónicos (1953 y 1954). En la obra Gesang der Jünglinge (1955–56) introdujo, por vez primera, el emplazamiento espacial de fuentes de sonido, con su mezcla de música concreta y música electrónica. La experiencia ganada con los Estudios le convencieron de que era una simplificación inaceptable tratar los timbres como entidades estables. Reforzado por sus estudios con Meyer-Eppler, a principios de 1955 Stockhausen formuló nuevos criterios «estadísticos» de composición, enfocando su atención hacia la música aleatoria, tendencia en la que secomo movíaopuesto el movimiento sonoro, «el cambio de un estado a otro, con o sin movimiento de retorno, al estado estático». Posteriormente Stockhausen escribió, describiendo ese periodo en su trabajo de composición: «La primera revolución musical que ocurrió desde 1952/53, denominada música concreta, música electrónica con cinta magnetofónica, y música espacial, requería componer con transformadores, generadores, moduladores, magnetófonos, etc. , integrar todas las posibilidades sonoras concretas y abstractas (sinteticas) incluyendo todos los ruidos, y lograr la proyección
71 controlada del sonido en el espacio». Su posición como «compositor alemán líder de su generación» fue conquistada con Gesang der Jünglinge y tres piezas compuestas concurrentemente con diferentes medios: Zeitmasze para cuatro instrumentos de viento de madera, Gruppen para tres orquestas, y Klavierstücke XI. Los principios a estas tresdiecomposiciones presentados el articulopublicado teorico más conocido desubyacentes Stockhausen: «...wie Zeit vergeht...»fueron [«...Como pasa el en tiempo...»], por primera vez en 1957 en el vol. 3 de la revista «Die Reihe». Audiciones recomendadas: • Klangstudie II – Herbert Eimert • Klavierstuck I&II – Karlheinz Stockhausen • Gesang der j nglinge – Karlheinz Stockhausen • Forbidden planet (película) – Louis y Bebe baron Sintetizadores
Para 1960 la música electrónica se había ya establecido como un elemento vital dentro de la música contemporánea. Todo compositor joven de cierta importancia, y muchos de los viejos, habían realizado alguna utilización del nuevo medio. Además, la música electrónica había comenzado a asumir una importancia comercial en la radio, televisión y cine, principalmente como una fuente de efectos inusuales. La mayoría de las investigaciones fueron dirigidas hacia un nuevo equipamiento de los estudios electrónicos. El logro más importante fue el descubrimiento de una forma de integrar los distintos componentes disponibles –osciladores, amplificadores, generadores, filtros, etc.- dentro de una consola, por lo que las unidades individuales podían combinarse y estar controladas por un único control de voltaje (generalmente un teclado). Esta unidad integrada, que con el simple añadido de una grabadora se convierte en un estudio de electrónico básico, fue llamado sintetizador, una máquina capaz de combinar artificialmente, o sintetizando, sonidos puramente electrónicos. El impacto de los sintetizadores en el mundo de la música fue doble: la música electrónica creció dentro del poder financiero de un amplio grupo de músicos, y la cantidad de tiempo necesario para completar las operaciones electrónicas básicas se redujo enormemente. En un Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 72
“estudio clásico” (nombre dado a un estudio de sintetizadores estándar que contengan grabadoras y componentes electrónicos independientes) la creación de series de notas distintas con diferentes duraciones –una “melodía”- necesita que cada nota sea grabada de forma separada en la cinta, cada pieza de la grabadora cortada respecto a la duración correcta y puesta en la duración deseada y las diferentes piezas empalmadas juntas formando la secuencia deseada. Con un sintetizador controlado por voltaje, por otro lado, se pueden aplicar voltajes variables a un único oscilador para producir diferentes notas; por lo tanto, una secuencia de notas, y duraciones pueden producirse presionando las teclas de un teclado (por ejemplo) durante el tiempo necesario, como cuando uno toca el piano. Lo que podrían haber supuesto horas en un estudio clásico se puede producir en “tiempo real” –en cuestión de segundos- con un sintetizador. Pero también los sintetizadores tienen sus desventajas. El compositor está limitado a los módulos particulares que están en una consola dada y el sonido también tiende a tener cierta igualdad por todas partes –una cualidad “pre-empaquetada”-. El primer sintetizador que tuvo éxito fue el RCA Mark II, desarrollado en el centro de investigación Sarnoff en Nueva Jersey, finalizado en 1955. Además de sus nuevos recursos tímbricos, este instrumento dio a los compositores un nivel de control sobre los materiales improcedentes, permitiéndoles lograr “interpretaciones” absolutamente precisas de concepciones extremadamente complejas. Esto atrajo especialmente la atención de aquellos compositores que se inclinaban por el control composicional estricto, como Milton Babbitt, que ha realizado toda su música electrónica en el Mark II, comenzando con su composición para sintetizador (1961) e incluyendo algunas obras innovadoras como Philomel (1964).
•
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
73
Aunque se trataba del instrumento electrónico más sofisticado de aquella época, el Mark II era pesado y muy grande y en algunos aspectos molesto de utilizar. Fue reemplazado por una serie de sintetizadores menores y más prácticos que permitieron que pudiera llevar a cabo una producción en masa. El primer compositor que se identificó con estos pequeños sintetizadores fue el americano Morton Subotnick (1933). Él fue quizás el primer compositor que realizó música electrónica agradable para un grupo relativamente amplio de oyentes y sus obras hicieron mucha labor al acercar la música electrónica y los sintetizadores al conocimiento del público.
Audiciones Philomel: Sección I – Milton Babbitt Es una obra para soprano solista, con una cinta que incorpora una grabación alterada o eco de la voz junto a sonidos electrónicos. El poema, de John Hollander, escrito expresamente para esta partitura, está inspirado en la fábula de Ovidio (Metamorfosis 6:412-674). Progne, esposa de Tereo, rey de Tracia, está ansiosa por ver a su hermana Filomela después de muchos años de ausencia y envía a Tereo en su busca. En el viaje de regreso Tereo viola a Filomela en un bosque de Tracia y le corta la lengua para impedir que lo delate, sin embargo, su culpa se descubre. Furioso, persigue a las dos hermanas, pero antes de que pueda capturarlas, se transforma en abubilla, Progne en golondrina y Filomela ruiseñor. En ylaambas metamorfosis Filomela por recupera voz. A las secciones les responde en la voz de la cinta son acompañadas sonidosla sintetizados; es evidentevocales que cada detalle de la partitura ha sido trabajado conforme a los principios seriales. Las secciones vocales alternan con interludios sintetizados, no escritos, compuestos más libremente. La voz de la cinta a menudo contesta distorsionando la línea del solista o intercalando comentarios hablados como en un coro griego. En una conmovedora escena, Filomela descubre que puede cantar como un pájaro y le pregunta a un tordo, “¿Tú también hablas con la lengua del bosque?”. En una sección contrapuntística de tres voces se intercambian tres conjuntos de cuatro notas que forman las siguientes series: Do# - Fa# - La – Re, que se translada a la parte del solista después de haberse escichado primeramente en la parte más grave; Mib – Lab – Sol – Do, que ha sonado en la parte más aguda de la cinta. La primera serie, pues, se utiliza para imitar el canto de un pájaro. Este ordenado Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
74
contrapunto contrasta con el inicio de la composición, cuando filomela grita de dolor, y las doce notas de la serie se escuchan al mismo tiempo. Audiciones recomendadas: • Phonemena – Milton Babbitt • Post-partitions – Milton Babbitt • Reflections – Milton Babbitt • Touch – Morton Subotnick • A sky of cloudless sulphur – Morton Subotnick • Gestures – Morton Subotnick
Mezclas de ejecución en vivo y elementos electrónicos
Desde los primeros días de la música electrónica, tanto los compositores como el público estuvieron molesto por el fenómeno aparentemente “antinatural” de los conciertos en los que no había nada que ver excepto un amplificador, una grabadora y algunos altavoces. (como resultado, una cantidad considerable de música para cinta grabada ha sido destinada a acompañar algunos tipos de presentación visual como cine o danza.) Otra peculiaridad es que, una vez que está compuesta, una pieza electrónica permanece fija para siempre, exactamente en esa misma forma, privada del continuo enriquecimiento que resulta de la interacción que se produce entre los distintos intérpretes de una misma obra y las tradiciones de la interpretación. Consecuentemente, la combinación entre música grabada y música en directo jugó un papel significativo en la música electrónica desde sus orígenes y ganó una importancia considerable durante la década de 1960. La primera obra que combinó música instrumental grabada con música instrumental en directo fue música su due dimensioni para flauta, percusión y cinta grabada, creada por Bruno Maderna en el estudio de Colonia en 1952. En estas primeras obras, la tendencia fue la de subrayar los contrastes tímbricos entre la música grabada y la interpretación en directo. Posteriormente, en los años cincuenta, los compositores también comenzaron a investigar las posibilidades de mediación existente entre los dos tipos de música, explotando las similitudes y las diferencias. La obra de Pousseur Rimes pour diferentes sources sonores (Rimas para diferentes fuentes sonoras) (1959), por ejemplo, enfoca su atención en los paralelos (las “rimas” del título) existentes entre los sonidos generados electrónicamente y los timbres de los tres grupos orquestales, mientras que la obre de Berio diffèrences para grupo de cámara y cinta grabada (1959) explota las diferencias entre los sonidos de los instrumentos “en directo” y los sonidos de los mismos instrumentos modificados electrónicamente en una cinta grabada con anterioridad. Marios Davidovsky (1934), un argentino afincado actualmente en los Estados Unidos, se ha especializado en las mezclas de sonidos electrónicos y directos. En ocho composiciones tituladas Synchronisms, compuestas entre 1962 y 1974, ha explorado las posibilidades de “dialogo” entre la música y distintos medios de interpretación, que van desde un solo instrumento hasta yuna orquestagrabada completa y un coro. El delicado sentido de Davidovsky respecto al equilibrio tímbrico su habilidad para producir sonidos electrónicos que evoquen sutilmente a los instrumentos con los que están emparejados (pero sin ninguna intención de imitarlos) le han permitido crear partes grabadas en una cinta que asumen un papel casi “normal” dentro del conjunto instrumental, y que funcionan como miembros iguales dentro de un todo unificado e integrado. Las composiciones puramente electrónicas raramente existen escritas en una partitura normal ya que nadie las utiliza para llevar a cabo su “interpretación”, solamente proporcionan una información puramente técnica sobre cómo se ha realizado la composición. Sin embargo, las piezas que combinan la música en directo y la electrónica necesitan de partitura que asegure la coordinación precisa entre los dos componentes. Tres ejemplos muestran las distintas soluciones que han sido adoptadas. La obra Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 75
de Davidovsky Synchronism N.o1 para flauta y cinta grabada utiliza una notación radicalmente simplificada en la parte de la cinta que sólo pretende ser un apunte para el flautista y se limita principalmente a indicar las entradas y separaciones. Kontakte de Stockhausen, por otro lado, ofrece en su sistema superior una descripción gráfica relativamente detallada de cómo tiene que sonar la parte electrónica. Finalmente, la parte correspondiente a la cinta grabada de la obra de Babbitt Philomel se representa completamente mediante notación corriente; en su caso es posible debido a que su música electrónica está concebida, en gran medida, en los mismos términos que su música instrumental (excepto las extraordinarias complicaciones métricas que resultarían impracticables en una interpretación en directo). Audiciones recomendadas: • Due dimensioni – Bruno Maderna • Rimes pour diferentes sources sonores – Bruno Maderna • Différences – Luciano Berio • Kontakte – K. Stockhausen
Música electrónica en directo
Otra manera de superar el carácter “fijo” de la música grabada es la utilización del medio electrónico como un vehículo para la interpretación en directo. Cage fue uno de los primeros que trató de eliminar la naturaleza “cerrada” de la música electrónica, un problema que afectó a sus propias composiciones grabadas, a pesar de su naturaleza indeterminada. Una solución que ofreció fue la de combinar las interpretaciones de sus composiciones electrónicas con las de piezas acústicas. Otra solución fue la de manipular la grabadora durante las interpretaciones la música, cambiando de control, etc.) Sin embargo, la primera obra de este (retardando tipo- fue Cartridge music (Músicalosdepaneles cartucho) (1960), en la que se pide a los interpretes que utilicen pequeños objetos, como un mondadientes o una pluma, que han sido sustituidos por la aguja de un cartucho de fonógrafo; o, en otra versión, que muevan grandes objetos, como mesas o sillas, a los que han incorporado micrófonos de contacto. En ambos casos, el resultado es amplificado y transmitido mediante altavoces al público. Durante los primeros años de la década de 1960 Stockhausen buscó la integración de la música electrónica y la instrumental mediante la manipulación electrónica de las actuaciones en directo. En su primera obra de este tipo, Mikrophonie I (1964), dos intérpretes producen varios sonidos con un tamtam muy grande (golpeándolo o arañándolo con distintos objetos) mientras dos “personas encargadas del micrófono” recogen los resultados y los transmiten a un banco de módulos electrónicos controlados por otros dos intérpretes que, por turnos, modifican los sonidos electrónicamente antes de emitirlos por los altavoces. “La división del proceso musical en tres áreas independientes (producción, grabación y transformación del sonido), -según palabras de Stockhausen-, hace posible la combinación de las posibilidades de la práctica instrumental con la de las técnicas electrónicas. Cualquier fuente sonora deseada (de cualquier naturaleza, ya sea procedente de instrumentos tradicionales, de hechos sonoros...) puede, por lo tanto, integrarse en una combinación sonora coherente”. Un importante factor que influyó en el crecimiento de la música en directo fue la llegada de los sintetizadores, relativamente transportables, algunos de ellos diseñados expresamente para ser utilizados en los conciertos. Un desarrollo paralelo en la música electrónica en directo fue el de la construcción de sistemas electrónicos diseñados principalmente para ser utilizados en situaciones de conciertos determinados. Los compositores también han trabajado con los sistemas de “eco de cinta” que consisten en la utilización de dos grabadoras, una graba el material mientras la otra lo toca pero con un breve retraso respecto a la primera. En la naturaleza de estos sistemas se forma un constante feedback loop: lo que vuelve a tocarlo otra vez (tras otro pequeño retraso), y así sucesivamente. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
76
En 1970 la música electrónica en directo también había asumido un papel significativo en la música popular y en el jazz. La música electrónica utilizada a menudo con una gran sofisticación técnica, se ha convertido en un recurso estándar de todos los grupos de música popular.
Audiciones Audiciones recomendadas: • Mikrophonie I – K. Stockhausen
SERIALISMO E INDETERMINACIÓN Existen unos sorprendentes principios comunes entre el serialismo y la indeterminación. Los sistemas “externos” imponen sus reglas de forma arbitraria a los materiales musicales que dominan. Los dos producen unos resultados que, a menudo, suelen ser análogos. También han jugado un papel en la reconsideración que han desarrollado algunos compositores respecto a la estructura y al tiempo musical. La música en la práctica común proporcionaba a los oyentes un fuerte sentido de rirección temporal, un sentido que sirve para localizar la música en todo momento dentro de la continuidad general. Es posible por: un conjunto de relaciones tonales jerárquica relativamente fijas y por un esqueleto rítmico, también ordenado jerárquicamente, basado en la repetición de unidades de duraciones regulares. En este tipo de música el tiempo tiene una cualidad altamente estructurada: un sentido preciso de comienzo y fin; cualidad fuertemente direccional orientada hacia un fin. Tras la segunda guerra mundial, el serialismo y la indeterminación llevaron a cabo una completa disolución de la estructura melódica con un principio y un final y de la estructura rítmica organizada de forma métrica. En general, se ha conservado cierto grado de direccionalidad, pero de una naturaleza más casual y ambigua que antes, por lo que la música ha perdido la mayor parte de su corriente “narrativa” tradicional. En la forma variable ninguna línea conecta los elementos formales individuales por sí sola. Desde el momento en que un acontecimiento no conduce inexorablemente hacia el siguiente, las unidades formales pasan a ser intercambiables. Algunas unidades individuales son completamente autosuficientes. Stockhausen se refiere a este tipo de segmentos cerrados en sí mismos como “momentos” y habla de “formas momentáneas” de música que “no cuentan una historia, no están compuestas a lo largo de una cinta roja que hay que seguir desde el principio hasta el final para poder entenderlo todo... cada momento es un centro conectado con el resto, que puede mantenerse por sí mismo”. Estas transformaciones en la estructura musical no son en ningún sitio más evidentes que en la dimensión temática, tan importante en la música tradicional a la hora de definir el movimiento hacia delante y de determinar el carácter musical. En la década de 1950 la homogeneización de la textura y la Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
77
correspondiente pérdida de definición melódica y armónica (así como otras diferenciaciones jerárquicas de texturas) pusieron en tela de juicio la posibilidad de crear un movimiento lineal convincente. El tratamiento de los elementos composicionales como entidades separadas y permutables, la igualdad de las relaciones interválicas por medio de una saturación cromática constante y de la dispersión de los registros y la disolución del orden métrico en favor de una continuidad rítmica sin ruptura, produjeron una neutralización del contenido musical que disolvió algunos componentes tradicionales como fueron la melodía, el contrapunto y la armonía en una única y generalizada masa sonora. Los compositores comenzaron a pensar en la música en términos de atributos globales (como la densidad textural y el equilibrio tímbrico) para lo que se necesitaron unos ajustes significativos en las formas compositivas básicas.
Indeterminación Para Cage, cada unidad musical existía por sí misma y era esencialmente independiente respecto a cualquier otra relación que pudiera tener con otras unidades. Un sonido musical no se derivaba de los sonidos que lo precedían, de la misma forma que tampoco implicaba a los siguientes. En 1951, el única camino posible para crear una música carente de cualquier propósito era el de desechar totalmente cualquier tipo de intervención humana en el proceso composicional, sacando al compositor “de las actividades de los sonidos” y haciendo que simplemente fueran “ellos mismos”. El compositor debe “abandonar el deseo de controlar el sonido, limpiar su mente de música y ponerse a buscar los medios que permitan a los sonidos ser ellos mismos en lugar de vehículos que pongan en práctica las teorías de los hombres o que den expresión a los sentimientos humanos”. 4'33'' sirvió para ejemplarizar la filosofía musical de Cage en mayor medida que ninguna otra composición. Sonidos musicales tratados objetivamente (según sus propios términos y no como elementos determinados por un conjunto de relaciones preestablecidas). Desaparición de la oposición entre verticalidad y horizontalidad, la serie como forma de proporcionar una estructura en el espacio sonoro.
Serialismo Messiaen sistematiza una forma de componer rigurosa y objetiva en su libro Technique de mon language musical (1944). El aspecto más innovador es el tratamiento del ritmo, reemplazando los conceptos de “medida” y “compás” por el sentido de un valor corto (la semicorchea, por ejemplo) y por su libre multiplicación se mueve hacia una música carente de medida. La idea de los valores añadidos por medio de los cuales los modelos regulares adquieren una mayor flexibilidad rítmica, es fundamental en el planteamiento global de su música. Además, propone un nuevo tipo de aumento y disminución, añadiendo o suprimiendo un valor rítmico fijo a los miembros de cada unidad. Boulez adopta una concepción rigurosa de la música y la organizó como una estructura de relaciones internas ordenadas de forma consciente. Su ritmo es “aditivo” por naturaleza: la base es un valor pequeño y de ello se derivan todos los valores superiores al añadirles este valor. La dimensión Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
78
temporal es concebida como si se tratara de un cúmulo de unidades individuales. También pasa con las secciones que se determinan por la exposición de series únicas de doce de estas duraciones. Desarrolla la idea de una música puramente “estructural”. Pero al conducir al serialismo hacia sus máximas consecuencias, se encontró con una serie de resultados inesperados derivados de una estructura predeterminada de una forma tan rígida. No sólo una cuestión práctica acerca de si los intérpretes o el público podrían efectivamente distinguir tantas gradaciones dinámicas y de ataque, sino que también surgen problemas complejos: La escala cromática utilizada en la música moderna occidental divide la sucesión interválica natural en doce añadidos distintos, y por tanto puede ordenarse en forma de “escala”, los restantes elementos duración, dinámica y ataque- existen tal y como son y no pueden someterse a una gradación de escala precisa. Si las series melódicas son un transporte estricto de la forma srcinal, el resto de los elementos han sido cambiados “arbitrariamente” y solamente mezclados siguiendo los números ordenados dictados por las series de notas trasnportadas; los resultados no se parecen en nada a los “transportes”. El efecto general de esta pieza (Structures I) no es el de una música estructurada de una forma racional y lógica sino de una música que, al menos en lo que se refiere a los detalles, da la impresión de ser enormemente casual. Incluso en relaciones claras suena fortuitas. De hecho, en gran medida se puede decir que son resultado del azar; una vez que el rígido esquema precomposicional se pone en marcha, el compositor tiene muy poco control sobre lo que realmente puede ocurrir en cualquier momento. Structures I (1952) demuestra que el serialismo integral, al menos en esta forma tan radical, disuelve esencialmente todos los aspectos tradicionales de la estructura musical (incluyendo melodía, armonía y dirección formal) abre el camino hacia una música en la que los detalles individuales son insignificantes en comparación con el efecto “global” de la obra. Stockhausen revela un interés similar a Boulez por los procesos a larga escala. La estructura completa está delineada por una tendencia gradual hacia una mayor unificación de sus materiales. Su método es considerablemente más flexible y diferenciado. Con respecto al ritmo, toma unos segmentos relativamente largos como unidad básica y los dicvide para lograr los valores individuales.
MÚSICA CONCRETA (MUSIQUE CONCRÈTE) El comienzo real de la música electrónica como una clave del movimiento composicional llegó después de la segunda guerra mundial, cuando las nuevas tecnologías y actitudes se unieron para alimentar su avance. Los primeros desarrollos significativos tuvieron lugar en 1948 en la radio nacional francesa, donde el técnico de sonido Pierre Schaeffer (1910) comenzó a producir pequeños estudios grabados basados en las transformaciones de sonidos “naturales” como el de un tren o un piano. El proceso de transformación incluía: la adaptación de porciones de sonido, la variación de la velocidad de play-back, Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 79
el hacer que los sonidos fueran de atrás hacia delante (”cinta invertida”) y la combinación de diferentes sonidos (overdubbing). Se revindicaba el sueño futurista con una nueva oleada de interés en la legitimación del ruido y en la manipulación electrónica del sonido. Las intenciones de Schaeffer eran claras: “ Decidí buscar mis elementos musicales en un ámbito contrario al de la música, en los ruidos”. Como ningún sonido natural puede ser considerado como un “objeto sonoro” (el término de Schaeffer para un acontecimiento sonoro está sujeto a este tipo de manipulaciones), todos los sonidos son igualmente apropiados como material musical. Schaeffer llamó a este tipo de música electrónica musique concrète un nombre que ha pasado a ser la denominación estándar (en su forma srcinal francesa) para todo tipo de música basada en sonidos naturales o “concretos”, a diferencia de la música electrónica, en la que los sonidos srcinales se producen artificialmente, o lo que es igual, mediante medios puramente electrónicos. Las ideas principales de este estilo son: a) Se descarta la interpretación tradicional de la música a favor del oído. b) Cualquier sonido vale para una composición. c) La música se obtiene a partir de sonidos grabados. Estos pueden proceder de efectos naturales o artificuales (el ladrido de un perro, el canto de los pájaros, una cascada, un trueno, el ruido de una fábrica, un avión, instrumentos manipulados, etc.) o de efectos vocales (como hablar, llorar o gritar). d) La cinta se puede manipular (por ejemplo, se enlazan cintas diferentes, se aceleran o deceleran, se hacen sonar al revés, se modifican los timbres con filtros y moduladores). El compositor francés Pierre Henry (1927) se unió pronto a Schaeffer y juntos produjeron la primera obra extensa de musique concrète, Symphonie pour un homme seul) Sinfonía para un hombre solo) (1950), basada principalmente en distintos tipos de sonidos vocales modificados (respiración, risa, silbido, discurso) que se combinan con otros tipos de sonido transformado (música orquestal, pisadas, etc.). En 1951 el estudio de Schaeffer se constituyó formalmente en el Groupe de Musique Concrète. Muchos compositores activos durante la década de 1950 comenzaron a interesarse en este estudio y varias figuras importantes, como Messiaen, Varèse, Boulez, Stockhausen y Xenakis, crearon composiciones de musique concrète en él. Estudios similares comenzaron pronto a aparecer por todas partes. En un principio, el objeto de quienes practicaban la “musique concretè” propiamente dicha era distinto del de los creadores de música electroacústica pura, que evolucionaron lentamente, pero con el tiempo las diferencias quedaron notablemente desdibujadas, sobre todo porque hubo compositores como Varèse y Stockhausen que mezclaron ambos estilos. Hoy en día, el término “música electroacústica” se aplica a cualquier proceso en el que la manipulación del sonido se genere principalmente con medios electrónicos y “musique concretè” se utiliza únicamente al referirse a ese periodo histórico.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
80
Pierre Schaeffer creó los fundamentos para el desarrollo de una música para altavoces autónoma. Para ello fundó en 1943 un espacio de investigación dedicado al arte radiofónico, el Studio d’Essai, más conocido por el nombre adoptado en 1946: Club d'Essai. En 1944 Se emitió su obra radiofónica La coquille á planetes. El texto, el sonido, la música y la realización de esta obra fueron desarrollados de manera no jerárquica. El 5 de octubre de 1948 la RTF (Radiodiffusion Telévision Française) emitió en Paris el primer Concert des Bruits. El programa estaba formado por los Cinq études de bruits (1948) de Schaeffer, titulados Etude aux chemins de fer, Etude aux Tourniquets, Etude violette, Etude noire y Etude pathètique. Schaeffer denomindó a esta música musique concrète . Concrète por tres motivos: porque el material sonoro con el que trabajó existía de una manera concreta, es decir, fue grabado con un micrófono antes de que se iniciara realmente la realización de cada pieza; porque los sonidos grabados rehúyen su fijación escrita, es decir, porque no resultaría posible escribir una partitura que correspondiera satisfactoriamente a los objetos sonoros utilizados; y, por último, porque el material sonoro existe “de manera concreta” en el soporte magnético gracias a su grabación microfónica. Schaeffer parte de la idea de que los sonidos y ruidos grabados electrónicamente, liberados de sus contextos srcinales, desarrollan un lenguaje propio al ser reproducidos. Un pensamiento que recuerda a los surrealistas. Schaeffer distingue entre el cuerpo sonoro (corps sonore), el que produce el sonido, y el objeto sonoro (objet sonore), es decir, el sonido en sí : “No debe confundirse el objeto sonoro con el cuerpo sonoro que lo produce”. Una obra de música concreta debe concebirse de tal manera que el oyente no establezca ninguna relación con el instrumento o instrumentos que generaron el sonido. Schaeffer denominó la escucha de música para altavoces como acousmatique. La estética de los ruidos y sonidos repetitivos de la primera música concreta estaba determinada, en cierto modo, por los procedimientos técnicos utilizados: los magnetófonos estaban aún en su primera fase de desarrollo. Schaeffer trabajaba con discos de vinilo con un solo microsurco cerrado, sobre los cuales grababa directamente su material sonoro. mediante un teclado especial podía “tocar” directamente varios discos. Incluso después de la introducción del magnetófono, el principio más importante para Schaeffer era la producción de modificaciones estructurales y sonoras utilizando únicamente los siguientes procedimientos: corte y montaje de la cinta magnética, variación de la velocidad de la cinta (transposición) y reproducción de la cinta en sentido contrario. Schaeffer reallzó sus composiciones más importances entre los años 1948 1959. Entre ellas se encuentran Cinq études de bruits (1948), Symphinie pour un homme seul (1950), compuesta conjuntamente con Pierre Henry y coreografiada posteriormente por Maurice Bèjart, así como la ópera Orphèe 53 (1953). Schaeffer divide la breve historia de la música concreta en tres períodos: poético, barroco y expresionista. Una vez superados estos períodos, Schaeffer se distancia de la composición para dedicarse a la investigación musical. Uno de sus trabajos en este terreno consistió en elaborar una clasificación de los sonidos. En sus investigaciones, Schaeffer considera el oído como la máxima instancia, tal como expresó en su Lettre à Albert Richard, uno de los textos más importantes Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
81
de la música concreta, escrito en 1953 y publicado en 1957. Los postulados y reglas mencionados en esa carta fueron publicados de nuevo por Schaeffer en forma abreviada: Primer postulado: primacía del oído.- Tanto el potencial de desarrollo como la limitación de cualquier música nueva dependen de las posibilidades del oído. Segundo postulado: partiendo del primer postulado, se dará preferencia a las fuentes acústicas reales, para las cuales nuestro oído está especialmente constituido (y se desestimará especialmente recurrir de manera exclusiva a fuentes sonoras electrónicas). Tercer postulado: investigación sobre el lenguaje.- Las nuevas estructuras musicales deben aspirar a establecer una comunicación entre quien las proyecta y quien las recibe. Primera regla.- Definir una nueva educación auditiva basada en la escucha sistemática de objetos sonoros de todo tipo. Lo único importante aquí es aprender a oír correctamente. Los principios básicos de la acústica y de la técnica electrónica pueden facilitar este aprendizaje. Segunda regla.- Crear objetos sonoros, es decir, practicar la realización de sonidos, los cuales deben ser tan diferentes y srcinales como sea posible, siendo conscientes de la diferencia de esta actividad respecto al procedimiento tradicional, según el cual se anotan símbolos sobre papel pautado que, por decirlo de algún modo, representan configuraciones de símbolos abstractos. Tercera regla.- Configurar objetos musicales, es decir, aprender a utilizar aparatos para la manipulación sonora (sin confundirlos con instrumentos musicales): magnetófonos, micrófonos, filtros, etc. Cuarta regla.- Realizar estudios preparatorios antes de concebir una obra, comparables a los “ejercicios educativos” propios de la música tradicional, que obliguen al principiante a elegir entre la diversidad de medios y posibilidades de realización que éste tiene a su disposición. Quinta regla.- Trabajo y tiempo - imprescindibles para cualquier auténtico proceso de aprendizaje. Pierre Schaeffer y su escuela parisina se convirtieron en un centro de atracción para los más diversos compositores. En el primer curso ofrecido por el Club d’Essai participaron Pierre Boulez, Jean Barraquè, Michel Philippot y André Hodeïr. Allí realizaron, entre muchos otros, Oliver messiaen su obra Timbres-Durèes (1952), Roman Haubenstock-Ramati Exergue pour une symphonie (1957) y Iannis Xenakis, Diamorphoses (1957). En ese mismo estudio realizó Karlheinz Stockhausen su primera obra electroacústica, ETUDE (1952) y Edgard Varése, un año más tarde, la primera versión de la cinta para Dèsert, Composición para 14 instrumentos, Piano, Percusión y tres interpolaciones de cinta (1949-1954). Pierre Henry trabajó de manera permanente en el estudio, aunque en 1958 inauguró uno propio. En ese mismo año, Schaeffer reorganizó el estudio y Ilamó a su grupo Groupe de Recherches Musicales de I'O.R.T.F. (GRM). François Bayle asumió la dirección de este grupo en 1966. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
82
Pierre Boulez se manifestó en contra de la música concreta en el congreso La primera década de la música experimental, organizado en parís, alegando, entre otros argumentos, que la tarea más importante es la creación compositiva del material y no su mera elección, que no es otra cosa que una forma distinta de orquestación tradicional. Sólo un reducido grupo de compositores se mantuvieron fieles a la idea de Schaffer de una música acusmática, una música invisible. Esta ruptura se percibe de manera Clara con la llegada al estudio, a partir del año 1958, de una nueva generación de compositores que siguieron caminos propios. A esta nueva generación pertenecen, entre otros, Luc Ferrari, François-Bernard Mâche, Ivo Malec, Jaques Lejeune, Jean Schwarz, Guy Reibel y Daniel Teruggi. <
Aparentemente los «concretos» actuaban a la inversa de sus contemporáneos «electrónicos». Haciendo tabla rasa de los registros y los valores, tornaban los_sonidos de cualquier parte, pero preferentemente de la realidad acústica: ruidos, instrumentos tradicionales occidentales o exóticos, voces, lenguajes, y también algunos sonidos sintéticos, para no dejarlos fuera de panoplia que quería ser completa. Estos sonidos grabados eran inmediatamente transformados y reunidos, gracias a diversas manipulaciones electroacústicas. Por ahora no insistiremos sobre el condicionamiento final de estas músicas que se presentaban en banda magnética y se perfeccionaban por la audición simultánea de varias voces (estereofonía), a fin de detenernos más bien en los procedimientos de fabricación. La aceleración y el ralentí que permitió el disco en 1948 y muy pronto el magnetófono, fueron al principio empleados a tontas y a locas. Pero al al mismo tiempo que la partición de sonidos en el tiempo (con cortes en la banda) y en los timbres (con filtros), podía admitirse que todo sonido puede descomponer y recomponer luego con otros gracias a las técnicas del montaje y la mezcla. En definitiva, la música concreta tenía la misma pretensión que la música electrónica, que creía poder realizar la síntesis de cualquier sonido preexistente, con la sola diferencia de que ésta "pasaba previamente por una fase de análisis. También reclamaba para sí el triángulo de referencia, de cuya inversión y éxito desgraciadamente no es ajeno el autor. Como vemos, la reflexión de ambas músicas giraba alrededor de un error común: la fe que se tenía en el triángulo y en la descomposición del sonido, para unos en series de Fourier, y para otros en “ladrillos de sensación”. Entonces unos trabajábamos en construir robots y los otros en disecar cadáveres. La música viva estaba en otra parte y sólo sería para aquellos que sabían evadirse de estos modelos simplistas. Por otra parte, las obras terminaban curiosamente pareciéndose entre sí. Pero entre tanto, los pioneros habían aguado el vino. Mientras los “concretos”escapaban poco a poco de las trampas de sus tocadiscos con gran frustración, los «electrónicos» hacían plagios evidentes a la vez que inconfesados de la música concreta: voces, instrumentos manipulados, todo les resultaba bueno para una música que no guardaba de puramente electrónico más que el nombre, aunque éste terminó prevaleciendo, cristalizando así por largo tiempo sin duda el malentendido inicial.
Los defectos comunes a ambas músicas Por exceso o por defecto, ambas se apartan de las normas tradicionales de toda estructura instrumental. Así se explica que se opongan o se parezcan n un fracaso común. 1. Exceso (o defecto) de timbre teóricamente apto para imitar o inventar todos los timbres, el instrumento electrónico no es neutro: se reconoce su timbre. El oído desbarata la más sutil combinatoria para hallar las señales de la confección Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 84
en los sonidos despersonalizados. Por ello nadie se aplicó tan asiduamente como Maurice Martenot a afinar los registros del instrumento que lleva su nombre, y sobre todo la relación del instrumento con el instrumentista. Pese a su incontestable avance en el campo de los accesos, las «Ondas» continúan en espinosa relación con la música tradicional. La música concreta que no revela instrumento alguno puede traicionarse por el procedimiento, como las transposiciones totales. En ambas músicas >> Audiciones El francés Pierre Schaeffer comienza a darle cierta organización musical a los ruidos. En 1948 completó una serie de cinco obras que denominó Estudios. El primero de ellos es el Estudio para locomotoras, resultado del procesamiento de sonidos diversos tomados en la estación de trenes de París. Este estudio comienza y termina con sonidos similares, que aparecen también durante la pieza, y ayudan a darle unidad. Los otros estudios también tienen sonidos que se repiten (el segundo tiene un atractivo motivo que aparece varias veces y que es muy pegadizo). En dos, Schaeffer trabaja con sonidos provenientes del piano, pero muy transformados. El último, el Estudio de las cacerolas, también termina con los mismos sonidos del comienzo, que vuelven a aparecer en medio de la pieza, y tiene como atractivo, además del de utilizar objetos corrientes, el incluir la voz humana. Es también importante la Sinfonía para un hombre solo de Schaeffer y Henry, en el cual conviven voces humanas, ruidos y sonidos de instrumentos de una manera claramente organizada. La brevedad y variedad de sus números hace que sea una obra muy accesible, siempre que estemos dispuestos a escuchar algo nuevo, y sin esperar que en los números llamados valse, scherzo o partita, por ejemplo, encontremos música parecida a la que recibe estos nombres en las composiciones tradicionales. Podemos llegar a pensar que semejante música es fría y que nada nos produce. Sin embargo, esta utilización de sonidos corrientes difícilmente nos deja indiferentes. Henry luego siguió su camino solo. Su capacidad de músico se pone de manifiesto al momento de crear una obra con muy pocos elementos. Sus Variaciones para una puerta y un suspiro, de 1963, son un buen ejemplo. La obra, de una duración de cuarenta y ocho minutos, está elaborada transformando los sonidos que su título indica. Los sonidos srcinados por una puerta que rechina, y la aspiración y espiración, son objeto de veinticinco variaciones, todas absolutamente distintas. Tal es su encanto, que fue objeto de coreografías creadas por personalidades tan importantes como Maurice Béjart y George Balanchine. Esta no fue la única composición de Henry, que entusiasmó e inspiró a Béjart. No menos admirable es Dripsody, del canadiense Hugh Le Caine, creada en 1955 en base a la transformación del sonido producido por, únicamente, una gota de agua. Como en el caso de Henry, los sonidos no están dispuestos arbitrariamente, sino cuidadosamente organizados. De poco menos de un minuto y medio de duración, la pieza tiene una asombrosa riqueza tímbrica.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
85
La invención de instrumentos electrónicos, la introducción de la voz humana en este tipo de obras, y el avance tecnológico, serán medios fundamentales para los compositores que deseen expresarse a través de nuevos sonidos. Muchos sabrán cómo utilizarlos.
Audiciones recomendadas: Cinco estudios de ruidos (1948) – Pierre Schaeffer Sinfonía para un hombre solo (1950) – Schaeffer/Henry Dripsody (1955) – Hugh Le Caine Variaciones para una puerta y un suspiro (1963) – Pierre Henry
SÍNTESIS SONORA Antecedentes Comencemos por una pregunta, ¿cual crees que fue el primer sintetizador de la historia? Una buena respuesta podría ser: "el órgano de tubos". Ese gigantesco instrumento litúrgico es el primer sintetizador construido (y ¿sabrías decir cual es el órgano con mayores tubos?...La Sagrada familia...). Quizás sea una forma un poco extraña de comenzar un tema de síntesis, pero concentrémonos en buscar a qué clase de instrumento nos referimos al decir "sintetizador". Si buscamos en el diccionario el termino "sintetizador", encontramos algo parecido a: ...persona o dispositivo que combina cosas hasta formar un "todo", o un aparato electrónico que produce sonido de esa forma. No obstante, en la actualidad, la mayor parte de los sintetizadores son "cacharros" en forma de teclado o en módulos "rack" que reproducen sonidos pariendo de muestras digitales grabadas, dos clases de instrumentos distintas son tratadas como "sintetizador"; el instrumento srcina que sintetiza sonidos y el dispositivo de reproducción de muestras digitales. Pero volviendo a la definición de ... aparato electrónico que produce sonido combinando distintos elementos, vemos que encaja perfectamente en órgano de tubos. Para demostrarte que el órgano de tubo es el ancestro del sintetizador, necesitas comprender cosas acerca de los sonidos instrumentales (incluyendo las voces humanas y graznidos de animales o pájaros). De la misma forma que el aire o agua se componen de mezclas de varios elementos, los sonidos instrumentales (es decir los sonidos) también son mezclas de varias unidades llamadas "armónicos" o "parciales". El término "parcial" quizás sea más preciso aunque "armónico" es el más ampliamente usado, por lo que lo que siempre usaremos éste en nuestro tema. Tomemos el Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
86
ejemplo del agua. Todos sabemos que el agua, (H2O) se compone de hidrógeno y oxígeno. Esto es agua pura. Sólo una vez en mi vida pude beber una agua tan pura y su gusto no es tan bueno... Naturalmente, el agua natural contiene minerales como calcio o sodio mezclados en esa "agua pura" y si, por ejemplo, el agua proviene de un manantial en el monte, también puede contener "impurezas" como la savia de los árboles, por ejemplo. Sin embargo, los componentes que hacen que el agua tenga un gusto bueno o malo son en realidad una fracción de minuto del todo y el fluido del cual hablamos es todavía esencialmente un compuesto de hidrógeno y oxígeno. Lo mismo ocurre con el aire. El aire es un compuesto de nitrógeno, oxigeno y dióxido de carbono, pero en la ciudad el aire también contiene las emisiones tóxicas de los automóviles, fábricas y muchas otras impurezas que son malas para nuestro cuerpo. Mientras tanto, el aire en un ambiente natural contiene los olores del bosque y la tierra, y varios iones, haciéndolo oler como "el aire bueno". Pero estas impurezas que hacen que el aire huela bien o mal no provocan que lo que llamamos "aire" deje de ser una compuesto de nitrógeno, oxigeno, etc... Ahora volvamos al sonido. Al igual que el agua o aire, el sonido también se compone de "elementos" llamados "armónicos". Si observamos esta forma de onda, cada uno de estos armónicos es algo llamado "onda sinusoidal" (ver gráfico inferior). Si escuchamos esta onda sinusoidal, oiremos un tono "beep" sencillo y simple.
Probablemente hayas oído que las ondas sinusoidales se usan para comprobar los equipos de audio. No hay ningún objeto en el mundo natural que pueda producir una onda sinusoidal pura. Incluso los sonidos que están muy cerca de una onda sinusoidal (como un armónico de una guitarra) siempre contienen algún ruido u otros componentes. Para conseguir una onda sinusoidal pura, debes usar algún dispositivo para filtrar el sonido y aislar la onda sinusoidal o puedes generar una onda sinusoidal eléctricamente o electrónicamente. La utilización de un filtro para aislar una onda sinusoidal es similar al proceso de refinar el mineral de hierro u oro para aislar el hierro puro o el oro. Desde luego, el hierro o el oro no pueden ser sintetizados artificialmente. ¡Aunque esto sea lo que los alquimistas del pasado intentaron hacer! Pero es posible generar una onda sinusoidal de forma artificial. Y los sintetizadores electrónicos modernos pueden lograr mucho más...aunque de nuevo regresamos al órgano de tubos.... Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
87
Incluso en los días en que no había forma de producir eléctricamente una onda sinusoidal, la gente ya sabia que el sonido consistía en "armónicos" de distintas tonalidades. Por ejemplo, supongamos que un violín interpreta la nota Do2. La nota Do2 contiene una onda sinusoidal llamada "fundamental", pero también contiene ondas sinusoidales adicionales con tonalidades agudas secuenciales, Do3 (una octava por encima), Sol3 (una quinta por encima), Do4 (dos octavas encima de la fundamental), Mi4 (un tercio del anterior), y Sol4, Do5, ... etc., y todas estas ondas sinusoidales son escuchadas por tus oídos de forma conjunta en forma de sonido de violín. Cuando tocas una nota en un órgano de tubos el aire se envía al tubo y se produce un sonido similar a la flauta, aunque por supuesto es distinto a ésta. Cada nota del teclado está asociada a más de un tubo (en órganos grandes incluso hasta 12 tubos) y estos tubos están afinados en secuencias regulares de las que hemos hablado anteriormente cuando hemos hablado de los armónicos que hacen posible el sonido de un violín. En otras palabras, cada tubo genera cada uno de los armónicos que conforman el sonido global. También contiene tubos que producen tonos una octava por debajo de la fundamental y una quinta por encima de ésta. Composición con Medios Electroacústicos e Informáticos – Curso 2o – Luis Alfonso Torres Mancilla
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
88
La reverberación de la sala o catedral en la cual estos instrumentos se colocaban, era una parte importante de su sonido; estos instrumentos son realmente casos en los cuales el edificio entero "es" el instrumento. (¡y pensar que en el pasado, tuvieron que confiar en el "poder humano" para bombear aire a todos estos tubos!) Por lo que...¿Porqué digo que estos instrumentos fueron los primeros sintetizadores? La razón es que "esas palancas" podían ser manipuladas por el organista para especificar si realmente el aire sería enviado a cada uno de los tubos o no. La combinación seleccionada permitía al organista sintetizar una amplia variedad de sonidos, como el clarinete, el oboe, o la flauta (que evidentemente no sonaban muy parecidos a éstos). Se puede tocar un órgano de tubos; si se juega con las combinaciones que normalmente no son usadas se da uno cuenta de que podría llegar a crear sonidos evocadores tipo cuerdas sintéticas y sub-graves; se comprende que este instrumento era realmente un tipo de sintetizador. Históricamente, los órganos de tubos han sido usados en muchas iglesias pero no todas ellas fueron usadas como "edificios- instrumento". Construir un órgano de tubo es un propósito "algo caro". Se desarrollaron instrumentos más pequeños, instrumentos con menos tubos, y órganos hasta portátiles (órganos "transportables" mejor dicho). Cuando entramos en esta categoría de órganos de tubos, los recursos son mucho menores al sintetizar el sonido, pero estos pequeños instrumentos todavía mantienen un carácter propio realmente hermoso. Ahora nos trasladamos más adelante en la historia. Cuando la gente supo cómo usar la electricidad para producir ondas sinusoidales artificiales, cierto personaje americano se preguntó si era posible eléctricamente sintetizar el sonido de un órgano de tubos. Pensó que si esto era posible, hasta las pequeñas iglesias rurales serían capaces de acompañar sus himnos con sonidos de "órgano de tubos" (obviamente, asumiendo que éstas tuvieran electricidad). El resultado de su invención fue el famoso órgano "Hammond". El estilo de órgano de Hammond que más se extendió tenía nueve generadores de ondas sinusoidales para cada tecla (al principio las ondas sinusoidales fueron producidas por ruedas engranadas y bobinas eléctricas), y el volumen de cada onda se controlaba por palancas llamadas "tiradores" ("drawbars" en inglés). Si te estás preguntando sobre el significado de los números y fracciones como 16 ' o 8 ' que se localizan en cada tirador o "drawbar"...estás a punto de descubrirlo. Estos números indican la longitud en pies, de los tubos de un órgano de tubos. 8 ' significa un tubo de ocho pies, y 4 '
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
89
significa un tubo de cuatro pies (la mitad de la de un tubo de ocho pies, y por lo tanto una octava más alto). El sonido de un tubo de dos pies sería todavía otra octava más alto. Las fracciones indican los tonos de un quinto, un tercio, etc... y son codificadas por colores para su reconocimiento. Incluso hoy, algunos sintetizadores usan valores como 16 ' o 8 ' o 4 ' para indicar el tono en octavas. Esto es un ejemplo de como los sintetizadores tienen a los órganos de tubo como sus antepasados...son parte de su "prehistoria". Del órgano al sintetizador
(Un lejendario Hammon B3, realmente conservado de forma excelente. El altavoz Leslie es el cajón que está al fondo)
Los órganos de tubos eran normalmente inseparables del edificio en el que estaban ubicados. Sin embargo el órgano de Hammond usó un altavoz rotativo (el altavoz "Leslie") para distribuir el sonido en todas partes del espacio (sala o habitación) para lograr producir una "impresión" más espaciosa. El altavoz Leslie usó motores para hacer girar los altavoces de tipo de cono para frecuencias medias y agudas, y otro motor y altavoz para frecuencias graves. Produce el efecto de que el sonido se reflejaba en varias superficies de la estancia. En cualquier caso, cuando al compararlo con un verdadero órgano de tubos existían bastantes diferencias. El amplificador añadió una cantidad significativa de distorsión, los altavoces eran ruidosos y además tenían que girar (lo que producía un sonido susurrante); todas estas cosas debían haber representado verdaderos dolores de cabeza para el diseñador. Además, el altavoz Leslie podría ser acelerado a una rotación muy rápida, que generaba un sonido que era bastante distinto al de cualquier órgano de tubos. El órgano Hammond tenía funciones como vibrato y percusión que no se encontraban en ningún órgano de tubos. Había hasta el sonido "de chasquido" producido al pulsar las teclas (Keyclick). Las generaciones posteriores de músicos convirtieron esta característica en un rasgo funky, y felizmente usaron el Hammond para el jazz y rock. (Al principio fue diseñado para su el empleo en iglesias, y posiblemente el camino seguido fue a través del Gospel, R&B, jazz, y rock, pero como no soy ningún historiador de la música, mejor lo dejamos ahí.) Aunque Hammond fue el primero, hubieron varios órganos que usaron "drawbars" para combinar ondas sinusoidales. En cualquier caso, las distintas combinaciones de "drawbars" supuestamente producirían sonidos de flauta, sonidos de cuerda, etc., pero hoy todos suenan simplemente a sonidos Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
90
de órgano. Combinar simplemente los armónicos similares a los del instrumento real no es suficiente para lograr su simulación.
(Grafico del mecanismo Leslie)
Llegados a este punto, repasemos algunos puntos clave sobre los órganos Hammond. Aquí tienes una lista de los elementos que determinan el sonido de estos órganos: Los volúmenes de varios armónicos pueden ajustarse para modificar el tono básico. El sonido se reproduce a través de un sistema de altavoces rotatorios. Hay una función llamada "percusión". Hay un ruido llamado "key click" que se reproduce al pulsar cualquier tecla. Independientemente del órgano de Hammond, es un hecho asombroso que las ondas sinusoidales de los dispositivos de síntesis de sonido aditiva, en realidad fueron inventados hace tiempo, cuando no habían ni los transistores (y mucho menos sintetizadores analógicos o circuitos LSI). Estos sistemas gigantes eran tan grandes como una casa. No conozco cuantos armónicos fueron capaces de producir estos sistemas. Puedo decir que con más de 128 armónicos, podemos obtener una reproducción bastante fiel. Pasaron bastantes años desde la invención del sintetizador de ondas sinusoidales aditivo y apareció su descendiente conceptual: el Yamaha DX7, que representaba la primera generación sintetizadores de ondas sinusoidales "multiplicativo" (y también aditivo). En esta tecnología el sonido es producido multiplicando ondas sinusoidales las ondas con las otras y por lo general se la conoce como FM (síntesis por modulación de frecuencias).
Elementos de síntesis Oscilador.- Repite cíclicamente una forma de onda determinada, produciendo una oscilación periódica. Dicha señal puede variar dependiendo de sus parámetros de entrada:
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
91
1.La propia forma de onda: onda senoidal, triangular, de dientes de sierra, cuadrada e inversa. 2. La frecuencia 3. La amplitud 4. La fase (varía entre 0o y 360o); indica en que punto del ciclo debe comenzar el oscilador.
Los osciladores se han realizado de forma analógica y digital. En la primera, un circuito electrónico produce directamente la oscilación de tensión y normalmente está controlado también por tensión; por lo que se llama VCO (voltage control oscillator). La realización digital puede ser mediante un programa de ordenador o un aparato especializado. El oscilador digital requiere el almacenamiento previo de un ciclo de la onda (511, 1024 o más muestras) en una memoria llamada tabla de onda. La señal se genera leyendo los valores a la velocidad de muestreo y cuando se llega al final de la tabla se vuelve a empezar. Las distintas frecuencias se pueden conseguir mediante velocidad de lectura variable, aunque la forma mas común consiste en ir omitiendo algunas muestras, es decir, variando el incremento (I) de lectura de la tabla. Por ejemplo, suponiendo que si se leen todas las muestras la frecuencia es de 16 Hz, al leer una de dos (I=2) la frecuencia será de 32 Hz. Envolvente.- Una envolvente temporal es una curva que indica la evolución en el tiempo de algún parámetro:
Amplitud – Afecta al ataque y resonancia del sonido (ADSR).
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
92
Frecuencia – En la entrada y salida de un sonido, como por ejemplo en la voz humana. Timbre – Pasar por un filtro el tiempo que dura el sonido, atenuando o potenciando armónicos. Cualquier otro parametro. Modulación.- Es la alteración de algún parámetro de un oscilador mediante otra señal. Para producir una modulación en una onda de manera “manual” añadimos movimiento en frecuencia del vibrato, dándole velocidad (por encima de los 20 Hz, si se produce por debajo se llama LFO: modulación de baja frecuencia), el oído no distingue ese movimiento sino la aparición de otra onda que coincide con
los Hz de velocidad que le hemos dado al vibrado. Al igual que las envolventes, la modulación se puede aplicar a la amplitud, frecuencia y timbre. En la modulación de amplitud o trémolo todos los armónicos varian la amplitud simultáneamente; en la de frecuencia varía ésta y en la tímbrica las amplitudes relativas de los armónicos fluctúan de acuerdo con la variación de las características del filtro. Otra forma de modulación tímbrica posible en algunos osciladores es alternar periódicamente entre dos o más formas de ondas distintas, o modificar la forma de onda en sí, como en la modulación de ancho de pulso, donde se alterna gradualmente entre la onda pulso y la cuadrada. Cualquier otro parámetro también puede ser modulado.
SÍNTESIS VERTICAL Síntesis Aditiva Este método consiste en crear un sonido mediante suma o mezcla de otros. La síntesis aditiva más general consiste en sumar osciladores senoidales que representan cada uno a un parcial, con la amplitud y frecuencia necesarias del espectro que se desea construir. La síntesis aditiva empírica consiste en especificar directamente las envolventes de amplitud y frecuencia de todos los parciales necesarios e ir variando mediante tanteo dichos parámetros hasta que se obtiene el timbre buscado. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
93
Propiedades: - Construir cualquier envolvente espectral. - Hacer que los armónicos estén ligeramente desafinados. - Construir texturas fluidas de ondas senoidales que eventualmente se funden para formar algún timbre. La síntesis aditiva con ondas complejas pueden utilizarse ondas complejas como las cuadradas o triangulares consiguiéndose así espectros muy ricos, pero tiene el inconveniente de que no se controla el espectro tan directamente como con ondas senoidales. Un procedimiento muy utilizado es sumar distintas ondas que entran o salen gradualmente a lo largo de la duración del sonido. La teoría detrás de todo esto se basa en que cada sonido de la naturaleza se puede fragmentar en un gran número de ondas senoidales de frecuencia y amplitud variable (inversión del análisis de Fourier). Estas frecuencias se llaman “parciales” o “armónicos” como hemos visto antes. Algunas de ellas podrían tener una relación armónica con el tono fundamental, mientras que otras no lo harán. Los sonidos con cierta complejidad serán una combinación de ambas: el sonido de una cuerda pulsada tendrá mucho material inarmónico en su ataque, pero en el segmento de sostenido estará formado fundamentalmente por material armónico. Se necesitan muchísimas ondas senoidales para construir cualquier tono reconocible. De hecho, hacen falta cientos, si no miles, para acercarse siquiera a un timbre natural, aunque puede que seas capaz de simularlo con algunas docenas, en función del sonido. La síntesis aditiva nunca será tan sencilla e inmediata como otro tipos de síntesis pero los sintes aditivos, producen timbres de increíble sutileza, profundidad y movimiento. Debido a la periodicidad absoluta, las vibraciones sinusoidales carecen, en cierto modo, de principio y fin. Si se reprodujera un sonido sinusoidal en un espacio mediante un altavoz oculto, resultaría imposible para un oyente que entrara en ese espacio localizar inmediatamente la fuente sonora. La localización de una fuente sonora depende, en primer lugar, de la diferencia entre intervalos de tiempo que un evento sonoro necesita para alcanzar cada uno de nuestros oídos, derivada de la distancia que separa a ambos. Esto sucede tanto en el caso más sencillo, un sonido puntual (como, por ejemplo, una detonación o un chasquido), como en cualquier proceso vibratorio propio de las señales acústicas cotidianas. Una vibración sinusoidal permanente carece del momento inicial del sonido que resulta para una audición direccional. En la situación antes descrita, puede producirse un efecto secundario: debido a la reflexión de las ondas en las paredes, éstas pueden anularse en determinados lugares del espacio y reforzarse por adición en otros. El oyente avanza a través de una red invisible de nudos y vientres acústicos. La Monte Young y Marian Zazeela utilizaron ambos fenómenos, adición y sustracción de vibraciones, en su instalación de sonido y luz dreamhouse, (1962). Debido a la ausencia de estructura temporal en dreamshouse, el sonido es percibido, en cierto modo, de manera vertical: Audición vertical en tiempo presente.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
94
Audiciones STUDY I – K. STOCHAUSEN Por ejemplo, ahora he superpuesto (compuesto) sonidos o, mejor dicho, tonos sinusoidales que son completamente estacionarios. [...] Es increiblemente bello oír estos sonidos. Son perfectamente equilibrados, tranquilos, estáticos y tan solo iluminados por sus proposiciones estructurales. [...] (20 de julio de 1953). Obviamente, los sonidos que yo genero son la música de la propia obra en la cual trabajo: los intervalos entre sonidos sinusoidales, el número de sonidos, la intensidad y la duración de cada uno de ellos está determinada por la estructura. ¿Cómo puede componerse un sonido si no es toamndo como punto de partida el efecto de la estructura total en sentido vertical? [...] !!! esta música suena indescriptiblemente pura y bella!!! (23 de agosto de 1953). Secciones de una carta de Stockhausen a Karl Goeyvaerts TRATTO – BERND ALOIS ZIMMERMANN El carácter atemporal de las vibraciones sinusoidales fue determinante en la composición de las dos obras electroacústicas de Zimmermann: Tratto – Composición para sonidos electrónicos en forma de estudio coreográfico (1966) y Tratto II – Estudio electroacústico con sonidos sinusoidales (1968). Los sonidos sinusoidales tuvieron para mí siempre un cierto carácter de apertura espacio- tiempo. Por ello, no creo que sea en absoluto casual que el antiguo saber sobre la relación entre música y espacio volviera a salir a la luz especialmente gracia a las primeras composiciones electroacústicas. En mi opinión, apertura espacial y alargamiento temporal tienen una relación directa, como expresé, de manera particular en mi “Tratto”. Bernd Alois Zimmermann La estructura interválica de Tratto tiene como único punto de partida el tritono. Este intervalo fue transportado seis veces, de tal manera que dentro de la octava no se repitiera ninguna altura. Los números utilizados para estas transposiciones son análogos a los de la serie de armónicos naturales. La estructura temporal se deriva tambien de esta serie de proporciones. No existe partitura de esta obra y los esbozos se hicieron públicos por primera vez en 1989, en una exposición dedicada a Zimmermann. Tratto II es una ligeramente modificada de Tratto paradecuatro expresamente paraversión el pabellón esférico de la Exposición Universal Osakacanales, en 1970.que fue realizada
Síntesis sustractiva En la síntesis sustractiva se parte de una señal, preferible que sea rica en frecuencias, que es pasada a través de un filtro que modifica su espectro.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
95
Lo que hoy llamamos sintetizadores analógicos son en realidad sintetizadores con síntesis sustractiva. Los llamamos de este modo porque usan un filtro para procesar una forma de onda (una forma de onda generada eléctricamente, no una forma de onda muestreada / sampleada); le sustraemos ciertas frecuencias usando un filtro. Desde luego, algunos sintetizadores tenían dos o más unidades que generaban tonos (osciladores), y se sumaban los sonidos de éstos para producir el sonido final, pero la base para este método sigue siendo que se usa un filtro (o más o un sistema complejo de filtros) para procesar una forma de onda. Después de que Robert Moog desarrollase estos sintetizadores con filtros (hoy conocidos como "sintetizadores analógicos"), la palabra "sintetizador" era sinónima de los sintetizadores de ese tipo. Los sintetizadores analógicos poseen una estructura de síntesis muy similar a la del gráfico inferior: Las secciones marcadas como OSC indican la presencia de osciladores. La forma de onda producida por estos osciladores es procesada por un filtro. Un oscilador, por lo general, es capaz de producir formas de onda de diente de sierra, pulso, triángulo, y algunos modelos fueron incluso capaces de mezclar las formas de onda de diente de sierra y triángulo, o hasta mezclar todas las formas de onda que generaban. En realidad los sintetizadores poseen más bloques de los que el diagrama muestra. Por ejemplo, las señales de control del teclado o la rueda de inflexión de tono y controles de modulación, pero los he omitido para ofrecer un diagrama más limpio y comprensible. Algunos sintetizadores análogicos eran aún más simples y tenían sólo un oscilador y un generador de envolvente. Unos permitieron usar un generador de envolvente para modular el tono de un oscilador (hoy nosotros llamaríamos esto función como envolvente del tono), y otros tenía tres osciladores y se usaba uno como LFO (oscilador de baja frecuencia, usado sólo para modular otros parámetros). Una de las causas del desarrollo de estos instrumentos era la necesidad de la transportabilidad y la necesidad de lograr un circuito más simple de modo que el precio pudiera ser mucho menor. El precio era un factor realmente importante y estamos hablando de sintetizadores monofónicos que no podían interpretar acordes. Y esta es la razón por la que un sintetizador monofónico no podia ejecutar acordes de notas: el dinero. Hoy todos los sintetizadores poseen como mínimo 32 o 64 notas de polifonía o incluso 128, pero en sus inicios, la monofonía era la única regla existente. Para la interpretación de acordes existía el problema de la asignación de las teclas, y además, la necesidad de tantos circuitos para producir sonido como notas: si deseabas construir un sintetizador polifónico de ocho notas simplemente necesitabas proporcionar ocho sintetizadores completos. Incluso aunque el precio no era ocho veces más alto, sí era varias veces más caro, y el tamaño era en proporción más grande. No muchas personas comprarían tal monstruo.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
96
Filtros y tipos Cualquier dispositivo que modifique el espectro de una señal es un filtro. Un filtro se caracteriza por su curva de respuesta que indica la proporción (ganancia) entre la amplitud de salida y la de entrada para cada frecuencia. Los filtros más sencillos son el pasa-bajos, pasa-altos y de rechazo de banda. El filtro pasa-bajos (LPF) deja pasar sin modificar las frecuencias menores que un valor llamado frecuencia de corte a partir de la cual se empiezan a atenuar (ya que esta atenuación nunca empieza repentinamente). Otro parámetro importante es la pendiente de atenuación que indica lo rápido que decae la ganancia a partir de la frecuencia de corte llamada “polo”. El filtro pasa-altos (HPF) es idéntico al pasa bajos excepto que deja pasar las frecuencias agudas a partir de la frecuencia de corte; la pendiente ahora será positiva. El filtro pasa-banda (BPF) deja pasar una banda de frecuencia y elimina el resto. Se caracteriza por la frecuencia central o de resonancia fc y el ancho de banda BW. El filtro de rechazo de banda (BRF) actúa a la inversa del pasa-banda, se caracteriza por la frecuencia central y el ancho de banda. En estos dos tipos de filtros nos encontraremos con dos polos, uno positivo y otro negativo respecto a la frecuencia de corte. En ambos filtros, el factor Q se define como O = fc/BW, es decir, la frecuencia central dividida por el ancho de banda. Este factor indica lo selectivo que es el filtro o lo “estrecha” que es la banda. Varios filtros pasa-banda se pueden utilizar para crear formantes o resonancias a distintas frecuencias del espectro, combinándolas en: En el filtro paralelo la señal se pasa simultáneamente por los distintos filtros y después se suma. En el filtro en serie la señal se envía al primer filtro, el resultado de éste se pasa al segundo, y así sucesivamente. Aplicación a la evolución tímbrica: aplicando un filtro cuyas características varíen con el tiempo. Efecto parecido al diptongo AU, A tiene más armónicos y es más brillante que U. La pendiente de atenuación cambia la respuesta de los filtros reales en la transición de paso a bloqueo. La transición sucede a una velocidad determinada por el “orden” del filtro, que suele expresarse por el número de “polos”. Los filtros de orden superior son más “afilados” porque el cambio de paso a bloqueo afecta a una gama de frecuencias más estrecha.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
97
También podemos ilustrar la transición de paso a bloqueo viendo cómo cambia la ganancia del filtro, expresándolo en “dB por octava”. Un filtro pasa-bajo de primer orden (un polo) tienen una pendiente de -6 dB/octava. Si ese filtro tiene una ganancia de -8 dB a la frecuencia “X”, tendrá una ganancia de -16 dB a la frecuencia doble de “X”. La transición de un filtro de segundo orden (dos polos) es de -12 dB/octava, mientras uno de cuarto orden (cuatro polos) tiene -24 dB/octava. Es decir, cada polo adicional añade -6 dB/octava a la pendiente. Los filtros pasa banda y banda eliminada son diferentes porque aplican la mitad de sus polos a cada lado, resultando menos pronunciados. Para determihnar su pendiente, divide el orden entre dos. Por ejemplo, un paso-banda de segundo orden tendría pendientes laterales de -6 dB/octava. Muchos filtros incluyen un parámetro llamado resonancia, que realza la ganancia de las frecuencias que rodean la frecuencia de corte o central. Este parámetro afecta mucho al carácter del filtro, pero conviene aplicar los valores de resonancia con cuidado pues un nivel alto llegan a recortar o distorsionar la señal. Algunos filtros incluso “auto-oscilan” a la máxima resonancia. La síntesis sustractiva puede utilizarse también como modelado de generación de sonidos instrumentales ya existentes. Esta cuestión puede plantearse de la siguiente manera: por un lado, tenemos el generador de sonido, por ejemplo una cuerda en vibración; por otro lado, las características del material, el cuerpo de resonancia, etc., que cumplen la función de filtro. Desde este punto de vista, la síntesis sustractiva puede entenderse como un precedente del actual modelado físico (physical modeling).
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
98
Audición EPITAPH FÜR AIKICHI KUBOYAMA (1962) – HERBERT EIMERT El material sonoro transformado mediante síntesis sustractiva puede ser tanto sintético como no sintético. Este proceso de síntesis implica para el oyente la existencia constante de una referencia al material inicial. Prueba de ello era el aprecio del que gozaban las grabaciones de lenguaje sometidas a un proceso de filtraje que imposibilitaba la comprensión del texto srcinal, conservando su ritmo. Esta obra es uno de los primeros ejemplos de aplicación de este proceso.
Síntesis no lineal Teóricamente, cualquier sonido puede ser computado mediante síntesis aditiva. En la práctica, no es así: en el estudio analógico, el número de generadores de sinusoides era limitado y los primeros ordenadores requerían mucho tiempo de cálculo para generar los sonidos deseados. Por otro lado, el gran número de parámetros a controlar si se desea producir un sonido complejo puede comportar para el compositor la pérdida de la visión de conjunto. El científico John R. Pierce manifestó a este respecto que, a pesar de su universalidad, la síntesis aditiva requiere demasiado tiempo de cálculo siendo lenta y cara, y nos ofrece más control sobre el espectro de la onda sonora del que necesitamos. El teorema de muestreo también es válido para la síntesis digital de sonido: si queremos generar un sonido de una frecuencia de 20.000 hercios, es necesario calcular, como mínimo, 40.000 muestras por segundo para cada uno de los sonidos parciales requeridos. Asimismo, hay que definir también la envolvente de cada parcial. La necesidad de reducir la cantidad de cálculo y el número de parámetros a definir por el compositor a un número posible de controlar intuitivamente fueron los puntos de partida de la mayoría de los modelos de síntesis desarrollados posteriormente. La síntesis aditiva es de tipo lineal, ya que las operaciones que intervienen son la suma o la multiplicación por constantes. La síntesis no lineales se basan en operaciones no lineales con las variables, como la multiplicación, la exponenciación, etc.; se trata sobre todo de conseguir una gran complejidad de sonido utilizando pocos osciladores lo que implica aparatos más sencillos o menos cálculos de ordenador, así como controlar el timbre mediante manipulación de pocos parámetros. Estas técnicas también reciben el nombre de “distorsión” ya que se trata de distorsionar una onda para conseguir otra más compleja.
Síntesis FM La síntesis de modulación de frecuencia (FM) es uno de los modelos de generación de sonido electroacústico más comunes. La técnica de modulación de frecuencia (FM) es conocida gracias a su uso en distintos terrenos, como, por ejemplo, el de la técnica de transmisión radiofónica del mismo nombre. El funcionamiento de ésta técnica de transmisión es el siguiente: la frecuencia de emisión de la radio, una alta frecuencia llamada en este caso frecuencia portadora, es modulada por una señal de baja frecuencia, la señal propia de la música y el habla emitida, de tal modo que la frecuencia portadora Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
99
se desvía de su frecuencia media de emisión en un valor correspondiente a la amplitud y frecuencia puntual de la señal moduladora. La configuración simple de la síntesis FM, no se diferencia en nada con el vibrado de altura o LFO (elementos de síntesis). La frecuencia (fc) de una onda senoidal llamada portadora varía conforme otra onda de frecuencia fm, llamada moduladora. Se llama índice de modulación a I = d/fm, es decir la amplitud de la moduladora dividido por su frecuencia. El efecto de esta modulación en el espectro es que se srcinan otros parciales más agudos y más graves que fc, llamados bandas laterales cuyas frecuencias siguen la regla fj = fc +-j*fm, donde j es un número que varia entre 0 y aproximadamente I + 2. Nótese que la amplitud de la moduladora d influye en el timbre. Como se puede apreciar, con sólo dos osciladores se puede conseguir el efecto de muchos más. El problema está en que las amplitudes relativas de cada parcial o banda lateral no se pueden controlar individualmente, sino que varían (a veces pueden hacerse 0) con el índice de modulación de acuerdo con las llamadas Funciones de Bassel, que están tabuladas en los libros. Para la práctica de la síntesis FM empíricamente, es suficiente con saber que, conforme el índice aumenta, la energía de la portadora se distribuye entre cada vez más bandas laterales, cuyas amplitudes aumentan y disminuyen de forma independiente. Aparte del índice, el espectro también lo determina la relación entre las frecuencias portadora y moduladora, fc/fm. Dicha fracción debe simplificarse al máximo; en el caso de que sea sencilla, tal como 1/2, 3/1, 2/3, etc. el espectro es armónico y se hace más inarmónico conforme más complicada sea (24/51, 131/100, etc.). La riqueza de la frecuencia modulada se basa en que hay radios (i.e. proporciones) entre frecuencias portadoras y moduladoras además de valores del índice de modulación que producen componentes laterales que pueden quedar en un dominio de frecuencias negativas del espectro. Estos componentes negativos se reflejan o se desdoblan alrededor de y se mezclan con los componentes del dominio positivo. La variedad de relaciones de frecuencias que resultan de esta mezcla es de una multiplicidad de combinaciones que además incluyen espectros armónicos e in- armónicos. Ejemplos prácticos
Si la moduladora es fm=50 Hz, su amplitud vale d=50 Hz y la portadora fc=400 Hz; el índice valdrá I=50/50=1; j variará entre 0 e I+2400+0x50, = 3, lo cual400+1x50, da lugar a 400+2x50 las suguientes bandas laterales: 400-2x50, 400-1x50, 400-0x50, y 400+3x50. Es decir,400-3x50, 250, 300, 350, 400, 450, 500 y 550 Hz. Ahora vamos a hacer un ejemplo en el que el índice es 1 y la relación 1/2, para simplificar el desarrollo. Vamos a suponer que fc=100 Hz y fm=200 Hz (igualmente se podría hacer con 1 y 2 ó 25 y 50). Se obtendrían tres bandas laterales, es dedir, parciales en -500, -300, -100, 100, 300, 500, y 700. Las frecuencias negativas equivalen a las positivas, y se restarían o sumarían dependiendo de su signo. Se Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
100
obtiene un espectro con fundamental 100 Hz, la portadora, y con los armónicos impares 300, 500 y 700 Hz. 3. En este otro ejemplo, fc=157 Hz, fm=100 Hz y el índice es 0,5. Aproximadamente se obtendrán 2 bandas laterales restando y sumando en intervalos de 100. La frecuencia de -43 se reflejaría obteniéndose un espectro inarmónico con parciales de 43, 57, 157, 257 y 357. Aplicación de FM.- Esta técnica sugiere una implementación básica que consiste en dos osciladores de onda sinuosidal interconectados entre si mediante un operador que mezcla (suma) las frecuencias portadoras en la siguiente configuración: Si el oscilador consiste en un generador de unidades con dos entradas y una salida, una entrada es la amplitud o energía del sistema y la otra entrada es el incremento en la frecuencia angular u w. La salida depende de estos dos valores de entrada que son asociados a una tabla de valores que en este caso equivalen a la función Seno para producir la salida u onda resultante. En esta implementación básica la tabla tiene valores para generar, interpolando entre muestras, una simple onda sinuosidal. La figura del oscilador, figura-1 (izquierda) es la siguiente: Para producir valores que van de 0 a N o funciones para manipular parámetros como la intensidad o amplitud de un sonido y que además puedan cambiar al transcurrir la duración de un sonido, se utilizan un tipo de generadores de unidades que se denominan envolventes. En la mayoría de los casos no hay necesidad de interpolar estos valores a la frecuencia de muestreo sino estos van cambiando de acuerdo a proporciones con la duración del sonido. La figura-1, (derecha) muestra el esquema de una envolvente. Una simple implementación de FM puede ser lograda a partir del esquema en la figura-2 Hasta aquí vimos la FM simple es decir sólo con un modulador y un portador; a continuación examinaremos varios casos de FM compleja:
Un oscilador modula a varios portadores, el efecto equivale a la suma de varias FM simples. Se suele utilizar esta configuración para conseguir formantes, siendo fm la fundamental y si se desea que el Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 101
espectro sea armónico, la frecuencia de cada portadora (fc1, fc2 y fc3) ha de coincidir con un armónico de dicha fundamental, que además sería la frecuencia central de cada formante. Dos moduladores y un portador, las frecuencias de los parciales resultantes siguen la ley: fc = j1xfm1 = j2xfm2, tomando j1 y j2 valores entre 0 y un máximo valor determinado por cada índice de modulación. Aún más se complica el espectro en el caso de moduladores en cascada. La fórmula de las frecuencias de los parciales es la misma que en el caso de varios moduladores, pero a iguales índices de modulación saldrán más componentes, especialmente en el agudo, ya que los parciales obtenidos de la modulación simple de m2 a m1 son moduladores que se aplican a “c”. Se utiliza la modulación en cascada sobre todo para crear ruidos o espectros muy densos y brillantes en momentos puntuales del sonido, por ejemplo en el ataque de un sonido percusivo. Otra forma de realizar la FM es mediante osciladores no senoidales. El resultado es muy complejo ya que equivale a como si cada armónico fuera un oscilador senoidal independiente. Sólo en el caso de dos osciladores, si cada uno tiene 10 armónicos sería como la suma de 10 FM complejas, realizada a su vez cada una con 10 modulaciones. La síntesis FM se realiza siempre digitalmente, ya que los osciladores analógicos no son lo suficientemente precisos; permite gran complejidad y variación dinámica del espectro con muy pocos osciladores, sin embargo, ya hemos visto que, al contrario de la síntesis aditiva, es muy difícil conseguir exactamente un espectro determinado. No obstante se han logrado timbres muy interesantes, incluso buenas aproximaciones de los reales, especialmente en los instrumentos de viento metal y percusión; para todo ello, hay que combinar conocimientos y, sobre todo, mucho tanteo. A finales de los años sesenta, John Chowning, compositor y científico norteamericano, inició una serie de experimentos en la universidad de Stanford con el fin de utilizar la modulación de frecuencia en la síntesis de sonido. En los experimentos de Chowning, tanto la frecuencia portadora como la moduladora eran vibraciones sinusoidales. Si ambas frecuencias se encuentran dentro del ámbito audible y su diferencia es pequeña, se producen, utilizando tan sólo dos generadores de sinusoidales, espectros sonoros complejos, cuyos parciales se agrupan de manera simétrica en torno a la frecuencia portadora. Richard F. Moore desarrolló una completa descripción matemática de este modelo de síntesis: “Elements of computer music”. En 1983, la empresa Yamaha presentó su modelo de sintetizador DX7, tras obtener la licencia de la síntesis FM, hasta entonces propiedad de Chowning. Con este sintetizador la síntesis FM fue conocida por un público más extenso. La síntesis FM, que hasta ese momento sólo podía realizarse con ordenador, pasó a ser utilizable en el entorno de la electrónica en vivo. El DX7 se convirtió en el sintetizador más vendido. Éste es un caso común en la historia de la electrónica musical: métodos de generación electroacústica de sonido desarrollados en las universidades son adoptados, en una versión reducida, por parte de las empresas para sus modelos de sintetizador. El DX7 disponía únicamente de seis generadores de sinusoides, denominados por yamaha operadores. Cada uno de ellos podía asumir Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 102
la función de portadora o moduladora según la configuración que se definiera. Como eran pocos los músicos, especialmente en el terreno del pop, que llegaban a familiarizarse con los principios de la entonces novedosa síntesis FM, numerosas empresas programaban un sound específico para cada tipo de aplicación o bien ofrecían bancos de datos con timbres preprogramados. Esta es una de las razones por las cuales siempre que se utiliza el DX7 se oyen los mismos sonidos. Davis Bristow y John Chowning realizaron una completa descripción de la síntesis FM toamndo como referencia el DX7 (FM theory & applications). Antes de la introducción del primer sintetizador de FM, este modelo de síntesis se ejecutaba principalmete utilizando el lenguaje de programación musical desarrollado por Max Mathews, MUSIC V. En Europa, el compositor canadiense Barry Truax desarrolló en el Institut voor Sonologie de Utrecht el programa de composición POD (POisson Distribution), mediante el cual el proceso de síntesis FM se utilizaba como parte integral de una partitura generada sintéticamente. Dirk Reich elaboró una completa descripción de este programa, que queda ejemplificado en la obra de Truax Trigon (1974-75).
Síntesis AM La modulación de amplitud a baja frecuencia da como resultado un trémolo; pero a partir de frecuencias superiores a entre 10 y 20 Hz se empieza a percibir un efecto tímbrico que se puede utilizar para la síntesis. La onda moduladora modula a la amplitud de la portadora. El resultado son dos bandas laterales (fc-fm y fc+fm) amplitudes son la mitadtantos de Am. Si sedeutilizan complejas, alrededor de cada parcial de lacuyas portadora se producirían pares bandasondas laterales como parciales tenga la moduladora. Por ejemplo, si la moduladora tiene 3 parciales y la portadora 4, saldrán en total 7 X 4 = 28 parciales. El método de AM es estático: si varía la amplitud de la moduladora todas las bandas laterales lo harán a la vez, con lo que no se pueden producir variaciones dinámicas como con FM. Modulación de anillo.- Equivale a una modulación de amplitud donde la amplitud de la portadora vale 0. Realizada con ondas senoidales se obtendrán otras dos que son su suma y diferencia (fc+fm y fc-fm) y com amplitudes iguales a Am/2. Otra forma de realizar la modulación de anillo es multiplicando las dos señales. También se producirán la suma y la resta de las dos frecuencias pero sus amplitudes valdrán A1xA2/2, lo que significa que si una de las dos señales es cero no se obtiene ninguna señal. La modulación de anillo se ha utilizado mucho con ondas complejas, sobre todo para distorsionar señales conocidas; por ejemplo, si el sonido de una flauta se multiplica por una onda senoidal, se obtendrán la sumas y diferencias de cada parcial con dicha onda senoidal, siendo inarmónico casi siempre este espectro resultante, lo que da una cualidad metálica característica. También se ha empleado mucho en el cine para conseguir voces de robots o de extraterrestres.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
103
Distorsión de fase (PD) Este método de síntesis, llamado también modulación de fase, se aplica en osciladores digitales. Ya sabemos que el sonido se genera en ellos leyendo repetidamente una forma de onda que está almacenada en la memoria. Si esta lectura se hace a velocidad variable o sólo una parte de la onda, se producirá una distorsión en ésta lo cual se utiliza para generar distintos timbres. se elige una de ocho posibles ondas de valor “mínimo” y otra de valor “máximo” y el timbre es controlado dinámicamente por una envolvente que las va transformando de una a otra onda de las elegidas aplicándoles distorsión de fase (variación del ángulo de lectura) para realizar las transformaciones.
SÍNTESIS HORIZONTAL “Síntesis horizontal de un sonido” significa composición de timbre en el tiempo. Esto puede realizarse, por ejemplo, dibujando con un lápiz óptico directamente en la pantalla de un ordenador la forma de onda deseada, que será transformada en sonido posteriormente mediante un conversor D/A. Otra posibilidad consiste en alinear pequeñas unidades de sonido preexistente, por ejemplo, grabadas con un micrófono.
Sampling Un sampler es un instrumento electroacústico digital con el cual se pueden grabar, almacenar, transformar y reproducir sonidos. La reproducción de los sonidos almacenados suele controlarse con un teclado. Dado que con un sampler se puede grabar (samplear) cualquier sonido, resulta posible tocar con un teclado sonidos, por ejemplo, de trompeta. El primer sampler fabricado en serie fue presentado en 1979 por la empresa CMI-Fairlight Este se conoció gracias al disco Erdenklang, aparecido en australiana 1982: una sinfonía sonoraSystem. generada porsampler ordenador, realizada por Hubert Bognermayr y Harald Zuschrader. Casi todos los grandes periódicos y revistas informaron al respecto. Los sonidos básicos de la sinfonía provienen de Linz: los sonidos de cuerdas de acero en los talleres de acero de Linz, y los sonidos de agua y las voces de pájaros, en el bosque de Linz. Además se utilizaron martillos mecánicos, cubos de plástico, transformadores, tubos de bambú, ruidos de calle y las voces de los autores. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
104
Herbert von Karajan, en su interpretación de Parsifal en el festival de Pascua de 1980 y 1981, utilizó sonidos de campanas computerizados y almacenados en un ordenador Fairlight. En 1981, la empresa E-mu System presentó un nuevo modelo de sampler, más económico pero aún inaccesible para la mayoría de los músicos. Al igual que sucedió con los sintetizadores, los primeros sampler adquirieron una amplia presencia en el campo de la música pop y se convirtieron en parte integrante de todos los estudios de música electroacústica. Los samplers de primera generación, debido -entre otros factores- a una escasa capacidad de memoria, no ofrecían muy buena calidad acústica. Actualmente todos los sampler de estudio tienen la calidad mínima estándar de un Cd. Los sampler y los magnetófonos tienen características similares: si se quiere transportar un sonido grabado con un sampler a una octava superior, su duración srcinal se reduce a la mitad y viceversa. Otra razón por la cual la transposición realizada con un sampler falsea el sonido srcinal es la transposición implícita de los formantes del sonido grabado, de la acústica espacial, de los sonidos de la respiración, etc. Para tratar de evitar este problema técnico, los samplers de gama alta incorporan la grabación de un sonido para cada una de las teclas de un teclado (Multisamples). En principio, todas las funciones de un sampler pueden implementarse con tecnología analógica. De hecho, las técnicas propias de los primeros estudios analógicos eran: corte y montaje de cintas magnetofónicas, manipulación de anillos de cinta, transposición y modulación. La producción de nuevos timbres mediante la alineación de distintos sonidos pregrabados no es un procedimiento empleado habitualmente, ya que resulta muy laborioso. No obstante, uno de los primeros ejemplos de su aplicación lo encontramos en la obra de Iannis Xenakis Concrète PH (1958). El proceso de realización de los aproximadamente 2 minutos y 45 segundos de duración de la obra constó de dos fases: en la primera, Xenakis grabó en cinta magnética el sonido del carbón vegetal al enfriarse y el de un micrófono al arder. La segunda fase tuvo lugar en el estudio del Groupe de Recherches Musicales de Radio Francesa (ORTF). Allí, las cintas magnéticas que contenían el material grabado se cortaron en innumerables secciones y posteriormente se agruparon y pegaron según diferentes grados de densidad. En el caso de Concrète PH de Xenakis, estas secciones de cinta eran tan cortas que resultaban irreconocibles como tales. El resultado es la generación de un nuevo timbre. Como estas unidades sonoras pueden ser de cualquier longitud, la transición entre microcomposición (composición del timbre) y macrocomposición de No la 1forma) es luc continua. extremo de composición de la forma general(composición es prèsque rien (1970) de Ferrari.Un Esteejemplo compositor provoca intencionadamnete el recuerdo de ruidos y sonidos reales. La obra ocupa todo una cara de un disco de vinilo y consta únicamente de la grabación de un amanecer en la playa: es una 2Diapositive Sonore”. Con su “Música anecdótica”, formulada en 1984, Ferrari aborda el tema de la difusión de los medios de comunicación. Según su concepto, el público que carece de la suficiente formación musical no debe enfrentarse a obras que no entiende. Partiendo de este punto, Ferrari, a diferencia de Schaeffer, Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
105
se opone a la eliminación de la posibilidad de reconocimiento del srcen de una grabación mediante el proceso de composición: por el contrario, hay que crear algo que mantenga su relación con la realidad. Un ejemplo musical que se sitúa entre los extremos representados por Concrète PH y prèsque rien No 1 lo constituye la obra de Louis Anderiessen in memoriam (1971), realizada poco después de la muerte de Igor Stravinsky. El material de partida fue la sinfonía en Sol menor de Mozart, en una versión de la Spanish Pop Orchestra. Andriessen cortó la cinta magnética que contenía la grabación de esta sinfonía en unidades rítmicas tomadas de la Danse e le Sacre du Printemps, y pegó las 1200 secciones de cinta resultqantes de acuerdo con la estructura r timica % de la Danse Sacrale.
Síntesis granular El modelo universal de síntesis aditiva parte del análisis de Fourier. Por el contrario, la síntesis granular se basa en el modelo de Gábor. Las visiones atomistas del sonido provienen de la grecia clásica, pero la teoría de los cuantos acústicos fue postulada por Dennis Gabor. En esta teoría se reconoce que la percepción auditiva se lleva a cabo en los dominios temporal y de frecuencia simultáneamente. A fines de los años 40 se realizaron los primeros experimentos con granulación de sonidos utilizando banda sonora óptica, para hacer compresión y expansión del tiempo en sonidos grabados. La unidad mínima de la síntesis granular es el cuanto sonoro o grano. Del mismo modo que en el cine se consiguen imágenes en movimiento mediante la proyección secuencial de imágenes individuales, en la síntesis con cuantos sonoros se generan nuevos sonidos gracias al alienamiento de sonidos elementales. Estos son fragmentos de sonido muy cortos, cuya longitud oscila entre 5 y 100 milisegundos para evitar que un grano individual pueda producir una respuesta perceptiva de altura en el oyente. La complejidad del sonido granular depende de la cantidad de datos de control que se le dan al generador de granos. La cantidad total de datos es igual a la densidad promedio de granos por segundo multiplicada por el número de parámetros. Al ser el número de datos un número bastante grande, se requieren organizaciones de alto nivel, que definan la manera en la que se comportarán los parámetros que generarán los granos. Iannis Xenakis fue el primer compositor que desarrolló una teoría de la composición partiendo del concepto de cuanto sonoro (1960-61). En un principio, Xenakis se refirió en la mayoría de sus escritos a Gábor, pero en las revisiones de éstos modificó esta referencia en favor de Einstein. En 1996 Xenakis fundó el EMAMu, rebautizado a partir de 1972 como CEMAMu (Centre d'Ètude de Mathématique et Automatique Musicales). En este centro se desarrolló, bajo las instrucciones de Xenakis, la workstation de música por ordenador UPIC (Unitè Polyagogique Informatique du CEMAMu). Con la UPIC se puede configurar de manera directa un cuanto sonoro elemental. Además de desarrollar la UPIC, investigamos el ámbito de la microcomposición algebraica según métodos distintos al de fourier. Con la utilización de métodos similares al de Fourier, como el Music V System de Max Matthews, la mayoría de los laboratorios se imponen limitaciones de manera voluntaria. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
106
[...] Un sonido puede representarse íntegramente mediante la curva que resulta de la relación entre variación de la presión atmosférica y el tiempo. Esta curva es lo único que golpea nuestros oídos. Por consiguiente, la muy oportuna construcción teórica de curvas de presión/tiempo (formas lineales) conduce a la fabricación de sonidos y de conversiones D/A. Estas curvas y su respectivo sonido (música) son considerados como una unidad (entity). Iannis Xenakis Mientras que en los otros métodos de síntesis, la forma de onda, es decir, el sonido audible, era resultado final de un determinado proceso, en la síntesis mediante cuantos sonoros se configura directamente el resultado final. El número de cuantos sonoros que deben ser alineados depende de la duración del sonido a generar. Siendo así, el proceso más sencillo consistía en copiar un cuanto ya configurado tantas veces como fuera necesario para alcanzar la duración total deseada. Este procedimiento comportaría, no obstante, la creación de sonidos esteotipados. Con objeto de evitarlo, Xenakis definió probabilidades de transición que sirven para establecer la dimensión del grado de cambio en la forma de onda de cuantos sonoros consecutivos (composición “estocástica” del sonido). Las funciones peródicas son leyes muy restrictivas, que se corresponden con melodías o sonidos aburridos. Por el contrario, las leyes de la probabilidad y sus combinaciones matemáticas abren caminos muy libres y que nunca se repiten. Éstos se corresponden con melodías considerablemente más ricas. Iannis Xenakis El concepto “música estocástica” se le atribuye generalmente a Xenakis. En la mayoría de casos, este concepto se aplica como sinónimo de azar. Otros compositores también utilizan procesos de composición con elementos aleatorios. Este hecho dificulta enormemente determinar en qué medida se diferencia la música estocástica de otros métodos. El sonido de los instrumentos de cuerda se produce de una manera similar a como tiene lugar en el proceso de síntesis mediante alienación de sonidos elementales con probabilidades de transición. Si se observa a pequeña escala temporal la generación del sonido mediante el rozamiento del arco sobre la cuerda, lo que sucede no resulta en absoluto previsible. Las cerdas del arco tiran de la cuerda hasta que ésta, debido a la creciente tensión, no puede seguir adherida a las cerdas y rebota, vibra por espacio de tiempo muy corto, cuya duración está determinada, entre otros factores, por la presión y la velocidad del arco y la consistencia de la resina hasta que vuelve a ser retenida momentáneamente por las cerdas del arco y el proceso se repite desde el principio. Estas repeticiones difieren mínimamente entre sí, pero de forma continua. Esto indica que la producción de un sonido de violín es un proceso estocástico, ya que las microunidades que participan en la generación de sonidos no son predecibles. Estas desviaciones producen lo que, en lenguaje cotidiano, se describe como la vivacidad de un sonido (de violín).
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
107
En la composición electroacústica GENDY3 (1991) de Iannis Xenakis se definen varios puntos en el desarrollo de la amplitud de la forma de onda para el primer cuanto sonoro. Esta forma de onda es repetida constantemente por el ordenador, sometiéndose los puntos fijados sobre la forma de onda a un proceso estadístico mediante el cual cada forma de onda difiere de la anterior. Con la UPIC es posible, además de controlar los procesos de composición en el ámbito microtemporal del sonido, diseñar unidades temporales mayores. MYCENAE-ALPHA (1978) es la primera obra de Xenakis para cuya realización se utilizó la UPIC. Entre los compositores que trabajaron con la UPIC cabe citar a Jean-Claude Eloy, Francois-Bernanrd Mache, Wilfried Jentzsch, Candido Lima y Frèdèric Nyst. Posteriormente se desarrollaron diferentes variantes de síntesis con cuantos sonoros o síntesis granular. Algunos ejemplos de composiciones realizadas con estos métodos son Riverrun (1986) de Barry Truax, y Prototype (1975) de Curtis Roads.
Modelado de onda Consiste esta técnica, llamada en inglés waveshaping, en modificar el espectro de una onda mediante un dispositivo que actúa respondiendo a los cambios de amplitud en dicha onda. Es un efecto parecido a cuando la amplitud de la señal de entrada en un amplificador es demasiado grande; entonces se cortan los picos de la onda, oyéndose una distorsión característica. Llevando esto al extremo, se puede conseguir, por ejemplo, que una onda senoidal se convierta en cuadrada. La función de transferencia relaciona cada valor de la onda de entrada con el de salida. En la figura se representa una función de transferencia que se aplica a una onda senoidal con la amplitud o índice de distorsión creciente. Se puede apreciar que cuando la amplitud de la señal de entrada es pequeña, la salida es idéntica, pero conforme aquella aumenta, se va modificando la onda de salida produciéndose un nuevo timbre. La aplicación principal en síntesis es para distorsionar una onda senoidal, ya que es matemáticamente posible entonces encontrar la función de transferencia para conseguir cualquier espectro; aunque también se puede utilizar empíricamente, probando diversas funciones de transferencia, o aplicarlo a ondas complejas. Se pueden obtener con este método variaciones del espectro muy dinámicas tan sólo aplicando una envolvente al índice de distorsión. para que las variaciones de este índice no ínfluyan en la amplitud del sonido resultante, se suele compensar mediante otra función de transferencia aplicada a la salida.
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
108
Modelos físicos A partir de los años noventa el sistema de síntesis sonora denominado Physical modeling conoció una amplia difusión. En los métodos vistos hasta ahora, la imitación de un instrumento acústico se hace basándose en el análisis de su sonido, es decir, se trata siempre de sintetizar un determinado espectro o una determinada envolvente. En cambio, en los métodos que aquí se enuncian, se analiza el comportamiento físico del instrumento; por ejemplo, en el caso del violín, se estudia como vibra la cuerda, como actúa el arco sobre ella, como interviene la caja de resonancia. etc.; estableciéndose unas ecuaciones que constituyen el modelo físico, con variables tales como la longitud de la cuerda, su masa, su tensión, la presión del arco, etc.; siendo la señal sonora el resultado de dichas ecuaciones. Todo esto se realiza por ordenador y es una vía de investigación prometedora, especialmente por su relación con el diseño de nuevos controladores de sintetizadores donde los parámetros de síntesis estén más íntimamente ligados con las acciones mecánicas del instrumentista. No obstante también sería posible generar nuevos sonidos que conserven cierta similitud con los del piano, por ejemplo, mediante una transformación de determinados parámetros, imposibles de realizar fisicamente como, por ejemplo, someter la cuerda a una tensión extrema. La composición Chereode I (1983) de JeanBaptiste Barrière se realizó con el programa de síntesis sonora CHANT, desarrollado en el IRCAM. Este programa implementa el modelado del tracto vocal humano. En Chereode I se muestra claramente una transición continua entre simulación de la voz y generación de nuevos sonidos afines a ella.
Síntesis cruzada Consiste en analizar la evolución de algún parámetro del sonido y aplicárselo a otro. Por ejemplo, se puede extraer mediante análisis cómo evolucionan los formantes de una voz al pronunciar un texto. Si Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
109
una nota tenida de saxofón se pasa por un filtro que evolucione en el tiempo siguiendo las características extraídas de la voz, aparecerá como si dicho instrumento hablase.
Métodos relacionados con la síntesis de voz En el análisis y resíntesis de voz se ha investigado bastante, sobre todo por su aplicación en la industria de las comunicaciones. En telefonía, por ejemplo, interesa enviar la mínima información suficiente para que se entienda el mensaje y sea reconocible la voz del que habla. Los programas de ordenador para realizar estos tipos de procesos han interesado a muchos compositores ya que equivalen a disponer de un instrumento capaz de articular texto y del que se pueden obtener gran variedad de nuevos timbres y efectos. En la voz la vibración de las cuerdas vocales producen una onda tipo pulso, pero el timbre final se debe a la forma de la faringe. laringe y cavidad bucal, que filtran dicha vibración produciendo unos cinco formantes. La frecuencia e intensidad de estos formantes varía dependiendo de la altura del sonido y de la vocal que se está emitiendo. Por ejemplo en la vocal -A- los formantes 1 y 2 están muy cerca en frecuencia, sin embargo, en la “I”están muy separados. Paul- Heinrich Mertens realizó una descripción precisa de las leyes de los formantes. La voz se puede obtener por síntesis sustractiva mediante un generador de pulsos regulares, que equivale a las cuerdas vocales. Esa señal, rica en armónicos, se pasa por un banco de cinco filtros pasabanda en paralelo que construyen los cinco formantes. Para sintetizar las consonantes como la "s", "t" etc. hace falta utilizar también un generador de ruido. El habla se puede sintetizar variando constantemente los parámetros en los generadores las características de los filtros. Otro método que se ha aplicado a la síntesis digital de voz es el de predicción lineal. Consiste en analizar la señal digital y extraer una serie de coeficientes (unos 20) que permiten calcular cada muestra de la señal a partir de unas cuantas inmediatamente anteriores. Así, por ejemplo, se puede construir o predecir un segundo de una vocal a partir de unas pocas muestras. realizando una operación matemática sobre ellas con dichos coeficientes. Se pueden sintetizar también nuevos timbres distorsionando dichos coeficientes o jugar con ellos consiguiendo efectos que recuerden al habla. La extrañeza que producen los resultados sonoros de algunos métodos de síntesis, como por ejemplo la FM, se debe, entre otros factores, a que éstos no generan formantes. Por el contrario, el sistema de síntesis sonora VOSIM (Voice SIMulation), desarrolado por Kaegi y Tempelaars en el Instituto de sociología de Utrecht en 1072, genera formantes. Al componer con el VOSIM, no se empieza por definir los parciales de un sonido sino la posición de sus regiones formantes. La generación de sonido se deriva únicamente de una función de sinus-cuadrado. Los generadores analógicos del VOSIM eran controlados por el ordenador DEC PDP-15 del citado instituto de Utrecht. Estos generadores podían controlarse, entre otros, gracias al lenguaje MIDIM (Minimum Description of Music) desarrollado por Kaegi. Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
110
Kaegi manifestó ya en su libro “Qué es música electrónica”, aparecido en 1967, una clara tendencia a tomar la voz humana como referencia. Los nuevos sonidos generados con VOSIM, obviamente desconocidos hasta el momento de su generación, le resultan al oyente en cierto modo familiares, ya que éste posee un conocimiento implícito de los formantes de la voz y de los sonidos instrumentales. Por otro lado, los sonidos generados con VOSIM pueden combinarse fácilmente con sonidos vocales o instrumentales. La obra de Kaegi Ritournelles pour soprano et ordinateur (1984-1987) constituye una buena prueba de ello. Partiendo de las posibles características lingüísticas de la música, el compositor norteamericano Paul Lansky atribuye, de una manera un tanto forzada, un carácter musical al lenguaje hablado. Esta consideración le sirve de base para configurar un gran número de sus composiciones. Desde principios de los años setenta, Lansky utiliza el ordenador, en cierta medida, como un micrófono aural. Su interés se centra principalmente en los ruidos ya existentes y en la voz humana, más que en la investigación sobre síntesis sonora. Su composición Smalltalk (1988) es un buen ejemplo del trabajo de Lansky con el lenguaje. Esta obra está relacionada con las cualidades musicales del sonido hablado. Se preguntó que pasaría si intentase hacer lo mismo con otro idioma diferente, como por ejemplo el chino, en el cual la altura y el contorno tienen diferentes significados. El material consta de tres niveles: Una conversación del compositor con su mujer Hannah MacKay, quien prestó su voz para la mayoría de las obras de Lansky; Sonidos de cuerda pulsada. Sonido sosteniods de coro. La conversación con su mujer era una típica conversación doméstica durante el desayuno. La idea de transformar electrónicamente este tipo de conversaciones cotidianas tiene su srcen en una experiencia realizada por Lansky: de niño, solía dormirse en el coche de sus padres mientras estos conducían. Justo antes de quedarse dormido, dejaba de prestar atención a sus conversaciones. “Ya no percibía lo que estaban diciendo sino que sólo oía la entonación, los ritmos y los contornos de su conversación. Su Música era familiar y recvonfortante y cuando me adormilaba, se mezclaba con los sonidos de la carretera”. Mediante el programa Cmix, desarrollado por Lansky en la Universidad de Princenton, la conversación con su mujer se filtró de acuerdo con parámetros musicales. “Tan solo estoy intentando crear undecididamente contexto en aellos cual lo ordinario se extraordinario”. afirmación que recuerda planteamientos de convierta la música en concreta, a pesar de Una que Lansky rehuía cualquier comparación de su trabajo con este tipo de música. La implementación técnica de la transformación del lenguaje en las obras de Lansky se basa principalmente en el Linear Prediction Coding (LPC), un proceso de análisis/síntesis. En primer lugar se analiza una señal acústica, por ejemplo el lenguaje hablado. Partiendo de los datos resultantes, se puede sintetizar de nuevo la señal srcinal, aunque, de manera similar a lo que sucede con un vocoder, la síntesis puede proceder de otra fuente acústica. El lenguaje puede adoptar, por ejemplo, el Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga 111
sonido de un violín. Mediante el LPC puede llevarse a cabo cualquier tipo de transformación temporales y frecuanciales, así como interpolaciones entre secciones previamente analizadas. Charles Dodge también utilizó el método de LPC, por ejemplo, en su composición Speech Songs (1972-1973).
Bibliografia
La música del siglo XX: Robert P. Morgan • Historia de la música occidental2: D. Grout & C. Jalisca • Norton • Introducción a la música del siglo XX: Ottó Károlyi • Música por ordenador: Artículo de P. Boulez y A. Gerzso 501.# #Tom Misner (Artícolo Edición Sonora) 502.# #Jesús Sánchez (Artículo Microfonñia) 503.# #Javier Rayón Encinas (Artículo formatos digitales) 504.# #Santi Fermnández (Artículo Software dinámico y manipulación del audio digital)
También puedes consultar estos libros: 505.a) Informática y electrónica musical – Adolfo Núñez – Editorial Paraninfo 506.b) Música electrónica y música con ordenador – Martin Súper – Alianza Música 507.c) Acústica Musical – Calvo del Manzano 508.d) Afinación y temperamento en la música occidental
Luis Alfonso Torres Mancilla • Conservatorio Superior de Música de Málaga
112