Sumario Teoría del arco iris.....................................
2
H. Moysés Nussenzveig
Objetivos fotográficos...........
.............
.........
16
William H. Price
Delicias del estenoscopio y desu pariente, el antiestenoscopio. . 29
Microscopía confocal..................................
36
Jeff W. Lichtman
Construcción de un microscopio simple . . . . . . . . . . . . . . . . . . 42
Coherencia óptica.....................................
46
Hologramas de luz blanca ..............................
54
M.a Luisa Calvo Padilla
Emmett N. Leith
Optica adaptativa .....................................
68
John W. Hardy
Espejos líquidos .................
.............
........
74
Ermanno F. Borra
Optica sin imágenes ...................................
80
Roland Winston
Giroscopios ópticos ..............
.............
........
86
Dana Z. Anderson
Tensión visible. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Interferometría óptica de superficies ....................
100
Glen M. Robinson, David M. Perry y Richard W. Peterson
Conjugación de fase óptica ............................ Vladimir V. Shkunov y Boris Y. Zel’dovich
106
Teoría del arco iris H. Moysés Nussenzveig
¿Por qué aparecen en el cielo esos bellos arcos coloreados cuando las gotas de agua difunden la luz del sol? La respuesta a esta difícil pregunta ha puesto a contribución todos los recursos de la física matemática
E
l arco iris es un puente entre dos culturas, pues su descripción ha venido constituyendo un desafío tanto para los poetas como para los científicos. Suele suponerse que la descripción científica es un sencillo problema de óptica geométrica, resuelto hace mucho tiempo y cuyo único interés actual sería como ejercicio histórico. Pero no es así, pues sólo recientemente se ha elaborado una teoría cuantitativa satisfactoria del arco iris, teoría que además abarca mucho más que la óptica geométrica, basándose en todo lo que sabemos sobre la naturaleza de la luz, siendo necesario tener en cuenta sus propiedades ondulatorias (la interferencia, la difracción y la polarización) y corpusculares (verbigracia, la cantidad de movimiento transportada por un haz de luz). Algunos de los métodos más poderosos de la física matemática se idearon explícitamente para tratar el problema del arco iris y otros estrechamente relacionados con él. El arco iris ha servido de piedra de toque para poner a prueba las teorías ópticas. La más afortunada de ellas puede, hoy, describir el arco iris matemáticamente, es decir, predecir la distribución de su luz en el cielo. Los mismos métodos pueden aplicarse a fenómenos parecidos, como son los brillantes anillos de color llamados glorias, e incluso a otras clases de arco iris, como los atómicos y nucleares. La comprensión científica del mundo no siempre se acepta sin reservas. Goethe escribió que el análisis de los colores del arco iris realizado por Newton “baldaría el corazón de la Naturaleza”. Un sentimiento análogo fue expresado por Charles Lamb y John Keats; en un banquete celebrado en 1817 propusieron un brindis: “Por la salud de Newton y la ruina de las matemáticas.” Los científicos que contribuyeron a la teoría del arco iris no fueron, sin embargo, insensibles a su
2
belleza. En palabras de Descartes: “El arco iris es una maravilla de la naturaleza tan notable... que yo difícilmente podría haber elegido otro ejemplo mejor para la aplicación de mi método.” El arco único y brillante que se ve tras un chubasco de lluvia o en la rociada de una cascada es el arco iris primario. Su característica más conspicua es su despliegue de colores, que varían mucho en brillo y claridad, pero siempre siguen el mismo orden: el violeta es el más interno, mezclándose gradualmente con varios tonos de azul, verde, amarillo y naranja, siendo el rojo el más externo. Otras características del arco iris son menos acusadas y, de hecho, no siempre se presentan. En el cielo, por encima del arco primario, se encuentra el secundario, en el que los colores aparecen en orden inverso, con el rojo más hacia dentro y el violeta en el borde externo. Una observación cuidadosa revela que la región situada entre ambos arcos es bastante más oscura que el cielo circundante. Incluso en aquellos casos en los que el arco secundario no sea discernible, se puede ver que el arco primario tiene un “lado iluminado” y un “lado oscuro”. A la región oscura se la ha denominado banda oscura de Alejandro, en honor del filósofo griego Ale jandro de Afrodisia, quien la describió por primera vez hacia el año 200 de la era cristiana. Otra característica que se ve sólo algunas veces es una serie de débiles bandas, en la que suelen alternar el rosa y el verde, hacia la parte interna del arco primario. (Pueden aparecer más raramente en la parte exterior al arco secundario.) Estos “arcos supernumerarios” se ven generalmente con la máxima claridad hacia la parte superior del arco primario. Aunque no son nada llamativos, han tenido una importante influencia en el desarrollo de las teorías sobre el arco iris.
El primero que intentó explicar racionalmente la aparición del arco iris fue probablemente Aristóteles. Propuso la idea de que era en realidad una clase especial de reflexión de la luz solar por las nubes. La luz se reflejaría con un ángulo fijo, dando lugar a un cono circular de “rayos de arco iris”. Aristóteles explicó así correctamente la forma circular del arco y advirtió que no se trataba de un objeto material en una posición definida del cielo, sino más bien de un conjunto de direcciones a lo largo de las cuales se difunde fuertemente la luz hasta los ojos del observador.
E
l ángulo que forman los rayos del arco iris y la luz solar incidente fue medido por primera vez en 1266 por Roger Bacon. Obtuvo un resultado de unos 42 grados; el arco secundario está unos ocho grados más alto en el cielo. Hoy día se acostumbra medir esos ángulos en la dirección opuesta, atendiéndose al cambio total de dirección de los rayos procedentes del Sol. El ángulo del arco primario mide, por tanto, 180 menos 42, es decir, 138 grados; se trata del llamado ángulo del arco iris. El ángulo del arco secundario mide 130 grados. Tras la conjetura de Aristóteles hubieron de pasar diecisiete siglos antes de que la teoría del arco iris progresase algo. En 1304 el monje alemán Teodorico de Freiberg rechazó la hipótesis aristotélica de que el arco
1. ARCO IRIS DOBLE fotografiado en el Parque Nacional de Pallastunturi, Finlandia. La banda brillante más interna es el arco primario; está separado del arco secundario, más débil, por una región, llamada banda oscura de Alejandro, que es visiblemente más oscura que el cielo circundante. Bajo el arco primario hay unas pocas bandas tenues de rosa y verde; son los arcos supernumerarios. A la teoría compete dar una explicación cuantitativa de cada uno de esos rasgos.
TEMAS 6
iris resultase de la reflexión colectiva por las gotas de agua de una nube, proponiendo en cambio que cada gota individual era capaz de producir un arco iris. Además comprobó esta conjetura mediante experimentos realizados con una gota aumentada: un frasco esférico de vidrio lleno de agua, que le permitió seguir el camino de los rayos luminosos que constituyen el arco iris. Los descubrimientos de Teodorico permanecieron en buena medida ignorados durante tres siglos, hasta que volvieron a ser redescubiertos inde-
LA CIENCIA DE LA LUZ
pendientemente por Descartes, que siguió el mismo método. Ambos mostraron que el arco iris está constituido por rayos que penetran en una gota y se reflejan una sola vez en su superficie interna. El arco secundario está formado por rayos que han sufrido dos reflexiones internas. En cada reflexión se pierde algo de luz, lo que es la causa principal de que el arco secundario sea más débil que el primario. Teodorico y Descartes también se dieron cuenta de que la luz dispersada por el globo en una dirección determinada, comprendida en el margen de ángulos
correspondientes al arco iris, presentaba un solo color. Si se variaba la posición del ojo para explorar los otros ángulos de dispersión, aparecían los otros colores espectrales, de uno en uno, por lo que llegaron a la conclusión de que cada uno de los colores del arco iris llegaba al ojo procedente de un conjunto diferente de gotas de agua. Teodorico y Descartes comprendieron que todos los rasgos fundamentales del arco iris se pueden explicar examinando la luz que pasa por una gota única. Los principios fundamentales que determinan la naturaleza del
3
arco son los que rigen la interacción entre la luz y los medios transparentes, es decir, la reflexión y la refracción. La ley de la reflexión es el principio, conocido e intuitivamente evidente, de que el ángulo de reflexión debe ser igual al ángulo de incidencia. La ley de la refracción es algo más complicada. Mientras que el camino de un rayo reflejado queda completamente determinado por la geometría, la refracción obliga a tener en cuenta las propiedades de la luz y las propiedades del medio. La velocidad de la luz en el vacío es invariante; en realidad, constituye una de las constantes fundamentales de la naturaleza. En cambio la velocidad de la luz en un medio material queda determinada por las propiedades del medio. El cociente entre velocidad de la luz en el vacío y velocidad de la luz en una substancia se llama índice de refracción de esa substancia. Para el aire, este índice sólo es un poco mayor que la unidad; para el agua vale aproximadamente 1,33. Un rayo de luz que pase de aire a agua se retarda al atravesar la superficie de separación; si incide oblicuamente sobre dicha superficie, el cambio de velocidad se traduce en un 2. LA GEOMETRIA DEL ARCO IRIS viene determinada por el ángulo de desviación, cambio de dirección. Los senos de los que es el ángulo que forma la dirección del rayo incidente con la del rayo emergenángulos de incidencia y refracción te de la gota, en el sentido de propagación de éste. Los rayos incidentes se desvían preferentemente según ángulos de 138 y de 130 grados, srcinando los arcos irispara dos medios están siempre en una primario y secundario, respectivamente. Entre esos ángulos es muy poca l a luz que relación constante e igual al cociente es devuelta por las gotas; ésa es la región de la banda oscura de Alejandro. Los de los índices de refracción de los dos ángulos óptimos son ligeramente distintos para cada longitud de onda de la luz, medios. Esta igualdad se llama ley de por lo cual se dispersan los colores. El orden en que aparecen l os colores en el arco Snell, en honor de Willebrord Snell, secundario es el inverso del que corresponde al arco primario. No existe un plano quien la formuló en 1621. único en el que se halle el arco iris; éste es el conjunto de direcciones a lo largo de las cuales la luz incidente se desvía hacia el observador.
S
e puede realizar un análisis provisional del arco iris aplicando las leyes de la reflexión y de la refracción a la trayectoria de un rayo luminoso al atravesar una gota. Admitiendo que la gota sea esférica, todas las direcciones son equivalentes y sólo queda una variable importante: la distancia del rayo incidente a un eje paralelo a él y que pase por el centro de la gota. Esta distancia se llama parámetro de impacto y varía desde cero, cuando el rayo coincide con el eje central, al radio de la gota, si el rayo es tangente. El rayo incidente sufre una reflexión parcial en la superficie de la gota; 3. LA REFLEXION Y LA REFRACCION de la luz en la superficie de separación entre denominaremos a esta luz reflejada el aire y el agua son los hechos básicos en la formación de un arco iris. Por lo que “rayos desviados de primer orden”. La a la reflexión se refiere, el ángulo de incidencia es igual al ángulo de reflexión. En luz restante pasa al interior de la gota el caso de la refracción, el ángulo que la luz transmitida forma con la normal a la (con un cambio de dirección causado superficie de separación viene determinado por las propiedades del medio, caracpor la refracción) y al llegar de nuevo terizadas por el índice de refracción. La luz que penetra en un medio con un índice a su superficie vuelve a transmitirse de refracción más alto es desviada, acercándose a la normal. La luz de longitudes parcialmente (rayos de segundo orden) de onda diferentes se desvía según ángulos ligeramente distintos; esta dependencia entre índice de refracción y color se llama dispersión. Las teorías suelen tratar por y se refleja parcialmente. Cuando la separado cada componente monocromática de la luz incidente. luz reflejada vuelve a incidir sobre la
4
TEMAS 6
superficie, se divide otra vez entre una componente reflejada y otra transmitida, proceso que continúa indefinidamente. La gota da srcen por tanto a una serie de rayos difundidos, cuya intensidad suele decrecer rápidamente. Los rayos de primer or den representan la reflexión directa por la gota y los de segundo orden se transmiten directamente a través de ella. Los de tercer orden son los que salen de la gota tras una reflexión interna, y forman el arco iris primario. Los rayos de cuarto orden, que han sufrido dos reflexiones internas, srcinan el arco secundario. Los arcos de orden superior proceden de rayos con trayectorias más complicadas, pero de ordinario no son visibles. El ángulo de desviación de cada orden de rayos varía dentro de un amplio intervalo de valores en función del parámetro de impacto. Cuando hay Sol la gota queda iluminada simultáneamente para todos los parámetros de impacto, por lo que la luz se dispersa prácticamente en todas las direcciones. No es difícil encontrar trayectos de rayos luminosos a través de la gota que contribuyan al arco iris, pero hay una infinidad de ellos que dirigen la luz hacia otros lados. ¿Por qué entonces se refuerza la intensidad dispersada en la proximidad del ángulo del arco iris? Esta es una cuestión que Teodorico no examinó; Descartes fue el primero en solucionarla. Aplicando las leyes de la reflexión y de la refracción en cada punto en el que un rayo pudiese incidir sobre la superficie de separación aire-agua, calculó laboriosamente los caminos de muchos rayos incidentes según muchos parámetros de impacto. Los rayos de tercer orden tienen una importancia predominante. Cuando el parámetro de impacto es cero, los rayos son desviados en la dirección de incidencia, es decir, una vez han pasado por el centro de la gota se reflejan en su pared opuesta, girando un ángulo de 180o y regresando hacia el Sol. A medida que crece el parámetro de impacto y los rayos incidentes se separan del centro de la gota, el ángulo de desviación disminuye. Descartes halló, sin embargo, que esta variación no continúa cuando el parámetro de impacto ha aumentado hasta su valor máximo, caso de incidencia rasante en que el rayo es tangente a la superficie de la gota. Por el contrario, el ángulo de desviación pasa por un mínimo cuando el parámetro de impacto vale aproximadamente 7/8 del radio de la gota, y después aumenta de nuevo. El ángulo de desviación correspondiente al mínimo vale 138 grados.
LA CIENCIA DE LA LUZ
RAYO DE TERCER ORDEN (ARCO IRIS PRIMARIO)
RAYO DE SEGUNDO ORDEN
PARAMETRO DE IMPACTO
RAYOS DE ORDENES SUPERIORES
RAYO INCIDENTE GOTA DE AGUA RAYO DE CUARTO ORDEN (ARCO IRIS SECUNDARIO) RAYO DE PRIMER ORDEN
4. EL RECORRIDO DE LA LUZ al atravesar una gota se puede determin ar aplicando las leyes de la óptica geométrica. Cada vez que el haz incide sobre la superficie, parte de la luz se refleja y parte se refracta. Los rayos reflejados directamente por la superficie se llaman rayos de primer orden; los que se transmiten directamente a través de la gota se llaman de segundo orden. Los rayos de tercer orden emergen tras una reflexión interna; éstos son los que srcinan el arco iris primario. El arco secundario está constituido por rayos de cuarto orden, que han experimentado dos reflexiones internas. El valor del ángulo de desviación de los rayos de cada tipo está determinado por un único factor, el parámetro de impacto ( que es la distancia del rayo incidente a un eje paralelo a él y que pase por el centro de la gota).
En el caso de los rayos de cuarto orden, el ángulo de desviación es nulo cuando lo es el parámetro de impacto; en otras palabras, el rayo central se refleja dos veces y después continúa en su dirección srcinal. Al aumentar el parámetro de impacto también lo hace el ángulo de desviación, pero de nuevo esta variación se invierte en cierto momento, esta vez a 130 grados. Los rayos de cuarto orden tienen un ángulo de desviación máximo de 130 grados y, si el parámetro de impacto aumenta más, los rayos salen apuntando hacia la parte posterior de la gota, desviados hacia la dirección de incidencia. La iluminación de una gota que esté al Sol es uniforme y los parámetros de impacto de los rayos incidentes estarán también uniformemente distribuidos. Sería de esperar, por tanto, que la concentración de luz desviada fuese máxima donde más lenta sea la vari ación del ángu lo de desviación
según el parámetro de impacto. Es decir, la luz desviada será más brillante allí donde se reúnan la mayor cantidad de rayos que incidieron con parámetros de impacto diferentes. Las regiones de mínima variación son las vecinas a los ángulos de desviación máximo y mínimo, lo que explica el especial carácter de los ángulos de los arcos primario y secundario. Y como en la región comprendida entre los ángulos de 130 y 138 grados no puede haber rayos desviados de los órdenes tercero y cuarto, queda también explicada la banda oscura de Alejandro.
P
uede entenderse mejor la teoría de Descartes si se considera un conjunto de gotas que, de alguna manera, difundieran la luz uniformemente en todas direcciones. Un cielo lleno de tales gotas sería uniformemente brillante desde todos los ángulos. En un cielo poblado de gotas de agua reales hay disponible la misma cantidad de
5
luz, pero ha sido redistribuida. La mayoría de las zonas celestes están iluminadas más débilmente de lo que lo estarían con dispersión uniforme, pero en la proximidad del ángulo del arco iris hay un arco brillante, que se atenúa gradualmente en el lado iluminado y más bruscamente en el lado oscuro. El arco se cundario es otra región análoga de gran intensidad, salvo que es más estrecho y todas sus características son más débiles. Conforme a la teoría cartesiana, la zona situada entre los arcos es decididamente más oscura que cualquier otra parte: si sólo contuviera rayos de órdenes tercero y cuarto, sería muy negra.
El arco iris cartesiano es un fenómeno sorprendentemente sencillo. El brillo es una función de la velocidad de variación del ángulo de desviación. Este queda determinado por dos factores: el índice de refracción, que se supone constante, y el parámetro de impacto, que se supone distribuido uniformemente. Un factor que carece de influencia alguna sobre el ángulo del arco iris es el tamaño de las gotas: la geometría de la desviación es la misma para las gotitas de agua que constituyen las nubes que para los globos de vidrio llenos de agua que usaban Teodorico y Descartes. Hasta ahora hemos prescindido de una de las características más conspi-
180
cuas del arco iris: sus colores. Por supuesto que Newton los explicó en 1666 mediante sus experimentos con prismas. Tales experimentos demostraron no solamente que la luz blanca es una mezcla de colores, sino también que el índice de refracción difiere para cada color, efecto llamado dispersión. Se deduce, por tanto, que cada color o longitud de onda de la luz debe tener su propio ángulo de arco iris; lo que observamos en la naturaleza es una reunión de arcos monocromáticos, cada uno ligeramente corrido respecto al anterior. Partiendo de sus mediciones del índice de refracción, Newton calculó que el ángulo del arco iris es de 137
A RAYO DE TERCER ORDEN
160
B
C
RAYO DE ARCO IRIS PRIMARIO
140
) S O D A R 120 G ( N O I 100 C A I V S E D 80 E D O L 60 U G N A
BANDA OSCURA DE ALEJANDRO
RAYO DE ARCO IRIS SECUNDARIO
RAYO DE CUARTO ORDEN
40
20
0
PARAMETRODEIMPACTO
C A
PARAMETRO DE IMPACTO A RAYO DEL ARCO IRIS
B C
6
ANGULO DE DESVIACION B
RADIODELAGOTA
5. ANGULO DEL ARCO IRIS. La especial importancia que tiene se observa al considerar el ángulo de desviación en función del parámetro de impacto. Cuando éste es cero, el ángulo de desviación para un rayo de tercer orden es de 180 grados; el rayo pasa por el centro de la gota, se refleja en la superficie situada más allá del centro y vuelve hacia el Sol en la dirección de incidencia, pero en sentido opuesto. A medida que aumenta el parámetro de impacto disminuye el ángulo de desviación, hasta que llega a alcanzar un valor mínimo. Este rayo de mínima desviación es el rayo del arco iris en el diagrama de la izquierda; los rayos con parámetros de impacto a uno y otro lado de él se desvían según ángulos mayores. La desviación mínima es aproximadamente de 138 grados y la máxima concentración de rayos desviados se encuentra en la proximidad de este ángulo. El incremento resultante de la intensidad de la luz difundida se percibe como arco primario. El arco de secundario se forma de manera análoga, to que el ángulo desviación para los rayos de cuarto exceporden que lo forman aumenta hasta un máximo, en lugar de disminuir hasta un mínimo. El máximo se encuentra hacia los 130 dos. gra Ningún rayo de los órdenes tercero y cuarto puede alcanzar ángulos de desviación entre 130 y 138 grados, lo que explica la existencia de la banda oscura de Alejandro. A la izquierda se ve cómo dos rayos de tercer orden, con parámetros de impacto a uno y otro lado del correspondiente al rayo del arco iris, emergen según el mismo ángulo de desviación. La interferencia entre rayos como éstos da lugar a los arcos supernumerarios.
TEMAS 6
grados y 58 minutos para la luz roja y de 139 grados y 43 minutos para la luz violeta. La diferencia entre ambos es de 1 grado y 45 minutos, que debería ser la anchura del arco iris si los rayos de la luz solar incidente fueran exactamente paralelos. Aceptando medio grado para el diámetro aparente del Sol, Newton obtuvo una anchura total de dos grados y quince minutos para el arco primario. Entre Descartes y Newton quedaron explicadas las características más importantes del arco iris. Explicaron la existencia de los arcos primario y secundario y de la zona oscura que los separa; calcularon sus posiciones angulares y describieron la dispersión de la luz difundida formando un espectro. Todo ello se consiguió usando exclusivamente la óptica geométrica. Su teoría, sin embargo, tenía un fallo importante: era incapaz de explicar los arcos supernumerarios. La comprensión de esos detalles aparentemente nimios requiere tener ideas más sutiles sobre la naturaleza de la luz.
L
os arcos supernumerarios aparecen en el lado interno, o iluminado, del arco primario. En esta región angular hay dos rayos de tercer orden que, tras haber sido difundidos, emergen en la misma dirección; provienen de rayos incidentes que tienen parámetros de impacto a uno y otro lado del valor que corresponde al arco iris. Así, para cualquier ángulo dado ligeramente mayor que el del arco iris, la luz difundida incluye rayos que han seguido dos caminos diferentes en el interior de la gota. Los rayos emergen por distintos lugares de su superficie, pero siguen la misma dirección. En los tiempos de Descartes y de Newton, esas dos contribuciones a la intensidad difundida sólo podían manejarse por simple suma. El resultado es que la intensidad obtenida decrece continuamente con la desviación respecto al ángulo del arco iris, sin traza alguna de arcos supernumerarios. La verdad es que las intensidades de los dos rayos no pueden sumarse porque no son fuentes independientes de radiación. El efecto óptico escondido tras el fenómeno de los arcos supernumerarios lo descubrió Thomas Young en 1803, demostrando que la luz era capaz de producir interferencia, fenómeno que ya era conocido por el estudio de las olas en el agua. La superposición de ondas producidas en cualquier medio puede dar lugar bien a un refuerzo (cresta sobre cresta) o bien a una anulación (cresta sobre seno). Young demostró la interferencia de las
LA CIENCIA DE LA LUZ
6. LA CONFLUENCIA DE RAYOS desviados por una gota da lugar a cáu sticas. Una cáustica es la envolvente de un sistema de rayos. De interés especial es la cáustica de los rayos de tercer orden, que tiene dos ramas, una real y otra virtual; la última se forma por prolongación de los rayos hacia atrás. Cuando se construye el rayo d el arco iris en ambas direcciones, se aproxima asintóticamente a las ramas de la cáustica. George B. Airy elaboró una teoría del arco iris basada en el análisis de tal curva. Habiendo escogido un frente de onda inicial —una superficie perpendicular en todos los puntos a los rayos de tercer orden— Airy pudo determinar la distribución de las amplitudes de las ondas restantes. Un punto débil de esta teoría es la necesidad de presuponer las amplitudes iniciales.
ondas luminosas haciendo pasar un delgado haz de luz monocromática a través de dos orificios de diámetro muy pequeño y observando las franjas alternativamente iluminadas y oscuras que se producían. El propio Young señaló la relación entre su descubrimiento y los arcos supernumerarios del arco iris. Los dos rayos desviados en la misma dirección por una gota son estrictamente análogos a la luz que pasa a través de los dos agujeros en el experimento de Young. En el caso de ángulos muy próximos al del arco iris los dos trayectos por la gota difieren muy poco, de modo que ambos rayos interfieren constructivamente. Al aumentar el ángulo, los dos rayos
siguen trayectos de longitudes cada vez más diferentes. Cuando la diferencia es igual a la mitad de la longitud de onda, la interferencia es completamente destructiva; para ángulos mayores, los dos haces vuelven a reforzarse. El resultado es una variación periódica de la intensidad de la luz desviada, una serie de bandas alternativamente brillantes y oscuras.
C
omo los ángulos de desviación a los que se produce interferencia constructiva están determinados por la diferencia de longitud entre los trayectos de los dos rayos, esos ángulos están afectados por el radio de la gota. El aspecto de los arcos supernu-
7
difracción es un sutil y difícil problema de física matemática; los estímulos para el desarrollo subsiguiente de la teoría del arco iris derivaron principalmente de los esfuerzos realizados para resolverlo. Richard Potter observó en 1835 que el cruce de varios conjuntos de rayos luminosos en una gota da lugar a curvas cáusticas. Una cáustica, o “curva ardiente”, representa la envolvente de un sistema de rayos y va siempre asociada a un brillo elevado. Una cáustica conocida es la curva brillante de dos arcos que se unen en punta y que se forma en una taza de té cuando la luz del Sol se refleja en sus paredes interiores. Las cáusticas, como el arco iris, suelen tener un lado iluminado y otro oscuro; la intensidad aumenta continuamente hasta la cáustica y, pasada ésta, cae en forma brusca. Potter mostró que el rayo de Descartes del arco iris —el rayo de tercer orden con ángulo de desviación mínimo— se puede considerar como una cáustica. Todos los otros rayos transmitidos de tercer orden, cuando se prolongan hasta el infinito, se acercan al rayo de Descartes desde el lado 7. LA INTENSIDAD CALCULADA en función del ángulo de desviación se compara iluminado; no hay rayos de esta clase en tres de las primitivas teorías del arco iris. En el análisis geométrico de Descartes en el lado no iluminado. Hallar la la intensidad es infinita para el ángulo del arco iris; disminuye gradualmente (sin intensidad de la luz desviada por un arcos supernumerarios) en el lado iluminado y cae bruscamente a cero en el lado arco iris es semejante, pues, al prooscuro. La teoría de Thomas Young, basada en la interferencia de las ondas lumide determinar la distribución nosas, predice los arcos supernumerarios, pero retiene la transición brusca de blema la intensidad de cero a infinito. La teoría de Airy altera la posición de los máximos de en intensidades en la vecindad de una la curva de intensidad y, por primera vez, proporciona (mediante la difracción) una cáustica. explicación de la atenuación gradual del arco iris hasta convertirse en sombra.
merarios (en contraste con el án gulo del arco iris) depende, pues, del tamaño de las gotas. En el caso de gotas grandes la diferencia aumenta mucho más rápidamente que para gotas pequeñas con el parámetro de impacto. De aquí que, cuanto mayores sean las gotas, tanto más estrecha será la se paración angular entre los arcos su pernumerarios. Los arcos son casi imposibles de distinguir si las gotas son de diámetro superior a un milímetro aproximadamente. La superposición de colores tiende también a eliminar los arcos. La dependencia de los arcos supernumerarios respecto al tamaño de las gotas explica por qué son más fáciles de ver cerca de la cima del arco iris: las gotas de lluvia tienden a hacerse mayores a medida que caen. Con la teoría de la interferencia de Young se explicaban todas las características importantes del arco iris, al menos de forma cualitativa y aproximada. Faltaba, sin embargo, una teoría matemática, cuantitativa, capaz de predecir la intensidad de la
8
luz desviada en función del tamaño de la gota y del ángulo de desviación. La explicación de Young de los arcos supernumerarios se basaba en la teoría ondulatoria de la luz. Resultaba paradójico que sus predicciones para el otro lado del arco, para la banda oscura de Alejandro, estuviesen en desacuerdo con dicha teoría. La teoría de la interferencia, como las de Descartes y Newton, predecía completa oscuridad en esta región, al menos cuando sólo se consideraban los rayos de los órdenes tercero y cuarto. Sin embargo, no es posible una transición tan abrupta, porque la teoría ondulatoria de la luz exige que las acusadas separaciones entre luz y sombra se suavicen a causa de la difracción. La manifestación más familiar de la difracción es la manera en que la luz o el sonido parecen curvarse en el bor de de un obstáculo opaco. En el arco iris no hay obstáculo real alguno; de todas maneras, el borde de separación entre el arco primario y la banda oscura debería presentar difracción. El tratamiento de la
G
eorge B. Airy intentó determinar tal distribución en 1838. Su razonamiento se basaba en un principio de la propagación de ondas formulado en el siglo XVII por Christiaan Huygens y perfeccionado más tarde por Augustin Jean Fresnel. Este principio consi dera cada punto de un frente de ondas como fuente de ondas esféricas secundarias; las ondas secundarias definen un nuevo frente de ondas; de esta manera se explica la propagación de las ondas. Se deduce, por tanto, que si se conociera la amplitud de las ondas secundarias en cada punto de un frente de ondas completo, se podría reconstruir la distribución de amplitudes en cualquier otro punto. La totalidad del arco iris se podría describir rigurosamente si conociéramos la distribución de amplitudes a lo largo del frente de ondas en una gota única. Por desgracia no suele poder determinarse la distribución de amplitudes; lo más que generalmente puede hacerse es una estima razonable para un frente de ondas escogido con la esperanza de obtener una buena aproximación. Airy escogió como frente de ondas inicial una superficie del interior de
TEMAS 6
la gota que sea normal a todos los rayos de tercer orden y con un punto de inflexión (cambio en el sentido de la curvatura) donde corte al rayo de Descartes. Estimó las amplitudes de las ondas a lo largo de este frente mediante hipótesis corrientes en la teoría de la difracción y pudo así expresar la intensidad de la luz desviada en la región del arco iris en términos de una nueva función matemática, a la que entonces se dio el nombre de integral del arco iris y hoy se llama función de Airy. No trataremos aquí de la forma matemática de la función de Airy. La distribución de intensidades predicha por la función de Airy es análoga a la figura de difracción que aparece en la sombra de un filo rectilíneo. En el lado iluminado del arco primario hay oscilaciones de intensidad que corresponden a los arcos supernumerarios; las posiciones y anchuras de esos máximos difieren algo de lo predicho por la teoría de la interferencia de Young. Otra diferencia importante de la teoría de Airy es que la intensidad máxima del arco iris se produce para un ángulo algo mayor que el án gulo de mínima desviación de Descartes. Las teorías de Descartes y de Young predicen una intensidad infinita a ese ángulo, debido a la presencia de la cáustica. En la teoría de Airy no se alcanza intensidad infinita en ningún punto; por lo que se refiere al rayo de Descartes, la intensidad pronosticada por la teoría es menos de la mitad que la que corresponde al máximo. Por último, en el lado oscuro del arco iris aparecen efectos de difracción; en lugar de anularse brusca-
mente, la intensidad disminuye poco a poco en la banda oscura de Alejandro. Airy realizó sus cálculos para un arco iris monocromático. Si se quiere aplicar su método al arco iris producido a la luz del Sol, hay que superponer las distribuciones de Airy generadas por las diversas componentes monocromáticas. Pasar más allá y describir la imagen del arco iris que se percibe exige una teoría de la visión del color. La pureza de los colores del arco iris queda determinada por el grado de superposición de los arcos iris monocro-
máticos componentes, la que a su vez viene determinada por el tamaño de las gotas. Gotas uniformemente grandes (de diámetro de unos cuantos milímetros) dan generalmente arcos iris brillantes con colores puros; con gotas muy pequeñas (diámetros de 0,01 milímetro aproximadamente) la superposición de colores es tan grande que la luz resultante aparece casi blanca. Una propiedad importante de la luz, de la que hasta ahora hemos prescindido, es su grado de polarización. La luz es una onda transversal, es decir, una onda en la que las oscilaciones son perpendiculares a la dirección
8. LA POLARIZACION del arco iris es el resultado de la reflexión diferencial. Un rayo incidente puede descomponerse en dos componentes, una po larizada paralelamente y la otra perpendicularmente al plano de reflexión. En el caso de un rayo que incida sobre la superficie de separación entre el aire y el agua desde dentro de una gota, la reflectividad de la superficie depende del ángulo de incidencia. Superado cierto ángulo crítico, ambas componentes, la perpendicular y la paralela, son reflejadas por completo, aunque algo de luz viaja paralelamente a la superficie, constituyendo “onda la evanescente”. ángulosuna menores componente Para perpendicular es reflejada más eficazmente que la paralela y al llegar a un án gulo particular, llamado ángulo de Brewster, la luz polarizada paralelamente se transmite en su totalidad. El ángulo de reflexión interna para el rayo del arco iris cae cerca del ángulo de Brewster. Por eso la luz del arco iris presenta una polarización perpendicular.
LA CIENCIA DE LA LUZ
9
ángulo de Brewster, en honor de David Brewster, que explicó su importancia en 1815. La luz del arco iris está casi completamente polarizada, como se puede comprobar mirándolo a través de gafas polarizantes y girando los cristales alrededor de la línea de visión. La gran polarización proviene de una notable coincidencia: el ángulo de incidencia interna para el rayo del arco iris es muy próximo al ángulo de Brewster. La mayor parte de la componente paralela escapa en los rayos de segundo orden transmitidos, dejando en el arco iris un predominio de rayos polarizados perpendicularmente. El conocimiento de que tanto la materia como la radiación se pueden comportar como ondas ha ensanchado el campo de aplicación de la teoría del arco iris, que abarca ahora nuevos e invisibles arcos iris producidos en la dispersión atómica y nuclear.
E
l matemático irlandés William Rowan Hamilton ya había percibido una cierta analogía entre la óptica geométrica y la mecánica clásica de partículas en 1831. Análogas a los rayos de la óptica geométrica son 9. LA DISPERSION DE UNOS ATOMOS POR OTROS crea un arco iris de partículas. las trayectorias de las partículas; el El papel que desempeña el índice de refracción en la desviación óptica está reprecambio de dirección de un rayo de luz sentado aquí por las fuerzas interatómicas. La principal diferencia es que estas al penetrar en un medio de distinto fuerzas varían gradual y continuamente, de modo que los átomos siguen trayectorias curvadas. Cuando un átomo se acerca a otro, la fuerza que se ejerce entre ellos índice con- de refracción corresponde a la siste al principio en una atracción que aumenta continuamente ( ) sombreado en color desviación de una partícula que se pero a muy corta distancia se hace fuertemente repulsiva ( ). Un máxi- mueve bajo la acción de una fuerza. sombreado gris mo local del ángulo de desviación corresponde al ángulo del arco iris. Es el ángulo En la dispersión de las partículas se al que se curva la trayectoria que mejor aprovecha la parte atractiva del potencial. presentan analogías respecto de muchos efectos ópticos, entre los cuade propagación. (El sonido, por el con- poder reflector de la superficie es les hay que contar el arco iris. trario, es una vibración longitudinal.) pequeño en ambos planos para ánguConsideremos el choque entre dos La orientación de la oscilación trans- los de incidencia cercanos a la perpen- átomos de un gas. Al acercarse los versal se puede separar en componen- dicular y crece muy rápidamente en átomos desde una separación inicial tes a lo largo de dos ejes perpendicu- la proximidad de un ángulo crítico, grande, quedan al principio sometidos lares entre sí. Cualquier rayo luminoso cuyo valor está determinado por el a una atracción constantemente crese puede describir en función de esos índice de refracción, sobrepasado el ciente. A distancias pequeñas, sin dos estados independientes de polari- cual el rayo resulta totalmente refle- embargo, sus cortezas electrónicas zación rectilínea. La luz del Sol es una jado con independencia de su polari- comienzan a interpenetrarse y la mezcla incoherente de los dos en igua- zación. Para ángulos intermedios, sin fuerza atractiva disminuye. A distanles proporciones; se dice con frecuen- embargo, el poder reflector depende cias muy pequeñas se convierte en cia que está polarizada en forma alea- de la polarización. A medida que la una repulsión cada vez más fuerte. toria, o simplemente no polarizada. La incidencia se hace más próxima a la Como en el experimento óptico, la reflexión puede alterar el estado de rasante, se refleja una proporción cre- dispersión atómica se puede analizar polarización, hecho donde radica la ciente de la componente polarizada trazando las trayectorias de los rayos importancia de la polarización en el perpendicularmente. En el caso de la en función del parámetro de impacto. análisis del arco iris. componente paralela, en cambio, el Debido a la variación gradual y contiConsideremos las reflexiones de un poder reflector decrece antes de empe- nua de las fuerzas, los átomos siguen rayo luminoso que se propague por el zar a aumentar. Hay un determinado trayectorias curvadas en lugar de interior de una gota de agua en el ángulo al que se anula por completo cambiar bruscamente de dirección, momento en que alcanza la superficie el poder reflector para la onda polari- como hacían los rayos en la superficie de la gota. El plano de reflexión, es zada paralelamente, onda que se de separación de dos medios de disdecir, el que contiene los rayos inci- transmite en su totalidad. Por tanto, tinto índice de refracción. Aun cuando dente y reflejado, suministra una refe- cuando la luz solar incide con ese algunas de las trayectorias sean basrencia geométrica conveniente. Los ángulo, el rayo internamente refletante complicadas, cada parámetro de estados de polarización de la luz inci- jado se halla polarizado perpendicu- impacto corresponde a un ángulo de dente se pueden dividir en paralelos larmente al plano de reflexión. El desviación único; hay además una traa ese plano y perpendiculares a él. El ángulo en cuestión se denomina yectoria que representa una desvia-
10
TEMAS 6
ción angular local máxima. Esa trayectoria resulta ser la que hace un uso más eficaz de la interacción atractiva entre átomos. Debe esperarse una gran concentración de partículas en sus proximidades: es el ángulo del arco iris para átomos que interactúan. Kenneth W. Ford y John A. Wheeler formularon un tratamiento mecanocuántico del arco iris atómico y nuclear en 1959. La interferencia entre trayectorias emergentes en la misma dirección da lugar a máximos supernumerarios de intensidad. Y se ha deducido una teoría de la dis persión de partículas análoga a la de Airy. El primer arco iris atómico fue observado por E. Hundhausen y H. Pauly en 1964, en la dispersión de átomos de sodio por átomos de mercurio. Se detectaron el máximo principal del arco iris y dos supernumerarios; en experimentos posteriores se observaron oscilaciones a escalas todavía más finas. Los arcos iris medidos en esos experimentos llevan consigo información sobre las fuerzas interatómicas. De la misma manera que el ángulo del arco iris óptico depende solamente del índice de refracción, el ángulo del arco iris atómico viene determinado por la intensidad de la parte atractiva de la interacción. E igualmente las posiciones de los máximos supernumerarios dependen del tamaño y suministran información sobre el alcance de la interacción. Se han hecho observaciones de la misma clase referentes a la dispersión de núcleos atómicos.
propuso la teoría electromagnética de la luz, hace más de un siglo, se pudo dar una formulación matemática precisa del problema del arco iris óptico. Se necesita calcular la dispersión de una onda electromagnética plana por una esfera homogénea. La solución de un problema parecido, aunque algo más sencillo, es decir, la dispersión de ondas sonoras por una esfera, había sido estudiada por varios investigadores en el siglo XIX, sobre todo por Lord Rayleigh. La solución que obtuvieron constaba de una serie infinita de términos llamados ondas parciales. Gustav Mie y Peter J. W. Debye dieron una solución de la misma forma al problema electromagnético en 1908. Dada la existencia de una solución exacta del problema de la dispersión, podría parecer cosa sencilla determinar todos sus aspectos, incluyendo el carácter preciso del arco iris. El problema, naturalmente, es la necesidad de sumar la serie de ondas parciales, cada término de la cual es una función un tanto complicada. La serie se puede truncar para dar una solución aproximada, pero este método sólo resulta práctico en algunos casos. El número de términos que deben retenerse es del mismo orden de magnitud que el parámetro de tamaño. La serie de ondas parciales es, por tanto, muy adecuada para el tratamiento de la
difusión de Rayleigh, que es la responsable del color azul del cielo; en ese caso, las partículas dispersoras son moléculas, mucho más pequeñas que la longitud de onda, de modo que basta con un término de la serie. Para el problema del arco iris deben tomarse en cuenta parámetros de tamaño de hasta varios millares. Una buena aproximación a la solución por el método de ondas parciales requeriría evaluar la suma de varios miles de términos complicados. Se han hecho intentos con ordenadores, pero los resultados son funciones del parámetro de tamaño y del ángulo de desviación que varían rápidamente, de modo que el trabajo y el costo se hacen enseguida prohibitivos. Además un ordenador no puede calcular más que soluciones numéricas; no ofrece medio de penetrar en la física del arco iris. Estamos, pues, en la mortificante situación de conocer la fórmula de la solución exacta y de no ser capaces de extraer de ella una mayor comprensión del fenómeno que describe.
L
os primeros pasos hacia la resolución de esta paradoja se dieron a comienzos del siglo XX por los matemáticos Henri Poincaré y G. N. Watson, quienes hallaron un método para transformar la serie de ondas parciales, que sólo converge muy lentamente
L
a teoría de Airy consiguió muchos éxitos, pero comporta una desazonante laguna cognoscitiva: la necesidad de adivinar la distribución de amplitudes a lo largo del frente de onda inicial escogido. Las hipótesis empleadas para estimarlas son plausibles sólo para gotas de agua bastante grandes. La mejor manera de expresar el tamaño en este contexto es mediante un “parámetro de tamaño”, definido como la relación de la circunferencia de la gota a la longitud de onda de la luz. El valor del parámetro de tamaño varía entre 100 aproximadamente, en el caso de niebla o neblina, y varios millares para gotas de lluvia grandes. La aproximación de Airy es plausible solamente para gotas cuyo parámetro sea de 5000 o más. Resulta irónico que haya una solución exacta para un problema tan difícil como el del arco iris, solución que además se conoce desde hace muchos años. En cuanto James Clerk Maxwell
LA CIENCIA DE LA LUZ
10. ARCO IRIS ATOMICO detectado por E. Hundhausen y H. Pauly al estudiar la dispersión de átomos de sodio por átomos de mercurio. Las oscilaciones en el número de átomos desviados corresponden a un arco iris primario y dos máximos supernumerarios. Un arco de esta clase contiene información sobre la intensidad y el alcance de las fuerzas interatómicas.
11
son, se pueden redistribuir las contribuciones a la serie de ondas parciales. En lugar de un gran número de términos, se puede trabajar con sólo unos pocos puntos, llamados polos y puntos de silla, en el plano del momento cinético complejo. Los polos suscitan gran interés teórico en física de partículas elementales, donde se les suele llamar polos de Regge, en honor del físico italiano Tullio Regge. Tanto los polos como los puntos de silla tienen una interpretación física en el problema del arco iris. Las contribuciones de los puntos de silla reales están asociadas a los rayos luminosos corrientes y reales que hemos estado considerando a lo largo de este artículo. ¿Qué ocurre con los puntos de silla complejos? Los números imaginarios o complejos se consideran ordinariamente como soluciones de una ecuación que no tiene sentido físico, pero no son soluciones sin sentido. Las componentes imaginarias van usualmente asociadas al amorti11. LA TEORIA DEL MOMENTO cinético complejo del arco iris comienza con la guamiento de la amplitud de la onda observación de que un fotón, o cuanto de luz, incidente sobre una gota a cierto en las descripciones de la propagación parámetro de impacto (que no se puede definir exactamente), transporta momento de ondas. Por ejemplo, en la reflexión cinético. En la teoría, las componentes de ese momento cinético se extiend en hasta abarcar valores complejos, es decir, valores que contienen la raíz cuadrada de –1. total interna de un rayo de luz en la Las consecuencias de este método se pueden ilustrar mediante el ejemplo de un superficie de separación entre el agua rayo que incida tangencialmente sobre una gota. El rayo genera ondas superficiay el aire, una onda luminosa “pasa a les que viajan sobre la superficie de la gota y emiten radiación continuamente. El través del espejo”. Su amplitud, sin rayo puede también penetrar en la gota con el ángulo crítico para la reflexión total embargo, se amortigua rápidamente, interna, emergiendo bien para formar otra onda superficial o bien para repetir el de modo que la intensidad se hace trayecto interno que, según se explica en el texto, es más corto. despreciable a una profundidad del orden de una sola longitud de onda. hacia su límite, en una expresión rápi- que el momento cinético tome solaTal onda no se propaga en el aire; por damente convergente. La técnica en mente ciertos valores discretos; por el contrario, queda ligada a la supercuestión se conoce ahora como la otra, deniega la posibilidad de deter- ficie fronteriza, propagándose a lo transformación de Watson o el método minar en forma precisa el parámetro largo de ella; se llama onda evanesdel momento cinético complejo. de impacto. Cada valor discreto del cente. La descripción matemática de No es particularmente difícil ver por momento cinético responde a un tér- la onda evanescente lleva consigo las qué el momento cinético está relacio- mino de la serie de ondas parciales. componentes imaginarias de una nado con el problema del arco iris, solución. El efecto túnel de la mecáaunque es menos evidente que sea ara realizar la transformación de nica cuántica, en el cual una partícula preciso considerar valores complejos Watson deben introducirse valo- pasa a través de una barrera de potendel mismo. La explicación más sencilla res del momento cinético habitualcial sin superarla, tiene una base la suministra una teoría corpuscular mente considerados como imposibles matemática análoga. También aparede la luz, en la que un haz de luz se físicos. Por un lado, se debe permitir cen “rayos complejos” en el lado de considera como un chorro de partícu- al momento cinético que varíe conti- sombra de una cáustica, donde descrilas llamadas fotones. Aunque el fotón nuamente, en lugar de hacerlo por ben la amplitud amortiguada de las no tenga masa, transporta energía y unidades cuantificadas; y, lo que es ondas luminosas difractadas. cantidad de movimiento en proporción más importante, debe permitírsele Las contribuciones de los polos de inversa a la longitud de onda de la que se extienda al campo de los núme- Regge a la serie transformada de ondas correspondiente onda luminosa. ros complejos, es decir, los que inclu- parciales van asociadas a ondas superCuando un fotón choca con una gota yen una componente real y una ima- ficiales de otra clase. Estas ondas son de agua con un parámetro de impacto ginaria que contiene algún múltiplo excitadas por rayos incidentes que atamayor que cero, el fotón transporta un de la raíz cuadrada de –1. El plano can la esfera tangencialmente. Una vez momento cinético igual al producto de definido por esas dos componentes se creada tal onda, se propaga sobre la su cantidad de movimiento por el pará- designa como plano del momento ciné- esfera, pero se va amortiguando contimetro de impacto. Cuando sufre una tico complejo. nuamente porque emite radiación en Mucho es lo que se gana a cambio sentido tangencial, como un aspersor serie de reflexiones internas, está describiendo, en realidad, elementos de de las abstracciones matemáticas del de jardín. En cada punto, a lo largo del órbita en torno al centro de la gota. La método del momento cinético comcamino circular de la onda, ésta penemecánica cuántica impone de hecho plejo. Sobre todo que, tras recorrer el tra también en la esfera con un ángulo ciertas restricciones adicionales sobre plano del momento cinético complejo de incidencia igual al crítico para que este proceso. Por una parte, requiere mediante la transformación de Wat- se produzca reflexión total interna,
P
12
TEMAS 6
reemergiendo como onda superficial después de describir uno o más de tales atajos. Es in teresante observar que Johannes Kepler ya conjeturó en 1584 que esta clase de rayos en “molinillo de viento” podrían ser los responsables del arco iris, pero abandonó la idea porque no le proporcionaba el ángulo correcto del arco. Los físicos holandeses Balthus van der Pol y H. Bremmer aplicaron la transformación de Watson al problema del arco iris en 1937, pero sólo pudieron demostrar que se podía obtener la aproximación de Airy como caso límite. El autor desarrolló una versión mejorada del método de Watson en 1965 y la aplicó al problema del arco iris en 1969 con algo mas de éxito. Al realizar el sencillo análisis cartesiano vimos que en el lado ilumi-
nado del arco iris hay dos rayos que emergen en la misma dirección; para el ángulo del arco iris, se funden en el rayo único de mínima desviación de Descartes y, en el lado en sombra, desaparecen. En el plano del momento cinético complejo, como he mencionado, cada rayo geométrico corresponde a un punto de silla real. De aquí que, en términos matemáticos, un arco iris sea meramente la intersección de dos puntos de silla en el plano del momento cinético complejo. En la región de sombra más allá del ángulo del arco iris, no es que los puntos de silla simplemente desaparezcan, sino que se hacen complejos, es decir, crean una parte imaginaria. La luz difractada en la banda oscura de Alejandro proviene de un punto de silla complejo. Es un ejemplo de “rayo com-
plejo” en el lado en sombra de una curva cáustica. Debe observarse que la adopción del método del momento cinético complejo no implica que las soluciones previas del problema del arco iris fueran erróneas. La explicación de Descartes del arco primario como rayo de mínima desviación no es en manera alguna incorrecta y los arcos supernumerarios siguen pudiendo considerarse como un efecto interferencial, tal como Yo un g pr op us o. El mé to do de l momento cinético complejo simplemente da una cuenta más completa de los trayectos que le están permitidos a un fotón en la región del cielo correspondiente al arco iris, por lo que logra resultados más reales. Vijay Khare hizo una comparación detallada de las tres teorías del arco iris
12. LAS TEORIAS CUANTITATIVAS del arco iris predicen de la 1500 términos complicados para cada punto usado en el traintensidad de la luz desviada en función del ángulo de desviazado de la curva. La teoríade Airy está en claro desacuerdo con ción, del tamaño de la gota y de la polarización. Aquí se presenla solución exacta, sobre todo en la región angular de los arcos tan las predicciones de tres teorías para elcaso de la luz polarisupernumerarios, donde la solución exacta presenta mínimos zada paralelamente y desviada por gotas de circunferencia igual en la posición de los máximos de Airy. Por otra parte, los resula 1500 veces la longitud de ondade la luz. Una curva representa tados obtenidos por el método del momento cinético complejo la solución “exacta” del problema del arco iris, deducida de corresponden las muy aproximadamente a la solución exacta, salvo ecuaciones obtenidas por James Clerk Maxwell para describir que no reproducen las pequeñas oscilaciones de alta frecuencia. la radiación electromagnética. La solución exacta es la sumaEstas de fluctuaciones se encuentran íntimamente asociadas con una serie infinita de términos, aproximada aquí sumando más otro fenómeno óptico de la atmósfera, la gloria.
LA CIENCIA DE LA LUZ
13
en 1975: la aproximación de Airy, la solución “exacta” obtenida por sumación de la serie de ondas parciales mediante ordenador y los términos del arco iris en el método del plano del momento cinético complejo, asociados con la intersección de dos puntos de silla. Para la polarización perpendicular dominante, la teoría de Airy requiere solamente pequeñas correcciones en el arco primario y sus errores se hacen apreciables solamente en la región de los arcos supernumerarios. En el caso de los rayos desviados que están polarizados perpendicularmente al plano de incidencia, sin embargo, la aproximación de Airy falla claramente. Para los arcos supernumerarios, la solución exacta muestra mínimos donde la teoría de Airy presenta máxima intensidad y viceversa. Este serio fallo deriva de la casi total coincidencia entre el ángulo de reflexión interna de los rayos del arco iris y el ángulo de Brewster. La amplitud del rayo refractado cambia de signo a este ángulo, cambio que la teoría de Airy no tiene en cuenta. El resultado del cambio de signo es que, a lo largo de las direcciones que corresponden a los máximos en las soluciones de Airy, la interferencia sea destructiva en lugar de constructiva.
E
n términos de las características en gran escala, como son el arco primario, los arcos supernumerarios y el aspecto de la difracción en el lado oscuro, el resultado a partir del momento cinético complejo concuerda muy bien con la solución exacta. Las fluctuaciones de intensidad a menor escala en la curva exacta no son tan bien reproducidas por los términos de arco iris en el método del momento cinético complejo. A cambio de ello la solución exacta requiere la sumación de más de 1500 términos complicados, para un parámetro de un tamaño típico de 1500, mientras que la curva del momento cinético complejo se obtiene con sólo unos pocos términos mucho más sencillos. Las pequeñas fluctuaciones residuales que presenta la curva exacta de intensidad provienen de reflexiones internas de orden superior, es decir, de rayos pertenecientes al tercer y cuarto orden. Estos tienen poco interés para el arco primario, mas para mayores ángulos de desviación su contribución aumenta, haciéndose dominante en la proximidad de la dirección de retrodifusión. Estos rayos son los responsables de otra fascinante manifestación meteorológica: las “glorias”. La gloria aparece como un halo de colores espectrales que rodea la som-
14
bra que un observador proyecta sobre las nubes o la niebla; cuando más comúnmente se observa es desde un avión que vuele por encima de nubes. También se puede explicar mediante la teoría del momento cinético complejo, pero la explicación es más complicada que la del arco iris. Un grupo de ondas que contribuye a la gloria proviene de las ondas superficiales descritas por los polos de Regge que van asociadas a los rayos tangenciales del tipo de molinillo de viento de Kepler. Las reflexiones internas múltiples que dan lugar a polígonos estrellados cerrados desempeñan un importante papel, dando lugar a resonancias o refuerzos de la intensidad. Tales coincidencias geométricas encajan muy bien en el espíritu de las teorías de Kepler. Otro segundo e importante grupo de contribuciones, puesto de manifiesto por Khare, viene del lado sombreado de arcos iris de orden superior que aparecen cerca de la dirección de retrodifusión. Esas contribuciones representan el efecto de los rayos complejos. El arco iris de décimo orden, formado a sólo unos pocos grados de distancia angular de la dirección de retrodifusión, es particularmente efectivo.
E
n el caso de los arcos iris de orden superior la teoría de Airy daría resultados incorrectos para ambas polarizaciones y, por tanto, debe utilizarse la teoría del momento cinético complejo. Podría decirse que la gloria está formada en parte por la sombra de un arco iris. Satisface descubrir que la elegante, pero aparentemente abstracta, teoría del momento cinético complejo da una explicación de esos dos fenómenos naturales y encontrar además una inesperada relación entre ellos.
BIBLIOGRAFIA COMPLEMENTARIA LIGHT S CATTERING BY S MALL P ARTICLES.
H. C. Van de Hulst. John Wiley & Sons, 1957. AND COLOUR IN THE OPEN AIR. M. Minnaert, trad. al inglés por H. M. Kremer-Priest y revisado por K. E. Brian Jay. G. Bell and Sons Ltd., 1959.
LIGHT
THE RAINBOW: FROM MYTH
TO
MATHE-
. Carl B. Boyer. Thomas Yoseloff,
MATICS
1959. INTRODUCTION TO METEOROLOGICAL OP-
. R. A. R. Tricker.American Elsevier Publishing Co. Inc., 1970. THEORY OF THE RAINBOW. V. Khare y H . M. Nussenzveig en Physical Review Letters, vol. 33, n.o 16, págs. 976-980; 14 de octubre, 1974. TICS
TEMAS 6
Objetivos fotográficos William H. Price
La disponibilidad de materias primas especiales, los tratamientos antirreflectantes, la informática y las avanzadas técnicas fabriles permiten ofrecer objetivos de gran calidad a bajo precio
E
l diseño de un objetivo fotográfico se parece a una partida de ajedrez. Los ajedrecistas tratan de acorralar al rey contrario por medio de una serie de jugadas, mientras que quien proyecta un objetivo intenta “acorralar” la luz para que todos los rayos provenientes de determinado punto de un objeto converjan en un solo punto de la imagen. Utiliza para ello el paso de la luz por una serie de elementos transparentes que poseen superficies de curvatura muy precisa. Podría pensarse que, puesto que en ambos casos se conocen tanto el resultado óptimo final como los medios para conseguirlo, no pudiera haber más que una actuación correcta en cada fase del proceso, pero el caso es que el número de posibles consecuencias que se derivan de las decisiones que se van tomando es tan amplio que en la práctica se puede considerar infinito. El resultado es que ni en ajedrez ni en diseño óptico pueden obtenerse soluciones perfectas a los problemas. En este artículo nos centraremos en el diseño de objetivos fotográficos, aunque los mismos principios puedan aplicarse a otros proyectos en que se utilicen lentes. El proyectista óptico tiene una gran ventaja sobre el ajedrecista, ya que puede utilizar cualquier información disponible capaz de orientarle por entre el ingente número de posibilidades existentes. En tiempos pasados esta ayuda provenía fundamentalmente de las matemáticas y de la física, pero últimamente son los ordenadores, la teoría de la información, la química, la ingeniería industrial y la psicofísica las disciplinas que han contribuido a hacer del diseño de objetivos un trabajo mucho más productivo. Algunos de los objetivos que pueden encontrarse ahora en las tiendas eran inimaginables hace unos decenios, mientras que otros, cuyo diseño
16
es ya más que centenario, se producen ahora en grandes cantidades y a bajo precio. El desarrollo de los métodos de producción automática permite fabricar millones de objetivos, ya sean de vidrio o de plástico. Los actuales son mucho mejores que los de mayor calidad utilizados por los grandes fotógrafos del pasado y cuestan me nos, a pesar de su mayor complejidad y de los bajos salarios de los operarios del siglo XIX . Los diseñadores ópticos saben que la ciencia y la técnica han facilitado mucho su trabajo y lo han popularizado, pero también conocen el precio que han tenido que pagar: el diseño completo de un buen objetivo fotográfico ya no puede confiarse a una sola persona. Desconocemos el tipo de objetivo utilizado en los orígenes de la fotografía, pues su inventor, Joseph Nicéphore Niepce, no dejó constancia escrita de sus experimentos. Sin em bargo se cree que su primera fotografía, de la que no se dispone, se realizó en 1822 con una cámara oscura dotada de un objetivo de menisco. La palabra “menisco” (que viene del diminutivo griego de la luna, meniskos) describe la sección del objetivo más sencillo
posible: un huso formado por dos arcos de diferente radio. Las gafas corrientes para vista cansada tienen lentes de menisco. La cámara oscura se conoce desde la antigüedad. Leonardo da Vinci describió un tipo muy sencillo, en cuyo interior entra la luz por un pequeño orificio y se forma una tenue imagen en la pared opuesta. En el siglo XVI se reemplazó este agujero por una lente de menisco, que producía una imagen mucho más brillante. La cámara oscura fue un utensilio muy popular entre los artistas, que la usaban para realizar perfiles de sus modelos. unque Niepce realizase sus primeras fotografías con una cámara oscura con lente de menisco, enseguida trató de conseguir algo mejor. Se sabe que Charles Louis Chevalier, que trabajaba en París en una em presa de ingeniería y de fabricación de instrumentos, le proporcionó una lente acromática de dos elementos. Estas lentes, cuya finalidad es mejorar la aberración cromática de los meniscos sencillos, es decir, evitar la formación de franjas coloreadas, se empezaron a utilizar en astronomía en 1758, gracias al óptico
A
1. LAS ABERRACIONES DE LOS OBJETIVOS pueden estudiarse aumentando las imágenes que una fuente de luz puntual forma en el plano focal. Las imágenes de estas microfotografías, realizadas por Norman Goldberg, están aumentadas 600 diámetros. La imagen ideal debería ser tambi én un punto, pero esto no sucede más que cuando la fuente de luz está alineada con el eje de la lente a). La ( imagenb muestra uno de los defectos más comunes de los objetivos, la aberración esférica. (La causa de las distintas aberraciones se ilustra en las figuras 5 a 10.) Otro defecto habitual, el astigmat el aberraci responsable de la líneaEl que aparecesmo en la también sufre de ismo, coma es y de ón cromática. astigmati seimagen ve más c, que claro en la imagend. Si se desplazase ligeramente el foco del objetivo hacia adelante o hacia atrás, el astigmatismo produciría una línea horizontal o vertical definida. La imagen e muestra otra aberración muy corriente, el coma, que se produce cuando la fuente luminosa está descentrada. Finalmente ƒ presenta una mezcla compleja de coma, astigmatismo y aberración cromática que es típica de las imágenes producidas fuera del eje por los objetivos rápidos que trabajan a plena apertura. Aunque las imágenes tengan un gran aumento, es evidente que el objetivo concentra la mayor parte de la energía luminosa dentro de un pequeño “disco difuso”, que en este caso es un círculo de 0,03 milímetros de diámetro.
TEMAS 6
a
b
c
d
e
f
LA CIENCIA DE LA LUZ
17
inglés John Dollond, a pesar de lo cual todavía eran una novedad a principios del siglo XIX. Hacia la misma época en que Chevalier añadió una lente acromática a la cámara de Niepce, Joseph Jackson Lister y Giovanni Battista Amici utilizaron lentes acromáticas en los microscopios, consiguiendo eliminar la aberración cromática y haciendo posible la primera observación de una bacteria. La aberración cromática deriva del hecho de que los prismas dispersan la
luz blanca en una franja coloreada. Todos los colores, es decir, las longitudes de onda que componen la luz, viajan a la misma velocidad en el vacío, velocidad que siempre se reduce en cualquier otro medio material, siendo las longitudes de onda más cortas las más afectadas. Es así como la trayectoria de la luz se refracta o tuer ce cuando abandona un medio y penetra en otro con un cierto ángulo, desviándose de la línea perpendicular al dioptrio (superficie donde ambos entran
en contacto). El sentido de la desviación depende de que la velocidad en el segundo medio sea mayor o menor que en el primero. Esta capacidad de la luz para refractarse es la base de la óptica refractiva, que es la teoría de las lentes. El mate mático holandés Willebrod Snell van Royen describió y representó gráficamente el fenómeno de la refracción unos sesenta años antes de que Isaac Newton iniciara sus estudios de óptica. René Descartes formuló luego con precisión la ley de la refracción, conocida como ley de Snell: el seno del ángulo de incidencia multiplicado por el índice de refracción del primer medio es igual al seno del ángulo de refracción por el índice de refracción del segundo medio. La ley de Snell sigue siendo la fórmula más utilizada por los diseñadores ópticos, ya que les permite desviar la luz a voluntad.
C
uando un haz de luz blanca incide sobre un vidrio con determinado ángulo, las longitudes de onda azules y violetas son las que más se desvían y las rojas las que menos. Esta es la razón de que los bordes del haz emer2. UN OBJETIVO DE MENISCO SIMPLE está formado por dos superficies esféricas gente parezcan franjas coloreadas. que encierran un huso. Es muy probable que fuera el utilizado por Josephphore Nicé Newton fue el primero en darse cuenta Niepce en la cámara con la que realizó la primera fotografía en 1822. de que la luz blanca es una mezcla de colores, gracias a sus experimentos con prismas. La primera proposición de su Optiks enuncia que “las luces que tienen colores diferentes tienen también refrangibilidades diferentes”. Se fió en exceso de su vista, sin embargo, pues llegó a la conclusión A C N A incorrecta de que no podía lucharse BL Z LU contra la aberración cromática, por ser inherente a las lentes. Esta es la razón de que inventase el telescopio AIRE VIDRIO AIRE VIDRIO reflector, que elimina el molesto problema al no utilizarlas. 3. LA LUZ SE REFRACTA, o se desvía, cuando cambia su velocidad al pasar de un De lo que Newton no se dio cuenta medio a otro. Las longitudes de onda cortas de la luz viajan más lentamente que las fue de que los colores exhiben distinlargas en el vidrio, por lo que la luz blanca se dispersa en un espectro coloreado. tos grados de poder refractivo al El grado de dispersión varía según la composición del vidrio (o la del medio transpasar por vidrios de composiciones parente de que se trate). diferentes. Con terminología actual diríamos que los vidrios tienen distintas dispersiones. Y esta es el arma que tiene el diseñador de objetivos LUZ BLANCA para combatir la dispersión cromática. El truco consiste en construir lentes que tengan al menos dos elementos. El primero es una lente convexa fabricada con un vidrio que disperse los colores lo menos posible. El segundo es una lente cóncava de un vidrio que los dispe rse al máxi mo. Digámoslo correctamente: una lente positiva de mínima dispersión se 4. LA ABERRACION CROMATICA puede corregirse combinando vidrios de di spersión combina con otra negativa de máxima diferente. En este ejemplo de un objetivo sencillo de dos elementos, el primero es de dispersión. Si se hacen bien los vidrio de baja dispersión mientras que el del segundo, que tiene vergencia opuesta y cálculos, la dispersión prácticamente menos graduación, es de dispersión elevada. La dispersión se cancela, pero se conserva la capacidad de enfocar. La dispersión de los colores está exagerada. se cancela, mientras que la lente com-
18
TEMAS 6
5. LA ABERRACION ESFERICA es una característica inheren-6. EL COMA se produce cuando la luz que proviene de un te a todas las lentes de sección esférica. La luz que provienepunto objeto descentrado pasa a través del perímetro de la de un mismo punto objeto alcanza su foco en puntos ligera-lente y forma un foco anular, que se encuentra desplazado mente separados P ( y P′ ), dependiendo de que los rayos pasen radialmente respecto del foco de la luz que ha pasado por el por el centro o por la periferia. La distancia d e separación centro de la lente. El coma presenta el aspecto de un núcleo PP′ varía con la apertura. brillante y una cola que se difumina.
puesta sigue conservando su poder refractivo ( véase la figura 4) . Sirva esto como descripción somera del panorama que presentaban los objetivos fotográficos en el siglo XIX. Este tipo de objetivo de dos elementos sigue fabricándose en la actualidad, en forma de objetivos baratos para cámaras sencillas y de objetivos telescópicos, mucho más caros, para fotografía deportiva y de la naturaleza. Estos objetivos han de tener una distancia focal larga para acercar los objetos, siendo aceptable que el campo angular sea pequeño. La receta srcinal de los dos elementos era buena, pero no dejaba de ser una simple receta. Las primeras lentes acromáticas fueron el resultado de ensayos, ya
que no se disponía de una teoría exacta para ajustar las variables.
P
arte de la solución se obtuvo en 1841 con la publicación de la teoría de las lentes de Carl Friedrich Gauss, que simplifica el concepto de lente al ignorar todos los rayos que no estén situados en un plano que contiene al eje de la lente o que no estén próximos a él. A estos rayos se les denomina paraxiales. A pesar de sus simplificaciones, el modelo de Gauss sirve para explicar la distancia focal (la distancia desde el centro óptico de la lente hasta el plano donde convergen todos los rayos para formar un foco), el aumento, la localización de los puntos principales de la lente y la
localización de la imagen. La teoría de Gauss representó para el diseño óptico lo que la trigonometría para la navegación. El trazado de rayos paraxiales fue durante mucho tiempo la herramien ta fundamental para el diseño de objetivos fotográficos. Las simplificaciones implícitas en el procedimiento tienen su coste, ya que el plano de mayor nitidez de la imagen no suele coincidir exactamente con el definido por las reglas gaussianas. Pero, para ser una primera aproximación, se acerca mucho a la verdad. El plano de la imagen gaussiana sirve también como banco de pruebas para analizar todo el abanico de aberraciones con las que tiene que lidiar el proyectista de objetivos,
7. LA CURVATURA DE CAMPO se srcina cuando un haz de 8. LA DISTORSION es la aberración en virtud de la cual el luz oblicuo forma un foco más próximo a la lente que el del haz aumento de la imagen varía con la oblicuidad de los rayos inaxial. El resultado es una superficie de imagen curvada. cidentes, haciendo que las líneas rectas aparezcan curvadas.
LA CIENCIA DE LA LUZ
19
9. EL ASTIGMATISMO es otro defecto común de l as imágenes10. LA CONDICION DE ABBE PARA EL SENO, formulada por que una lente produce fuera del eje. La luz que proviene deErnst Abbe, especifica la condición que corrige simultáneamenun punto fuera de eje pasa por la lente a lo largo a, deb y se te la aberración de esfericidad y el coma. Si se prolongan los enfoca en S, mientras que los rayos que vienen del mismo rayos que inciden sobre una lente y los que emergen de ella, se punto pero atraviesan la lente por intersecan sobre una superficie, c, d, se enfocan enT. A S se S, definida como el lugar le llama el foco sagital o radial y es una línea perpendicular geométrico de todos los puntos en que se refractan los rayos al eje óptico;T es el foco tangencial y es una línea tangente a procedentes del infinito. La doble corrección se produce cuanun círculo centrado sobre el eje óptico. do y es igual aƒ sen θ ; por lo tanto la superficie S es esférica. •
incluso en el caso de los destinados a la fotografía monocromática, con luz de un solo color. Las aberraciones cromáticas primarias, que fueron definidas ma temáticamente por Ludwig Seidel en 1856, son la aberración esférica, el coma, el astigmatismo, la curvatura de campo y la distorsión. La causa de la aberración esférica es que las superficies de las lentes son secciones de esfera, de modo que la luz que pasa por el borde de una lente llega a un foco localizado en un punto distinto del que alcanza la luz que pasa por el centro. El coma concierne también a la naturaleza esférica de estas superficies, pues las imágenes que se forman fuera del eje central del sistema tienden a ser asimétricas. “Coma” tiene la misma raíz que “cometa”, el término griego para designar una cabellera ondulante. Debido al coma, el punto focal tiene la apariencia de la cola de un cometa. Ast igm atism o sig nif ica “qu e no lle ga a ningún punto”; deriva del griego a-, no, y stigma , marca o mancha. También se debe a la asimetría de las imágenes fuera del eje y su efecto es que la luz se desparrame a lo largo de una línea, ya sea en un plano que pasa a través del punto imagen y el eje de la lente, ya en ángulo recto con respecto a este plano. Tiene el efecto curioso de producir líneas horizontales borrosas y líneas verticales nítidas, o viceversa. La curvatura de campo se produce si el lugar geométrico de los puntos
20
más nítidos de la imagen es una superficie curva en vez de un plano. Esta aberración es la responsable de que el centro de las fotografías sea más nítido que los bordes. En ciertos tipos de telescopios de gran apertura esta aberración no se corrige, sino que se curva la placa fotográfica para compensarla. La última de las aberraciones primarias, la distorsión, produce la apariencia de un objeto curvado proyectado sobre una superficie plana, o viceversa. Es algo parecido a lo que le pasa a Groenlandia en un mapamundi obtenido mediante la proyección de Mercator, que su superficie está exagerada.
H
acia 1840 no sólo vieron la luz los comienzos del diseño científico de lentes basado en los principios gaussianos, sino también dos hombres que iban a realizar sucesivamente grandes contribuciones al problema: Ernst Abbe y John William Strutt, que fue más tarde Lord Ray leigh. Abbe, nacido en 1840, llegó a ser el director de las secciones de física y de proyecto de lentes de la famosa firma óptica Carl Zeiss. Entre sus muchas contribuciones están el nú mero de Abbe, utilizado para la clasificación de los vidrios ópticos, y la condición de Abbe para el seno, que define las lentes exentas de coma. El número de Abbe es el recíproco del grado de dispersión; incorpora la diferencia entre las refracciones para dos longitudes de onda muy separadas entre sí en el
espectro. El proyectista de objetivos puede cancelar las aberraciones cromáticas de cualquier par de longitudes de onda de la luz haciendo uso del número de Abbe, que constituye, pues, la respuesta dada por el gremio a Newton. Para seleccionar los vidrios de un nuevo objetivo se consulta un gráfico de sus propiedades, cuyo eje horizontal está marcado con los números de Abbe (véase la figura 11). La escala vertical muestra el índice de refracción para la luz de un color determinado en la región intermedia del espectro. Puede verse así inmediatamente la influencia que tienen los materiales disponibles sobre la luz de los colores primarios. La condición de Abbe para el seno enuncia que el coma se elimina cuando la distancia desde el eje del objetivo al punto de incidencia de un rayo, que sea paralelo al eje, es igual a la distancia focal del objetivo multiplicada por el seno del ángulo que forma el rayo con el eje en el punto focal ( véase la figura 10). Hoy en día todos los objetivos de cámaras de calidad cumplen la condición de Abbe para el seno. Lord Rayleigh, dos años más joven que Abbe, formuló las condiciones que debe cumplir un objetivo perfecto, fijando a los proyectistas su meta final. Demostró matemáticamente que la imagen formada por un sistema óptico no difiere apreciablemente de la imagen perfecta si se cumple la condición de que los trayectos ópticos
TEMAS 6
de todos los rayos sean de igual longitud. Rayleigh descubrió que en la práctica se puede obtener una imagen perfecta si la diferencia entre el trayecto más corto y el más largo no excede de un cuarto de la longitud de onda de la luz incidente. A tales objetivos se les conoce como “limitados por la difracción”. En términos ideales los objetivos deberían operar en el límite de Rayleigh para cualquier longitud de onda de la luz. Para que pueda cumplirse al máximo esta condición, los vidrios de las lentes habrán de tener todos la misma dispersión parcial, aunque sus dispersiones individuales varíen. (La dispersión parcial es la tasa de cambio de la dispersión con la longitud de onda. La dispersión
en sentido estricto es la tasa de cambio del índice de refracción con la longitud de onda.)
D
urante el siglo XIX y comienzos del XX Józef Miksa Petzval, Henry Coddington y A. E. Conrady, entre otros, elaboraron fórmulas matemáticas y pusieron a punto técnicas para evaluar la magnitud de ciertas aberraciones utilizando el menor número de datos posible. Trataban de evitar así la terrible hipoteca de los cálculos inacabables. Petzval, el inventor del objetivo “fotomatón” que lleva su nombre, descubrió que la curvatura de campo de un objetivo que no tenga astigmatismo es una función relativamente sencilla del índice de refracción
de los elementos que lo componen y de sus radios de curvatura. A Coddington se debe el desarrollo de fórmulas sencillas para el cálculo del astigmatismo de objetivos de pequeña apertura. Y se considera que Conrady es el padre del diseño óptico moderno, gracias a que aplicó a las aberraciones primarias, tanto monocromáticas como cromáticas, el concepto de diferencia de trayectoria óptica. Fue necesario un siglo de desarrollo de los objetivos fotográficos, digamos hasta mediados los años veinte del actual, para que la creación de un nuevo objetivo dejase de ser un trabajo empírico, aunque todavía fuese más artesanal que científico. Ante un nuevo proyecto de objetivo eran pocos
11. LAS PROPIEDADES de los vidrios ópticos suelen caracte-mayor es la dispersión. Cada punto del gráfico representa un rizarse mediante su índice de refracción, ( con, que mide la capa- vidrio óptico diferente. Los vidrios de tierras raras zona cidad del vidrio para desviar la luz, y su número de Abbe, ν, loreada)presentan elevados índices de refracción y baja disque mide su capacidad para dispersar la luz blanca en un es-persión. Los plásticos ópticos se localizan en el área rayada pectro coloreado. Cuanto más bajo sea el número de Abbesituada debajo.
LA CIENCIA DE LA LUZ
21
12. LA ABERRACION esférica transversal, de y de la parte inferior muestra el resultado de aplicar la ecuah, de una lente,L, mide en qué grado los rayos de luz srcinados O endejan de ción a unos cuantos rayos trazados. Los valores correspondientes converger en la imagen puntualgaussiana I. La aberración varía a otros rayos que atraviesan la lente se pueden interpolar a parcon la apertura de la lente, y, conforme al desarrollo en serietir de la curva, o calcularse mediante la ecuación, resolviéndola h = ay3 + by5 + cy7 + ...La representación gráfica de h en función para a, b, c,..., sin necesidad de realizar nuevos trazados.
los diseñadores que poseían la genialidad requerida para saber qué dirección había que tomar, tras de lo cual había que proceder a la aplicación laboriosa de la ley de Snell una y otra vez, comprobando el diseño mediante el seguimiento de la trayectoria de los rayos desde el objeto hasta la imagen. Para quienes no fuesen del gremio resultaba difícil entender la magnitud de esta tarea. Las únicas herramientas con que se contaba eran unas tablas de logaritmos naturales con seis decimales y, hacia mediados de los años treinta, una calculadora mecánica de sobremesa. Un objetivo complicado podía tener a varias personas realizando cálculos durante varios años. La paciencia era la clave del éxito. A pesar de la tosquedad de los métodos, casi todos los tipos fundamenta-
firma británica Cooke and Sons. La óptica geométrica, a diferencia de la óptica física, ignora todos los aspectos conocidos de la luz salvo los que afectan a su trayectoria y propagación. Consideremos la aberración esférica del objetivo hipotético de la ilustración 12. El proyectista trata de que el objetivo ( L) enfoque todos los rayos desde el punto srcen ( O ) al punto focal ( I). Puede verse que L no lo consigue: la mayor parte de los rayos no converge en I , aunque algunos lo hagan. Para cuantificar la medida en que los rayos alcanzan el punto I se procede como en las prácticas de tiro: se mide la distancia que hay del centro de la diana al punto de impacto. En óptica a esta desviación se la conoce como aberración transversal y es la distancia medida perpendicularmente a la trayectoria del rayo luminoso. En el esquema del objetivo L la aberración transversal desde el punto deseado, I, se designa mediante una cantidad h (que define la altura hacia arriba o hacia abajo del eje ). La consideración del esquema nos indica que h es función únicamente del punto por el que el rayo penetre en la lente, punto que se designa mediante una cantidad que depende de y. En otras palabras, la aberración esférica transversal de un rayo desde cualquier punto es función de la 13. EL OBJETIVO de tres elementos de Cooke, creado en 1893 por H. Dennis Taylor, apertura del objetivo. Esta es una puede que sea el objetivo fotográfico que más se ha estudiado y perfeccionado. Es característica general de los objetila configuración más simple que permite eliminar las siete aberraciones de tercer vos, que hace que la mayor ía no logre orden, a saber, la aberración esférica, el coma, el astigmatismo, la distorsión, la su máxima nitidez más que cuando curvatura de campo y las aberraciones cromáticas a lo largo de los dos ejes. Sigue utilizándose actualmente. no se utiliza toda su apertura. La
22
les de objetivos que se utilizan actualmente se descubrieron en esta época. Alguno s, com o el Son nar ƒ /1, 5 de Zeiss, sorprendieron por su luminosidad. Otros, como los tripletes de Cooke, tenían la ventaja de su gran sencillez. (La nomenclatura ƒ/1,5 significa que la distancia focal del objetivo es 1,5 veces mayor que su máxima apertura. Cuanto más pequeña sea la fracción de ƒ, mayor cantidad de luz capta el objetivo en un tiempo dado. La captación de luz, conocida como luminosidad o rapidez, es inversamente proporcional al cuadrado del número ƒ.) Una breve incursión por la óptica geométrica nos ayudará a comprender la posición privilegiada del diseño de Cooke, descrito por primera vez en 1893 por H. Dennis Taylor, de la
TEMAS 6
aberración esférica influye sólo en la imagen de los puntos objeto que se encuentren en el eje óptico del objetivo y puede variar con la distancia entre uno y otros. Para calcular la posición exacta con respecto a h de cualquiera de los infinitos rayos aberrantes posibles es necesario resolver la ecuación:h = ay3+ + by5 + cy7 + ... Los coeficientes a, b, c, ... se obtienen trazando varios rayos para varias aperturas, y, calculando los valores específicos de h y resolviendo las ecuacio nes simu ltáneas resultantes en a, b, c, ... Sus valores difieren para cada objetivo diseñado. Una vez obtenidos para unos cuantos valo res conc retos de y , son válidos para todos los valores intermedios, por lo que describen de modo general toda la luz aberrante de la imagen.
Al enfrentarse con ocho variables dependientes (siete aberraciones y la distancia focal), el diseñador tiene que poder organizar otras tantas variables independientes, pues de lo contrario no podrá encontrar la solución. Estas variables independientes, o grados de libertad, de que dispone quien proyecte un objetivo de tres elementos, para una selección de vidrios dada, son las siguientes. Hay dos separaciones: la distancia desde el primer elemento
al segundo y desde el segundo al tercero. También puede elegir la potencia, o aumento, de cada uno de estos tres elementos. Y, por fin, la curvatura de una de las caras de cada elemento puede fijarse de modo independiente; la curvatura de la otra cara queda determinada por la de la primera y por el aumento. Es así como, con experiencia y tiempo suficientes, el diseñador puede en principio encontrar alguna combinación de las ocho variables de
E
l lector quizá se pregunte por qué no aparecen en la ecuación más que exponentes impares. No se requiere el exponente de primer orden, y1, porque representa los rayos de luz no aberrante que convergen exactamente en I. Todos los términos con exponente par están ausentes porque, y sea con independencia de que positivo o negativo, y 2, y 4, etc., serán siempre positivos. La formación de la imagen, sin embargo, ha de ser simétrica. Los términos con exponente par se eliminan porque implícitamente contradicen la simetría. Para objetivos de apertura y campo pequeños los términos de orden superior se vuelven despreciables. Si se corrigen las aberraciones representadas por el exponente de orden tres, la mayor parte de la energía luminosa se concentra en el punto imagen. Las primeras fórmulas prácticas para calcular los términos de tercer orden de las aberraciones primarias fueron publicadas por Seidel a mediados del siglo XIX. La eliminación de las aberraciones de orden bajo no significa necesariamente que se reduzcan las de orden superior, aunque tiende a ser así, circunstancia en la que se obtiene un excelente objetivo. La gran virtud del triplete de Cooke es que contiene el menor número de elementos posible si se quieren eliminar las siete aberraciones de tercer orden. Se trata de la aberración esférica, el coma, el astigmatismo, la distorsión, la curvatura de campo y dos aberraciones cromáticas (a lo largo de dos ejes, longitudinal y transversal). Además de manejar estas abe rraciones el proyectista de objetivos tiene que gobernar otra variable más, la distancia focal de la lente, que determina el aumento.
LA CIENCIA DE LA LUZ
14. LAS de los objetivos obstaculizaron sutreinta. diseño hasta el REFLEXIONES descubrimientoen delas lassuperficies capas antirreflectantes a f inales de los años Cuando se requerían muchos elementos para conseguir características sobresalientes, había que utilizar lentes pegadas entre sí para eliminar los reflejos que se producen en las superficies de vidrio que están al aire arriba ( ). Esto exige que sus curvaturas sean iguales, lo que reduce las posibil idades de aminorar las aberraciones, aparte de que la fabricación era cara. En muchos casos los diseños gaussianos con menos elementos resultaban de calidad comparable en (el medio). Luego las capas antirreflectantes permitieron realizar sistemas con muchos elementos espaciados por aire abajo ( ), por lo que se pueden fabricar objetivos fotográficos muy corregidos, de gran apertura (rápidos) y baratos.
23
Los laboratorios de investigación de Kodak montaron una pequeña planta piloto para determinar la causa de la coloración y tratar de eliminarla. Los análisis indicaron que se debía a las impurezas, en su mayoría óxidos metálicos, que se introducían al fabricar el vidrio. La utilización de un crisol de platino consiguió reducir la coloración a un tinte amarillo, que era inaceptable para muchos objetivos, pero no para las cámaras utilizadas por los Estados Unidos durante la segunda guerra mundial para el reconocimiento aéreo, pues un filtro amarillo elimina algunos efectos indeseables de la condensación atmosférica. Continuaron las investigaciones sobre la purificación química, cuyo resultado fue la eliminación de los últimos vestigios de color cuando se redujeron las impurezas del vidrio a menos de una parte por mil millones, lo que requería crisoles de oro, en vez de platino, en algunos casos. A estos vidrios se les denominó EK, por ser éste el prefijo que tenían en el catálogo de Kodak. Los proyectos de objetivos hipotéticos habían sido proféticos y actualmente todos los fabricantes de vidrio s óptic os producen vidrios de tierras raras. Cualquier objetivo fotográfico de calidad que se fabrique 15. LOS OBJETIVOS DE DISTANCIA FOCAL VARIABLE, popularmente llamadosahora cuenta al menos con un ele“zoom”, que permiten modificar ampliamente el tamaño de la imagen, también se mento hecho con este tipo de vidrio. hicieron viables gracias a las capas antirreflectantes. El objetivo de siete elementos Era de esperar que, al tiempo que mostrado arriba se proyectó a principios de los añ os sesenta para cámaras cinematográficas de ocho milímetros. Su apertura relativa eraƒde /1,9 y su distancia focal resolvían muchos de los antiguos problemas, los nuevos vidrios de tierras podía pasar 10 a 30 mm sin solución para de continuidad. Sus componentes primero raras crearan alguno nuevo. Puesto y tercero se de desplazan conjuntamente conseguir triplicar la distancia focal, al tiempo que se mantiene la imagen enfocada en la película. El rango de distan cias que la reflexión interna de una lente focales del objetivo de abajo es de veinte a uno y se utiliza mucho en televisión. aumenta El con su índice de refracción, segundo y el tercer grupo de elementos se mueven en sentido opuesto de forma no los nuevos objetivos eran más propenlineal para producir el efecto de aproximación o alej amiento y mantener el foco. Se sos a mostrar reflejos o brillos parásinecesitan muchos elementos para corregir las aberraciones de las lentes y cubrir tos, luces que velan la imagen y tienen un amplio rango de variación. mucha más importancia en fotografía de lo que pudiera pensarse, pues desun triplete de Cooke que elimine las que utilizasen vidrios hipotéticos, de truyen la información, pudiendo comaberraciones de tercer orden. los que no se disponía. Morey y pararse con el ruido que aquejase a un La evolución de los objetivos foto- Frederik llegaron a la conclusión de sistema de comunicaciones. gráficos durante su segundo siglo de que lo que realmente se necesitaba era Se sabía desde 1936 que el recubrivid a fue muy dif ere nte . En 1927 un vidrio que presentase baja disper- miento de una cara de una lente con George W. Morley, que trabajaba en sión y un índice de refracción mucho una delgada lámina de un material el laboratorio de geofísica de la más alto que el de cualquiera de los transparente podía disminuir los refleCarnegie Institution de Washington, entonces disponibles. jos e incluso suprimirlos por completo se dio cuenta de que la composición de A finales de 1932 Kodak y Morey para una longitud de onda arbitrarialos vidrios ópticos venía dictada por la firmaron un contrato para que éste se mente elegida. Los materiales utilizatradición, mientras que él estaba con- dedicara a experimentar la producción dos para el recubrimiento deben tener vencido de que había muchos otros de vidrios del tipo requerido, lo que rea- un índice de refracción igual a la raíz tipos posibles que deberían examilizó en el sótano de su casa. Las mues- cuadrada del índice de refracción de la narse, aunque no sabía qué nuevas tras que presentó demostraron que lente y el espesor de la capa ha de ser propiedades pudieran ser útiles. Se avanzaba en la dirección correcta, aun- un cuarto de la longitud de onda dada. puso en contacto con Charles W. Fre- que eran demasiado oscuras para hacer Este recubrimiento no sólo elimina los derik, que era entonces el jefe de pro- lentes con ellas. Aunque no consiguió reflejos para esa longitud de onda, sino yectos de objetivos de la compañía reducir la coloración, sí logró los valores que mejora la transmisión de la luz a Eastman Kodak. Frederik acogió bien deseados de refracción y dispersión. través de la lente. la sugerencia y, para responder a su Morey utilizó óxido bórico y lantano, Los repetidos intentos para aplicar demanda, hizo que su departamento una de las tierras raras, para fabricar una delgada capa de recubrimiento a proyectase cierto número de objetivos sus casi opacas piezas de vidrio. la superficie de un vidrio fueron insa-
24
TEMAS 6
tisfactorios hasta que John D. Strong lo consiguió en 1936, logrando depositar una lámina de fluorita (floruro de calcio) sobre un vidrio por evaporación al vacío. Estas primeras láminas no se adherían bien, eran delicadas y se desprendían con facilidad. El problema se resolvió calentando la lente durante el proceso de recubrimiento para expeler las impurezas. La fluorita se sustituyó luego por el fluoruro de magnesio, más resistente.
E
ntre los objetivos que se hicieron via ble s gra cia s a los rec ubr imientos y a los vidrios de tierras raras se encuentran los de distancia focal variable, conocidos como “zoom”, que habían hecho su primera aparición en los años treinta con el Vario-Glaukar de la firma Busch, en 1931. Estos objetivos empezaron como configuraciones de siete elementos y una relación de distancia focal de tres a uno, evolucionando luego hasta relaciones de veinte a uno, pasando a estar formados por veinte o más elementos y teniendo los mandos de distancia focal, enfoque y apertura mecanizados y automatizados. Se utilizan mucho en las retransmisiones por televisión de acontecimientos deportivos. La lucha contra los reflejos obligó durante mucho tiempo a proyectar objetivos de muchos elementos, cuyas caras tenían que encajar perfectamente y se cementaban para minimizar las fronteras aire-vidrio. Una vez domeñado aquel problema se pudo abandonar tan costoso camino, retornándose a los objetivos de tipo Gauss, que aprovechan estas discontinuidades entre el aire y el vidrio. Una lente de Gauss de cuatro elementos tiene al menos ocho de ellas y, como el aire se ajusta perfectamente a cualquier superficie, no se necesita ningún acabado especial. Cada par de elementos separados proporciona además al proyectista una variable independiente más. Estas ventajas hacen que los objetivos más rápidos (cuyo número ƒ es de 2 o menos) utilicen ahora elementos separados por aire. El progreso de las técnicas de deposición permitió luego recubrimientos antirreflectantes de gran eficacia, formados por varias capas para abarcar la totalidad del espectro. Una vez se logró que los vidrios de tierras raras fuesen límpidos, se volvió a intentar conseguir que tuvieran baja dispersión y elevado índice de refracción. Mientras el propósito de los años treinta era alcanzar un índice de refracción de 1,75 (que suponía una mejora sobre el 1,62 del mejor vidrio crown de entonces), en los años setenta
LA CIENCIA DE LA LUZ
se fabricaron ya lotes experimentales con un índice de refracción de 2,01 y una dispersión relativamente baja. Es ya común la fabricación económica de vidrios inmaculados de tierras raras cuyo índice de refracción está entre 1,95 y 2,0 y que tienen una dispersión reducida. La disponibilidad de esta materia prima excepcional dio libertad a los proyectistas para crear mejores objetivos sin incurrir en costes de producción prohibitivos. Una de las mejoras consistió en aumentar su apertura para que pudiesen hacerse fotografías en color con niveles de iluminación más reducidos que antes, de modo que no hubiese que utilizar largas exposiciones o fuentes de luz artificial. Lo deseable son objetivos cuya apertura sea de ƒ/1,9, pero antes esto requería que tuviesen al menos seis elementos. Los nuevos vidrios permi-
ten construir objetivos de ƒ/1,9 e idéntica calidad que no requieren más que cuatro elementos (véase la figura 16) y son, por tanto, más económicos. También en los años treinta se hicieron los primeros intentos para reducir los costes de los objetivos fotográficos utilizando lentes de plástico. Con las técnicas de moldeado por compresión de entonces no era posible obtener superficies de la tersura necesaria. También podían fabricarse lentes por el sistema de encastrado, pero el procedimiento era demasiado lento y demasiado caro. Los moldes de inyección surgieron finalmente como el más prometedor de los métodos disponibles. A principios de los años cincuenta se empezaron a utilizar visores fabricados con plástico transparente moldeado, generalizándose luego el uso de objetivos de plástico para las cámaras
16. LOS VIDRIOS DE INDICE ELEVADO permiten reducir el número de elementos necesarios para conseguir determinado grado de corrección de las aberraciones. Las dos configuraciones que aquí se muestran tienen ƒ/1,9 y producen imágenes de calidad parecida. Los índices de refracción del objetivo gaussiano de seis elementos varían entre 1,6 y 1,75. En el objetivo Tessar de cuatro elementos los índices van de 1,9 a 1,95. Una ventaja adicional del objetivo Tessar radica en que el diafragma de apertura se sitúa delante de las lentes, lo que permite el alineamiento preciso de los cuatro elementos en una sola montura.
25
cambiaron esta situación. En principio los objetivos hechos con estas lentes pueden captar el doble de luz (es decir, son un número ƒ más rápidos) que los construidos con elementos totalmente esféricos, siendo comparables su calidad y número de elementos. Hubo que desarrollar nuevas técnicas para la inspección de superficies aesféricas. Una de ellas consiste en utilizar un sistema de lentes denominado corrector óptico nulo, que convierte un haz de luz paralelo en un frente de onda distorsionado o aberrante, siendo éste el que incide sobre la superficie aesférica que se está comprobando. Si 17. LA COMPROBACION DE LAS SUPERFICIES AESFERICAS que tienen algunas tiene la curvatura apropiada, la luz lentes plantea específicos. de luz las maneras de hacerlo(con es con un coincidente se reflejará de tal forma que rrector óptico problemas nulo, que convierte un Una haz de paralelo incidente frente de ondas plano) en otro haz convergente y aberrante que se ajusta a la superficie se recompondrá el frente de ondas aesférica. Luego la luz reflejada rehace el camino incidente y vuelve a emerger del srcinario cuando vuelva a pasar por corrector como una onda plana. Este dispositivo se coloca en uno de los brazos de el corrector óptico nulo, lo que permite un interferómetro, que registra cualquier desviación de la forma ideal de la superanalizar las superficies aesféricas con ficie aesférica por los cambios en el frente de ondas plano resultante. un interferómetro, igual que las planas o las esféricas. El moldeo por inyección permite formás sencillas y desembocando en la se hace con las de vidrio. Otras mejoproducción de objetivos tripletes por el ras del proceso de moldeado y el de- mar una montura plástica directamétodo del moldeado por inyección, sarrollo de modelos matemáticos con mente sobre una lente de vidrio tallada, pulida y que haya recibido el trataque era un logro notable si se tienen la intención de conseguir mejores en cuenta los serios problemas que miento antirreflectante, lo que a veces tolerancias, permitieron alcanzar hubo que afrontar. precisiones de centésimas de milíme- resulta preferible, porque los probleUno de los inconvenientes de las tro en la sección axial de la lente, de mas de montura son de los más enrelentes de plástico son los cambios tér- milésimas en la diametral y obtener vesados de la fabricación de objetivos. micos, pues presentan menos densi- grandes cantidades de lentes unifor- El moldeo por inyección proporciona una exactitud y una repetibilidad a la dad y un índice de refracción más bajo mes con un mismo molde. en una atmósfera caliente que en otra La superficie esférica de una lente hora de montarlos que, de otro modo, fría. Los investigadores de Kodak tra- es sólo una aproximación a la superfi- resultan prohibitivos económicabajaron para descifrar el problema y cie ideal. El espejo ideal de un teles- mente. llegaron a diseñar objetivos en los que copio de reflexión tiene sección paraunque la estabilidad dimensional, el acortamiento del foco que el calor bólica. Las lentes perfectas deberían la elasticidad, la dureza y el índice provocaba en un elemento se compen- tener una superficie de rotación ligesaba exactamente con el alargamiento ramente más compleja. La refracción de refracción del vidrio sean superiores producido en otro. óptica aesférica, o no esférica, se ha a los del plástico, y aunque los tipos de venido uti liz ando des de los años plástico ópticos se limiten a unos cuantos polímeros, la mayor parte acrílicos, ero había otra dificultad aún más treinta, después de que Bernhard insidiosa: la de conseguir fabricar Schmidt descubriese accidentalmente de estireno y de estireno-acrilonitrilo, lentes libres de tensiones mecánicas una técnica manual para fabricar una las cámaras con objetivos de plástico internas. La presencia de estas ten- lente aesférica correctora que operase aesféricos requieren pocos elementos siones en una lente tiene consecuenconjuntamente con un espejo telescó- para obtener buenos resultados, percias indeseables, aparte de que a pico esférico. Este procedimiento, que mitiendo un grado de corrección de aberraciones excelente. veces se reducen con los cambios de todavía se usa, utiliza la tensión Otra posibilidad de corregir las temperatura repetidos (como sería, superficial de una lámina de vidrio limitaciones de las superficies esféripor ejemplo, sacar la cámara al exte- caliente que se deja caer sobre un rior cuando la temperatura es baja y molde para conseguir una superficie cas es utilizar vidrios con gradiente de volverla a intro ducir en el interior muy pulida. La cara que entra en con- índice. La aberración esférica es un más caliente). Tal modificación altera tacto con el molde tiene un acabado buen ejemplo. Su causa es que la las dimensiones de la lente en grado tosco y se la aplana, pero la opuesta superficie esférica resulta demasiado pronunciada en el borde, lo que puede suficiente para que se produzca una adopta la forma del molde, conserde gradación de la imagen. Tras vando su pulimento de calidad. Gra- contarrestarse ya sea haciendo aesfémuchos intentos infructuosos, la solu- cias a este proceso fue posible el teles- rica una cara y suavizando su curvación consistió en utilizar moldes de copio gran angular de Schmidt. Pero, tura hacia el borde, ya disminuyendo una cerámica especial que tenía bue- salvo esta aplicación, no se utilizaban el índice de refracción del vidrio hacia nas propiedades de pulido y unas elementos aesféricos más que en algu- la periferia. La investigación sobre características de transferencia de nas cámaras cinematográficas profe- vidrios y plásticos con gradiente de calor que permitían la fabricación de sionales, con precios muy elevados y índice y de los modelos matemáticos lentes libres de tensiones internas. La luminosidades superiores a ƒ/1,2, que- necesarios para el diseño de objetivos técnica resultó también adecuada dando fuera del alcance de la mayoría con ellos es más compleja, pues la luz no describe trayectorias paralelas en para el recubrimiento antirreflecde los fotógrafos aficionados. estos medios, de modo que el cálculo tante de lentes plásticas, al igual que Las lentes de plástico aesféricas
A
P
26
TEMAS 6
matemático de estas trayectorias y la definición de los frentes de onda son mucho más difíciles. Se ha dicho muchas veces que los proyectistas de objetivos están entre quienes más se han beneficiado de la aparición de los ordenadores. Sin ellos sería ciertamente arduo el cálculo de nuestras superficies aesféricas y de nuestros objetivos de focal variable. Hacia 1950 ya se habían escrito programas de trazado de rayos que funcionaban en algunos computadores de la época. Posteriormente se escribieron diversos programas de diseño automático de objetivos en universidades, centros públicos y empresas privadas. Kodak contrató a Donald P. Feder en 1956 para que desarrollase un programa práctico de diseño automático. Feder ya había elaborado previamente un programa para compro-
bar los objetivos utilizados por el ejército norteamericano, operación que entonces costaba unos 2000 dólares. El coste del mismo análisis con el programa mejorado que escribió para Kodak al año siguiente había bajado a 100 dólares. Otro programa escrito por Philip E. Creighton en 1971 podía elaborar una serie completa de análisis para ocho planos focales, cinco longitudes de onda y cinco aperturas angulares de un objetivo que tuvie se hasta 12 superficies por menos de 5 dólares. Pero la verdadera contribución de los ordenadores no radica en el análisis, sino en la mejora del diseño de objetivos. Hay que conseguir reducir sus defectos a un mínimo aceptable. Lo que de verdad querríamos sería reducirlos al mínimo matemático, pero esto no es posible, ya que reque-
riría la resolución de un gran número de ecuaciones simultáneas no lineales con un gran número de incógnitas, tarea que supera a las matemáticas contemporáneas. Lo que sí se puede hacer gracias a los ordenadores es conseguir una serie de aproximaciones cada vez más ajustadas a un objetivo impecable. Se demostró públicamente que esto era factible en un simposio de óptica celebrado en la Universidad de Rochester en 1962, donde Feder y sus colaboradores diseñaron un sistema completo de cuatro elementos en una tarde, lo que ocupó dos horas y media a la máquina, tiempo que se reduciría a segundos si se ejecutase el mismo programa en un ordenador actual. Al resultado se le bautizó como el “objetivo del simposio”. En otra aplicación realizada aquel mismo año a un obje-
18. FUNCION DE TRANSFERENCIA DE MODULACION deodel ojo humano, normalizada para que para muestre pico de un LA sistema fotográfico completo comprende la modulación, respuesta (100 % de contraste relativo) una el frecuencia las pérdidas, introducidas en cada una de sus etapas. Losespacial relativa igual a uno. A diferencia de las lentes, el ojo detalles finos de la imagen se interpretan en este análisis degrada el contraste de las imágenes cuya frecuencia relativa como variaciones espaciales de la intensidad de la luz, de laes mayor y menor que uno. La imagen percibida por el ojo es misma manera que las variaciones t emporales observadas enel resultado de multiplicar las cuatro primeras curvas de la potencia de una señal de radio se utilizan para evaluar la modulación (la del objetivo, la de la emulsión de la película, calidad de los equipos. Cada etapa de un sistema fotográficola del objetivo de la ampliadora y la de la emulsión del papel). reproduce los detalles finos (las frecuencias espaciales eleva-La calidad de la imagen transmitida al cerebro es proporcional das) con una pérdida de contraste (es decir, modulados). Estasal área definida por la última curva, que es la resultante del curvas están calibradas tomando como referencia la eficaciaproceso mencionado.
LA CIENCIA DE LA LUZ
27
COLABORADORES DE ESTE NUMERO Traducción: Manuel Puigcerver: Teoría del arco iris; M.a Luisa Calvo Padilla: Objetivos fotográficos; J. Vilardell: Delicias del estenoscopio y de su pariente, el antiestenoscopio y Tensión visible; Luis Bou: Microscopía confocal; Ramón Fontarnau y Frances E. Lynd: Construcción de un microscopio simple; Juan Santiago: Hologramas de luz blanca; Mónica Murphy: Optica adaptativa y Espejos líquidos; Amando García: Optica sin imágenes, Interferometría óptica de superficies y Conjugación de fase óptica ; José M. Vidal Llenas: Giroscopios ópticos.
28
Página
Fuente
3
Manuel Crespo
4-13
Gabor Kiss
17
Norman Goldberg, cortesía de Popular Photography
18-27
Dan Todd
29
Kenneth A. Connors
31
John M. Franke
32-34
Michael Goodman
35
Adam Lloyd Cohen
36-37
Jeff W. Lichtman
38
Matthew H. Chestnut
39
Jeff W. Lichtman (arriba), Stephen J. Smith y Michael E. Dailey (abajo)
40
Jared Schneidman/JSD (dibujos), Jeff W. Lichtman y Susan Culican (fotografías)
41
Jeff W. Lichtman
47-53
M.a Luisa Calvo Padilla
55-58
Fritz Goro
59-66
George V. Kelvin
69
Roger Ressmeyer/Starlight Photo
70
Agency, Inc. Jared Schneidman/JSD
71
Jared Schneidman/JSD (dibujos), John W. Hardy fotografías ( )
72-73
Jared Schneidman/JSD
75
Robert J. Sica, Univiversidad de Ontario Oeste
76
Boris Starosta
77
Guy Plante, Universidad de Laval
78
B. Starosta (arriba), Terry Byers, Co. Lockheed (izquierda), Guy Plante (derecha)
79
Robert J. Sica
80-81
Laboratorio Nacional de Argonne
82
Andrew Christie (arriba), Laboratorio Nacional de Argonne (abajo)
83-85
Andrew Christie
86-87
Jon Brenneis
88-90
Ian Worpole
91
Jon Brenneis
94
Frank R. Seufert
95-99
Michael Goodman
100-101
Glen M. Robinson, David M. Perry y Richard W. Peterson
102-103
Andrew Christie
104
Glen M. Robinson, David M. Perry y Richard W. Peterson
106-107
A. V. Mamaev y N. A. Melnikov
108
Ian Worpole
109
A. V. Mamaev a ( rriba, izquierda), Ian Worpole a ( rriba derecha y abajo )
110-111
Ian Worpole
tivo de gran calidad para microfilm, que inicialmente se había proyectado “a mano”, el programa introdujo mejoras que aumentaban su precisión y reducían los costes de fabricación. El tiempo del diseño óptico automático había llegado. Desde entonces se ha avanzado mucho en la elaboración de programas para el proyecto automático de objetivos, no cabiendo duda sobre sus ventajas en comparación con los métodos anteriores de cálculo. No sólo han mejorado la calidad y la productividad, sino que también se ha ganado en seguridad respecto de las características que tendrá el producto terminado y cómo se desarrollará su producción. Esta gran seguridad deriva en buena medida de las técnicas Monte Carlo utilizadas para analizar la sensibilidad de un diseño a los cambios acumulativos que se van produciendo durante la fabricación, dentro de unos límites normales del proceso de control, lo que permite decidir si es posible o no fabricar el producto. Los fotógrafos profesionales y los aficionados dedicados suelen discutir con vehemencia sobre las características de unos objetivos frente a otros, sobre todo en el caso de objetivos especiales para cámaras de 35 mm de precio elevado. Aunque pueden hacerse pruebas que determinen la resolución de un objetivo (definida como el número de líneas por milímetro que puede diferenciar en varias zonas de su campo y para varias aperturas), suele admitirse sin embargo que la consideración aislada de esta característica no es una guía muy fiable de la calidad de las fotografías que produzca. Gran parte del misterio que rodea la “calidad” de los objetivos fue desentrañado por Otto H. Schade en 1951. Schade hizo investigaciones sobre los objetivos utilizados en toda la cadena de transmisión de información que constituye un sistema de televisión y demostró que la capacidad de registrar los más mínimos detalles no estaba necesariamente relacionada con la eficacia general para transmitir información. La conclusión más sorprendente fue que algunos de los objetivos más apreciados eran menos adecuados para la televisión que otros considerados inferiores. Las investigaciones de Schade añadieron una nueva dimensión a la definición que había establecido Rayleigh de la calidad de la imagen. El criterio de Rayleigh se contempla ahora como un caso límite: determina uno de los extremos de un continuo de calidad. Nos dice cuándo se aproxima a la perfección un objetivo, pero no nos dice
cuál de dos objetivos imperfectos es el más recomendable. Schade logró aplicar a los objetivos la teoría de la información y definir su “función de transferencia óptica”. Lo hizo considerando las variaciones de la intensidad luminosa de la imagen formada por un objetivo de la misma manera que los ingenieros de radio consideran las variaciones temporales de la potencia de la señal para calibrar la calidad de los transmisores, los receptores y los amplificadores. El hecho de que la función de transferencia muestre muchas coincidencias con los criterios tradicionalmente empleados por los diseñadores de objetivos es una indicación de su validez. Más importante to davía resulta que la función de transferencia de un objetivo pueda combinarse con las de la película fotográfica, las de los dispositivos de copia, las de los objetivos de proyección, etc. Puede calcularse la función de transferencia de un objetivo proyectado y compararla luego con los resultados del ejemplar construido. La informática permite, pues, establecer modelos matemáticos del sistema fotográfico completo, desde el objeto elegido hasta la función de transferencia del ojo del observador.
L
a comparación de estas medidas y cálculos objetivos con las reacciones subjetivas de los observadores ante las imágenes fotográficas resultantes proporciona datos a los diseñadores sobre qué fotografía es la mejor. Estos modelos conceptuales han ayudado mucho a la industria fotográfica a la hora de decidir dónde concentrar sus esfuerzos de investigación y desarrollo para mejorar la relación entre calidad y precio en provecho de quienes hacen fotografías.
BIBLIOGRAFIA COMPLEMENTARIA APPLIED OPTICS AND OPTICAL DESIGN : PART TWO. A. E. CONRADY. Dirigido por
Rudolf Kingslake. Dover Publications, Inc., 1960. PHOTOGRAPHY: ITS MATERIALS AND PRO-
. Dirigido por C. B. Neblette. D. Van Nostrand Company, Inc., 1962. Dirigido por Rudolf Kingslake en Applied Optics and Optical Engineering: Vol. III. Academic Press, 1965. M ODERN OPTICAL ENGINEERING . Tim J. Smith. McGraw-Hill Book Company, 1966. CESSES
OPTICAL COMPONENTS.
SPSE H ANDBOOK OF PHOTOGRAPHIC SCIENCE AND ENGINEERING. Dirigido por
Woodlief Thomas, Jr., John Wiley and Sons, 1973.
TEMAS 6
Delicias del estenoscopio y de su pariente, el antiestenoscopio Jearl Walker
L
a deslumbrante diversidad y perfección de las cámaras fotográficas que hoy día se encuentran en las tiendas hace perder de vista que pueden obtenerse fotografías muy aceptables sin otra cosa que un orificio diminuto, o estenope, interpuesto entre la película y el objeto fotografiado. Tal es el fundamento de la cámara oscura, llamada también estenoscopio. Lo mismo cabe afirmar acerca del complemento óptico del estenope, o “antiestenope”, que es una mácula, muy pequeña y circular, que se interpone entre la película y el objeto; así, puede hablarse del “antiestenoscopio”. Para tratar el tema de la fotografía estenoscópica voy a seguir las investigaciones de Kenneth A. Connors y de Matt Young,
mientras que la novedosa y srcinal idea de la fotografía antiestenoscópica procede de Adam Lloyd Cohen. La fotografía estenoscópica (estenopetografía) se basa en el paso de la luz a través de un orificio practicado en una pantalla opaca. Luego la luz va a parar sobre un trozo de película, donde reconstruye una imagen del objeto fotografiado. Referencias a las imágenes estenoscópicas se encuentran ya en Aristóteles; Leonardo da Vinci estudió sus principios y Lord Rayleigh las analizó formalmente. La sencillez constituye una de las muchas ventajas que ofrece la cámara oscura frente a las cámaras de objetivo refringente. Al fotografiar un objeto con una cámara oscura, cada
1. Estenopetografía de Kenneth A. Connors
LA CIENCIA
DE LA
LUZ
29
punto del objeto colocado frente a ella proyecta su propia manchita luminosa sobre la película (o papel fotográfico). La reunión de esas manchitas constituye la imagen que registra la película. Para que dicha imagen sea nítida, las manchitas contiguas no deben solaparse; habrán de ser, pues, lo más pequeñas posible. Buena parte del diseño de un estenoscopio descansa en la elección del tamaño del estenope y de una distancia entre dicho orificio y la película tales que las manchitas luminosas proyectadas sobre la película queden separadas y alcancen su máxima luminosidad. En principio, el tamaño del estenope puede ser ilimitado. Sin embargo, cuanto mayor sea, tanto más alejado de la película deberá colocarse y tanto mayor habrá de ser la pe lícula; de ahí que la práctica fije unos límites al tamaño del orificio. Existe también un límite teórico para la pequeñez del estenope. Consideremos una cámara cuyo estenope se encuentre a una distancia razonable (varios centímetros) de la película. Supongamos que el estenope sea relativamente grande (demasiado con respecto a su distancia a la película) y que la cámara esté orientada hacia un manantial luminoso puntual y muy alejado. Los rayos luminosos procedentes de la fuente llegarán al estenope prácticamente paralelos entre sí y al eje geométrico que atraviesa el orificio por el centro y es perpendicular a la pantalla. En tal caso el radio de la manchita luminosa recogida en la pantalla será igual al radio del orificio y, por ser éste grande, la manchita en cuestión resultará grande también. Si se fotografiaran en estas condiciones un gran número de manantiales luminosos puntuales, sus manchitas se solaparían en la película, impidiendo que se les distinguiera individualmente. Si se reduce el tamaño del estenope, se achica el tamaño de la manchita luminosa producida por cada fuente puntual. La mejora de la situación por este procedimiento está limitada por el hecho de que el estenope acabaría siendo tan pequeño que la luz que lo atravesase se difractaría, para dar una figura de interferencia, circunstancia en la que una fuente puntual no crearía una pequeña mancha luminosa en la película, sino una figura circular compuesta de una mancha central luminosa, rodeada de anillos más tenues. Si menguáramos todavía más el tamaño del estenope, se agrandaría la figura de difracción, con la consiguiente pérdida de resolución de la fotografía. El radio óptimo del estenope es función de su distancia a la película; la relación puede mostrarse mediante un razonamiento en el que la luz se representase en forma ondulatoria. Imaginemos que se retiran el estenope y la pantalla; y consideremos una onda luminosa, procedente de un manantial puntual, que atraviesa el plano ocupado antes por la pantalla. Atendamos, en ese plano, a una familia de zonas circulares concéntricas con el eje geométrico de la cámara. Tales zonas pueden identificarse por su distancia a un punto situado en el centro de la película, punto que también está en el eje geométrico. La distancia entre la zona central y este último punto será la que mediaba entre el estenope y la película. La segunda zona está más alejada del punto central de la película en una semilongitud de onda, la tercera lo está en una semilongitud de onda más, y así sucesivamente. Todas las zonas envían ondas luminosas al punto central; ahora bien, por tratarse de trayectos distintos, las ondas se interfieren a su llegada. Por ejemplo, la onda procedente de la segunda zona llega desfasada en media longitud de onda respecto a la onda procedente de la zona central. En este sentido, cuando las amplitudes de las dos
30
ondas fuesen iguales, ambas se anularían entre sí. Desde luego, si las contribuciones tuvieran todas la misma amplitud, se anularían sin excepción en el punto central. La verdad es que las amplitudes no son iguales, como se demuestra en exposiciones más rigurosas que ésta que puedo ofrecerles aquí, por lo cual la anulación es sólo parcial. La amplitud total de la onda luminosa en el punto central resulta ser la mitad de la que supondría la contribución de la zona central por sí sola. Como la intensidad luminosa depende del cuadrado de la amplitud, ello implica que la intensidad en el punto central es la cuarta parte de la que sería si sólo contribuyese la luz procedente de la zona central. Pues bien, una de las finalidades del estenope es obstruir todas las zonas, salvo la central. (Hay investigadores que afirman que las obstruye todas, excepto las dos primeras.) Un estenope de dimensiones óptimas permite que al punto central de la película sólo llegue luz de la zona central; con un estenope así, la manchita luminosa central será clara y pequeña, con la luz bien distribuida. Siel estenope no alcanza su tamaño óptimo, sólo una parte de la zona central contribuirá a la iluminación de la película, la mancha luminosa será más apagada y la luz estará peor distribuida. Pero si lo rebasa en demasía, las zonas adicionales que abarca harán que decrezca la claridad de la manchita, al tiempo que aumenta de tamaño. Lo que se persigue, pues, no es que el estenope sea de un tamaño concreto, sino que entre su magnitud y su distancia al punto central de la película haya determinada relación. Cuando el objeto a fotografiar se encuentra relativamente alejado, el radio óptimo del estenope viene a coincidir, aproximadamente, con la raíz cuadrada del producto de la longitud de onda de la luz por la distancia entre el orificio y la película. A partir de la relación mencionada cabe definir una distancia focal del estenope. Este actúa como un objetivo, en el sentido de que proporciona una imagen concentrada de un objeto. Su distancia focal es aproximadamente la longitud de onda de la luz partida por el cuadrado del radio del orificio. Cuando la película diste del estenope una longitud igual a la distancia focal, la manchita luminosa de la película será reducida y clara, pues sólo entonces la zona central llena por completo el estenope y contribuye con su luz al punto central. Supongamos que el objeto esté cercano. Si hubiéramos de fotografiarlo con un objetivo refringente, podríamos calcular la distancia correcta entre éste y la película aplicando la fórmula llamada de las lentes delgadas, que establece que la inversa de la distancia entre objetivo y película debe ser igual a la inversa de la distancia focal del objetivo menos la inversa de la distancia al objeto. Esta relación mantiene su validez para los estenopes, con tal de que la distancia focal se defina de la forma indicada antes; ello permite enfocar una cámara oscura y obtener así una fotografía de la mejor nitidez. Si el objeto está alejado, la mejor posición de la película es la correspondiente a la distancia focal. Si nos desplazamos hacia el objeto, acortando la separación entre el mismo y el estenope, deberemos incrementar la distancia entre la película y el estenope, a fin de mantener la nitidez óptima en la imagen. Una corrección tal quizá no resulte muy viable, ya que en los estenoscopios suele ser fija la distancia entre estenope y película, en cuyo caso vale la pena sustituir el estenope por otro menor, de suerte que disminuya la distancia focal. En la práctica no se efectúa ninguna de esas correcciones, dado que la nitidez de la fotografía suele ser aceptable, aun cuando el tamaño del estenope y la dis-
TEMAS 6
tancia entre éste y la película no cumplan la relación óptima. Y si se fotografía una escena cuyos objetos se encuentren a distancias de la cámara que varíen entre límites amplios, en su mayoría aparecerán en la fotografía aceptablemente enfocados. Esta gran profundidad de campo es característica del estenoscopio. A partir de lo expuesto podemos calcular el tamaño conveniente del estenope, o bien la distancia entre éste y la película, una vez escogido uno de ellos. Pero, ¿cuál de esos datos se elige para calcular el otro? La respuesta la dicta el sentido común. En efecto, nadie desea un estenoscopio de varios metros de longitud. Y queremos una foto perfecta, en la que se aprecien los detalles que
nos ofrece la contemplación directa de la escena. Y es precisamente aquí, en la nitidez de la imagen, donde se encuentra el punto de partida para establecer las condiciones de la cámara. El límite hasta el que el ojo humano es capaz de percibir con nitidez se llama poder separador, magnitud angular que se expresa en radianes. Supongamos que nuestro campo visual abarque dos puntos. En tanto que el ángulo que subtiendan sea superior a determinado valor mínimo, 0,001 radianes aproximadamente, podremos discriminarlos. Cuando dicho ángulo sea menor, sólo veremos un objeto único y borroso. Por ejemplo, dos puntos contiguos, separados un milímetro entre sí y a un
2. Fotograma gran angular obtenido por John M. Franke con una cámara oscura dotada de una semiesfera de vidrio detrás del estenope
LA CIENCIA
DE LA
LUZ
31
Pero si no cambiásemos también el tamaño del fotograma y la distancia a la cual lo contemplamos, no habría manera de advertir la mejora. Por otro lado, la cámara habría de tener en este caso 50 centímetros de longitud (para que la distancia entre el estenope y la película fuese la correcta) y se necesitaría una película mayor para recoger toda la luz procedente del estenope. Es evidente que la cuantía de la mejora no vale la pena. Cuando el estenope sea mayor de lo debido, la nitidez se degradará, con el inconveniente adicional de que aparecerán detalles falsos en el foto3. Estenopetografía grama. Este efecto, que se llama separación espuria, resulta del solapametro de nosotros, se encuentran precisamente en el miento de las imágenes de varios objetos contiguos. En límite de nuestra capacidad para verlos con nitidez. En la ilustración superior de la página siguiente aparece la tal caso bastaría una cámara con ese poder separador; explicación de Young acerca de la separación espuria aumentarlo no valdría de nada. de tres barras verticales. A título demostrativo, supongamos que la copia final La mayoría de los sistemas de lentes producen una dishaya de tener las mismas dimensiones que la película y torsión lineal en las imágenes registradas sobre película. que vamos a contemplarla a una distancia igual a la Por ejemplo, un objeto cuadrado puede aparecer como si existente entre el estenope y la película. Propongámonos sus lados fuesen levemente curvos. La mayoría de las cámafotografiar dos fuentes luminosas puntuales y continuas, ras modernas incorporan dispositivos para corregir este cuya separación angular corresponda al poder separador fallo. Pero una de las ventajas del estenoscopio es que se del ojo humano (0,001 radianes). La cámara deberá pro- encuentra prácticamente libre de distorsión lineal. yectar sobre la película dos manchitas que apenas se El estenoscopio presenta, empero, varios tipos de toquen, o que se solapen muy poco. Entonces, al obser- aberración, incluida la cromática. En efecto, como el radio var la fotografía, podremos verlas como manchitas ape- óptimo del estenope (y, por tanto, su distancia focal) nas separadas. El ángulo que formen en nuestro campo depende de la longitud de onda de la luz, la cámara sólo visual puede calcularse dividiendo el diámetro del este- puede optimizarse para una longitud de onda. Puede nope por la longitud de onda de la luz. Sea ésta de 500 conseguirse la mejor nitidez para esa longitud de onda, nanómetros (aproximadamente el centro del espectro pero la que se obtenga para las demás que integran la visible); si el ángulo que mide nuestro poder separador luz blanca será peor. es 0,001 radianes, el radio del estenope habrá de cifrarse Con película de color, los bordes de las imágenes apaen 0,25 milímetros. recen borrosos; a veces se aprecian incluso coloreados. Una vez determinado este valor, a través de la fórmula Con película de blanco y negro sólo se observa un emantes referida se deduce que la distancia óptima entre borronamiento de los bordes. Para eliminar la aberrael estenope y la película es de 12,5 centímetros. Si dupli- ción cromática suele emplearse película en blanco y cáramos el radio del estenope y, de acuerdo con ello, negro con un filtro de color colocado ante el estenope. corrigiéramos la distancia de la película al orificio, la El tamaño del estenope y la distancia de la película al nitidez de una foto hecha con esa cámara sería doble. mismo se optimizan para la longitud de onda que deja pasar el filtro. Se eliminan los demás colores y los bordes de la imagen aparecen menos borrosos por aberración cromática. Otra aberración que presentan las cámaras oscuras es el astigmatismo, que se manifiesta cuando el objeto fotografiado se encuentra fuera del eje central del estenope. Aquí ocurre que el estenope visto desde el objeto tiene forma elíptica, no circular y, si el objeto es una fuente luminosa puntual, sobre la película se proyectará una manchita elíptica. Tampoco el lugar de la película sobre el que se proyecte la manchita estará a la distancia correcta del estenope. Si el centro de la película se coloca a la distancia correcta del orificio, todos los demás puntos de la película quedarán demasiado lejos, lo que significa que únicamente se obtendrá una nitidez óptima en el centro. 4. Zonas cuya luz contribuye al centro de la película
32
TEMAS 6
5. Tipos de separación
Un problema más grave de las cámaras oscuras es su viable; una solución de compromiso pudiera ser un reducida aptitud para captar luz. Debido a su apertura, soporte cilíndrico. habitualmente muy pequeña, se necesitan exposiciones John M. Franke resolvió esa dificultad de un modo prolongadas. Por ejemplo, si la película está a la distan- ingenioso. Puso una semiesfera de vidrio inmediatacia focal del estenope y esa distancia es de unos pocos mente detrás del estenope de la cámara, en la cual el centímetros, el número f de la cámara se cifrará aproxi- soporte de la película era una placa plana normal. Cuando madamente en 200. Aunque la pequeña apertura hace la luz atraviesa el estenope y penetra en el vidrio, se que el sistema sea lento, tiene a su favor la gran profun- refracta. La totalidad del campo, que abarcaba 180 gradidad de campo resultante. dos, se reducía entonces a un cono de luz de 84 grados Son varias las razones por las que la intensidad luminosa de abertura. Cuando la luz emerge del vidrio lo hace proyectada sobre la película no es nunca uniforme. perpendicularmente a su superficie y, por ello, no sufre Supongamos que van a fotografiarse dos manantiales desviación. Esta reducción angular de 180 a 84 grados le luminosos puntuales, uno en el eje central y otro fuera permitió a Franke ubicar la película a una distancia conde él. La luz procedente de la fuente situada fuera del veniente del estenope y, aun así, obtener un fotograma eje se encuentra con un estenope aparentemente elíptico; gran angular con un campo de casi 180 grados. en consecuencia, por el orificio pasará menos luz proceFranke empleó una semiesfera de 25,4 milímetros de dente de ese punto que procedente del situado en el eje. diámetro, construida con vidrio BK-7, cuyo índice de refracLa luz que genera la manchita excéntrica ha de recorrer ción es de 1,5 aproximadamente. Aunque el diámetro no además una distancia mayor para llegar a la película y, influye de modo decisivo, con vidrios de diferentes índices por tanto, se extiende más, alcanzando así la película con de refracción se consiguen diferentes resultados. Puede menor intensidad. Por otro lado, esa luz llega a la película resultar entretenido ensayar con otros vidrios e incluso bajo un ángulo que esparce aún más la exposición sobre con plásticos de buena calidad. Si se desea un campo de su superficie, reduciéndose más la intensidad. 180 grados, las imágenes resultarán algo distorsionadas La limitación del campo responde hacia los bordes de la foto. a otra razón adicional: no todo Hay varias formas de construir un objeto suficientemente separado del estenope. Préstese atención al orifieje central refleja la luz hacia la pelício, que deberá ser circular y tener el cula, salvo que ésta sea muy ancha o borde liso. Young ha conseguido se coloque bastante cerca del esteestenopes perfectamente limpios nope. Se ha intentado siempre salvar sirviéndose de láminas de latón de 50 esa dificultad arrimando la película micrometros de espesor (como las hacia el estenope, para que pueda que se emplean para hacer supleobtenerse una fotografía de ángulo mentos espaciadores, etc.). A tal fin, amplio. Pero este truco tiene un fallo: monta una aguja de coser en una reduce la nitidez de la foto, ya que fresadora y luego, con el avance verla película no estará entonces a la tical de la máquina, impulsa la aguja distancia del estenope correspona través de la delgada lámina de diente a la nitidez óptima. latón, bajo la cual coloca un bloque Otro procedimiento para aumentar de plomo recién pulido para evitar el campo es preparar un soporte para que se deforme. Tras eliminar las la película en forma de semiesfera, rebabas del borde del orificio, lo escacentrada en el estenope. Toda la luz ria con la punta seca de un compás y que penetre por éste alcan zará vuelve a limpiarlo. entonces la película, incluso la proLas láminas de latón que emplea cedente de objetos situados casi a 90 Connors miden de 25 a 50 micromegrados respecto al eje central. Otra tros de espesor. No se recomiendan consecuencia sería un menor debiliplaquitas más gruesas, si se quiere tamiento de la exposición, ya que la evitar que el orificio se convierta en luz incidiría siempre perpendicularun cilindro demasiado largo, en cuya mente sobre la película. También superficie interior se produzcan mejoraría la nitidez de los objetos reflexiones de los rayos luminosos. separados del eje central, al estar Sobre cartón consistente o madera todas las porciones de película a la blanda pulida coloca un trozo cuamisma distancia del estenope. Pero drado de lámina. Luego, valiéndose la construcción de un soporte semiesde la punta seca de un compás, prac6. Montaje de Franke para fotos gran angulares férico no resulta por desgracia muy tica una pequeña embutición en la
LA CIENCIA
DE LA
LUZ
33
segundo es que puede emborronarse la foto con la sacudida que resulta de la retirada y reposición del adhesivo. Por mi parte, prefiero el procedimiento que apunta Young. Sobre el cuerpo de su cámara de 35 milímetros monta un tubo telescópico, de los que pueden comprarse en las tiendas de fotografía para la mayoría de las cámaras de objetivo desmontable; en su extremo externo sujeta el objetivo estenoscópico. A falta de tubo telescópico, yo aproveché un tubo de cartón, que fijé al cuerpo de mi cámara con varias capas de cinta adhesiva negra. La ventaja de este tipo de estenoscopio es que permite la impresión de un carrete de película entero. Da la coincidencia de que mi cámara es un modelo réflex de objetivo simple, por lo que pude observar una 7. Montaje antiestenoscópico de Adan Lloyd Cohen imagen tenue de la escena antes de tomar cada foto. lámina, con cuidado para que la punta no la traspase por En la estenopetografía, la luz atraviesa un orificio para completo, tras de lo cual da la vuelta a la pieza y fricciona generar una imagen: en la antiestenopetografía de con papel de lija fino el conito formado en el reverso de Cohen, un antiestenope, u obstáculo, proyecta una imala embutición. Estas operaciones las repite tantas veces gen negativa del objeto. Este dispositivo constituye el como sea preciso, hasta que obtiene un orificio lo sufi- complemento óptico del estenope. Aquí, la pantalla y el cientemente ancho para que por él pase la caña de la orificio están sustituidos por un pequeño obstáculo de punta del compás, cuyo diámetro ha medido previamente sección circular, de modo que la luz que hubiera pasado con un microscopio de retículo graduado, de modo que por el estenope queda obstruida y la luz que hubiera ya sabe cuál es el tamaño del estenope. Cuando quiere sido obstruida por la pantalla llega a la película, dando un estenope de diámetro menor que la punta de compás una imagen negativa. El fotograma antiestenoscópico de que dispone, detiene el proceso de agrandamiento final es similar al estenoscópico, con una salvedad: las antes de que toda la punta penetre en el orificio. zonas claras y oscuras aparecen intercambiadas. Conseguido el estenope, Connors encola la lámina a En las imágenes que proyectan los antiestenopes de un soporte hecho de placa de latón más gruesa (de unos Cohen no interviene la difracción de la luz, pues los 125 micrometros de espesor), de modo que el estenope antiestenopes son demasiado grandes para srcinar figuquede centrado en un orificio de unos seis o siete milí- ras de difracción importantes. La imagen la crea sencimetros taladrado en la pieza más gruesa. El lado de este llamente la obstrucción de los rayos luminosos procedenconjunto que ha de encararse a la película lo pinta de tes del objeto. Toda manchita que aparezca en la película negro mate para disminuir las reflexiones luminosas en registra la sombra de una porción del objeto que se el interior de la cámara. Hay quien opina que también encuentra en la intersección del objeto con la recta defidebe ennegrecerse la superficie interna del estenope, nida por la manchita y el antiestenope. pero Connors se opone a estropear la simetría del orificio Los fotogramas obtenidos con antiestenopes tienen construido y sólo pinta hasta uno o dos milímetros de peor contraste que los estenoscópicos, porque los disdistancia de él. positivos antiestenoscópic os permiten que a la película Los estenopes deben mantenerse libres de polvo, por llegue casi toda la l uz procedente de la escena. De esa lo que es conveniente guardarlos en bolsitas de plástico luz, la mayor parte es una iluminación uniforme que no hasta que se necesiten. Connors examina periódicamente sirve para nada y que simplemente reduce el contraste los suyos al microscopio para comprobar si el polvo ha de la imagen. Es el resto de la luz, la fracción no unidañado su simetría. forme, la que transporta la información acerca del Estos objetivos estenoscópicos pueden montarse, prác- objeto. El contraste mejoraría si hubiera alguna forma ticamente, en cualquier tipo de caja hermética a la luz. de disminuir la iluminación uniforme o de aumentar la Yo mismo he visto estenoscopios hechos con cajas de proporción de luz no uniforme que contiene la inforgalletas. Trabajando en un cuarto oscuro, el fotógrafo mación sobre el objeto. monta un trozo de papel fotográfico en la parte posterior La desigualdad entre ambas iluminaciones puede de la caja y desliza la tapa. Luego, para evitar que pene- aumentarse si el antiestenope se acerca a la película; tre luz prematuramente en el interior, coloca un trozo ahora bien, lo mismo que ocurría en la estenopetografía, de cinta adhesiva negra sobre el estenope. Cuando todo esa medida rebaja la nitidez del fotograma. No obstante, está listo, efectúa la exposición arrancando el adhesivo Cohen afirma que con gusto sacrifica algo de nitidez para del orificio y volviendo a colocarlo después. Una cámara conseguir un contraste suficiente como para reconocer así funciona, desde luego, como estenoscopio, pero tiene la imagen en la foto. dos inconvenientes: el primero es que sólo puede tomarse Parte de la iluminación uniforme proviene de porciones una foto cada vez que se saca del cuarto oscuro; el de la escena que no tienen importancia para el foto-
34
TEMAS 6
grama. Para reducir esta iluminación irrelevante, Cohen sitúa un diafragma de campo (una pantalla con un orificio mayor que el antiestenope) delante del antiestenope. El orificio es lo suficientemente ancho para que las porciones extremas del objeto iluminen los bordes de la película y lo suficientemente pequeño para impedir que lo haga el resto de la escena. El coloreado de las imágenes antiestenoscópicas puede ser sorprendente. Si se fotografían unos cuantos objetos de diferen tes colores, las imágenes de cada uno 8. Estenopetografíaizquierda ( ) y antiestenopetografía suelen presentar un color difede una P recortada en papel, obtenidas por Cohen rente al suyo. Este cambio depende del color que da la combinación de los colores de los objetos del conjunto. Si la combinación da blanca, cada color del conjunto cambia en la fotografía a su complementario; un objeto rojo dará una imagen cuyo color será la sustracción de blanco menos rojo (puesto que el antiestenope bloquea el rojo procedente del objeto). Por consiguiente, el color de la sombra es el azul verdoso llamado cian, complementario del rojo. De la misma manera, un objeto verde crea una sombra magenta. Algunas de las propiedades de las cámaras oscuras las comparten por igual los antiestenoscopios. Su campo es grande, el ajuste del aumento se consigue variando la distancia entre el estenope y la película y no existe distorsión lineal. En los antiestenoscopios puede evitarse el astigmatismo si el antiestenope se construye esférico, pues así toda la luz procedente del objeto se ve interceptada por un obstáculo de sección circular, aun cuando el objeto esté muy separado del eje central de la cámara. 9. Anillo brillante, fotografiado por Cohen a través de una serie de antiestenopes Otra diferencia entre ambos tipos de fotografía es que, si se dispone una serie de estenopes alineados entre el objeto y expenden las tiendas de artículos para oficina. Recomienda que el redondel no sea muy pequeño, para y la película, no se obtiene nada, mientras que una serie evitar que sufra el contraste del fotograma. Se aconseja de antiestenopes sí que produce resultados. Ello se debe que las escenas tengan mucho contraste para que el a que las pantallas donde se perforan los estenopes fotograma también lo muestre. La experimentación en impiden que la luz se proyecte sobre la sucesión de ellos antiestenopetografía puede comenzarse recortando más cercanos a la película; por el contrario, los antiesfiguras de papel negro opaco e iluminándolas por detrás tenopes se interfieren muy poco. La figura 9 es una fotografía obtenida por Cohen con una serie de anties- con una fuente difusa de luz. tenopes que colocó entre un anillo brillante y la película. Cada antiestenope produce su propia imagen en negativo del anillo. BIBLIOGRAFIA COMPLEMENTARIA A quienes pueda interesar la antiestenopetografía, Cohen les ofrece las sugerencias siguientes. Como antiesPINHOLE IMAGERY. M. Young en American Journal of Physics, o vol. 40, n. 5, págs. 715-720; mayo, 1972. tenope se utilizará una manchita redonda de pintura FIELD-WIDENED PINHOLE CAMERA. John M. Franke en Applied negra depositada sobre un trozo de vidrio o de acetato Optics, vol. 18, n.o 17. págs. 2913-2914; septiembre, 1979. limpio; su tamaño no es decisivo y, en su lugar, puede pegarse un redondel, como los que se usan para rotular
LA CIENCIA
DE LA
LUZ
35
Microscopía confocal Jeff W. Lichtman
Esta técnica microscópica no tiene rival para la producción de imágenes nítidas, sean planas o en tres dimensiones
M
arvin Minsky es el padre de la inteligencia artificial. También es autor de otro importante logro. En los años cincuenta construyó un microscopio óptico revolucionario, que le permitía observar con claridad capas sucesivas de una muestra sin tener que rebanar el espécimen en finos cortes. Minsky no recibió el debido reconocimiento cuando patentó su “microscopio de barrido por etapas, de doble enfoque”. En los diecisiete años de vigencia de la patente no percibió derechos ni royalties, y no se fabricó ningún instrumento de concepción similar. Treinta años después, su método —hoy denominado “microscopía confocal”— ha prendido con fuerza y se ha tomado la revancha, hasta convertirse en uno de los progresos más notables de la microscopía óptica de nuestro siglo. No está claro si el interés que suscita ha sido encendido por el redescubrimiento de los primeros trabajos de Minsky o por la reinvención de su
36
idea por otros. Sea como fuere, el feliz resultado es que ahora contamos con docenas de tipos de microscopios confocales, en una gama que va desde lo rudimentario hasta lo barroco. Minsky desarrolló la técnica mientras reflexionaba sobre el funcionamiento del cerebro. Razonó que, si fuera posible cartografiar las conexiones entre todas las neuronas, el diagrama circuital revelaría indicios del modo en que opera el cerebro. Por desdicha, al aplicar las técnicas de la microscopía óptica ordinaria a la identificación de las sutiles interconexiones de las neuronas de un corte cerebral se tropieza con un grave obstáculo técnico.
En los microscopios ópticos, cuando el objetivo enfoca luz tomada de planos situados por debajo de la superficie del tejido cerebral (o de cualquier material grueso y translúcido), la imagen se torna rápidamente incomprensible. Tratar de ver elementos nerviosos profundos de tal tejido equivale a tratar de localizar un objeto hundido en una charca cenagosa proyectando sobre el agua una linterna: la luz es reflejada por tantas y tan diminutas partículas que resulta imposible distinguir el objeto de su entorno. Para conseguir una representación nítida de un plano individual de una muestra, lo ideal sería re coger
1. GRANOS DE POLEN de girasolarriba ( ) y de pino serie ( inferior). Estos “retratos” han sido preparados a partir de imágenes obtenidas con un microscopio confocal de planos sucesivos de cada grano. Un ordenador digitalizó dichas imágenes —llamadas secciones ópticas— y las combinó. Tales reconstrucciones digitales pueden observarse en cualquier orientación; el polen de pino se muestra de izquierda ( a derecha) en vista lateral, en vista lateral opuesta, girado 72 grados respecto a la primera posición y desde arriba.
TEMAS 6
LA CIENCIA DE LA LUZ
37
2. UNA MICROCAPSULA DE POLIMERO rellena de fluido es- ( integridad estructural de esta cápsula con la de otras con dife), de 0,1 milímetros de diámetro. La imagen se obturente composición. Se distingue la cápsula ( ) del fluido fera grande en verde vo a partir de una pila de secciones ópticas, entre las que que se la llena marcando estos componentes con tintes diferentes. contaban las esferas menores aquí mostradas. Las imágenes El análisis detallado de muchas vistas no reveló roturas en la fueron preparadas por Matthew H. Chestnut para compararcápsula, la pero sí ciertas fugas del fluido interior.
luz reflejada del plano de interés y sólo desde él. Pero el material situado por encima y por debajo de ese plano también devuelve luz, crean do imágenes borrosas. Al mismo tiempo, el fenómeno de dispersión puede reducir el contraste. La dispersión se produce al incidir la luz sobre partículas diminutas y reflejarse de ellas, incidiendo de nuevo en otras partícula s y así hasta alcanzar la superficie detectora. Las señales producidas por esta luz desviada al aza r no aportan información; crean un resplandor difuso que
38
tiende a encubrir la luz procedente del plano de interés.
C
on unas pocas modificaciones en el microscopio normal Minsky minimizó la difuminación de la imagen y reforzó el contraste. Evitó que se produjera gran parte de la dispersión; para ello hizo pasar la luz de iluminación a través de un objetivo que enfocaba los rayos en un haz bicónico, cuya forma recuerda un reloj de arena. Después llevó el foco de este haz (la angostura en el reloj de arena), que es un punto de luz nítido e intenso,
sobre una porción mínima de la muestra, a la profundidad deseada. Tal proceder garantizaba que esa zona sería la más intensamente iluminada del espécimen y, por tanto, la que reflejase más luz. Igual de importante es que, al enfocar un área, Minsky garantizaba que el resto de la muestra apenas recibiría iluminación, suprimiendo con ello la dispersión. La microscopía óptica al uso iluminaría la muestra entera y se desviaría la luz incidente. La estrategia de enfocar la iluminación sobre una región circunscrita
TEMAS 6
3. LA RECONSTRUCCION TRIDIMENSIONAL de una neurona es la “estrella” de esta secuencia de fotogramas. La estructura que vemos en los sucesivos cuadros está girada unos 10 grados en torno a un eje vertical con respecto a la
limitaba la dispersión total. Pero no impedía que la luz fuese devuelta y dispersada por el tejido iluminado suprayacente e infrayacente a la zona de interés (el tejido que se encuentre dentro de las porciones cóni cas del haz iluminador). Gracias a un segundo ajuste Minsky impidió también que gran parte de esta luz espuria alcanzase la superficie detectora; sabía que la luz devuelta era enfocada por el objetivo en un plano situado muy por encima de la muestra. Colocó en ese plano una máscara con una abertura diminuta, que dispuso de modo que la luz de retorno pasara a su través hasta la superficie detectora. El resultado fue impresionante: la señal procedente del punto iluminado pasaba íntegra a través del orificio de la pantalla y alcanzaba la superficie detectora; al propio tiempo, la máscara eliminaba casi toda la luz procedente del tejido exterior al punto. Se formaba así una imagen casi perfecta del punto, esencialmente no perturbada por la dispersión ni difuminada por la luz procedente de zonas no enfocadas. El problema obvio que planteaban las dos primeras fases del método de Minsky era que éstas proporcionaban una imagen nítida, sí, pero sólo de un punto diminuto. Para producir una representación del plano entero, añadió una característica más: la exploración secuencial por líneas, o “barrido”. Corrió la muestra poquito a poco, barriendo el plano de enfo-
LA CIENCIA DE LA LUZ
anterior. La secuencia produce un film de la célula en rotación. Para ver la neurona en tres dimensiones, mire con los ojos bizcos un par de imágenes, enfocando cada ojo en una imagen diferente.
que con el punto luminoso a lo largo de líneas paralelas inmediatas. Al final, ca da una de las áreas yacentes a una profundidad dada visitaba el haz iluminador fuertemente concentrado, enviando en secuencia una señal clara a través del orificio filtrante hasta el detector. Minsky maniobraba la muestra con dos diapasones electromagnéticos de horquilla. Uno lo desplaza ba a lo largo de cada línea y el otro lo hacía pasar de una línea a la siguiente paralela del plano.
P
ara ver la imagen completa de un plano, hacía que la luz que atravesaba el orificio incidiera en un detector fotomultiplicador. Este detector, a su vez, generaba un flujo de señales eléctricas con las que se confeccionaba una imagen en una pantalla de larga persistencia, tomada de un radar. Subiendo o bajando el objetivo y repitiendo el proceso de barrido, aparecía en la pantalla otro plano de la muestra. La elección de una pantalla grande fue un error táctico. Cuando Minsky les pedía a sus colegas que examinaran el artilugio, éstos solían tener dificultad para interpretar la imagen que estaban viendo . C omo Mi nsk y dedujo más tarde, la ima4. NEURONAS ACTIVAS objetos ( coloreados) resaltadas en gen presentada era excesieste corte de tejido cerebral de un roedor. La figura es unavamente grande. compilación, generada por ordenador, de tres imágenes confo“Les mostré el microscocales realizadas, con 12 segundos de diferencia, por Michael E. pio confocal a muchos visiDailey y Stephen J. Smith. Cada punto temporal se codificó tantes, pero nunca pareciemediante un color, rojo primero, verde luego y por fin azul. La imagen nos revela que las neuronas se excitaron en instantesron muy impresionados con distintos y se mantuvieron activas durante dos de los pulsoslo que veían en la pantalla (así la célula amarilla ) o durante los tres blanca ( ). de radar”, cuenta. “No caí
39
Así funciona la microscopía confocal
L
rojo en b ) e infrayacentes (en naranja ) del plano de interés. Por último, la luz se traslada de una zona a otra hasta explorar el plano por completo. La nitidez que esta técnica proporciona resulta evidente en las fotografías al pie, obtenidas, respectivamente, con un microscopio tradicional (izquierda ) y con uno confocal (derecha). Ambas imágenes corresponden a un mismo músculo de ratón, marcado por fluorescencia para resaltar los puntos que entran en contacto con una neurona motora. Para acelerar el barrido, se incorpora un disco provisto de cientos de finos orificios, a través de los cuales se envía y recoge la luz (c).
os microscopios confocales consiguen elevada resolución en un plano seleccionado merced a tres procesos fundamentales. En el primero, se enfoca luz (amarilla en a ) mediante una lente objetivo, creando un haz bicónico cuyo vértice o foco ilumina una zona de la muestra, a la profundidad deseada. A continuación, la luz reflejada por esa área (azul) es enfocada y concentrada en un punto, permitiéndosele que pase en su totalidad a través de una abertura de una máscara situada frente a un dispositivo detector. Las regiones opacas que rodean al orificio de filtrado cierran el paso a los rayos reflejados por la regiones suprayacentes (en
a a
c c
PINHOLE APERTURE DETECTOR
DETECTOR
ORIFICIO FINO
ESPEJO BEAM- DESDOBLADOR SPLITTING DEL MIRROR HAZ
FUENTE LIGHT LUMINOSA SOURCE LENTE LENS ESPEJO DESDOBLADOR BEAM-SPLITTING MIRROR DEL HAZ
b b
FUENTE LIGHT LUMINOSA SOURCE
OBJECTIVE OBJETIVO
SPINNING DISCO GIRATORIO DISK OBJECTIVE OBJETIVO
PLANO PLANE DE OF ENFOQUE FOCUS SPECIMEN MUESTRA
40
SPECIMEN MUESTRA
TEMAS 6
5. LA TEXTURA SUPERFICIAL de una pastilla (“chip”), mos-superpuesto los barridos a tres profundidades. El nivel más trada en una micrografía óptica normal izquierda ( ) y en una profundo es verde; el más alto, rojo. Se obtiene así información imagen confocal compuestaderecha ( ). En esta última se han que no es posible captar en la microfotografía ordinaria.
en la cuenta hasta mucho después de que no basta sólo con que un instrumento posea elevado poder de resolución; es preciso también que la imagen parezca nítida. Tal vez el cerebro humano precise de cierto grado de compresión foveal para aplicar sus facultades visuales más sobresalientes. En cualquier caso, debí haber utilizado película fotográfica ¡o cuando menos, haber instalado una pantalla más pequeña!” Pero Minsky no hizo ni lo uno ni lo otro. nvestigadores y fabricantes han ideado muchos métodos para combinar las características esenciales de la microscopía confocal: iluminación de una pequeña porción de la muestra, filtrado de la luz de retorno a través de una abertura alineada con la región iluminada y barrido del espécimen. La muestra suele permanecer quieta; en casi todos los dispositivos es el haz luminoso el que viaja. Para acelerar la velocidad de adquisición de la imagen, algunos microscopios desplazan el haz con espejos oscilantes, que obligan a la luz incidente en ellos a fluir raudamente a través de una muestra, que es barrida como barre el rayo electrónico la pantalla de un televisor. Estos espejos permiten reconstruir una imagen en menos de un segundo. Tales instrumentos exigen fuentes luminosas de más brillo que las que Minsky tenía a su disposición; después de todo, han de producir de cada zona una señal que sea detectable casi instantáneamente. Los láseres, muy intensos y fáciles de enfocar en zonas pequeñísimas, se utilizan para este propósito. Para ahorrar tiempo se emplean también múltiples puntos de luz que
I
LA CIENCIA DE LA LUZ
exploren simultáneamente diferentes regiones de la muestra. Algunos de estos dispositivos incorporan discos giratorios provistos de muchas aberturas, a través de las cuales pasa la luz de iluminación y la de retorno. Otros equipos se valen de sistemas de rendija, que abrevian el tiempo de barrido iluminando líneas en vez de puntos. Las técnicas de barrido rápido han permitido la observación de planos completos de un espécimen en tiempo real, muchas veces, directamente a través de un ocular. Casi todos los microscopios confocales modernos sacan partido de otro avance revolucionario: el procesamiento digital de imágenes. Conforme un microscopio confocal barre planos sucesivos de la muestra, produce una pila de imágenes, cada una de las cuales constituye una sección óptica; tales secciones vienen a ser imágenes de finos cortes. Los programas de procesamiento de imágenes no sólo registran el brillo de cada zona de cada sección, sino también la ubicación de esa área en la muestra, o sea, su localización en un plano individual (las coordenadas x e y) así como la profundidad de éste (la coordenada z). Los lugares definidos mediante la terna de coordenadas se llaman “vóxeles”, equivalentes en tres dimensiones de los elementos de imagen, o “píxeles” de una imagen bidimensional. Los programas de procesamiento de imágenes compilan vóxeles y preparan con ellos reconstrucciones tridimensionales de objetos microscópicos. También manipulan vóxeles, lo que permite hacer girar alrededor de un eje las imágenes reconstruidas y observarlas desde todos los ángulos. Gracias a esta técnica nos es dado
efectuar rápidamente observaciones que de otra forma hubieran resultado sumamente caras y laboriosas. Por ejemplo, en investigación cerebral, los sistemas de microscopios confocales conectados a ordenadores han resultado valiosísimos para descubrir la estructura del sistema nervioso, y en ellos se apoya la observación de tejidos cerebrales vivos.
L
a microscopía confocal se ha conve rt id o en un a ag lu ti na ci ón ultrarrefinada de láseres, instrumentos ópticos, sistemas electromecánicos de barrido y de procesamiento informático de imágenes. Ha dado a la microscopía la capacidad de ver el interior de los objetos y de crear, casi a voluntad, imágenes estereoscópicas. El sueño de Minsky —la cartografía microscópica de los circuitos cerebrales— parece estar cobrando realidad.
BIBLIOGRAFIA COMPLEMENTARIA AN EVALUATION OF CONFOCAL VERSUS CONVENTIONAL IMAGING OF BIOLOGICAL STRUCTURES BY FLUORESCENCE LIGHT MICROSCOPY. J. G. White, W. B. Amos y
M. Fordham, enJournal of Cell Biology, volumen 105, n.o 1, páginas 41-48; julio de 1987. M EMOIR ON INVENTING THE CONFOCAL SCANNING MICROSCOPE. M. Minsky en o
Scanning, vol. 10, n. 4, páginas 128-138; julio/agosto de 1988. HIGH-RESOLUTION IMAGING OF SYNAPTIC STRUCTURE WITH A SIMPLE CONFOCAL MICROSCOPE. J. W. Lichtman, W. J. Sun-
derland y R. S. Wilkinson enNew Biologist, vol. 1, n.o 1, páginas 75-82; octubre de 1989. CONFOCAL MICROSCOPY. Recopilación de Tony Wilson. Academic Press, 1990.
41
Construcción de un microscopio simple C. L. Stong
L
a falta de visión de Adán, cuando dio nombre a las criaturas de la Tierra (Génesis, 2:19), puso las cosas realmente difíciles para sus descendientes científicos.
adquirir un microscopio, ya que la zona más extensa por explorar está ocupada por los microorganismos. Pero la microscopía presenta para el aficionado otros atractivos
Si hubiera hecho lista de los animales según los nombraba, ¡cuán fáciluna sería ahora, por ejemplo, clasificar una preparación microscópica! Tal como están las cosas, el redescubrimiento y nueva denominación de los organismos del mundo ha supuesto una lenta y penosa labor. Aristóteles conocía unos 520 animales y Teofrasto podía identificar aproximadamente otras tantas plantas. Gracias principalmente a Linneo y a la invención del microscopio, nuestro catálogo actual ha aumentado hasta más de un millón de especies animales y como medio millón de especies de plantas. A pesar de lo cual el censo de la vida sobre la Tierra está lejos de ser completo; nadie sabe cuántos miles de especies quedan por descubrir y clasificar. La búsqueda para completar y ordenar la colección de organismos constituye uno de los desafíos más agradecidos de la ciencia. Y para los aficionados a ésta, se trata de un deporte apasionante. Se puede participar con sólo
además hallazgoen decasa nuevos organismos. Puededel construirse un microscopio útil, en menos de una hora, sin tener que desplazarse mucho para encontrar material de estudio. La saliva, por ejemplo, proporciona suficiente variedad de muestras a estudiar durante meses. Parece como si cuantos más organismos se hallasen e identificasen, más quedasen por descubrir. El problema de la miscroscopía no es tanto encontrar materia de estudio cuanto desarrollar la voluntad de querer dedicarse a una cosa concreta. Constantemente nos vemos tentados a explorar los nuevos campos que nos abre el instrumento. Supongamos que alguien derrama la sal y que sus cristales le llaman la atención. Uno empieza a pensar en la cristalografía. Basta con ir hasta la cocina para encontrar material más que suficiente para mantener su microscopio ocupado durante horas, examinando la morfología cúbica de la sal o la estructura brillante del azúcar. Una partícula de polvo, extraída de la punta de los zapatos, proporciona una amplia colección de minerales cristalinos: cuarzo, mica, sílice, calcita. Fragméntese un cubito de hielo en un vaso, póngase un trocito sobre el portaobjetos obsérvese rápidamente. Los cristales aciculares sey convierten casi instantáneamente en una esfera reluciente. Compruébese la pureza de la gota de agua resultante. ¿Contiene partículas de materia en suspensión o quizás organismos en estado latente? Examínense unos granos de pimienta, ¿ha sido adulterada, como a veces ocurre, mediante la adición de almidón? Si así es, se identificarán en seguida los granos de forma ovalada. ¿Se está interesado en las grasas? Contrastar el aspecto de una mancha de mantequilla con un poco de grasa de carne cocida. El interés inicial por los cristales puede ampliarse en cuestión de minutos. Los historiadores no están seguros de quién inventó el microscopio. Como les sucede a muchos productos técnicos, el instrumento parece haber evolucionado gracias a la acumulación de diversos conocimientos, muy entrelazados y difíciles de aislar. La lupa más antigua de las descubiertas hasta ahora se encontró en las ruinas de Nínive por el
1. Construcción de una lente en forma de perla para un microscopio de Leeuwenhoek
42
arqueólogo británicodeSircristal Austen Era una lente planoconvexa de Layard. roca toscamente pulida, que aumentaba bastante bien. Plinio el Viejo, en el año 100 d.C., citó la “propiedad de quemar que tenían las lentes hechas de cristal”. Pero la ciencia de la óptica, según se entiende modernamente, no se inició hasta el siglo XIII, aproximadamente. Roger Bacon parece haber sido el primero en sugerir sus principios. Sus escritos serían el fundamento
TEMAS 6
del microscopio y del telescopio; también es probable que se le deba la invención de las gafas. Bacon enseñó la teoría de las lentes a un amigo, Heinrich Goethals, el cual visitó Florencia en 1285. La información de Goethals pasó a un tal Salvina D’Armato a través de un fraile dominico, Spina. La tumba de D’Armato en la iglesia de Sta. Maria Maggiore lleva la siguiente inscripción: “Aquí yace Salvina D’Armato de los Amati de Florencia, inventor de las gafas. El Señor perdone sus pecados. A.D. 1317.” El microscopio simple —de una sola lente— debió de usarse tan pronto como se inventaran las gafas, e incluso pudo precederlas. No se sabe quién fue el primero en utilizarlo. Sin embargo, el primero que se sirvió de él para algunos descubrimientos importantes fue el holandés Antoni van Leeuwenhoek, nacido en 1632. Tras examinar algunos materiales corrientes con un instrumento simple de lente única, que él mismo había construido, escribió emocionado a la Royal Society de Londres acerca de todos los increíbles obje2. Microscopio de Leeuwenhoek adaptado tos que revelaba. a un portaobjetos moderno Descubrió “organismos culebreantes” y “gusanos” en el agua tomada del canal de su Delft natal y en raspados de sus dientes. Tal vez su contribución más impor- dadosamente. (El aumento de una lente de este tipo es tante fuese la observación de los glóbulos rojos de la san- aproximadamente igual al resultado de dividir 300 por su gre. Leeuwenhoek no sólo identificó los eritrocitos sino diámetro en milímetros.) La calidad de las lentes así fabrique también realizó dibujos precisos de su forma envián- cadas está lejos de ser uniforme; por consiguiente, debedolos, junto con las mediciones de su tamaño, a la Royal rán hacerse varias y seleccionar la mejor. Society. Puede dejarse un trozo del filamento de cristal unido a Cualquiera que tenga algún tiempo libre puede cons- la perla, utilizándolo luego para montar la lente en su truirse un microscopio como el de Leeuwenhoek. Su eje- soporte. Leeuwenhoek montaba sus lentes entre dos placas cución es fácil y confiere al principiante una valiosa expe- de latón, en las que había practicado un orificio. Pero a mí me ha resultado más cómodo no perforar más que una riencia en la preparación y manejo de los especímenes. Los materiales necesarios son una varilla de cristal, corta placa y pegar a ella la pieza de cristal por su vástago, con y delgada; una lámina metálica, por ejemplo de hierro o la perla ocluyendo el agujero. El agujero tiene que ser un latón, de unos 2,5 × 7,5 cm y de 1,5 mm de espesor; dos poco menor que la perla, para que no se escape la luz por tornillos pequeños con las correspondientes tuercas; un los bordes de la lente, cosa que disminuiría el contraste de tubo de pegamento de secado rápido y un poco de la imagen. La lente se fija a la placa con el pegamento. celofán. La distancia focal de esta lente minúscula es muy corta, En cuanto a la varilla de cristal, bastará una de vidrio lo que significa que el portaobjetos sobre el que se monte incoloro y transparente, de las utilizadas para agitar líqui- el espécimen tiene que hallarse muy cerca de ella, a veces dos en los laboratorios. Se pasa el centro de la varilla por casi tocándola. Para enfocar su microscopio y situar la la llama de un mechero Bunsen o de un fogón de la cocina, muestra en la posición correcta, Leeuwenhoek utilizaba introduciéndola poco a poco en la llama para evitar las un conjunto de tornillos que movían una punta de metal, fuerzas creadas al calentarla bruscamente, que causarían que servía de portaobjetos. Yo he sustituido la punta metálica por un trozo de celofán, pegado su rotura. El centro se pone rápidamente al rojo vivo y se torna maleaal mecanismo de ajuste. Las muesble. tras se adhieren al celofán. Retirar rápidamente la varilla del Por desgracia, el microscopio de fuego y estirarla, lo que producirá Leeuwenhoek carece de la comoun filamento del grosor de un cabedidad de observación de los instrullo y de unos 60 cm de longitud. mentos modernos. Para ver la imaUna vez enfriado, se rompe un gen aumentada hay que acercar fragmento, de unos quince centímucho el ojo a la lente. Roger Hayward diseñó un modelo mejor, metros, de la parte media del filamento. en el que se emplean un portaobjetos clásico, un espejo para goberUn extremo de este hilo vuelve a ponerse despacio en contacto con nar la luz y un control del enfoque más práctico. Estas modificaciones la llama. Se volverá incandescente casi en el acto, formándose una hacen más cómodo el manejo del pequeña perla. Se sigue introduinstrumento, pero no evitan que ciendo el filamento en la llama haya de acercarse el ojo a la hasta que el diámetro de la perla lente. sea como de 1,5 mm. Si se tiene en cuenta su primitivo La lente del microscopio ya está diseño, la cantidad de detalles que terminada. El aumento de la muestra el microscopio de Leeupequeña perla será de unos 160 3. Reproducción de uno de los microscopioswenhoek es asombrosa. Se supone fabricados por Van Leeuwenhoek que Leeuwenhoek consiguió trabadiámetros, si se ha preparado cui-
LA CIENCIA DE LA LUZ
43
jar con perlas más pequeñas, que daban mayores aumentos, pero pronto aprendió a valorar más la resolución que la ampliación, utilizando el aumento más bajo posible. Una imagen grande, pero borrosa, no ofrece ninguna ventaja sobre otra pequeña y también borrosa. Leeuwenhoek dictó, por lo menos, otra lección fundamental, a saber, la de la importancia de preparar cuidadosamente los objetos para su examen microscópico. Como escribiera el matemático Robert Smith en el siglo XVIII en su obra Compleat System of Optiks, “tampoco debemos olvidar una habilidad en la que él [Leeuwenhoek] sobresalió muy particularmente, la de preparar sus muestras de la mejor manera para ser observadas con el microsco pio; y estoy seguro de que cualquiera que examine algunas de estas mismas muestras a través de estas lentes, quedará satisfecho. Por lo que a mí respecta, he encontrado mucha dificultad en este punto, observando diferencias muy apreciables entre los detalles de la misma muestra preparada por mí y la preparada por el señor Leeuwenhoek, observadas con lentes de calidad muy parecida”. Desde la época de Smith, generaciones enteras de fabricantes de portaobjetos han desarrollado técnicas para la preparación de muestras, tan fascinantes casi como el manejo del propio microscopio. Algunas muestras grandes, como la raíz seca de un cabello o una pulga muerta procedente de un perro, no requieren otra preparación que la de colocarlas sobre un portaobjetos con una pizca de bálsamo del Canadá, o algún otro englobante para preparaciones, y cubrirlas con un delgado cristal. Losobjetos diminutos, como los glóbulos rojos de la sangre, pueden verse bastante bien si se extienden con cuidado sobre un portaobjetos y se protegen con un cubreobjetos. Pero losque son gruesos y opacos, los que son transparentes y los quecontienen agua en su estructura requieren un tratamiento especial. Cuando se quiere estudiar el interior de una muestra, hay que cortar su parte superior o, si es transparente, hay que iluminarla por debajo. Algunas muestras requieren secciones muy finas. Hay aparatos para cortar, llamados microtomos, que pueden cortar tejidos congelados o incluidos en cera en secciones casi tan finas como la longitud de las ondas luminosas. Además de resolver el problema de la iluminación, los cortes finos aclaran la imagen, ya que el microscopio aumenta en todas direcciones. No se nece-
INVESTIGACION Y CIENCIA DIRECTOR GENERAL Francisco Gracia Guillén EDICIONES José María Valderas, director ADMINISTRACIÓN Pilar Bronchal, directora PRODUCCIÓN M. a Cruz Iglesias Capón
Bernat Peso Infante Carmen Lebrón Pérez SECRETARÍA Purificación Mayoral Martínez EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1. a 08021 Barcelona (España) Teléfono (93) 414 33 44 - Telefax (93) 414 54 13 SCIENTIFIC AMERICAN
John Rennie Managing Editor; Press, Philip M. Yam, News Edito r; Ricki L. Rusting, Timothy M. Beardsley, Associate Editors; John Horgan, Senior Writer; Corey S. Powell, Electronic Features Editor; W. Wayt Gibbs; Kristin Leutwyler; Madhusre Mukerjee; Sasha Nemecek; David A. Schneider; Gary Stix; Paul Wallich; Glenn Zorpette; Marguerite Holloway, Contributing Editors. PRODUCTION Richard Sasso CHAIRMAN AND CHIEF EXECUTIVE OFFICER John J. Hanley PUBLISHER Joachim P. Rosler EDITOR IN CHIEF
BOARD OF EDITORS Michelle
44
sita ninguna máquina especial para cortar, pues una simple hoja de afeitar sirve para muchos tipos de muestras. Cuando un organismo es completamente transparente, a veces es necesario colorearlo o colocarlo dentro de una substancia refractora de la luz. El proceso de tinción es un arte en sí mismo, ya que siempre se produce una alteración química del organismo. Hay colorantes que afectan a una parte determinada de la célula, pero no a otras. Utilizando diferentes productos químicos se puede teñir el núcleo de un color y el citoplasma que lo rodea de otro. Hay muchas bacterias que sólo pueden distinguirse unas de otras por la forma en que captan un determinado colorante; ésta es la base, por ejemplo, de su clasificación en “grampositivas” y “gramnegativas”. La preparación de muestras para el microscopio ha originado su propia literatura especializada, con volúmenes enteros dedicados a temas tales como las técnicas de desecación, la limpieza, el blanqueado para eliminar los pigmentos que perturban la visión, los métodos de flotación de muestras en medios líquidos, la selección de cubreobjetos con propiedades ópticas que concuerden con las del instrumento o el pulido y ataque de las superficies metálicas para revelar su estructura cristalina. Procesos todos ellos que resultan casi tan numerosos y variados como los objetos que desfilan bajo la lente del instrumento. Después de haber construido y utilizado un aparato de Leeuwenhoek, es muy probable que se quiera progresar. Un microscopio compuesto clásico ahorrará mucho esfuerzo visual. Debe ser un instrumento de buena calidad, capaz de mostrar detalles pequeños. Sus aumentos serán acordes con la capacidad del principiante. Los objetivos de muchos aumentos suelen resultar decepcionantes, ya que su buena utilización requiere destreza.
BIBLIOGRAFIA COMPLEMENTARIA THE LEEUWENHOEK LEGACY. B. J. Ford. Biopress and Farrand Press. 1991. VAN LEEUWENHOEK, L’EXERCICE DU REGARD. Ph. Boutibonnes. Belin. París. MANUAL DE MICROSCOPÍA. M. Locquin y M. Langeron. Labor. Barcelona, 1985.
DISTRIBUCION para España: MIDESA
Carretera de Irún, km. 13,350 (Variante de Fuencarral) 28049 Madrid Tel. (91) 662 10 00
PUBLICIDAD
GM Publicidad Francisca Martínez Soriano Menorca, 8, semisótano, centro, izquierda. 28009 Madrid Tel. (91) 409 70 45 – Fax (91) 409 70 46
Cataluña y Baleares: Miguel Munill Muntaner, 339 pral. 1.a Prensa Científica, S. A. 08021 Barcelona Muntaner, 339 pral. 1.a – 08021 Barcelona Tel. (93) 321 21 14 Teléfono (93) 414 33 44 Fax (93) 414 54 13 para los restantes países:
Copyright © 1996 Prensa Científica S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor del libro. ISSN: 1135-5662 Dep. Legal: B-32.350-1995 Filmación y fotocromos reproducidos por Scan V2, S.A., Avda. Carrilet, 237 – 08907 l'Hospitalet (Barcelona) Imprime ROTOCAYFO, S.A. Ctra. de Caldes, km 3-Santa Perpètua de Mogoda (Barcelona) Printed in Spain - Impreso en España
TEMAS 6
Coherencia óptica María Luisa Calvo Padilla
Esta importante propiedad física está asociada a las fuentes de radiación luminosa y a los fenómenos producidos por su interacción y propagación. ¿Sobre qué fundamento descansa?
L
a luz desempeña un papel principal en nuestra existencia. Es un fiel mensajero que nos re vela múltiples aspectos de la vida en el planeta y su entorno. Cuanto mejor conozcamos su naturaleza, mejor comprenderemos el universo del que formamos parte. Nos proponemos analizar aquí uno de los aspectos más sutiles de la luz: la información implícita que lleva sobre las fuentes que la generan. Nos interesará también su capacidad de interaccionar consigo misma al propagarse a partir de la fuente de emisión, dando lugar a los fenómenos de interferencia. La luz nos informa acerca de la naturaleza de los obstáculos con los que interacciona cuando encuentra a su paso elementos materiales de muy diversa índole, tamaño y geometría, srcinando lo que se conoce como difracción por objetos rígidos. Los fenómenos de interferencia y de difracción constituyen el fundamento de la formación de imágenes en instrumentos ópticos: telescopios, microscopios, cámaras fotográficas, etc. Apli caci one s impo rtantes de est os fenómenos son también la espectroscopía como método de análisis espectral de fuentes de luz, tanto en su vertiente de espectroscopía interferencial como de espectroscopía por transformación de Fourier, que permite obtener el espectro de potencia de una fuente. Se diría que la luz encierra en su estructura una suerte de código del que pueden extraerse importantes datos acerca de su propia naturaleza y la estructura de la materia. Los fenómenos de interferencia y difracción fundamentan los principios básicos de la holografía y sus ramas de aplicación más específicas, como la metrología y la interferometría holográfica. Estas técnicas se están ampliando a métodos interferométricos que hacen uso no de luz visible, sino de partículas elementales, entre los que cabe destacar la interferome-
46
tría de neutrones, que srcina nuevos campos de la física interconectados entre la óptica clásica y la física de partículas: la óptica de neutrones. Si bien los primeros interferómetros de neutrones construidos en 1962 producían una baja calidad en la visibilidad de las franjas de interferencias, posteriores técnicas basadas en la reflexión de Bragg por cristales de silicio mejoraron bastante los resultados. Uno de estos experimentos, desarrollado en 1975 por el grupo de Samuel A. Werner, se fundamentaba en la puesta a punto de un dispositi vo topológicamente análogo al interferómetro de Mach-Zender, donde se opera con un separador de haz. A grandes rasgos, consiste en hacer incidir un haz de neutrones sobre un cristal de silicio, que actúa de separador, de manera que la red cristalina debe reflejar este haz bajo un ángulo particular cuyo valor depende de la longitud de onda del haz de neutrones y de la distancia entre planos de la red cristalina. A este ángulo se le conoce como ángulo de Bragg. Trabajando en estas condiciones se refuerza la energía reflejada y mejoran notablemente las mediciones. Este y otros experimentos han puesto de manifiesto que las leyes que rigen la interacción de haces de neutrones son las mismas que las de los campos macroscópicos. Mas, para entender bien estos métodos y experimentos obtenidos de la interacción de la luz con la materia, de la interacción de la luz consigo misma o con haces de partículas, hemos de conocer de antemano la naturaleza de la radiación y las consecuencias que de ella se derivan. Para ello hay que introducirse en el concepto de campo. En mecánica clásica, todos los fenómenos que llevan asociada interacción de partículas se describen mediante campos de fuerza. Cuando una partícula actúa sobre una segunda, crea un campo; cualquier otra partícula que se
encuentre en ese campo se verá sometida a la acción de una fuerza. Estamos hablando del concepto de campo clásico. En los fenómenos que describamos sobre interacción luz-luz y luzmateria no tendremos en cuenta los aspectos relativistas, según los cuales la interacción no puede darse en cualquier instante de tiempo. Ex ploraremos la naturaleza de los campos electromagnéticos clásicos para adentrarnos luego en algunas de sus características a la hora de analizar el origen, propagación e interacción de los campos de luz. August Fresnel, físico francés, puso de manifiesto en 1814 la naturaleza ondulatoria y transversal de la luz mediante experimentos que producían interferencias, difracción y polarización. Para interpretar sus resultados, Fresnel supuso que estas ondas se mantenían en un medio imperceptible, el éter. Fresnel imaginó la luz a la manera de un vector que representara un desplazamiento (propagación) en este medio ideal. En el siglo XIX se suponía que el éter constituía un medio elástico, o fluido, donde se generaban y propagaban las vibraciones.
C
ontra la teoría del medio elástico operaba la naturaleza transversal de la luz, es decir, las vibraciones que genera son siempre perpendiculares a la dirección que marca el movimiento de las ondas. No existen ondas de luz longitudinales. Lo comprobó ya otro físico francés, Etienne-Louis Malus, en 1808. Malus observó que, si un haz de luz blanca incide con cierto ángulo sobre la superficie pulida de un vidrio, después de reflejada se convierte en luz plano polarizad a, es decir, toda la luz vibra perpendicular a la dirección del haz, como si estuviera contenida en un plano de polarización perpendicular a la dirección de avance. Pero hasta 1864 J. Clerk Maxwell no dio la primera explicación satisfac-
TEMAS 6
toria al proponer una teoría que presentaba un doble requerimiento: las vibraciones de la luz son estrictamente transversales y existe una conexión entre luz y electromagnetismo. Maxwell expresó los resultados de su trabajo teórico en cuatro ecuaciones, que llevan hoy su nombre. Su desarrollo estaba basado en los resultados de las investigaciones llevadas a cabo por Hans Christian Oersted, Michael Faraday y Joseph Henry en experimentos que demostraron la inducción electromagnética, que vincula la electricidad con el magnetismo. La primera ecuación de Maxwell establece que un campo magnético puede ser inducido por la existencia de cargas libres (electrones) en movimiento. La segunda ecuación, equivalente y recíproca de la anterior, describe la inducción de una corriente eléctrica en presencia de un campo magnético variable, fenómeno observado experimentalmente por Faraday (ley de inducción). La tercera ecuación expresa la ausencia de cargas eléctricas libres en el vacío; finalmente, la cuarta establece la imposibilidad de
que haya polos magnéticos libres o monopolos. Las cuatro ecuaciones maxwellianas no dan directamente la magnitud del campo electromagnético, sino la proporción en que varía el campo eléctrico en las tres direcciones del espacio. En general, admitiremos que el campo electromagnético es la superposición de un campo eléctrico y un campo magnético. Estas ecuaciones fundamentales conducen a dos que describen la propagación, y en las cuales la velocidad de las ondas propagadas en el éter se calcula sucesivamente en términos de magnitudes eléctricas (unidades electrostáticas) y unidades electromagnéticas (basadas en el magnetismo). La determinación experimental de esta velocidad conduce al valor numérico c, que representa la velocidad de la luz en un medio con propiedades máximas de transmisión y mínimas de absorción, el vacío. Este resultado supone la confirmación de las ideas de Maxwell sobre la naturaleza electromagnética de la luz. A partir de estos experimentos las dos posibles naturalezas del éter se fundieron
en un continuo; la electricidad, el magnetismo y la óptica se fundieron, a su vez, en una sola ciencia.
L
as ecuaciones de Maxwell caracterizan la propagación de un campo óptico en el espacio libre, sin restricciones por lo que se refiere a las dimensiones idealmente infinitas del medio en el que se propaga. Pero si este medio tiene unas dimensiones y una geometría determinadas (por ejemplo, esférica, cilíndrica, etc.), hemos de introducir la condición de contorno. Si descomponemos idealmente el campo en dos direcciones, una perpendicular y otra tangencial a la superficie que marca la discontinuidad, la conservación del flujo de energía a través de la superficie requiere la conservación de ambas componentes. De esta manera añadimos al campo electromagnético una condición adicional, la de comportarse como un campo conservativo. Teóricamente, se tendría aquí una descripción completa de la propagación de un campo clásico. Queda, sin embargo, por considerar un factor importante. Los campos
1. MOTEADO LASER. Cuando observamos un fenómeno decoherente con las microdeformaciones de la superficie de la difracción producido por la interacción de un haz láser dediapositiva. Ha ocurrido, en efecto, un fenómeno de dispersión helio-neón con una diapositiva, provocamos un moteado láser. múltiple aleatoria, esto es, un proceso estadístico srcinado Este fenómeno, el granulado que cubre todo el fondo de la por las condiciones de coherencia espacio-temporal de la figura, se debe a la interacción múltiple del haz altamentefuente así como de la estructura del objeto.
LA CIENCIA DE LA LUZ
47
2. EVOLUCION en la calidad de las franjas de interferencia,ciones mecánicas. El movimiento de toda la estructura, esto en esta secuencia de fotografías obtenidas en un int erferómees, la suma de armónicos a distintas frecuencias, destruye las tro de Michelson, cuando se provocan artificialmente vibra-condiciones de coherencia. Al cesar las oscilaciones espurias,
ópticos llevan asociadas frecuencias de oscilación muy altas (10 14 hertz, o ciclos por segundo); significa ello que los detectores clásicos no pueden medir las magnitudes asociadas a los valores reales del campo eléctrico y el campo magnético. Para establecer una medida válida hemos de tomar un promedio temporal del vector de Poynting asociado al flujo de energía. (Este vector, que toma su nombre del físico Henry Poynting, define la dirección de propagación de la energía perpendicular al plano formado por el vector eléctrico y el vector magnético.) Este promedio debe tomarse en intervalos de tiempo grandes, comparados con los períodos de oscilación del campo óptico. Y se hace necesario establecer una relación entre el promedio temporal del vector de Poynting y la distribución de la intensidad asociada a un campo conservativo. ¿Cómo justificar físicamente la necesidad de operar con campos escalares? Al considerar un campo escalar se obvia un importante fenómeno asociado a la naturaleza vectorial de la luz: la polarización. En un tratamiento escalar se trabaja con una sola componente, ya sea del campo eléctrico o del magnético. Por ejemplo, si de las tres componentes del vector eléctricoE para las tres direcciones del espacio (E x, Ey y Ez) tomamos Ex, quiere decir que la energía del campo fluye en un plano perpendicular a la dirección x. Fuera de ese plano no habrá radiación o flujo de energía. La aplicación de una teoría escalar simplifica considerablemente la complejidad de trabajar con ve ct ore s de tr es co mp on ent es . Conduce, además, a interesantes resultados, válidos para explicar fenómenos de interacción de radiación. En 1970, Arvind Marathay y George Parrent analizaron en un interesante
48
trabajo el uso de la teoría escalar en óptica. Demostraron que la justificación de una teoría escalar para la propagación del campo electromagnético guarda relación directa con el concepto de medida. Así, la cantidad observable en un fenómeno óptico es la irradiancia (densidad de energía por unidad de superficie), una magnitud escalar.
S
e puede obtener una descripción completa de fenómenos de difracción, interferencia y propagación con una teoría escalar en términos de magnitudes observables. Para justificar esta descripción, se supone que el campo vectorial, E(t), sólo se identifica con una única componente escalar V(t). Pero ello no es suficiente. En la teoría escalar de la coherencia se define una relación directa entre las cantidades cuadráticas de las variables que representan el campo. Esta relación se establece como una correlación cruzada entre dos componentes vectoriales del campo electromagnético. Al resultado de esta operación se le conoce como matriz de coherencia mutua. Sus cuatro elementos son magnitudes escalares independientes que pueden ser medidas físicamente, ya que son proporcionales a la irradiancia del campo electromagnético. De esta forma, el uso de la teoría escalar se puede justificar diseñando experimentos en los cuales los fenómenos de interacción de la radiación no induzcan mezclas de componentes del campo vectorial E(t) y en los cuales no se hace necesario describir la polarización del campo. La representación más sencilla de V(t) es una función sinusoidal o cosinusoidal que denota su condición de campo oscilante como onda periódica en el tiempo y en el espacio. Su correspondiente represen-
tación compleja es una función exponencial. La representación tanto vectorial como escalar de una onda está sujeta a dos parámetros fundamentales: la amplitud y la fase. Podemos asociar el concepto de amplitud a una función que da cuenta de la energía que transporta la onda. Matemáticamente, el módulo al cuadrado de la amplitud compleja corresponde a la intensidad, que es la magnitud escalar que registran los detectores de radiación. Estos valores de la energía se miden en unidades radiométricas derivadas de unidades eléctricas, expresadas en watts por metro cuadrado. Si volvemos a la representación compleja de la onda escalar y tomamos el módulo cuadrado, observamos que se ha producido una pérdida de información acerca de los parámetros que la caracterizan. Aunque se obtiene la intensidad, se ha perdido la información relativa a la fase, es decir, a la naturaleza oscilante de la onda. Por tanto, los detectores de radiación habituales (sistema visual de vertebrados e invertebrados, fotomultiplicadores, placas fotográficas y toda la gama de detectores que basan su funcionamiento en el efecto fotoeléctrico) son detectores cuadráticos: no dan cuenta de las oscilaciones del campo emitido por una fuente, sino sólo del porcentaje de energía transportado. Para cuantificar la fase no basta con utilizar un fenómeno de propagación. Hay que realizar una operación más, la suma de dos ondas al menos; es lo que conocemos como fenómenos de superposición de ondas. Imaginemos una piscina olímpica donde se disponen a saltar dos nadadores. El agua de la piscina forma una superficie sin ninguna perturbación. En un primer cuadro, los nadadores saltan y llegan
TEMAS 6
nada frecuencia. Si el conjunto de átomos emite en fase y a la misma frecuencia, es decir, síncronamente, obtendremos una fuente macroscópica perfectamente monocromática y con un grado de coherencia máximo (máximo reforzamiento de la energía). En la naturaleza no existen fuentes de luz capaces de emitir radiación con una sincronización perfecta. En las estrellas, por ejemplo, la asincronía de su emisión de radiación es tal, que deberíamos considerarlas fuentes que emiten radiación incoherentemente. La radiación solar se caracteriza por su alto grado de incoherencia. De entre las fuentes disponibles, reaparecen las franjas. En general, las sólo hay una que se aproxima mucho mesas de trabajo para interferometría al comportamiento síncrono, y es la láser son antivibratorias. fuente láser. Diremos de ella que posee un grado de coherencia máximo. al agua en el mismo instante. Comien- Aunque su monocromaticidad tampoco zan a nadar a braza formando cada es perfecta, sus átomos emiten en una uno surcos o perturbaciones sobre la banda de frecuencias espectrales muy superficie del agua, como ondas esfé- estrecha; la anchura media de su ricas. Los deportistas crean perturba- espectro es casi inapreciable, por lo ciones síncronas, y ambas están en que su monocromaticidad también es fase. Si observamos la superficie del máxima. Vemos, pues, que un método agua, las dos ondas al superponerse de cuantificar la fase se basa en la forman depresiones (superposición medida del grado de coherencia de las destructiva) y puntos máximos de fuentes que emiten la radiación. En avance de la perturbación (superposi- términos más rigurosos, la física ción constructiva): estamos ante un matemática enuncia que la fase perfenómeno interferencial. La onda tenece al espacio de los números y es, resultante se distribuye en mínimos por tanto, un observable, aunque no (puntos donde la energía se anula) y en valor absoluto sino máximos (puntos donde la energía se relativo, como diferenrefuerza). cia de fases. Para tener una idea upongamos un segundo cuadro. De intuitiva de observable nuevo sobre la superficie perfecta se hace necesario del agua se van a lanzar los nadado- recurrir a una escala de res. Pero ahora no lo hacen en el tiempos. Imaginemos mismo instante; uno de ellos salta un fenómeno de superdécimas de segundo antes que el otro. posición de varios treLas perturbaciones que forman ambos nes de onda que emiten nadadores son asíncronas, es decir, no a distintas frecuencias. hay coincidencia en las fases, y ya no El tren de ondas resulobservaremos el fenómeno de máxi- tante aparecería como mos y mínimos, sino unas figuras dis- periódico para un obsertorsionadas. Al no haber coincidencia vador cuya escala de temporal en las fases, no se producen tiempos fuera mayor las interferencias. que un período de la Sustituyamos a los deportistas por oscilación. Pero si la átomos de una fuente, de modo que observación se hace en cada uno emita energía en la forma de una escala de tiempos un fotón o cuanto de luz a una determi- inferior al período, el
observador no podrá predecir en el tiempo el comportamiento de este tren de ondas. Se entiende, pues, que el observable tenga la particularidad de poder ser predeterminado en el tiempo; es decir, podemos predecir su evolución temporal.
E
l comportamiento matemático de la fase dista mucho de ser trivial. Se requieren unas herramientas matemáticas que presenten determinadas propiedades, puesto que se trata de representar una magnitud compleja. Según estableció E. C. George Sudarshan, podemos representar la fase como una función de distribución de probabilidades, por una distribución gaussiana por ejemplo. La representación de una magnitud en el plano complejo nos lleva a hablar del fasor, que describe, en cada instante, el punto del espacio donde se encuentra la perturbación. Por ejemplo, el fasor de una onda exponencial avanza como un “sacacorchos”, o podría materializarse como un “muelle”, capaz de deformarse en el tiempo dependiendo de su grado de coherencia. La magnitud que define el grado de coherencia de una fuente emisora de radiación es un escalar análogo al campo vectorial en términos de observables. La correlación temporal de dos campos vectoriales medida en un
S
3. COMPARACION de tipos de franjas de interferencias producidas por un interferómetro de Michelson ( ) con luz blanca, a la izarriba quierda, y con una lámpara de vapor de mercurio, a la derecha. La visibilidad es máxima ya que sólo está asociada a una longitud de onda (línea lambda, de 550 nanómetros) del espectro de la fuente de mercurio. En las franjas inferiores se observa un mayor detalle en la estructura fina del espectro y la anchura de banda. Ello es debido a que las interferencias se han producido en un interferómetro de Fabry-Perot. En general, la visibilidad de las franjas es proporcional al grado de coherencia de la fuente.
LA CIENCIA DE LA LUZ
49
50
TEMAS 6
intervalo finito de tiempo se representa matricialmente como la matriz de coherencia. La llamada función de coherencia mutua es la traza (o diagonal) de esta matriz. Así, en experimentos que conllevan correlación de campos ópticos, el observable está relacionado con esta función, la cual a su vez está directamente relacionada con la medida de la irradiancia. La función de coherencia mutua es, pues, la magnitud escalar que conecta con el campo vectorial. No deja de ser, sin embargo, un hecho sorprendente el que, si bien la luz tiene naturaleza vectorial, el tratamiento de algunos fenómenos ópticos considerando la luz como campo escalar conduce a respuestas correctas con respecto a las medidas de irradiancia. No es fácil establecer una relación o identificar la magnitud escalar utilizada en la descripción de estos fenómenos con las componentes del vector eléctrico E(t). Para que exista tal identificación se requiere que los fenómenos ópticos no presenten cambios en los estados de polarización. Por ejemplo, la descripción propuesta no sería válida para fenómenos de difracción de luz por un cristal en cuya estructura haya realojamiento de iones al paso de la radiación y consecuentemente variaciones en los planos de polarización de la luz modulada dentro del cristal. En resumen, puede establecerse una teoría escalar para describir fenómenos ópticos de difracción, interferencia y propagación, mediante la factorización de la función de coherencia mutua. Pero dicha factorización implica una monocromaticidad total de la fuente, algo imposible en física. Habrá, pues, que introducir artificialmente algunas condiciones de incoherencia. Desde los comienzos del estudio de las propiedades matemáticas de la
función de coherencia mutua se vio el interés de analizar la situación en que ésta puede representarse como producto de dos funciones independientes. En 1961, Leonard Mandel estableció las condiciones de validez de dicha representación. Y así se comprobó que, a partir de dos haces de luz “espectralmente puros” (con función de coherencia reducible), se obtenía otro haz “espectralmente impuro” (con función de coherencia no reducible). En efecto, tomemos dos haces de luz con idénticas propiedades. Si los recombinamos o superponemos para producir interferencias, y el haz resultante reproduce las características de los espectros individuales de ambos haces sin recombinar, diremos que el campo resultante es espectralmente puro. Si no se cumple esta propiedad, entonces se comportan como espectralmente impuros.
dio. Si los campos que generason impuros, en cada franja se observará una distribución de colores. Esta distribución cromática se repetirá periódicamente y creará una figura de interferencia donde aparece un mapa cromático repetitivo, que no debe confundirse con las franjas coloreadas que se observan al descomponerse la luz blanca por la dispersión. Lo que define a un campo espectralmente impuro es la periodicidad con que aparecen las franjas coloreadas. Hasta aquí, hemos venido entendiendo el concepto de coherencia vinculado a la capacidad de una fuente de radiación para producir fenómenos interferenciales. Pero ya en 1956 Handbury Brown y Richard Twiss descubrieron que los fotones, o cuantos de luz, aislados e independientes, interferían y podían detectarse simultáneamente, lo que llevó a la revisión del concepto clásico de coherencia; así esde el punto de vista matemá- nació la idea de que la correlación tico, la función que representa la entre fotones es de naturaleza estacorrelación entre dos campos cumple dística, lo que posibilitaba medir la unas propiedades particulares, si hay correlación entre fluctuaciones de la pureza espectral. Para describir la intensidad entre dos puntos diferenpureza consideraremos un producto tes del espacio. de dos funciones. Una función indica ¿Con qué probabilidad se localizan el grado de correlación para la fuente los fotones que interactúan en el espaluminosa con una anchura de banda cio y en el tiempo? ¿Hasta qué grado muy estrecha (fuente cuasimonocro- sabemos que el fenómeno será obsermática), y está asociada a la coheren- vable? La naturaleza dual de la luz cia temporal. La otra función, que como onda-corpúsculo nos recuerda multiplica a la anterior, constituye que existe una relación de indetermiuna función de correlación que repre- nación entre las imprecisiones asociasenta el grado de correlación para un das al número de fotones y a la fase de intervalo de tiempo dado (asociada a la onda electromagnética. En ese la coherencia espacial). En estas con- marco cuántico, la coherencia óptica diciones se dice que la función de es el conjunto de propiedades de correcorrelación es reducible. lación estadística entre los elementos Podemos evaluar el grado de pureza de los campos ópticos. espectral realizando mediciones en un La primera comprobación llevada a espectroscopio. El análisis de las fran- cabo por Brown y Twiss encontró intejas aisladas nos dará una idea de la resantes aplicaciones en astrofísica y composición espectral de la luz de la radioastronomía. Más tarde, desarrofuente en estullaron el interferómetro estelar de
D
4. SECUENCIA DE FRANJAS de interferencia, obtenida en un interferómetro que opera por división del frente de ondas. En ellas se observa otro fenómeno de interés para la cuantificación de la coherencia de una fuente: su grado de coherencia espacial. Para realizar el experimento, se sitúa delante de la fuente (lámpara de sodio) un rendija estrecha de anchura variable. A continuación, el biprisma divide la luz en dos frentes que, al superponerse, dan lugar a las interferencias. Si abriendo progresivamente la rendija se observa ahora en las vamos siguientes que disminuye la visibilidad. Si seguimos abriendo la rendija llegará un momento en que la visibilidad es nula (no hay franjas), pues habremos llegado a una anchura tal, que la fuente ha perdido su grado de coherencia espacial. Cuanto más puntual sea la fuente, mayor será la visibilidad de las franjas de interferencia que se producen. El único cero de visibilidad corresponde a la última observación. Al ser la fuente cuasimonocromática no se obtienen mínimos intermedios de visibilidad cero. En este experimento, y en el de la figura 5, nos ha ayudado Alberto Varela Vargas.
LA CIENCIA DE LA LUZ
51
mico. La probabilidad de encontrar el sistema en cierto estado de radiación sigue una ley de Gauss. Tales fuentes de distribución gaussiana son estacionarias. Dicho de otro modo, nuestro conocimiento de las mismas no depende del srcen de tiempos elegido al realizar una observación o detectar la radiación que emiten en un proceso de correlación, sino sólo de la diferencia entre pares de instantes. Por ser estacionarias y hallarse sometidas las fuentes naturales de radiación óptica a fluctuaciones muy rápidas, la correlación entre campos acontece en un tiempo de detección brevísimo, inferior incluso al tiempo de respuesta mínimo de un detector clásico. Estos detectores miden valores medios de emisión, lo que obliga a realizar múltiples medidas correspondientes al mismo experimento, es decir, a la misma distribución, para alcanzar cierto grado de certeza. Se trata de conseguir una media de con5. LONGITUD FINITA de los trenes de onda luminosos emitidos por una fuente; en junto, que en el caso particular de este caso se trata de una lámpara de sodio a baja presión que emite con un espectro campos estacionarios puede susticuya línea espectral más energética es de 589 nanómetros, y que corresponde al tuirse por medidas tomadas en interdoblete amarillo anaranjado. El interferómetro de Michelson arriba, ( a la izquiervalos de tiempo fijos. da) tiene un tornillo micrométrico que actúa sobre uno de los espejos. En la posición inicial, cuando los caminos ópticos recorridos entre los dos brazos del interferóme-La descripción clásica de la coheestá, pues, ligada a la naturatro están compensados, la visibilidad de las franjas es máxima. Si desplazamos rencia el espejo móvil por medio del tornillo, se observa una disminución progresiva en leza la de las fuentes y a los instrumenvisibilidad de las franjas hasta una posición entre los espejos para la cual la visibitos de medida utilizados. Pero las lidad de las franjas se hace cero. fuentes de radiación que generan campos ópticos clásicos son fuentes intensidad. Los gigantescos reflecto- tuaciones de la intensidad eran pro- térmicas, sujetas a las leyes de la terres instalados en Narrabri, en Nueva porcionales a una correlación de modinámica, en cuyo seno nace la Gales del Sur, captaron señales de cuarto orden, y pudieron medirse con noción de entropía de la radiación. Sirio. Se obtuvo un valor para el diá- dos fotodetectores e instalando un Podemos admitir que la entropía del metro angular de Sirio que fue esti- retardador de tiempos sobre uno de haz resultante después de la superpomado en 6,9 × 10 –3 segundos de arco. los brazos del interferómetro. sición es la suma de las entropías de Desde el punto de vista del fenómeno los dos haces que se han recombinado. de la correlación entre campos ópticos, l experimento con Sirio reveló que Sin embargo, esto no es absolutaeste experimento puso de manifiesto la recepción de luz incoherente mente cierto, ya que los haces de luz la posibilidad de alcan zar correla- por dos detectores independientes no son total sino parcialmente coheciones de orden superior. La correla- mostraba una correlación en el espa- rentes y, por ende, sólo parcialmente ción entre intensidades srcina una cio y en el tiempo, y podía describirse se correlacionan. estadística entre campos de orden como un fenómeno de interferencia. Para entenderlo mejor, imaginemos superior a dos. Brown y Twiss describieron esta una red de difracción formada por un La correlación clásica de segundo correlación de cuarto orden para dis- número muy elevado de trazos infiniorden, definida en términos de la fun- tintos instantes de tiempo y distintos tamente estrechos, capaz de difractar ción de coherencia mutua, describe puntos del espacio analizando la la luz y descomponerla en un gran efectos que dependen de correlaciones correlación de la fotocorriente emitida número de ondas difractadas en todas entre campos en dos puntos espacio- por los detectores de luz. En 1954 las direcciones del espacio. La entrotemporales. Si la correlación es de Robert Dicke establecía una descrip- pía de las ondas difractadas será igual orden N, los efectos se describen en N ción paralela a la anterior, al señalar a la entropía del haz que ha incidido puntos espacio-temporales, y se nece- que los átomos de un gas excitado en la red antes de difractarse. Aquí, sitará un número elevado de fotode- deben abordarse aislados, sometidos las ondas difractadas están totaltectores. La intensidad o corriente a cada uno de ellos a las leyes de la mente correlacionadas. La difracción la salida del correlador será propor- mecánica cuántica. Así demostró la por una red de trazos es un fenómeno cional a la probabilidad de detección existencia de correlación angular en reversible, mientras no haya pérdida coincidente de N fotones por los N la distribución de los fotones emitidos o disipación de energía srcinada por fotodetectores en instantes de tiempo por el gas en una fuente térmica. Las otros procesos distintos. Cada onda correlativos. Una correlación de orden fuentes de radiación, en efecto, que- emite de forma independiente, con su superior pone de manifiesto las rápi- dan caracterizadas por la independen- entropía propia. das fluctuaciones de la intensidad. En cia estadística de los trenes de onda Hasta ahora no nos hemos salido de el experimento de Narrabri, las fluc- emitidos a partir de cada proceso ató- un tratamiento semiclásico de la
E
52
TEMAS 6
Variación de la visibilidad de las franjas con la anchura de la fuente
E
n el gráfico inferior, simbolizamos con V(d) la variación de la visibilidad y con d, la anchura de la rendija. Los valores ilustrados corresponden al experimento de la figura 5. De forma aproximada, suponiendo monocromaticidad máxima, esta función se puede ajustar a la expresión:
V(d ) = sen (kr) kr
siendo : k = 2 × π/λ, V(d ) es función de diferencia de coordenadas de posición: r=
d(x1 – x2)
z
siendo x1–x2 la distancia entre las dos fuentes virtuales producidas por el biprisma; z, la distancia desde la fuente al plano de observación; r, una coordenada de posición reducida, y k, el módulo del vector de onda. Sépase, pues, que el producto kr es adimensional. Un grado de coherencia espacial que tiene la dependencia en r observada obedece las leyes de escala (factor de escala).
V (d) 1,0
0
d
Ejemplos de fuentes que satisfacen esta ley son las f uentes planas, las secundarias (éste es el caso del experimento), las cuasi-homogéneas.
radiación: la entropía de una fuente luminosa térmica está basada en los principios de la mecánica cuántica estadística, mientras que el campo emitido sigue recibiendo una interpretación clásica. Una descripción cuántica abordaría la fuente y el campo desde la perspectiva del comportamiento aislado de cada átomo emisor y cada fotón radiactivo. De la simbiosis entre la óptica clásica y la física cuántica emergió la óptica cuántica. En la descripción cuántica de la coherencia óptica se aplican los principios de la teoría cuántica de campos. La cuantificación del campo electromagnético se puede establecer considerando que las amplitudes clásicas asociadas se comportan como operadores que siguen unas reglas de conmutación,
LA CIENCIA DE LA LUZ
tal como estableció Louis de Broglie en 1939. El estado estadístico de un campo de radiación define un operador. Cada operador representa un estado excitado de un átomo fuente, con una probabilidad de transición de un estado inicial a un cierto estado final no conocido. Las medidas efectuadas se realizan sobre un operador densidad. La función de correlación cuántica se expresa según este operador afectado por los operadores propios del campo cuantificado. Su significado físico es la tasa de recuento de electrones localizados en puntos del espacio y en instantes de tiempo arbitrarios. Representa, pues, la probabilidad de detección simultánea y asegura la coincidencia máxima de la detección de fotones en todos los puntos del campo.
¿Cómo establecer un principio de correspondencia entre las descripciones clásica y cuántica? Tomemos la función de correlación cuántica. Para N = 1 la función de correlación cuántica representa la correlación entre fotones obtenidos a partir de electrones libres. Estos fotoelectrones forman una corriente medible en un detector clásico, y, así, para N = 1 hay equivalencia. En el experimento de Brown y Twiss la correlación tiene un orden N mayor que 1. La detección tiene lugar en dos fotodetectores que producen dos corrientes independientes. La corriente total es el producto de ambas corrientes en instantes de tiempo afectados de un retardo adicional. Esta es la operación que se realiza en el correlador del dispositivo experimental. El grado de coherencia o grado de correlación está expresado aquí como la diferencia entre la intensidad instantánea y la intensidad total que sale del correlador y que puede definirse en términos de la diferencia entre la función de correlación cuántica de orden N = 2 y la de orden N = 1 elevada al cuadrado. Para observar este fenómeno, es necesario que el tiempo de resolución de cada detector sea inferior al tiempo de coherencia del campo de radiación que proviene, en este caso, de una estrella. Se trata, en realidad, de un excedente de correlación estadística con respecto a la correlación “al azar”. A partir del principio de correspondencia mecánico-cuántico, según el cual la teoría clásica es macroscópicamente correcta y la teoría cuántica debe tender asintóticamente hacia la teoría clásica en el límite para números cuánticos elevados, se puede establecer que, en general, no existe correspondencia directa entre los estados clásicos y los cuánticos.
E
l desarrollo de nuevas fuentes láser de alta potencia y de nuevos detectores ultrarrápidos y estables hace prever la posibilidad de descubrir nuevos efectos asociados a la coherencia de las fuentes de luz.
BIBLIOGRAFIA COMPLEMENTARIA THEORY OF PARTIAL COHERENCE.
Mark J.of Beran y George B. Parrent Jr., Society Photo-Optica l Instrumenta tion Engineers, Prentice Hall, Inc., 1974. THE INTENSITY INTERFEROMETER. R. Handbury Brown FRS. Taylor and Francis Ltd., Londres, 1974. INTERNATIONALTRENDS IN OPTICS. Dirigido por Joseph W. Goodman. Academic Press, Inc., Nueva York, 1991.
53
Hologramas de luz blanca Emmett N. Leith
Existen varios modos de ver hologramas con luz incoherente normal, que hacen superflua cualquier dependencia de la luz coherente del láser y de la luz casi coherente de la lámpara de arco de mercurio
L
a técnica de la holografía, o fotografía por reconstrucción de frentes de onda, fue inventada en 1947 por Dennis Gabor como una posible forma de mejorar el poder de resolución del microscopio electrónico, si bien no suscitó atención hasta los años setenta. Por aquella época Juris Upatnieks y el autor introdujeron una serie de innovaciones que hicieron posible extender el principio de Gabor más allá de sus aplicaciones iniciales. Por ejemplo, el uso del método del haz de referencia fuera del eje permitió obtener imágenes holográficas de mejor calidad. Aprovechando que la luz del láser es intensa y muy coherente pudimos obtener por primera vez imágenes holo gráf icas de gran ver ismo de var ios tipo s de obj etos reflectantes tridimensionales. El desarrollo posterior de la holografía ha estado muy ligado al del láser, por cuanto la demanda de mayores y mejores hologramas de escenas más amplias y abundosas ha tendido a incrementar la necesidad de coherencia de las fuentes de luz empleadas. El deseo paralelo de hacer la holografía más práctica, y por tanto más universal, indujo a la búsqueda de métodos que redujeran las exigencias de coherencia del proceso. Pronto hubo hologramas que podían observarse con luces incoherentes como la solar o la luz blanca de una lámpara de incandescencia corriente, y no sólo con la ayuda de la luz coherente de un láser, lo que sorpren dió a muchos. Voy a explicar aquí por qué la luz coherente ha desempeñado un papel tan importante en la holografía; hablaré después de cómo difieren las exigencias de coherencia según las distintas clases de hologramas y, finalmente, describiré algunos progresos que han contribuido a la reducción sustancial de esta exigen cia, tanto para ver como para hacer hologramas. La formá más conocida de holo-
54
grafía es un proceso relativamente directo. La luz coherente emitida por un láser se divide en dos haces. Uno se usa para iluminar un objeto; la parte del rayo que éste refleja incide sobre una placa fotográfica. El otro haz se dirige directamente a la placa por medio de un espejo. La luz procedente del espejo, llamada rayo de referen cia, se combina en la placa con la luz reflejada por el objeto para formar una imagen compleja de interferencia. La placa revelada que contiene esta imagen es el holograma. Cuando se ilumina un holograma de este tipo con sólo el rayo de referencia, los rayos de luz que atraviesan la placa son transmitidos o absorbidos selectivamente de manera que creen en el haz emergente una componente que reproduce las ondas luminosas srcinales reflejadas por el objeto cuando se formó el holograma. Un observador que vea estas ondas las percibirá como si emanasen del objeto srcinal y, por tanto, “verá” el objeto como si estuvier a real mente presente (véase la figura 6).
L
a exigencia de coherencia deriva de que el holograma es una grabación de la interferencia de dos ondas y en general, pero no siempre, la luz coherente produce imágenes de interferencia y la incoherente no. Esta circunstancia dificultó mucho el desarrollo de la holografía, sobre todo en lo relacionado con su exhibición, pues las fuentes de luz coherente no sólo
son más caras que las normales, sino también más incómodas de manejar. Cualquier reducción del requisito de coherencia a la hora de la reproducción tendría mucha importancia para la holografía de exhibición. ¿Cuál es la diferencia entre la luz coherente y la incoherente? Hay dos tipos de coherencia, temporal y espacial, y se dice que la luz es coherente cuando posee ambos. La luz temporalmente coherente es la luz monocromática, que sólo tiene una longitud de onda. La luz espacialmente coherente es la que procede de una fuente puntual o puede localizarse en un punto. La fuente más usual de luz coherente es el láser, pero también puede obtenerse a partir de fuentes incoherentes, como había que hacer antes de la invención de éste. La coherencia espacial puede conseguirse, por ejemplo, situando una abertura muy pequeña delante de la fuente, de modo que la luz proceda toda de ese punto. Para logar la coherencia temporal hay que colocar un filtro de color ante la fuente, de forma que sólo se transmita la luz de una banda espectral estrecha. Ambos procesos implican malgastar la mayor parte de la luz inicial; de ahí que se necesite una fuente de luz incoherente extremadamente intensa para obtener una pequeña cantidad de luz coherente. La lámpara de arco de vapor de mercurio constituía una de las mejores fuentes de luz coherente antes del láser. Su arco es intenso y suele tener unos pocos milí-
1. FOTOGRAFIAS ENaparece “ARCOen IRIS” por Stephen Benton y Fritz Goropágina ( DEL HOLOGRAMA opuesta ). Aunque tresconstruido colores diferentes, se fotografió con luz blanca de una lámpara incandescente de filamento de tungsteno transmitida por el condensador de un microscopio. Los tres colores diferentes se deben a que el color del holograma cambia a medida que la cámara (o el ojo) sube o baja; el holograma en cuestión se fotografió con la cámara en tres posiciones verticales distintas. Cuando la cámara se mueve horizontalmente de un lado a otro aparece un rasgo característico de todos los hologramas: la paralaje, o desplazamiento aparente de los objetos de una escena tridimensional, cuando se contempla el holograma desde ángulos diferentes, desplazamiento que se advierte en cada uno de estos tres pares de fotografías. El holograma se hizo según el diagrama de la figura 15.
TEMAS 6
LA CIENCIA DE LA LUZ
55
metros de diámetro, además de que no emite luz de espectro continuo, sino en varias bandas espectrales estrechas. Las técnicas emplea das para obtener luz coherente con una lámpara de arco de mercurio producen, pues, menos pérdidas que si la fuente fuera, por ejemplo, un filamento incandescente de tungsteno. La producción y la contemplación de los hologramas srcinales de Gabor se hicieron con lámparas de arco de mercurio. Los objetos eran bastante sencillos: unas diapositivas con rótulos opacos y sin escala de grises. Una parte de la luz incidente se hacía pasar por superficies abiertas, relativamente amplias, y servía de haz de referencia. La luz se difractaba o dispersaba en las proximidades de las líneas oscuras que formaban las letras, esparciéndose hasta hacerlas irreconocibles en el plano donde se grababa el holograma. Estos hologramas no resultan impresionantes vistos ahora, pero constituyeron una demostración convincente de un nuevo e interesante principio de la óptica y Gabor recibió el premio Nobel de física de 1971 por su invento. Los primeros hologramas de Gabor no exigían una gran coherencia. Los requisitos de coherencia se calculan generalmente mediante consideraciones bastante elementales sobre la realización y la contemplación de los hologramas. La luz dispersada por cada elemento resolutivo (el punto más pequeño distinguible en el objeto) interfiere con el haz de referencia no dispersado para srcinar una imagen de difracción circular, consistente en una serie de anillos concéntricos, alternativamente brillantes y oscuros, que se van haciendo más tenues a medida que nos alejamos del centro. Es así como se dispersa la luz procedente de cada elemento resolutivo, pero las imágenes de los puntos próximos se superponen, formando otras más complejas. El holograma es la superposición de muchas imágenes elementales, una por cada elemento resolutivo del objeto. El tamaño del círculo de difracción 2. HOLOGRAMA DE LUZ BLANCA de Denisyuk, realizado por el investigador ruso Denisyuk y fotografiado desdeYu. dosN.ángulos verticales distintos para demostrar no sólo la paralaje vertical conseguida con este método sino también el cambio abrupto del color de la imagen percibida cuando se contempla desde dos direcciones diferentes. Estos hologramas se ven con luz reflejada, procedente de una fuente puntual, que en este caso era un pequeño foco incandescente véase ( la figura 14 ).
56
TEMAS 6
básico es proporcional a la longitud de onda de la luz. Si es policromática, es decir, si hay más de una longitud de onda, se puede suponer que cada una de las longitudes de onda forma su propio conjunto de imágenes de difracción, una por cada elemento resolutivo del objeto (véase la figura 8). Como el tamaño de las imágenes correspon-
dientes a diferentes longitudes de onda es diferente, un haz que tenga una gama amplia de ellas emborronará el resultado, siendo las líneas más finas las más borrosas. La anchura aceptable de la banda espectral se hace más estrecha al aumentar la distancia entre el objeto y el holograma, o al reducir el tamaño del ele-
mento de resolución. La relación entre el tamaño de la imagen de difracción y el tamaño del elemento resolutivo se llama a veces razón de expansión, ya que cada uno de estos elementos se difunde por tal relación para formar el holograma. Puede demostrarse que, para que semejante emborronamiento alcance valores mínimos, la anchura
3. HOLOGRAMA CORRIENTE realizado con luz de 4 focos deizquierda, es una exposición doble; se hizo cubriendo primero luz diferentes para ilustrar la importancia de la coherenciauna pequeña parte del holograma con luz blanca emitida por en el proceso holográfico tradicional. La fotografía superior, una lámpara de arco de circonio. La difuminación de los coizquierda, muestra el holograma visto con la luz roja muylores se produce porque cada longitud de onda del espectro coherente de un láser de helio-neón. La parte superior, dere-continuo de la luz blanca forma su propia imagen, estando cha, lo muestra con luzde policromática menos ligeramente desplazadas entre sí. La parte previaemitida a variasvisto longitudes onda discretas por coherente dos focostodas menteellas cubierta del holograma se reemplazó luego por un filtro diferentes. La imagen roja está formada con luz del láser deverde de banda estrecha y se cubrió el resto del holograma. helio-neón; las azules, verdes y ámbar con luz de una l ámparaLa segunda toma, hecha con ayuda del mismo foco de luz de arco de mercurio. El desplazamiento de las imágenes blanca de arco de circonio, revela nítidamente una imagen correspondiente a las diferentes longitudes de onda se debeverde de la escena srcinal. La fotografía de la parte inferior, a que este tipo de hologramas, llamados hologramas excéntri-derecha, vuelve a mostrar el holograma iluminado con el foco cos o de frecuencia portadora, actúan como una red de difracde luz blanca del arco de circonio, pero con una red especial ción, desviando la luz proporcionalmente a su longitud deintercalada entre el foco y el holograma para compensar la onda y, por tanto, descomponiendo el haz de luz incidente endispersión cromática. La imagen es ahora bastante nítida, sus colores componentes. La fotografía de la parte inferior,sobre todo en el centro, donde la compensación es mejor.
LA CIENCIA DE LA LUZ
57
4. HOLOGRAMA EN ARCO IRIS DE LA MISMA ESCENA queresultante varía de color a lo ancho de la escena (de ahí la aparece en las fotografías de la página anterior. Cuando seexpresión de holograma en arco iris). El foco de luz blanca contempla un holograma de este tipo con luz blanca transmi-utilizado en este caso fue una lámpara de filamento de tungstida desde una distancia de unos 90 cm, la imagen holográficateno. El humo hace visible el haz de luz.
5. PRIMER PLANO DEL HOLOGRAMA EN ARCO IRIS de la una apariencia uniforme en toda la imagen. Si se desplazara fotografía superior de esta misma página, obtenido con la misma lateralmente la posición de mira, el color cambiaría, pero seguifuente de luz blanca de filamento de tungsteno, pero en este ría siendo uniforme. La escena representada en los ho logramas caso desde una distancia de unos 30 centímetros; el color tiene de esta página y de la anterior tiene 50 cm de ancho.
58
TEMAS 6
de la banda espectral debe ser menor que cuatro veces la longitud de onda media dividida por la razón de expansión.
P
or ejemplo, si se toma como objeto una transparencia cuyo detalle más fino sea de 0,01 milímetros, se ilumina con un haz de luz que tenga una banda de longitudes de onda centrada en los 5000 angstrom y se elige una separación entre el objeto y el holograma tal que se obtenga una razón de expansión de 50, resulta aceptable una dispersión de 400 angstrom en la longitud de onda. Ello representa la octava parte del espectro visible completo y un haz que cubriese tal anchura de banda difícilmente podría llamarse coherente. Una lámpara de arco de mercurio ordinaria emite una línea de color verde intenso de uno o dos angstroms de anchura, por lo que tiene más coherencia temporal de la necesaria para construir hologramas. Otro método para describir la exigencia de coherencia temporal es hacerlo en términos de la longitud de coherencia, una cantidad básica que representa esencialmente la distancia a la que la frecuencia de vibración de una onda conserva su precisión; las ondas monocromáticas tienen longitudes de coherencia grandes, al contrario que las policromáticas. Si se divide un rayo de luz en dos partes, que luego volverán a recombinarse, se producirán los efectos de interferencia siempre que la diferencia entre los dos trayectos ópticos no exceda la longitud de coherencia de esa luz. Aun que est e mod o de des cribir la coherencia temporal parezca no tener relación alguna con el anterior, basado en la superposición de las franjas de interferencia formadas por diferentes longitudes de onda, la verdad es que ambas formulaciones son equivalentes. La etapa de reconstrucción, o de contemplación, holográfica viene a ser esencialmente una reproducción de la etapa de formación del holograma, aplicándose las mismas consideraciones de coherencia temporal. Cuando incide sobre el holograma un haz de rayos de luz colimados, o paralelos, cada imagen de difracción elemental se apropia de una porción de la luz incidente, convirtiéndola en un frente de onda esférico que parece emanar del elemento objeto srcinal; a la imagen así formada se la llama “imagen virtual”. La imagen de difracción elemental grabada tiene un comportamiento muy parecido al de una lente que enfocase la luz incidente en un
LA CIENCIA DE LA LUZ
6. LA FORMA MAS CORRIENTE DE HOLOGRAFIA es la aquí representada, que se basa en la luz coherente del láser. En la fase de construcción arriba ( ), se divide un rayo láser en dos partes. Una se usa para iluminar el objeto; parte de la luz reflejada por éste incide sobre una placa fotográfica. La otra parte se dirige a la placa merced a un espejo. La placa registra las complejas imágenes producidas por la interferencia de los dos haces. En la fase de reconstitución abajo ( ) se ilumina el holograma sólo con el rayo de referencia; los rayos emergentes contienen un duplicado exacto de los frentes de onda reflejados por el objeto.
punto de la imagen; la estructura de los círculos del diagrama de difracción es similar a la que produciría una lente de Fresnel, dispositivo que se emplea frecuentemente en los cursos de óptica. El tamaño del elemento de resolución de la imagen virtual es exactamente el mismo que el tamaño del elemento resolutivo del objeto original, a menos que las imperfecciones del proceso hayan degradado la imagen. La razón del tamaño del diagrama de difracción al tamaño del elemento resolutivo de la imagen se llama razón de compresión; es, por supuesto, exactamente igual a la razón de expansión. La necesidad de monocromaticidad a la hora de la contemplación se debe a que la curvatura del frente de onda, y por lo tanto la distancia al punto
focal, es proporcional a la longitud de onda de la luz. Si se usase luz de muchas longitudes de onda, cada una de ellas formaría una imagen en una posición diferente y, por tanto, con independencia del plano sobre el que se enfocase el sistema de visión (el ojo o la cámara fotográfica), junto a la imagen enfocada se verían muchas otras algo desenfocadas, formadas por otras longitudes de onda. Este defecto de la imagen resultante se llama “dispersión longitudinal”. La banda espectral de la fuente luminosa habrá de ser lo suficientemente estrecha como para que tales emborronamientos sean insignificantes. Se puede demostrar que la anchura de la banda espectral no podrá ser mayor que la longitud de onda media multiplicada por la razón de compresión, que es exacta-
59
mente el criterio que se siguió en la construcción del holograma. La razón de compresión (o la de expansión) es el único factor que entra en la determinación de los requisitos de coherencia temporal. El tamaño del objeto resulta irrelevante, de modo que el grado de coherencia de una luz no condiciona en modo alguno el tamaño del objeto que pueda holografiarse.
L
a coherencia espacial, el otro aspecto de la coherencia, está relacionada con el tamaño de la fuente luminosa. Puede concebirse una fuente extensa como si estuviera formada por muchas fuentes puntuales ligeramente separadas, cada una de las cuales forma una imagen de difracción por cada elemento resolutivo del objeto ( véase la figura 9). Todas estas pautas se proyectan a lo largo de la dirección de propagación del haz de luz incidente. Los diferentes elementos resolutivos de la fuente luminosa formarán manchas de difracción ligeramente desplazadas y, si el tamaño de la fuente de luz es grande, la imagen de difracción resultante aparecerá borrosa, sobre todo en los bordes, donde el espaciado de las franjas es más fino. Es claro que la fuente de luz empleada para realizar un holograma habrá de ser lo suficientemente pequeña como para que esta clase de difusión resulte inapreciable. Lo mismo sucede a la hora de contemplarlo: una fuente luminosa extensa lleva a una difuminación de la imagen; la exigencia de coherencia espacial es pues la misma que en la formación del holograma. Nuestro grupo investigador se
dedicó a la holografía óptica en 1960 y se propuso mejorar la calidad de la imagen, que era por aquel entonces bastante pobre. Un problema básico con el que había que enfrentarse era que cada elemento resolutivo del holograma forma dos ondas de curvatura igual y opuesta; la onda adicional es convergente y forma una imagen delante del holograma, la llamada “imagen real”. Pueden contemplarse la imagen virtual o la imagen real, pero siempre con la otra desenfocada como fondo. Este defecto se debe a que el proceso de toma no registra el sentido de la curvatura del frente de onda. (Dos ondas esféricas, una divergente y otra convergente, formarían la misma imagen de difracción.) El proceso de reconstrucción resuelve esta ambigüedad al producir dos ondas, una convergente y otra divergente, pero la calidad de la imagen resulta degradada. También se presentan otros defectos, que introducen componentes adicionales de luz extraña. Upatnieks y yo solucionamos estos problemas mediante un procedimiento muy empleado en telecomunicaciones. Recurriendo a una técnica parecida a la modulación de una portadora de radio por otra onda, hicimos que una parte del haz luminoso evitase el objeto e incidiese oblicuamente sobre la placa. Las franjas de interferencia se hicieron así más finas y numerosas y el holograma resultó mucho más parecido a una retícula de difracción ordinaria de líneas paralelas. Del mismo modo que esta última dispersa un haz de luz incidente en muchos rayos separados (llamados órdenes), que viajan en
diferentes direcciones, nuestros hologramas produjeron la difracción en varias direcciones. Los rayos que formaban las dos imágenes se propagaban ahora en direcciones diferentes y por tanto se separaban. Y también el resto de los rayos parásitos se propagaba en direcciones diferentes. El resultado fue que cada una de las dos imágenes, la real y la virtual, estaba libre de efectos parásitos y su calidad había mejorado mucho.
C
on muchas más franjas, y más finamente espaciadas, se podría suponer que se requeriría mayor coherencia de la fuente de luz necesaria para construir tales hologramas. Y además, si el holograma actúa ahora como una red de difracción, ¿no tenderá a dispersar la luz incidente en sus colores componentes como hacen estas últimas? (Las redes de difracción desvían la luz transmitida proporcionalmente a su longitud de onda, de modo que, dentro de cada orden, la componente roja se desvía mucho más que la azul, por poner un ejemplo.) Parecía lógico que este tipo de hologramas, que suelen llamarse hologramas de frecuencia portadora o excéntricos, formasen para cada longitud de onda una imagen ligeramente desplazada en sentido lateral respecto de la imagen formada por otra longitud de onda un poco diferente ( véase la figura 10). La imagen resultaría muy difuminada incluso en una banda bastante estrecha de longitudes de onda. Este defecto, llamado dispersión lateral, es independiente de la dispersión longitudinal descrita anteriormente. Podría creerse que nuestra holografía perfeccionada exigiese mayor cohe-
7. METODO HOLOGRAFICO ORIGINAL, inventado en 1947 las porlíneas oscuras que formaban las letras, cada uno de los eleDennis Gabor, que empleó sencillas transparencias con rótulos mentos de resolución (o puntos resolutivos más pequeños) difracopacos como objetos, iluminándolas con una lámpara de arcotaba de o dispersaba una parte de la luz transmitida en forma de mercurio. El diagrama de la izquierda muestra cómo se hacían frente de onda esférico. La interferencia de los frentes de onda los hologramas. La mayor parte de la luz pasaba a través de difundidos la por cada elemento de resolución con los no difundidos transparencia y servía como haz de referencia, pero, en torno del a haz de referencia creaban en la placa fotográfica una mancha
60
TEMAS 6
rencia que la del tipo de Gabor, que quizá sólo pudiese conseguirse con luz procedente de un láser. Ambas suposiciones son incorrectas. Nuestros primeros hologramas del tipo de frecuencia portadora se hicieron realmente en la época anterior al láser y con una luz de arco de mercurio corriente. Puesto que las exigencias de coherencia de la holografía básica no son de suyo muy grandes, la lámpara de arco de mercurio sigue cumpliéndolas aunque se las aumente bastante. Este incremento no es, por lo demás, fundamental y puede evitarse fácilmente. Supongamos, por ejemplo, que durante el proceso de reconstrucción coloquemos entre la fuente y el holograma una red de difracción cuyo espaciado sea igual a la separación media entre las franjas del holograma. Supongamos también que para iluminar el holograma se utilice precisamente el orden difractado que desvíe la luz en sentido opuesto al del holograma. En este caso las dispersiones se compensarían. Desde el punto de vista del holograma, cada longitud de onda componente de la luz incidente procedería de una dirección ligeramente diferente, siendo el desplazamiento angular el exactamente necesario para hacer que las imágenes formadas por las diferentes longitudes de onda coincidiesen. Si se hacen los ajustes adecuadamente, las exigencias de coherencia no serán mayores que las requeridas por el método de Gabor (véase la figura 11). Al crear el holograma se aplica el mismo principio. Para que los haces de luz policromática interfieran, el espaciado de las franjas de interferencia
tiene que ser proporcional a la longitud de onda. Por tanto, si las franjas están alineadas en un lugar donde los rayos se superpongan, se irán desalineando progresivamente a medida que se alejen de él; el resultado es la formación de un número inadecuado de franjas de interferencia. Pero si se sitúa una red de difracción entre la fuente y el objeto se puede predispersar la luz de tal modo que el espaciado de las franjas sea el mismo para todas las longitudes de onda; el número de franjas que se obtiene en estas condiciones es independiente de la longitud de onda. La red compensaría la dispersión lateral, reduciendo así las exigencias de coherencia a las del esquema holográfico srcinal de Gabor, y esto tanto en el momento de la creación como en el de la observación del holograma. Cuando publicamos nuestro primer trabajo sobre holografía dábamos cuenta de una red como ésta, que en efecto compensaba las longitudes de onda, aunque fuera sin un propósito específico y aunque la simplicidad del objeto hiciera tal compensación innecesaria. Robert E. Brooks, L. O. Heflinger y Ralph F. Wuerker propusieron y experimentaron métodos similares de hacer los hologramas con láser de pulsos, pero por aquel entonces los láser de pulsos carecían de la coherencia re querida para realizar este experimento. Hay algunas otras técnicas que reducen los requisitos de coherencia de las formas más desarrolladas de holografía a las del método de Gabor, circunstancia que puede hacer pensar en que estas últimas sean un mínimo irreducible. Pero esta suposición también es falsa; los requisitos de coheren-
cia pueden reducirse todavía más. Si, por ejemplo, se iluminase un holograma de Gabor interponiendo una placa de zonas de Fresnel entre él y la fuente de luz, se podría utilizar la imagen real formada por la placa de zonas como fuente de iluminación del holograma. (La placa de zonas forma una imagen de la fuente que está dispersada longitudinalmente, con el violeta, que posee la longitud de onda más corta, situado en la posición más alejada de la placa.) Esta disposición compensa la dispersión longitudinal del holograma, haciendo que las imágenes de todas las longitudes de onda se formen a la misma distancia de él (véase la figura 12). Esto implica que un holograma de este tipo podría verse con luz blanca. Podría razonarse de modo semejante para el proceso de formación del holograma, lo que nos hace pensar que también debería ser posible realizar hologramas con luz completamente blanca. Si se usaran a la vez una placa de zonas y una red, podrían compensarse simultáneamente las dispersiones longitudinal y lateral, lo que permitiría crear y observar hologramas de haz excéntrico de calidad con luz totalmente blanca.
E
sta idea tiene un aspecto histór i c o interesante. En 1955 estábamos trabajando mis colegas y yo en Mi chigan en sistemas de formación de imágenes de radar; se nos ocurrió que si registrábamos los datos del radar sobre una película fotográfica u otro medio similar e iluminábamos las placas resultantes con un haz de luz coherente, generaríamos réplicas ópticas en miniatura de las mi-
muy semejante a una placa de difracción de zonas deFresnel. El interferencia recrea una imagen virtual deun elemento resoluholograma resultante es la superposición de todas estaspautas, tivo del objeto srcinal. Los nombres de los científicos que apauna por cada elemento de resolución del objeto srcinal. El recen en la transparencia son los mismos utilizados por Dennis diagrama de la derecha muestra laforma de contemplar los hoGabor en el holograma srcinal, según se publicó Proc eneedings logramas una vez revelados. Se representa cómo la difracciónof dethe Royal Society en 1949. El propósito de su investigación era la parte del rayo de referencia transmitido por una mancha mejorar de el poder de resolución del microscopio electrónico.
LA CIENCIA DE LA LUZ
61
croondas que hubieran incidido srcinalmente sobre la antena del sistema de radar, lo que sería un método sencillo y conveniente de obtener imágenes de microondas. Partiendo de esta idea, desarrollamos una teoría bastante completa de la holografía, que en muchos aspectos era paralela al trabajo anterior de Gabor, descono-
cido entonces por nosotros. Nuestra teoría difería de la suya en varios puntos. Presentaba por primera vez la idea de la holografía excéntrica, para evitar el problema de la doble imagen, y también el empleo de una red de difracción en combinación con una placa de zonas de Fresnel, para corregir las dispersiones lateral y
longitudinal, permitiendo en consecuencia operar con luz blanca. Así que, aunque suela identificarse la holografía excéntrica con el láser, en realidad se desarrolló en un contexto de luz completamente blanca. La compensación de la placa de zonas tiene, por supuesto, una limitación importante. La dispersión longi-
8. LA ESCALA DE LA IMAGEN DE DIFRACCION formada porcromática. El diagrama inferior muestra un hol ograma hecho un objeto puntual es proporcional a la longitud de onda de lacon luz monocromática, pero visto con luz policromática. El luz incidente. En los diagramas de esta página se representanholograma actúa como una lente, dando lugar a que parte de los frentes de dos longitudes de onda luminosa diferentes la luz incidente se convierta en una onda divergente que mediante líneas coloreadas de grosores y espaciados distintos.vuelve a proyectar una imagen virtual, cuya resolución es, en El de la parte superior pone de manifiesto que la pauta for-teoría, la misma que la del objeto srcinal. Sin embargo, la mada por la luz de longitud de onda mas larga, o luz más roja, distancia entre el holograma y la imagen formada para cada es mayor que la formada por la de longitud de onda más corta, longitud de onda es proporcional a dicha longitud de onda. o luz más azul. La imagen formada por un haz luminoso com-De aquí que, en el caso de la luz blanca, que consiste en todas puesto por muchas longitudes de onda resultaría dif uminadalas longitudes de onda visibles, no exista ningún plano donde en los bordes; el holograma resultante aparecería tambiénse enfoque toda la luz y la imagen resultante sea borrosa dis-( borroso, aunque se le observara con luz perfectamente mono-persión longitudinal ).
9. UNA FUENTE EXTENSA DE LUZ se comporta como un conjunto de fuentes puntuales, cada una de las cuales iluminase un objeto puntual desde una dirección ligeramente distinta. Las imágenes se proyectan en direcciones distintas
62
y resultan desplazadas en el holograma. Una fuente espacialmente incoherente, o extensa, produce una imagen borrosa, en la que las franjas de interferencia más finas desaparecen primero.
TEMAS 6
tudinal se corrige sólo para un punto imagen sencillo, concretamente aquel cuya componente del holograma se alinea con la placa de zonas de Fresnel compensadora. Esto es un inconveniente serio en holografía corriente, puesto que lo que se desea ver generalmente es la imagen completa y no sólo un trocito. No constituye, en cambio, un gran problema si se aplica al radar, ya que la imagen se va grabando punto por punto mientras se pasa el registro de los datos del radar por una abertura, con lo que los puntos imagen van situándose uno tras otro en posición para que se corrija su dispersión. Este capítulo de la historia de la holografía se cerró con poca fanfarria. En 1958, cuando se terminó nuestro sistema experimental de radar aerotransportado, pudimos verificar tales teorías y otras muchas que nuestro grupo había formulado. Sin embargo, a efectos prácticos, preferíamos las lámparas de arco de mercurio a las de luz blanca. Como nuestro sistema no utilizaba razones de compresión superiores a 100, no se necesitaba corregir la dispersión lateral ni la longitudinal. La lámpara de arco de mercurio funcionaba perfectamente e hicimos con ella reconstrucciones de gran calidad durante varios años, hasta que empezamos a usar el láser en 1962. Al año siguiente introdujimos otra mejora, al decidirnos a corregir otro defecto del proceso holográfico. Cuando se usa luz coherente, se forman imágenes de difracción desde cualquier centro de dispersión que se encuentre en el recorrido de la luz. El polvo que haya sobre las superficies ópticas, las burbujas o cualquier otra oclusión de las lentes añaden su imagen de difracción al holograma, que los retransmite a la imagen. La colocación de un difusor entre el objeto y la fuente de luz sirvió para eliminar estas imágenes parásitas, permitiendo obtener imágenes de calidad comparable a las de la fotografía clásica. Como el difusor tiende a dispersar la luz desviada por el objeto en ángulos mayores, las relaciones de expansión son bastante mayores con esta técnica, incrementándose así las exigencias de coherencia, pero dentro todavía del alcance de la lámpara de arco de mercurio. Nuestro siguiente paso fue construir hologramas de objetos tridimensionales, en vez de las transparencias que habían constituido hasta entonces el objeto de la holografía. Son varias las razones por las que es mucho más difícil hacer un holograma de un objeto tridimensional. Una de ellas es que la
LA CIENCIA DE LA LUZ
10. EL HOLOGRAMA EXCENTRICO, inventado por el autor y Juris Upatnieks, se comporta como una red de difracción de líneas paralelas, que desvía la luz en un ángulo proporcional a la longitud de onda. Las imágenes de longitudes de onda diferentes se desplazan lateralmente, tanto más cuanto mayor sea la longitud de onda.
11. LA DlSPERSION LATERAL SE CORRIGE mediante la inserción de una red de difracción en el camino del haz de luz incidente. La red se escoge cuidadosamente para que su espaciado iguale al espaciado medio de las franjas del holograma, dado que se utiliza para desviar la luz en sentido contrario al del holograma, compensando exactamente la dispersión lateral srcinada por éste. El resultado final es que las imágenes formadas por dos longitudes de onda diferentes están enfocadas en el mismo punto, que es lo que se pretendía conseguir.
12. LAde DISPERSION LONGITUDINAL laEl inserción de una placa zonas de Fresnel en el caminoSE delCORRIGE haz de luzmediante incidente. dispositivo realiza una dispersión longitudinal previa del haz de luz bl anca, formando una imagen virtual un tanto desplazada para cada longitud de onda, siendo las longitudes de onda más cortas las que se enfocan más lejos de él. Esta colección de imágenes desplazadas sirve a su vez como fuente de luz para el holograma (que en este caso es un holograma de un solo punto). El holograma actúa exactamente igual que una placa de zonas y desvía más la luz que tiene mayor longitud de onda, reuniendo todos los colores en un punto común. La combinación de redes de difracción y de placas de Fresnel reduce mucho los requisitos de coherencia que ha de tener la iluminación con la que se construyen y contemplan los hologramas excéntricos.
63
13. EL PROCESO DE LIPPMANN para fotografiar en colorres donde el brillo es máximo quedan fijados luego durante el produce franjas de interferencia en una emulsión fotográfica proceso de revelado de la placa. Cuando se contempla la placa, gruesa haciendo que la luz incidente se refleje por medio de la unluz incidente se refleja parcialmente en las sucesivas capas baño de mercurio situado detrás de la emulsión diagrama ( de de plata de la emulsiónderecha ( ), reforzándose las lon gitudes la izquierda ). Los depósitos de plata que se forman en los lugade onda correspondientes a la luz usada para la toma.
necesidad de coherencia temporal aumenta mucho, lo que se entiende rápidamente si se piensa en la exigencia de coherencia temporal en términos de longitud de coherencia. Al preparar nuestro dispositivo, dividimos un rayo láser en dos partes. Una, que servía de rayo de referencia, se dirigía a la placa fotográfica mediante un espejo; la otra era reflejada hacia ella por el objeto. Para que los dos haces interfirieran, la longitud de las trayectorias recorridas por cada uno de ellos no tendría que diferir en más de la longitud de coherencia de la luz. Medimos sus trayectos y los ajustamos para que fueran aproximadamente iguales. Como la longitud de coherencia de la luz láser suele ser de muchos centímetros, no tuvimos que esforzarnos en ser muy precisos. Otra cosa hubiese sido si estuviéramos usando una lámpara de arco de mercurio, cuya longitud de coherencia suele ser menor de una décima de milímetro. Pero cuando el objeto tiene profundidad, la longitud del haz objeto dependerá de la situación del punto considerado sobre el objeto, por lo que no sería posible igualarla para todos los puntos, salvo que se dispusiese de una fuente de luz cuya longitud de coherencia fuese lo suficientemente grande para abarcar la profundidad del objeto. Si ésta fuese, por ejemplo, de medio metro, la longitud de coherencia debería ser de un metro por lo menos, puesto que tal sería la diferen-
64
cia de la longitud de los trayectos luminosos reflejados desde el frente del objeto y desde su parte posterior. La longitud de coherencia requerida cuando se construyen hologramas de transparencias es de una centésima de milímetro aproximadamente. Este nuevo requisito de coherencia es independiente del descrito antes en conexión con las transparencias, pero es tan grande que éste se vuelve irrelevante. En esta fase de nuestro trabajo no hubo más remedio que recurrir al láser que, afortunadamente, había ido desarrollándose durante el mismo período y que apareció en un momento especialmente oportuno para nuestros intereses.
H
asta entonces los procesos de construcción y de observación de hologramas habían tenido unas exigencias de coherencia parecidas, cosa lógica si tenemos en cuenta que la observación no es más que la reconstrucción de los rayos que intervinieron en el proceso de formación. Ahora, en cambio, a la hora de observar un holograma no se da el fenómeno de grandes trayectos ópticos resultantes de las reflexiones a diferentes profundidades del objeto, puesto que no se produce ninguna reflexión de este tipo, lo que tiene como consecuencia que la nueva exigencia de coherencia no afecte al proceso de observación. Por consiguiente, los hologramas de objetos tridimensionales requieren un láser para su formación, pero pueden
observarse con la luz de una lámpara de arco de mercurio, que es el modo habitual. El investigador ruso Yu. N. De nisyuk publicó por la misma época otro descubrimiento importante, que combina el proceso holográfico con un tipo de fotografía en color inventada en 1891 por el físico francés Gabriel Lippmann. El holograma de Denisyuk puede producir imágenes monocromáticas o en color mirado con la luz blanca de una fuente puntual. El proceso de Lippmann consiste en registrar una imagen sobre una placa fotográfica de gran resolución. El lado de la emulsión se refuerza con un baño de mercurio, de modo que la luz que penetre por el lado de la placa se refleja y vuelve a atravesar la emulsión. Los dos rayos luminosos que viajan en direcciones opuestas interfieren inmediatamente, incluso si la fuente de luz tiene un amplio espectro de longitudes de onda, puesto que la diferencia de sus trayectorias es casi nula. Tampoco importa que la fuente de luz carezca de coherencia espacial, puesto que los mismos rayos, u otros muy próximos, se superponen. La consecuencia es que se forman franjas finas (que son realmente capas brillantes alternadas con otras oscuras) orientadas casi paralelamente a la emulsión. La separación entre las franjas es sólo de la mitad de una longitud de onda de la luz, por lo que se forman unas 30 franjas en una emulsión de unas 15 micras de espesor. Las franjas producen depósitos de
TEMAS 6
14. EL METODO HOLOGRAFICO DE DENISYUK consiste básicamente en una combinación de los procesos de Lippmann y de Gabor. Funciona haciendo pasar un haz de luz coherente por una emulsión fotográfica, haciéndolo incidir sobre un objeto y registrando en la emulsión la interfe-
plata en las regiones brillantes como en el proceso fotográfico normal. La concentración de los granos de plata en un punto dado está relacionada con el brillo de la imagen en esa zona, mientras que su espaciado lo está con el color que tenga (véase la figura 13). Cuando se ilumina esta placa con luz blanca, cada capa de granos de plata actúa como un espejo, reflejando una pequeña parte de la luz incidente y transmitiendo el resto a la superficie siguiente, en donde vuelve a repetirse el proceso. La luz total reflejada por cada punto de la placa es proporcional a la luz que formó las franjas, por lo que el observador ve una imagen del objeto srcinal como si de una fotografía corriente se tratase. Lo más importante es que la imagen es a todo color, debido a los efectos de interferencia entre las distintas capas. Cada capa refleja luz de todos los colores, pero sólo resultan reforzados algunos de ellos, dependiendo del espaciado entre las franjas. Como fue la luz original la que determinó tal separación, los colores resultantes son también los srcinales.
E
l trabajo de Denisyuk es un hito de la holografía. Combinando los resultados de Lippmann y de Gabor, utiliza luz coherente para registrar las imágenes de difracción producidas por el objeto, en vez de su imagen directa. El método de Denisyuk consiste en hacer que la luz pase a través de una placa, incida sobre el objeto y
LA CIENCIA DE LA LUZ
rencia producida entre los haces incidente y reflejadoiz( quierda). Para contemplarlo se le ilumina con luz blanca. El proceso de refuerzo favorece a la luz de una única longitud de onda y forma una imagen tridimensional del objeto (derecha).
la parte reflejada vuelva a atravesar la placa en dirección opuesta. Se forman franjas en toda la profundidad de la emulsión, como en el método de Lipmann. El resultado es un holograma que tiene las características de una placa de Lippmann y puede verse con luz blanc a producida por una fuente de extensión reducida, como una lámpara de proyector o una bombilla incandescente ordinaria (véase la figura 14 ). Si se usan tres rayos de luz coherente con longitudes de onda distintas, una por cada color primario, puede hacerse un holograma que produzca una imagen a todo color. El paso siguiente consistió en combinar nuestra técnica de emplear un haz de referencia separado con la de Denisyuk, cosa que varios investigadores conseguimos en 1965. El holograma de luz blanca de Denisyuk es, en efecto, un holograma que está unido a un filtro cromático de banda estrecha en una misma estructura. Pueden conseguirse los mismos resultados si se miran otros tipos de holograma con luz blanca a través de un filtro de banda estrecha, de suerte que la principal ventaja de este tipo concreto reside en evitar la inconveniencia de tener que usar un filtro separado. Stephen Benton realizó otro avance importante de la holografía de exhibición en 1969. Su método consta de dos etapas; primero se hace un holograma del modo habitual (que suele ser de un objeto tridimensional) y
luego se hace un segundo holograma usando como objeto la imagen real del primero. Durante este proceso se coloca una estrecha rendija horizontal sobre el primer holograma. Como cada punto de un holograma reproduce la imagen completa, pero desde una perspectiva única, la rendija elimina toda la paralaje en el plano vertical. (La paralaje, elemento esencial en la percepción de la tridimensionalidad, es el desplazamiento aparente de un objeto cuando se ve desde dos puntos diferentes.) Si se ilumina el segundo holograma con iluminación coherente, forma una imagen (sea virtual o real) del objeto original, así como una imagen real de la rendija. Para ver la imagen completa, el ojo del observador debe colocarse en esta imagen de la rendija ( véase la figura 15 ). Si mueve la cabeza verticalmente, la imagen desaparece, puesto que no hay paralaje vertical. En cambio se logra una imagen bastante brillante, pues toda la luz que normalmente se dispersaría a lo largo de una línea vertical de, digamos, un metro en la posición del observador, ahora se concentra en la imagen de la rendija y la luminosidad puede ser varios centenares de veces mayor. Este método tiene otra ventaja mucho más importante. Si se iluminase el holograma con luz de dos longitudes de onda diferentes, la dispersión lateral produciría dos imágenes de la rendija desplazadas verticalmente, una para cada color. El obser-
65
15. LOS HOLOGRAMAS EN ARCO IRIS se realizan en dos etapas. Primero se crea un holograma “patrón” corriente ( arriba). Luego se sitúa sobre él una rendija horizontal y se forma una imagen real, o frente de onda convergente, iluminándolo con la versión conjugada, o de tiempo invertido, del haz de referencia (centro). Esta imagen sirve entonces como objeto para un segundo holograma, que se impresiona cerca del espacio de la imagen real con ayuda de un haz de referencia convergente, desplazado verticalmente. Si se ilumina el segundo holograma con una fuente de luz blanca, cada longitud de onda forma una imagen de la rendija en una posición vertical diferenteabajo ( ). Cuando el observador mira a través de cualquiera de estas imágenes de la rendija, la escena srcinal se percibe en tres dimensiones, dotada de paralaje horizontal y en un solo color.
mismas nitidez y claridad. Si su cabeza no estuviera en el plano de la imagen de la rendija, seguiría viendo la imagen completa, pero el color cambiaría de arriba abajo. Esta es la razón de que, a veces, se haya dado a estos hologramas el nombre de “hologramas de arco iris”.
A
vador vería la imagen completa en un color, cuando colocara sus ojos en una de las imágenes de la rendija y, en otro color, cuando los colocara en la otra. Extrapolando este proceso a la iluminación con luz blanca, caso en el que la imagen de la rendija se difuminaría en un espectro continuo, re sultaría
66
que el observador podría situarse en cualquier lugar de esta zona para ver el holograma. Donde quiera que sitúe sus ojos, verá la imagen nítida y clara en el color que corresponda a esa parte del espectro. Al mover la cabeza verticalmente la imagen percibida cambiará de color, pero conservará las
cambio de renunciar a la paralaje verti cal , per o con serva ndo la paralaje horizontal normal, se obtienen hologramas que pueden verse con luz blanca sin necesidad de ningún filtro de banda estrecha, ni externo ni incorporado. Además se utiliza toda la luz blanca, en vez de una reducida banda del espectro, por lo que los hologramas Benton resultan extraordinariamente brillantes. La pérdida de la paralaje vertical no suele tener mayor importancia, puesto que el observador suele mover la cabeza en sentido horizontal, casi nunca en el vertical. Es claro que si moviera los ojos verticalmente, cada uno de ellos recibiría la misma imagen y no habría percepción de tridimensionalidad. En suma, el método Benton es un trueque ventajoso en el que se renuncia a aspectos de poca monta para conseguir otros importantes. Otra mejora notoria, la técnica compuesta o múltiple, supera algunas de las limitaciones básicas de las técnicas holográficas más habituales, consiguiendo resultados impresionantes. Consiste en sintetizar el holograma a partir de muchísimas fotografías corrientes. Las fotos, tomadas desde posiciones diferentes, constituyen vistas múltiples del objeto y, en su conjunto, reúnen tod a la información esencial contenida en un holograma. El método compuesto sintetiza las fotografías en un único holograma.
TEMAS 6
Las primeras informaciones sobre hologramas compuestos las publicó Robert V. Pole en 1967. Durante los años siguientes se lograron muchos avances que culminaron en un sistema perfeccionado por Lloyd Cross y sus colaboradores, quienes introdujeron además varias innovaciones oportunas. Para hacer un holograma según el método de Cross, se sitúa el objeto en una plataforma que gira lentamente mientras una cámara cinematográfica toma cientos de fotogramas, exactamente igual que en el cine corriente. Todos estos fotogramas se convierten luego en un único holograma del siguiente modo: gracias a una iluminación coherente, se convierte el primer fotograma en una imagen sobre una pantalla de vidrio esmerilado. La luz transmitida por la pantalla se registra en forma de holograma sobre una placa que consiste en una cinta larga y delgada, como de un milímetro de ancho por veinte centímetros de largo. El cometido de la pantalla es el de dispersar hacia la rendija luz que provenga de todos lados de la imagen. Los sistemas reales se diferencian de éste en que utilizan una lente cilíndrica grande en el plano de la imagen, en lugar del difusor, para dirigir la luz a la rendija, con lo que se obtiene mucha mejor calidad. Tras holografiar de este modo un fotograma, se proyecta el siguiente de la misma manera, formándose un nuevo holograma en una posición adyacente y contigua a la del primero. Esto se hace a gran velocidad con todos los fotogramas por medio de una rendija vertical que se desplaza sobre la película virgen entre cada dos exposiciones. El holograma compuesto resultante se coloca sobre un bastidor en forma de arco, cuyo ángulo corresponde al de rotación del objeto, y se ilumina como un holograma corriente. Cada holograma componente proyecta una imagen virtual sin profundidad o paralaje, exactamente igual a la imagen de la que se hizo el holograma. Pero cuando un observador lo contempla, cada ojo mira a un punto de la imagen a través de hologramas distintos. Las imágenes formadas en las dos retinas son así ligeramente diferentes, como en un estereoscopio, y se perci ben como una imagen tridimensional. Si mueve la cabeza lateralmente, apreciará diferentes imágenes holográficas, que reproducirán las relaciones de paralaje de la vida real. Los numerosos fotogramas que contienen muchas vistas diferentes se han convertido, en efecto, en un holograma único. Es indudable que los cambios de paralaje se producen en forma de
LA CIENCIA DE LA LUZ
pequeños saltos, pero se notan tan poco como los de la secuencia de fotogramas de una película. No hay paralaje en el plano vertical, cosa que vuelve a no tener trascendencia. Pueden combinarse las técnicas de Cross y de Benton para conseguir la visión con luz blanca. No se pierde nada esencial al hacerlo, ya que los hologramas compuestos nunca tienen paralaje vertical.
E
sta técnica ha permitido construir hologramas de seres vivos sin recurrir a la iluminación con rayo láser. Cabe incluso un cierto movimiento del objeto, por lo que se han conseguido hologramas que permiten ver a un individuo moviendo la mano, levantándose o cambiando su expresión facial. Para que este movimiento sea perceptible hay que ver secuencialmente las distintas partes del holograma, ya sea el observador o el holograma el que se desplace. Los hologramas compuestos se elaboran mediante fotos hechas normalmente y con luz blanca ordinaria. Si se usa la técnica de Benton, pueden verse también con esta luz. Puesto que el holograma sólo está formado de transparencias y puesto que el cono de rayos que incide en cada parte de la película es bastante estrecho, también podría construirse con la luz casi coherente de una lámpara de arco de mercurio o, aprovechando nuestra técnica srcinal de exploración, con luz blanca ordinaria. En resumen, el proceso de Cross, que produce hologramas de los más complicados e impresionantes, no requiere en absoluto del láser y podía haberse usado incluso a finales de los años cuarenta, cuando Gabor ideó la holografía. La descripción que hemos hecho de los métodos holográficos y de sus exigencias de coherencia arroja una conclusión fundamental: el proceso no depende para nada de una iluminación muy coherente, ni en la fase de elaboración ni en la de contemplación. Y la verdad es que nunca dependió.
BIBLIOGRAFIA COMPLEMENTARIA PHOTOGRAPHYBY LASER. Emmett N. Leith y Juris Upatnieks enScientific American,
vol. 212, n.o 6, págs. 24-35; junio, 1965. ADVANCESIN HOLOGRAPHY. Keith S. Pennigton en Scientific American, vol. 218,
n.o 2, págs. 40-48; febrero, 1968.
HOLOGRAPHY: WITH AN INTRODUCTION TO THE OPTICS OF DIFRACTION, INTERFERENCE, AND PHASE DIFFERENCES. H.
Arthur Klein. J. B. Lippincott Company, 1970.
67
Optica adaptativa John W. Hardy
Unas técnicas desarrolladas durante la guerra fría con fines militares dotan de nuevas posibilidades a los telescopios terrestres
L
a turbulencia atmosférica, que hace que las estrellas titilen y los objetos lejanos centelleen, ha sido fuente de frustración para los astrónomos desde que se inventaron los telescopios. “El único Remedio es un Aire sumamente sereno y tranquilo”, escribió Sir Isaac Newton en 1704, “como el que quizá haya en las cimas de las Montañas más altas, por encima de las Nubes corpóreas”. Los astrónomos han seguido este consejo que Newton ofreció en suOptica, pero hasta en las cimas más altas la turbulencia atmosférica limita la potencia de los grandes telescopios. El Telescopio Espacial Hubble da fe de la altura a que están dispuestos a llegar los astrónomos para librarse de la turbulencia. Investigadores de distintos centros han perseguido otra solución del problema de la turbulencia atmosférica, que no requiere abandonar la superficie terrestre. También nosotros en la compañía Litton Itek Optical Systems, en Lexington. Nuestro método, al que se da el nombre de óptica adaptativa, se basa en el desarrollo de la tecnología espacial, aunque, por ironía de las cosas, se aplica a los telescopios terrestres. La óptica adaptativa emplea un espejo deformable para compensar, o corregir, la distorsión que la turbulencia atmosférica causa en los frentes de onda. La técnica que sirve de soporte a dicha óptica mejorará la capacidad que los telescopios terrestres de la próxima generación tendrán para resolver fuentes puntuales y detectar en el cielo objetos de extrema debilidad. La construcción de telescopios astronómicos topa con la dificultad de obtener la imagen más clara posible de una estrella lejana, que debería aparecer como un solo punto. Los objetos extensos, las galaxias, los planetas, pueden considerarse colecciones de puntos. Una estrella lejana produce un frente de onda esférico que viaja por el espacio hasta llegar a la atmósfera
68
terrestre, donde la turbulencia lo distorsiona. Los cambios de temperatura asociados con la turbulencia producen variaciones en la densidad del aire, causa del retardo que sufren, en diverso grado, distintas partes del frente de onda y motivo de que la imagen se distorsione. Con la incorporación de un sistema de óptica adaptativa en los telescopios se pretende invertir dicho efecto y restaurar la forma esférica del frente de onda. Se empieza por determinar el grado de desfase de cada componente del frente de onda con respecto a los otros. Para ello se divide el espejo del telescopio en una serie de zonas y se mide la inclinación del frente de onda en cada una. Con la información resultante, una vez procesada mediante circuitos electrónicos de gran velocidad, se gobiernan los actuadores que determinan la posición de cada zona de la superficie del espejo. Así, se deforma el espejo de suerte tal que cualquier componente del frente de onda que llegue más tarde que otro recorra una distancia más corta hasta el punto focal. Este proceso de medida y ajuste —una realimentación clásica— se repite cientos de veces por segundo. Cuando la óptica adaptativa funciona correctamente, todos los componentes han de llegar al punto focal en fase, creando una imagen nítida. Los ingenieros de radar se habían adelantado ya en la descomposición de un frente de onda en partes para luego devolverlas a la fase correcta. Los principios matemáticos necesarios para compensar la distorsión de un frente de onda son prácticamente los mismos para las imágenes ópticas que para el radar. Al principio de los años cincuenta los ingenieros de radar empezaron a dividir las antenas en segmentos, al objeto de ajustar de forma independiente la fase de la señal proveniente de cada zona. Por medio del desplazamiento de fase de los componentes de la onda lograron
seguir objetos en movimiento con una antena fija o enfocar el haz sobre objetos situados a diferentes distancias.
L
a idea de aplicar principios adaptativos a los sistemas ópticos surgió en 1953, de la mano de Horace W. Babcock; propuso que se controlase el grosor de una capa de líquido depositada sobre un espejo rígido mediante un haz de electrones con el fin de compensar los errores de fase del frente de onda incidente. Los componentes del frente de onda cuyas fases precediesen a las demás se retrasarían haciéndolos pasar por una lámina de líquido más gruesa. En 1956 se aplicó la idea, más simple, de estabilizar el movimiento de la imagen con una placa lisa de inclinación variable en uno de los espectrógrafos del telescopio Hale de 5 metros. Robert B. Leighton describió el uso de un espejo de cabeceo y pistón ( tip-tilt), un espejo de inclinación ajustable, para obtener óptimas fotografías de los planetas. Sin embargo, la corrección total de la turbulencia atmosférica siguió siendo un objetivo inalcanzable hasta los años setenta, por un doble interés de la defensa estadounidense. Primero, los científicos del Pentágono que se dedicaban a los misiles antibalísticos necesitaban encontrar la manera de enfocar un láser sobre un objetivo remoto, al tiempo que se protegía el haz de la degradación atmosférica. En segundo lugar, la Unión So vié tica estaba lanzando un gran número de satéli tes militares. La Agencia de Proyectos Avanzados de Investigación para la Defensa (la actual ARPA) bus1. TELESCOPIO equipado con óptica adaptativa, del que es responsable Robert Q. Fugate, del laboratorio Phillips. Los sistemas de óptica adaptativa mejoran las imágenes recogidas por los tel escopios terrestres al borrar los efectos difuminadores de la atmósfera.
TEMAS 6
caba mejores métodos para identificarlos. Las fotografías to madas con telescopios de seguimiento de satélites emplazados en tierra resultaban, a causa de la atmósfera, demasiado borrosas como para proporcionar imágenes de utilidad aun aplicando un procedimiento de mejora digital. En 1972 trabajaba yo en Litton Itek Optical Systems, empresa que ganó un contrato con la ARPA para desarrollar un método más efectivo. Recurrimos a la óptica adaptativa para que la distorsión “volviese sobre sus pasos” antes de que se registrase la imagen; se trataba de construir un sistema de compensación atmosférica en tiempo real (CATR). Aunque este principio ya había sido probado en aplicaciones de radar, no se habían construido todavía los componentes de un sistema óptico adaptativo. Para crear un sistema tal, hubo que enfrentarse a un problema clave: ¿con qué finura hay que dividir el frente de onda incidente para lograr una reconstrucción satisfactoria de la imagen srcinal? La respuesta determina cuántos actuadores, controlados de forma independiente, necesita el espejo deformable, lo que a su vez determina el costo y la complejidad del
LA CIENCIA DE LA LUZ
sistema. Afortunadamente, en 1966, David L. Fried había ofrecido una pista para hallar la respuesta. Fried vio que los efectos ópticos de la turbulencia del aire se pueden describir mediante formas —aberraciones— simples del frente de onda, tales como la inclinación, el desenfoque y el astigmatismo (curvatura esférica y cilíndrica), harto conocidas para los que trabajan en óptica. Además, la intensidad de la turbulencia se puede representar con una sola magnitud —r 0— que, para los telescopios corrientes, es el diámetro de la mayor apertura utilizable antes de que la turbulencia empiece a degradar la calidad de la imagen. A medida que la turbulencia aumenta, r0 disminuye. En los observatorios terrestres, este parámetro varía entre cinco y quince centímetros para las longitudes de onda visibles, con un valor medio de diez centímetros. Por esa razón, los telescopios de gran tamaño no resuelven nunca objetos del estilo de las estrellas dobles mejor que lo haría un pequeño instrumento de aficionado. (Los telescopios grandes recogen una cantidad suficiente de luz que permita detectar objetos muy débiles. También hay períodos en los que la turbulencia es pequeña, lo que posi-
bilita que estos instrumentos alcancen una buena resolución.) En óptica adaptativa, r 0 define el tamaño de cada una de las zonas que hay que ajustar a fin de restaurar la imagen. Para lograr una buena compensación a longitudes de onda visibles, un telescopio de 4 metros necesita un espejo deformable controlado por unos 500 actuadores. El valor de r0 depende también de la longitud de onda de la luz incidente. En la banda infrarroja, a dos micras, el valor medio de r0 es de unos 50 centímetros, de modo que el número de actuadores que requiere un telescopio de 4 metros desciende a 50, más o menos. Nos proponíamos construir un prototipo equipado con un número de actuadores suficiente para poner a prueba la idea. De una forma algo arbitraria, nos decidimos por 21 actuadores. Los únicos correctores de frente de onda disponibles en 1972 consistían en espejos segmentados y diseñados para remediar la distorsión de los láseres infrarrojos. Estos dispositivos pecaban de lentitud e imprecisión. Al principio parecía que un cristal de óxido de silicio bismuto era una alternativa prometedora. Vimos que era posible ajustar, mediante la aplica-
69
FRENTE DE ONDA ESFERICO
CAPA TURBULENTA
FRENTE DE ONDA DISTORSIONADO
en una milésima de segundo que la lógica adaptativa necesitaba. Para nuestra fortuna, se estaba desarrollando un nuevo método de medir frentes de onda, la interferometría de desplazamiento de fase ( shearing interferometry). Los interferómetros se usan en óptica para medir la fase de un frente de onda superponiéndolo con un segundo frente cuyas características se conocen, con lo que se produce un patrón interferencial. En óptica adaptativa se necesita saber tan sólo la fase relativa de cada una de las zonas de la apertura con respecto a sus vecinas para determinar hasta qué punto la turbulencia atmosférica ha distorsionado la forma del frente de onda. Los interferómetros de desplazamiento de fase realizan esta tarea al desplazar, o “cizallar” ( shearing), dos copias del mismo frente de onda una distancia conocida y superponerlas a continuación. La intensidad del patrón de interferencia resultante es proporcional al gradiente, o pendiente, del frente de onda.
S
in embargo, aquellos interferómetros de desplazamiento de fase sólo trabajaban con luz monocromáti ca TELESCOPIO y producían un patrón de interferenASTRONOMICO cia fijo. Para la óptica adaptativa necesitábamos tomar medidas rápidas del frente de onda usando luz blanca de banda ancha, procedente de IMAGEN IMAGEN satélites artificiales iluminados por el PERFECTA DISTORSIOsol. James Wyant construyó un interNADA ferómetro de desplazamiento para la luz blanca mediante una red de difracción móvil que producía un patrón de interferencia con una variación de la intensidad sinusoidal. Una red de 2. EL ASPECTO DE LAS ESTRELLAS depende, cuando se las observa desde una fotodetectores recogía la señal. Al gran distancia, de la integridad de los frentes de on da de luz esféricos que producen. comparar el desplazamiento de fase Si se pueden enfocar todos los componentes del frente de onda, la estrella aparece en forma de un punto de luz perfecto ( ). Sin embargo, la turbulencia atizquierda de la señal eléctrica resultante con mosférica distorsiona aleatoriamente la morfología del frente de onda, lo que hace una referencia prefijada, resultaba que los componentes lleguen desfasados al punto focal derecha ( ). exactamente proporcional a la pendiente del frente de onda óptico en la ción de un voltaje, el desplazamiento fino sobre un bloque de material piezo- zona correspondiente de la apertura. de fase de la luz que lo atravesaba. eléctrico dotado de electrodos, se podían Este tipo de interferómetro de desplaPero el cristal transmitía una canti- controlar las deformaciones en cientos zamiento es fiable y estable ópticadad insuficiente de luz y su capacidad de zonas del espejo a la velocidad y con mente; requiere poco calibrado. de corrección de la fase era muy pobre la precisión necesarias. Bautizamos al Mejoras posteriores aumentaron la para los efectos de la turbulencia. dispositivo con el nombre de espejo pie- velocidad del dispositivo; llegó a medir 10.000 frentes de onda ópticos compleExploramos la posibilidad de utilizar zoeléctrico monolítico. un espejo flexible construido con una Abor damos luego el problema de tos por segundo, velocidad que basplaca aluminizada, muy fina, que refle- medir la distorsión del frente de onda. taba para medir la peor turbulencia jara bien la luz y se doblara con facili- En aquel entonces, la técnica estándar atmosférica. Necesitábamos un elemento más dad, pero costó superar el problema de para lograr una medida precisa de los la estabilidad. Pese a que la superficie frentes de onda ópticos consistía en un para completar el sistema: un método de un espejo deformable se desplaza proceso muy lento en el que se explo- rápido que sintetizase las mediciones menos de 10 micras, se ha de controlar raban y digitalizaban manualmente del frente de onda procedentes de cada zona y trazase un mapa del frente de con gran precisión —con una tolerancia las fotografías procedentes de un muy pequeña, de un cincuentavo de interferómetro láser. Con un poco de onda continuo que abarcara toda la micra. Julius Feinleib, Steven G. Lip- suerte, la información sobre el fren te apertura óptica. Este proceso de reconstrucción del frente de onda es son y Peter F. Cone se percataron de de onda estaba disponible al día que, al montar un espejo de cristal muy siguiente, algo tarde para la respuesta indispensable para determinar el
70
TEMAS 6
ajuste de cada actuador individual. Debido al reducido tamaño de los ordenadores digitales de esa época, el cálculo en serie presentaba problemas. Volvimos a la tecnología analógica. Construimos una red eléctrica sencilla dispuesta de la misma forma que los actuadores detrás del espejo deformable. Se aplicaron a los nodos de la red corrientes eléctricas que representaban los valores del frente de onda medido, lo que produjo los voltajes exactos necesarios para ajustar los actuadores. Esta red en paralelo, velocísima, podíamos expandirla para manejar un gran número de actuadores sin merma de velocidad.
sensor del frente de onda mide la turbulencia, podía observarse antes de la corrección, pero su compañera no era más que un confuso y oscuro borrón. Ambas estrellas se movían trémulamente a lo largo de varios segundos de arco. Al accionar el bucle de realimentación, se enfocaron con nitidez y permanecieron inmóviles en el monitor. El aumento del brillo de las imágenes
era aún más impresionante que la mejora de nitidez. A partir de estos primeros esfuerzos se han construido nuevos tipos de espejos deformables con más de 1000 actuadores. Algunos son espejos segmentados; constan de numerosas placas lisas, cada una montada sobre tres actuadores piezoeléctricos de capa múltiple. Los espejos segmentados
Así opera la óptica adaptativa
L
a óptica adaptativa compensa la distorsión del frente de onda de la luz estelar. Se empieza por concentrar en un haz estrecho la luz que entra en el telescopio. A continuación, el haz se refleja en un espejo deformable y en un segundo espejo, que corrige el movimiento de la estrella. Se divide entonces el haz, de modo que un sensor de frente de onda pueda medir el grado de distorsión de cada componente del frente de onda, información que dirige los movimientos compensatorios de los espejos. Por último, el haz compensado se enfoca hacia una cámara, que registra la imagen corregida. La figura muestra las imágenes corregidas y sin corregir de una estrella y del Telescopio Espa-
A
medida que se acercaba la fecha para probar nuestro compensador atmosférico en tiempo real, en diciembre de 1973, crecía nuestra preocupación por la estabilidad del instrumento mientras operase. Cada uno de los 21 actuadores estaba provisto de su bucle de realimentación, pero se producía un acoplamiento cruzado entre los bucles a través del espejo deformable. En otras palabras, la corrección del frente de onda en una zona ejercía un ligero efecto en las demás. Nuestros cálculos demostraban que el nuevo sistema debía ser estable, pero siempre existía la posibilidad de que surgiera un problema imprevisto. Nos preocupaba que el CATR empezara a oscilar, porque ello podría arruinar el espejo piezoeléctri co monolítico que habíamos diseñado. Durante las primera pruebas, comprobamos que el sistema, más estable que una roca, funcionaba a la perfección. El CATR demostró que la óptica adaptativa podía compensar imágenes extensas degradadas por la turbulencia. Pero los actuadores con los que contaba eran insuficientes para aplicarlos a un telescopio de grandes dimensiones. En 1976 comenzamos a construir una máquina mucho ma yor, el sistema de imagen compensada (SIC), provisto de 168 actuadores. J. Kent Bowker, Richard A. Hutchin y Edward P. Wallner desempeñaron papeles importantes en el diseño de este sistema pionero. En 1980 lo instalamos en el telescopio de 1,6 metros del monte Haleakala, en Maui. Cuando en la primavera de 1982 lo probamos con estrellas brillantes, el SIC mostró una estabilidad perfecta. El SIC nos aportó la primera prueba verdadera de hasta qué punto la óptica adaptativa mejora las prestaciones de los telescopios terrestres. Los resultados fueron admirables, especialmente para las estrellas dobles. La estrella más brillante del par, con la que el
LA CIENCIA DE LA LUZ
TELESCOPIO ASTRONOMICO
FRENTE DE ONDA DISTORSIONADA
CORRECCION DEL MOVIMIENTO DE LA IMAGEN
cial Hubble visto desde la Tierra.
DIVISOR DE HAZ
FRENTE DE ONDA CORREGIDO
CAMARA
IMAGEN CONDENSADA
ESPEJO DEFORMABLE PROCESADOR DE DATOS
SENSOR DEL FRENTE DE ONDA
SISTEMA DE OPTICA ADAPTATIVA
EL HUBBLE SIN COMPENSAR
EL HUBBLE COMPENSADO
ESTRELLA 4968 SIN COMPENSAR
ESTRELLA 4968 COMPENSADA
71
3. PARA OBSERVAR objetos débiles, se ha de medir la turbulencia atmosférica a con estrellas más brillantes a ( ). Esta técnica sólo funciona si la estrella brillante se halla en la misma zona del OBJETO cielo que el objeto que se observa; si DEBIL están demasiado separados, la luz que emiten experimenta diferentes grados de turbulencia b( ). Hay pocas estrellas cuyo brillo pueda servir de referencia, razón por la cual la técnica sólo resulta eficaz en una pequeña franja del cielo. Puede crearse un láser, dirigido a través de la atmósfera, a modo de estrella de referencia artificialc(). Con un tramado de balizas de láser se consigue iluminar un campo de visión enterod(). Con todo, seguimos precisando una estrella que CAPA caiga cerca para apuntar el telescopio. TURBULENTA
b ESTRELLA BRILLANTE
REGION DE TURBULENCIAS COMPARTIDAS
son los que mayor capacidad tienen de compensar una turbulencia fuerte. Los segmentos están separados entre sí y proporcionan libertad de movimientos. Pero cada faceta requiere una calibración frecuente. Debido a la discontinuidad entre un segmento y el siguiente, los espejos de este tipo tienden a difractar parte de la luz, lo que afecta a la claridad de la imagen. Por ello los astrónomos prefieren espejos continuos de placa frontal. Estos espejos constan de una lámina frontal de vidrio aluminizado y flexible montada sobre actuadores fabricados con capas múltiples de material piezoeléctrico o electrorresistivo, que se expanden o contraen en respuesta a un voltaje de control. Los actuadores están montados sobre una placa base rígida. Un espejo de placa frontal continua tiende a una mejor estabilidad dimensional, requiere menos mantenimiento y proporciona una corrección más homogénea por toda la apertura del telescopio. Otro tipo de espejo deformable, en proceso de desarrollo, es el espejo bimorfo, constituido por elementos piezoeléctricos planos adheridos a la parte posterior de una lámina frontal delgada que se dobla al recibir un voltaje. La Universidad de Hawai está construyendo un sistema de óptica adaptativa basado en un espejo bimorfo. Este sistema se vale de un sensor de frente de onda que mide directamente la curvatura del frente de onda, lo que simplifica los cálculos requeridos para controlar los actuadores. Para las longitudes de onda del infrarrojo, donde los efectos de la turbu lencia atmosférica son menos intensos, los “correctores modales” ofrecen una posibilidad elegante de compensar la distorsión del frente de onda. Estos dispositivos corrigen la inclinación, el desenfoque, el astigmatismo y otras aberraciones.
72
REGION DE TURBULENCIAS DIFERENTES
Se trabaja en la aplicación de redes neuronales a la interpretación de las señales procedentes del sensor óptico y al control del espejo deformable. Algunos creen que se puede enseñar a una red neuronal a que interprete estos registros mejor que las actuales redes basadas en algoritmos.
área mayor, la turbulencia varía demasiado con respecto a la que mide el sensor del frente de onda para obtener una imagen uniformemente clara; sólo se compensará, pues, la parte central de la imagen, y ésta aparecerá cada vez más borrosa cerca de los contornos. Al no poderse compensar más que una minúscula zona del cielo alreese al éxito notable de las prime- dedor de cada estrella de guiado, la ras aplicaciones de la óptica adap- óptica adaptativa, sirviéndose de tativa, su adopción generalizada en el estrellas de guiado naturales, no puede campo de la astronomía observacional acceder a una gran parte del cielo. se ve obstaculizada por dos problemas Se estudian dos maneras de burlar fundamentales. Primero, los objetos estos obstáculos. La primera es débiles pueden observarse sólo cuando emplear longitudes de onda más laruna estrella brillante se encuentra gas (infrarrojas), donde los efectos cerca de ellos. La necesidad de realizar ópticos de la turbulencia son mucho medidas en tiempo real de la turbulen- menos graves y, dado que el valor de cia tan rápidamente, al menos, como r0 a esas longitudes de onda es entre 5 cambie la atmósfera determina el bri- y 12 veces mayor que en las longitudes llo que ha de tener la estrella que sirva de onda visibles, cada zona de correcde guía: en cada una de las pequeñas ción puede aumentarse en la medida zonas de la apertura del telescopio se correspondiente. En una zona mayor han de recoger los fotones suficientes las perturbaciones del frente de onda para tomar una medición precisa del tardan más en variar; se tiene, pues, frente de onda. En un sistema de óptica más tiempo para recoger la luz y, en adaptativa que trabaje con longitudes consecuencia, se pueden utilizar estrede onda visibles y bajo condiciones llas más débiles de guías. Además, el estándar, cada centésima de segundo ángulo isoplanático es mayor a longihay que detectar al menos 100 fotones tudes de onda más largas y, por tanto, por cada zona de 10 cm 2. Para cumplir la zona sobre la que es efectiva la comeste requisito, la estrella de guiado pensación adaptativa también debe ser de magnitud 10 o más bri- aumenta. Estos factores, tomados en llante. En promedio, hay sólo tres conjunto, permiten utilizar una estreestrellas de esta magnitud por cada lla de guiado visible para otorgar grado cuadrado de cielo. mayor nitidez a las observaciones inEsta restricción sería aceptable, de frarrojas sobre una fracción del cielo no darse un segundo problema funda- mucho mayor de lo que sería factible mental: la compensación adaptativa con longitudes de onda visibles. sólo es efectiva cuando abarca un El primer sistema infrarrojo, el ángulo diminuto del cielo —ángulo Come-On, fue desarrollado a principios isoplanático—, que paralas longitudes de los años ochenta por el Observatorio de onda visibles no alcanza los cinco Europeo del Sur (ESO) e in vestigasegundos de arco de ancho. Sobre un dores franceses. Se ha ensayado con
P
TEMAS 6
c
d
ESTRELLA ARTIFICIAL
HACES DE LUZ MULTIPLES
HAZ DE LASER
éxito en el telescopio de 3,6 metros del observatorio de La Silla, Chile. La segunda forma de abordar el problema consiste en utilizar haces de láser para producir balizas, o estrellas de guiado, artificiales. Investigadores del laboratorio Lincoln del Instituto de Tecnología de Massachusetts (MIT) y del laboratorio Phillips de las Fuerzas Aéreas de EE.UU . encontraron un método mucho más potente para medir la turbulencia atmosférica. En los años ochenta estudiaban cómo disparar un arma láser de modo que descargara la mayor cantidad de energía posible sobre un objetivo situado más allá de la atmósfera. Los láseres experimentan en las longitudes de onda visibles el mismo tipo de distorsión que sufre la luz procedente de una estrella lejana; se les puede, pues, aplicar los principios de la óptica adaptativa. En 1982 los del MIT corrigieron la distorsión de un láser emitido hacia el espacio con una versión del SIC que tenía 69 actuadores —el “experimento de compensación at mosférica (ECA)”. Uno de los experimentos realizados en el transbordador espacial Discovery consistió en que éste llevara un retrorreflector que reflejaba un haz de láser de vuelta a la Tierra, donde se medía con él la distorsión atmosférica. En pruebas posteriores, los retrorreflectores, instalados a bordo de cohetes, fueron elevados a alturas de 600 kilómetros. Al introducir su información en un espejo deformable, se logró “predistorsionar” un segundo láser de manera que atravesara la atmósfera y se enfocara en un pequeño objetivo si tuado en el cohete. Desde entonces, los instrumentos de óptica adaptativa del ECA se han utilizado con éxito en tareas astronómicas.
LA CIENCIA DE LA LUZ
Los láseres crean en la estratosfera estrellas artificiales de guiado para los telescopios astronómicos. Y lo hacen de dos formas: produciendo la retrodispersión de moléculas de aire a altitudes de 10 a 40 kilómetros —una dispersión de Rayleigh— o estimulando la fluorescencia de una capa natural de vapor de sodio que está a unos 90 kilómetros de altura. Como la baliza de láser está mucho más cerca del telescopio que una estrella real, el dispositivo genera un haz cónico que atraviesa sólo parte de la capa atmosférica turbulenta antes de llegar a la apertura del telescopio. Este efecto se acentúa más con las balizas Rayleigh de baja altitud y obliga a usar más de una baliza de láser.
R
obert Q. Fugate demostró en 1983 que con estrellas de guiado láser podían realizarse medidas del frente de onda. Otros investigadores crearon el primer sistema completo de óptica adaptativa que se valía de estrellas de guiado láser, el SWAT (las siglas en inglés de “técnicas adaptativas de longitudes de onda cortas”). Entre 1988 y 1990, en el observatorio óptico del monte Ha leakala, se generaron con rayos láser de color pulsantes —su longitud de onda era de 0,512 micras— balizas artificiales a altitudes de entre 4 y 8 km. Se demostró que se había compensado la turbulencia mediante la comparación de imágenes de estrellas naturales tomadas con y sin la corrección adaptativa; el experimento enseñó que se obtenían mejores resultados con dos balizas de láser que con una. Cuando se recurre a las balizas de láser se suele emplear un tipo diferente de sensor del frente de onda —el
sensor Shack-Hartmann— porque puede trabajar con fuentes de luz continuas y pulsantes. El primero en utilizarlo fue Roland V. Shack, en 1971. Un tramado de lentes cubre el haz óptico; cada una de ellas produce una imagen de la estrella de guiado. Los gradientes del frente de onda se determinan al medir el desplazamiento de la imagen en cada zona. En principio, las balizas de láser deberían permitir que se aplicase la compensación adaptativa a cualquier objeto celeste, por débil que sea y para cualquier longitud de onda capaz de atravesar la atmósfera. Sin embargo, la necesidad de disponer de una estrella natural para apuntar el telescopio limita la eficacia de las balizas. Pero éstas no sirven para apuntar, pues no están fijas en el cielo; su posición absoluta varía en consonancia con el efecto de la turbulencia sobre el haz láser. Dada la necesidad de disponer de una estrella de apuntado, la óptica adaptativa sólo puede abarcar, a longitudes de onda visibles, un 30 por ciento del cielo. A longitudes de onda infrarrojas, la cobertura del cielo llega al 100 por cien. Uno de los problemas pendientes es el de la creación de imágenes nítidas a lo largo de grandes campos de visión. No se ha podido aún obtener una imagen compensada del disco de Júpiter; el disco mide unos 40 segundos de arco de ancho y engloba unos 50 parches isoplanáticos diferentes, o zonas donde la turbulencia atmosférica difiere bastante. Se discute el empleo de espejos deformables múltiples en conjunción con una serie de estrellas de guiado láser. Cada espejo actuaría, al compensar la turbulencia a lo largo de un intervalo de altitudes en la atmósfera, como un corrector tridimensional. Con las estrellas de guiado podrían realizarse muchas medidas del frente de onda, que abarcarían un amplio campo de visión. El diseño de la mayoría de los grandes telescopios que se están planeando o construyendo en estos momentos incluye la óptica adaptativa.
BIBLIOGRAFIA COMPLEMENTARIA ADAPTIVE OPTICS: REVISITED. Horace W.
Babcock, en Science, volumen 249, páginas 253-257; 20 de julio, 1990. PRINCIPLESOF ADAPTIVEOPTICS. Robert K. Tyson. Academic Press, 1991. ADAPTIVEOPTICS FOR ASTRONOMY: PRINCIPLES, PERFORMANCE AND APPLICATIONS. J. M. Beckers, en Annual Review of Astronomy and Astrophysics, volumen 31, páginas 13-62; 1993.
73
Espejos líquidos Ermanno F. Borra
Está abierta la puerta a la construcción de telescopios gigantescos para ver más lejos que nunca gracias a los espejos de mercurio líquido muy ligeros, cuyo tamaño podría superar, en mucho, el de los espejos de cristal
D
urante casi cuatro siglos los telescopios reflectores han venido recogiendo la vacilante luz procedente de millones y millones de estrellas y galaxias. Nos han descubierto un universo vasto y complejo; han ensanchado nuestro mundo y nuestra imaginación. Sin embargo, pese a todos sus logros, el reflector clásico tiene serias limitaciones. Es muy caro. A menudo resulta casi imposible bruñir y pulir una gran superficie de cristal hasta conseguir una parábola perfecta, la forma ideal que concentra en un punto los rayos de luz paralelos. Los espejos se deforman con los cambios de temperatura y, superado cierto tamaño, tienden a abombarse bajo su propio peso. Por ello, de vez en cuando, astrónomos y ópticos se acuerdan de una vieja rareza: el espejo líquido. No puede hundirse, así que cabe hacerlo tan grande como se quiera. Además, darle forma parabólica a un líquido es muy sencillo; el tirón de las fuerzas de la gravedad y centrífuga hace que la superficie de un líquido reflectante —mercurio, por ejemplo— en rotación forme una parábola perfecta. Este fenómeno, que se produce también al remover el café, ofrece una superficie óptica perfecta que no precisa ser pulida. En consecuencia, el coste de los espejos líquidos podría ser mucho menor que el de los espejos de cristal. Además, como la óptica adquiere tan to interés en la mayoría de las mediciones científicas, los espejos líquidos también podrían ser de utilidad en numerosos campos de la investigación y la ingeniería. No se sabe a quién se le ocurrió crear un espejo líquido. Podría haber sido al propio Newton, que inventó el telescopio reflector y sabía que la superficie de un cubo de agua que gira adopta una forma parabólica. Pero la idea no se abordó en serio hasta comienzos de este siglo, cuando Robert W. Wood intentó construir un telescopio de espejo líquido.
74
Físico y escritor excéntrico, debe su fama sobre todo a una célebre denuncia. Francia se estremeció, en 1904, cuando reveló que no existían los rayos N, que decía haber descubierto René Blondlot, de la Universidad de Nancy. A petición de Wood, Blondlot le hizo en su laboratorio, a oscuras, una demostración de cómo se detectaban, una vez filtrados por un prisma, los rayos N, que, sostenía Blondlot, se parecían a los rayos X. Wood no se lo creía; sustrajo el prisma, esencial para el experimento, y se lo metió en el bolsillo. Blondlot no se percató de la falta, y sus resultados, tampoco. Pero el espejo líquido de Wood no tuvo tanta suerte. La construcción de un objeto de esas características exige especial habilidad técnica, de la que carecía. Fotografió las estrellas que pasaban ante su objetivo, pero las imágenes eran borrosas. No era adecuado el cojinete sobre el que estaba apoyado el espejo; por culpa de ello, la velocidad de rotación del mercurio no permanecía constante y la distancia focal se alteraba. Además, vibraciones y corrientes de aire produjeron rugosidades en la superficie del mercurio. Por si esto fuera poco, otra dificultad de primer orden acosó al astrónomo: un espejo líquido no se puede inclinar como se inclina, para compensar la rotación de la Tierra, un espejo de cristal, razón por la que las estrellas quedaron grabadas en la película fotográfica en forma de rayas. Wood relató con gracia todos estos problemas en un artículo que se publicó en el Astrophysical Journal. Así se quedaron las cosas hasta que, en enero de 1982, un equipo de científicos demostró la eficacia de un método extraordinario que resolvía el problema de la inclinación. James E. Gunn, Peter Schneider y Maarten Schmidt se pasaron una noche en la cima del Monte Palomar observando una franja de cielo con el telescopio Hale de cinco metros, que mantuvie-
ron todo el tiempo apuntando a una misma posición fija. Gracias a los dispositivos de carga acoplada (DCA), finos sensores de luz de estado sólido, obtuvieron una imagen muy precisa sin haber tenido que mover el espejo del telescopio.
E
l detector DCA compensó la rotación de la Tierra llevando electrónicamente sus sensores de luz de este a oeste, a una velocidad igual a la de desplazamiento de las imágenes que iba captando el telescopio. Este procedimiento viene a ser como tomar una fotografía de un objeto en movimiento con una cámara que se mueva a la misma velocidad que él. Un objeto, por lo general, sólo tarda en cruzar la estrecha abertura del detector unos cuantos minutos, lo que limita la cantidad de luz que se recoge. Sin embargo, dado que noche tras noche se observan las mismas regiones del firmamento, es posible crear imágenes cada vez más intensas sumando digitalmente, mediante un ordenador, exposiciones sucesivas. El logro de Gunn, Schneider y Schmidt reavivó mi interés por los espejos líquidos, de los que había oído hablar en mis primeros años de carrera. Aunque la idea me pareció sugestiva, nunca pensé en la viabilidad de su aplicación. Sería por los días del experimento del Monte Palomar; disfrutaba yo entonces de un período sabático en la Universidad de Arizona, donde J. Roger, P. Angel y John McGraw se empeñaban en sacar parti do de los DCA. Se proponían construir un nuevo telescopio —cuyo funcionamiento es ahora rutinario— para la búsqueda de supernovas lejanas. El telescopio está fijo permanentemente, de modo que no hacen falta ni una estructura ni una cúpula móviles. Al final de mi período sabático había caído en la cuenta de que no había ninguna razón por la que una cámara DCA pudiera recopilar imágenes pre-
TEMAS 6
cisas a partir de un espejo de cristal fijo y no a partir de uno líquido. Por supuesto, esa precisión se desperdiciaría si el espejo líquido no generase imágenes de gran calidad. De regreso en la Universidad de Laval me centré en el funcionamiento de los espejos líquidos. Encargué un cojinete lubricado por aire y un motor eléctrico. Nuestros talleres fabricaron el resto de los componentes. Transcurridos escasos meses examinaba mi primer espejo de mercurio, de 50 centímetros de diámetro. Realicé la prueba del cuchillo: acercar una hoja afilada al haz reflejado de un punto de luz. Un espejo ideal proyecta una imagen del mismo tamaño que la fuente puntual; la imagen se eclipsa en el instante en que la punta del cuchillo corta el paso de la luz reflejada. Un espejo defectuoso difunde la luz y crea una imagen mayor, cuyo brillo circunda la punta de la hoja del cuchillo. El resultado de la prueba fue una obstrucción limpia, señal inconfundible de la parábola. Construí otro espejo, de un metro, para estudiar la técnica del mercu rio líquido. Me ayudaron Robin Arsenault y Mario Beauchemin. Los análisis posteriores confirmaron que la superficie del espejo era perfectamente parabólica y pasablemente lisa. La maquinaria sobre la que se apoyaba el espejo era tan estable, que las rugosidades de la superficie resultaron despreciables y la distancia focal, constante.
A
la vista de estos esperanzadores resultados decidí emprender un desarrollo en serio. Había que contar con una instalación adecuada para realizar mediciones ópticas exactas y dotarla de los equipos más avanzados. En la construcción hubo que atender al control de sutiles alineaciones ópticas, vibraciones del edificio y turbulencias del aire, perturbaciones capaces de ocasionar graves daños: si se quiere lograr un alto grado de precisión óptica, hay que reducir a un mínimo defectos de incluso 1/40 de la longitud de onda de la luz visible que se puedan producir en la superficie del espejo. En el transcurso de nuestros primeros trabajos con un espejo de mercurio de 1,5 metros de diámetro, Stanislaw 1. TELESCOPIO de espejo liquido de la Universidad Occidental de Ontario. El observatorio porta un sistema de detección y medición del alcance de luz. El telescopio capta la luz emitida por las moléculas que excita en la atmósfera un potente rayo láser.
LA CIENCIA DE LA LUZ
75
Szapiel había obtenido una imagen no resuelta de una estrella artificial en una pantalla de televisión. La ampliamos con una lente de microscopio y, para nuestro asombro, el monitor mostró un disco rodeado por anillos alternos de oscuridad y luz tenue: ¡la imagen se asemejaba al patrón de difracción del espejo! La razón de que se formen sombras es que, aun cuando la calidad de una superficie óptica roce la perfección, la naturaleza ondulada de la luz impone una limitación fundamental. Las ondas de luz reflejadas por el espejo se superponen y eliminan o refuerzan, tal y como las ondas de la superficie de un estanque generan diseños complejos; aparece entonces un punto de luz, un disco rodeado de anillos sombreados que corresponden al juego constructivo o destructivo de la luz reflejada. Como consecuencia, la nitidez de una imagen no se basa tanto en la calidad del espejo cuanto en su diámetro: a mayor anchura del espejo, más nítida la imagen. Al principio nos costaba creer que lo visto en la pantalla era el patrón de difracción característico del espejo. Pero tras mucho discutir, calcular y experimentar, aceptamos la probabilidad de que nuestro espejo fuese casi perfecto. La confirmación de esta conclusión requería la realización de pruebas aún más rigurosas. Robert Content estudió concienzudamente el espejo de 1,5 metros con un interferómetro de lámina de difusión. Este instrumento delinea el contorno de las superficies con una precisión extraordinaria. Para ello registra los pa trones de
interferencia de la luz. Procesamos cientos de interferogramas, grabados con una cámara DCA, hasta quedarnos satisfechos con la validez de nuestros resultados.
E
l estudio de un espejo líquido entraña mayor dificultad que el estudio de un espejo de cristal porque la superficie de un líquido puede cambiar su forma muy deprisa. No se debe tomar el promedio de las medidas, como se hace con los espejos de cristal, ya que esta operación infravaloraría las aberraciones debidas a la turbulencia del aire y a las vibraciones. Durante esta etapa de pruebas, la cuidadosa preparación rindió sus frutos. La interferometría demostró que la superficie parabólica de un espejo líquido bien afinado se mantiene precisa en 1/30, por lo menos, de la longitud de una onda de luz, lo que anda cerca de la precisión especificada para el Telescopio Espacial Hubble. Pese a que las pruebas conducidas en nuestro laboratorio arrojaron en dos años resultados mucho mejores de lo que esperábamos, teníamos aún que evaluar el comportamiento del espejo líquido en el exterior, sometido a los efectos de la intemperie. Para ello construimos un observatorio donde alojamos, en 1986, un espejo líquido de 1 metro y, al año siguiente, uno de 1,2 metros. Del funcionamiento del observatorio se encargaron estudiantes; durante 63 noches despejadas rastrearon destellos estelares que estaban por confirmar, captados en otros lugares. Por detector se empleó
una cámara programable de 35 milímetros, capaz de registrar rastros de estrellas cuya duración no excedía de dos minutos. No fue difícil montar este observatorio con un presupuesto razonable. Al final, la instalación en su conjunto funcionó bien. No se encontraron los destellos; concluimos que, de existir, no se producían con frecuencia. Pero lo realmente importante fue que este trabajo condujo a una publicación que ha marcado un hito: la descripción de la primera investigación llevada a cabo con éxito gracias a un espejo líquido. Pero, ¿qué observaciones pueden realizarse con un telescopio, por muy preciso que sea y por muy fácil y económico que resulte construirlo, si no es posible apuntarlo a voluntad? La mayoría de los sistemas de detección y registro pueden adaptarse a un telescopio fijo. Aunque no hubiese más que la técnica ya probada —la que registra las observaciones con los DCA—, es de esperar que los telescopios de espejo líquido faciliten apreciablemente los rastreos astronómicos. Estos instrumentos deberían beneficiar a los cosmólogos. Ellos trazan el mapa del universo y tienen que observar objetos extremadamente tenues; necesitan, por tanto, observar durante largo tiempo con telescopios de gran diámetro, pero, dado su elevado coste, nadie puede acceder a ellos a título individual. Hay tal demanda de tiempo de observación en telescopios de cierto tamaño, que ni siquiera un equipo reunido en régimen de cooperación conseguirá más de una docena de noches al año para un proyecto específico. Por consiguiente, se tarda años en completar un rastreo.
L
os cosmólogos podrían disponer de los telescopios de espejo líquido más a menudo que de los costosos aparatos de espejo de cristal. Gracias a esa asequible técnica, el progreso de muchas tareas especializadas, desde la búsqueda de supernovas lejanas y cuásares hasta el estudio de la evolución y la topología del universo, podría avivarse. Paul Hickson construyó un telescopio de espejo líquido de 2,7 metros para realizar rastreos espectroscópicos. El dispositivo utiliza un detector DCA y filtros de interferencia. Andrew E. Potter, Jr. y Terry Byers han construido un telescopio de espejo líquido de tres metros de diámetro destinado a la búsqueda de desechos espaciales no mayores de un centíme2. SUPERFICIE DE UN LIQUIDO EN ROTACION. Adopta una forma parabólica tro, que constituyen una amenaza bajo la constante atracción de la gravedad y una aceleración centrífuga que crece para naves y estaciones espaciales. con la distancia al eje central. La curva parabólica se produce porque una superficie líquida tiene que ser perpendicular a la aceleración neta que experimenta; enEsta novedosa técnica ofrece, amén este caso, se va inclinando cada vez más conforme crece la distancia al eje. de grandes tamaños, valiosas propie-
76
TEMAS 6
dades: elevada calidad de Afo rtu nadam ente dis pon esu perficie, baja dispersión, mos de diversas opciones para aperturas muy rápidas y un reducir a un mínimo el barrido enfoque variable que se controla de la superficie por el aire. El con suma precisión. Puede, por uso de capas delgadas de mereso, mejorar la investigación en curio amortigua bastante las numerosos campos de la cienperturbaciones. Una capa de cia. Hemos trabajado con el moléculas orgánicas, de lípidos grupo dirigido por Robert J. por ejemplo, que flote sobre el Sica en la construcción de un mercurio también amortiguará espejo lí quido que haga de las ondas producidas por el receptor en un sistema de detecviento. Una solución garantición y medición del alcance zada consiste en colocar una (LIDAR). Este tipo de instrupelícula de plástico sobre el mento inspecciona la atmósfera líquido en rotación. Tras probar a una altitud de 30 a 110 kilóuna serie de materiales, vimos metros. En primer lugar, el disque con películas delgadas y positivo dispara un potente rayo fuertes de mylar se protege la láser hacia el cielo para excitar superficie del espejo sin que la las moléculas de la atmósfera; luz se distorsione. éstas emiten luz, cuya intensidad y longitud de onda indican e pueden lograr otras mejolas condiciones de densidad y ras. Como el mercurio es temperatura del lugar donde se pesado, reemplazarlo por un encuentren. El receptor recoge líquido más ligero sería ventaesta luz delatora para interprejoso: un espejo que pesase menos tarla. La poten cia captadora de descansaría sobre un cojinete y luz que tiene nuestro espejo de un recipiente más baratos. Por mercurio de 2,65 me tros conello hemos empezado a experivierte a este sistema en uno de mentar con galio, metal líquido los analizadores de la atmósfera más ligero que el mercurio. Los más sensibles que hay. resultados son esperanzadores, Dada la precisión de su forma y aunque el galio se solidifica a parabólica, los espejos fluidos 30 grados, se le subenfría con valen también como superficies facilidad. El subenfriamiento de referencia, de bajo coste, para consiste en mantener una suslas comprobaciones que han de tancia en estado líquido por hacerse en los talleres ópticos. debajo de la temperatura a la El uso más srcinal que hasta el que normalmente se solidifica. momento se le haya dado a un John Gauvin y Gilberto Moretto espejo líquido se debe a Nathalie subenfriaron muestras de galio Ninane. Le saca hologramas a 3. LOS ESPEJOS LIQUIDOS aportan superficies hasta –30 grados. Comprobaron un espejo de mercurio de 1,4 que las muestras siguieron en ópticas extraordinarias. El interferograma arriba ( ) metros; iluminados de nue vo, corresponde a un espejo líquido de 2,5 metros deestado líquido, de forma estable, generan imágenes que sirven de diámetro. El análisis por ordenador ofrece una ver-durante varias semanas; se soliguía para que al pulir los espejos sión en falso color que muestra el contorno de ladificaron sólo cuando la tempede cristal se consigan parábolas superficie del espejo (centro). Los rastros de estre- ratura descendió de los –30 grallas (abajo) se obtuvieron mediante un espejo líquidos. Gauvin fabricó un espejo de perfectas. do de 1,2 metros y una cámara fotográfica, en 1987. Me movía en un principio la aleación de galio de 50 cenposibilidad de construir espejos tímetros de diámetro cuyo funde diámetros gigantescos, de más de superficie de un líquido que gira, se cionamiento fue bastante aceptable. 30 metros incluso. ¿Hasta qué diáme- mueve sobre un marco de referencia Las mejoras de los dispositivos de tro podemos llegar realmente? Sólo lo giratorio, como la Tierra. Hickson y corrección óptica, al expandir la zona Brad K. Gibson, por un lado, y yo, por de cielo de la que le llegue luz al apasabremos si intentamos construir espejos cada vez más anchos. La rela- otro, hemos calculado que éste no rato, aumentarán también la utilidad tiva facilidad con que preparamos el sería un problema grave. De todas de los telescopios provistos de espejos líquidos. Cuando la luz se refleja en espejo de 2,7 metros y lo económico formas, nuestras primeras observaque nos resultó son buenos presagios. ciones indicaron que el viento sí crea un espejo parabólico, sólo convergen De todos modos, hay varios factores perturbaciones notables. Aunque una en un punto las imágenes de los objeconstrucción aísle el espejo líquido de tos puntuales y distantes que estén que podrían limitar el tamaño. La curvatura de la Tierra introduce corrientes externas, el aire que su pro- situados directamente sobre el centro pia rotación genera terminaría por una pequeña variación focal, que de la parábola. Las imágenes de los puede corregirse. Hay, sin embargo, poner un tope a su tamaño. Las zonas puntos apartados de este eje central periféricas de un espejo grande se un factor geofísico preocupante: el son manchas, cuyo tamaño aumenta mueven a mayor velocidad que las de con su distancia al eje, lo que produce efecto Coriolis, que imprime un aspecto de espiral a las masas de aire un espejo menor, y esa velocidad supe- borrosidad. Estas distorsiones, que se que se mueven por el globo. Este efecto rior genera una mayor turbulencia dan en cualquier telescopio, se amise da cuando un objeto, por ejemplo la local en el aire. noran por medio de dispositivos ópti-
S
LA CIENCIA DE LA LUZ
77
cos auxiliares. Se trata de lentes o espejos coordinados que alinean los rayos extraviados de la luz reflejada; de esa manera se eliminan muchos errores de la imagen final. La disposición habitual de estos instrumentos permite obtener imágenes fidedignas con una an chura de alrededor de un grado, que es el doble del diámetro
aparente de la Luna. Con telescopios ubicados en varias latitudes de forma que abarquen diferentes partes del cielo, se ensancha la zona de visión. Sin embargo, sería más eficiente y mucho menos costoso desarrollar dispositivos de corrección perfeccionados para ampliar el campo de visión de un solo telescopio.
Con ese propósito, Harvey R. Richardson y Christopher L. Morbe diseñaron un corrector por ordenador que contrarrestara los errores específicos que se producen en las reflexiones de los espejos líquidos. El instrumento, de manejo un tanto difícil, ha de orquestar el movimiento de tres espejos. Aun así, gracias al corrector
Así funcionan los telescopios de espejo líquido
L
a NASA ha construido un espejo líquido de tres metros de diámetro (abajo, a la izquierda ) que buscará desechos espaciales. El diagrama (arriba ) muestra cómo funciona. El espejo y el cojinete descansan sobre una montura de tres patas; el eje de rotación se alinea verticalmente por medio de dos tornillos ajustables. Un motor eléctrico sincrónico, conectado mediante poleas y una correa, mueve el girador situado bajo el recipiente del espejo; un alimentador de corriente alterna, estabilizado por un oscilador de cristal,
78
controla el motor. Sobre el recipiente base se fragua una parábola sólida hecha de una resina de poliuretano. Una vez endurecida, se vierte el mercurio líquido en el cuenco. La sencillez del diseño de los espejos líquidos los hace asequibles y fáciles de construir. En el rudimentario observatorio (abajo, a la derecha ) construido en 1987 en Laval, Quebec, se efectuó la primera investigación astronómica realizad a con un espejo líquido. La construcci ón de un espejo de 2,7 metros de diámetro costaría algo más de dos millones de pesetas.
TEMAS 6
los espejos líquidos producen imágenes excelentes de luz que incide en el espejo formando un ángulo de hasta 7,5 grados con el eje central. Este trabajo pionero demuestra que es posible corregir las aberraciones introducidas cuando la luz se refleja en ángulo agudo en la superficie parabólica líquida.
P
ocas limitaciones afectan, en teoría, a los correctores optimizados. Con ellos, los telescopios de espejo líquido, a pesar de la estrechez del campo de visión, deberían tener a su alcance buena parte del cielo visible, lo que es de apreciar en espectroscopía o en la fotografía de muy alta resolución. Desde un punto de vista práctico, Ming Wang, Gilberto Moretto y yo, en colaboración con Gerard Lemaître, exploramos nuevas adaptaciones de los espejos correctivos. Lemaître inauguró esta técnica óptica, que consiste en deformar espejos hasta darles una morfología compleja que elimine los errores de reflexión. Recientemente, Wang, Moretto y yo hemos diseñado por ordenador un corrector de gran capacidad, con dos espejos auxiliares. Da excelentes imágenes de zonas del cielo que están desplazadas del eje central nada menos que 22,5 grados. Un dispositivo holográfico podría, al menos en teoría, servir de mediador perfecto que reconciliase las diferencias entre la luz reflejada y su fuente de srcen. Podría colocarse en el haz de luz reflejada un holograma grabado de antemano. Al pasar la luz a través del holograma, se filtrarían los errores predecibles. Mosaicos de hologramas generados por ordenador compensarían las aberraciones que se producen cuando la luz viaja largos trechos desde el cenit, a través de grandes campos de visión. ¿Podría instalarse en el espacio un telescopio provisto de espejo líquido? La idea es muy atractiva; los espejos líquidos gozan de excelentes cualidades ópticas, pesan poco y es fácil embalarlos. Pese a sus temperaturas extremas, la Luna podría, sin duda, albergar un telescopio así. El espejo, hecho de ligera aleación de galio, o quizá de una aleación alcalina aún más ligera, permanecería en estado líquido porque esas aleaciones tienen temperaturas de fusión muy bajas. En cambio, pensaba hasta hace poco que poner un telescopio de espejo líquido en órbita era imposible. La gravedad proporciona la aceleración necesaria para que se forme una parábola en la Tierra o en la Luna; un telescopio orbital se encontraría en estado de caída
LA CIENCIA DE LA LUZ
4. ESPEJO LIQUIDO, de 2,7 metros. Al cuidado de Luc Girard, es el receptor de un monitor atmosférico. Se encuentra en la Universidad Occidental de Ontario.
libre, así que no le afectaría la gravedad. No sería práctico que un motor proporcionara la aceleración requerida, ya que acabaría por quedarse sin combustible. Las posibilidades que ofrecerían los vehículos impulsados por velas solares han hecho que cambie de parecer. En 1992 publiqué un artículo en el Astrophysical Journal donde examinaba la posibilidad de que velas solares propulsasen telescopios de espejo líquido en órbita. El Sol proporciona una fuente inagotable de energía, que una vela solar emplearía en darle aceleración a la superficie líquida, para transformarla en una parábola. Quizá parezca una idea más fantasiosa que científica, pero se basa en supuestos razonables. No se ha lanzado todavía con éxito una nave impulsada por velas solares, pero un estudio realizado por la NASA a finales de los años setenta mostraba la viabilidad de esos vehículos. Para que el espejo acelerado por las vela s sola res no fues e adqu iriendo veloc idad hasta el punto de acabar saliéndose del sistema solar bastaría con que el recipiente se desplazara más lentamente que su propia velocidad orbital. La vela solar contrarrestaría entonces la atracción gravitatoria para que el telescopio se mantuviese en órbita. Es posible que reemplazara a toda la fuerza de gravedad; así se tendría un instrumento estacionario capaz de largos tiempos de integración. Colin McInnes ha demostrado que los vehículos provistos de velas solares podrían navegar
por múltiples rutas y cambiar de órbita. En tal caso, cabría apuntar un telescopio de espejo líquido en órbita como si fuera un telescopio corriente.
E
n el número de junio de 1987 de Physics Today, Per H. Andersen escribía una nota que llevaba por título: “¿Observarán los futuros astrónomos con espejos líquidos?” Siete años más tarde, se construyeron unos cuantos telescopios de ese tipo. ¿Cuántos astrónomos van a utilizarlos? El tiempo lo dirá, pero espero que, en el peor de los casos, sirvan para tareas astronómicas especializadas, como los rastreos. En el otro extremo, sueño que un día recaiga sobre ellos la mayor parte de la investigación astronómica, quedando relegados los telescopios inclinables a misiones muy concretas.
BIBLIOGRAFIA COMPLEMENTARIA LIQUID MIRROR TELESCOPES: HISTORY. B. K. Gibson en Journal of the Royal Astronomical Society of Canada, vol. 85, número 4, páginas 158-171; agosto de 1991. IRRORS IN RBITHE C ASE FOR LIQUID . E. M F. Borra en O AstroTING TELESCOPES
physical Journal, vol, 392, número 1, páginas 375-383; 10 de junio de 1992. L IQUID MIRRORS: OPTICAL SHOP TESTS AND CONTRIBUTIONSTO THE TECHNOLOGY. E. F. Borra, R. Content, L. Girard, S. Szapiel, L. M. Boily en Astrophysical Journal, volumen 393, n. o 2, páginas 829-847; 10 de julio de 1992.
79
Optica sin imágenes Roland Winston
Los concentradores sin imágenes —una especie de “embudos” de luz— recogen e intensifican la radiación mucho mejor que las lentes. Se utilizan en campos muy dispares de la física
M
uchos de nosotros aprendimos a concentrar la luz cuando éramos niños. Las ociosas tardes de verano resultaban perfectas para marcar a fuego iniciales sobre madera, utilizando simplemente los rayos del sol y una lupa. ¿Quién puede olvidar el asombro que producía el descubrimiento de que una pieza de vidrio ordinario permitía enfocar los rayos solares sobre un punto mínimo? La mayoría hemos vuelto a repetir la experiencia en la edad adulta. Si alguien preguntara cómo obtener la mayor concentración posible de rayos solares, casi todos aludiríamos a la utilización de una lupa, de una combina ción de lentes o tal vez a la de un espejo telescópico. La lección que aprendimos de niños no era del todo correcta. Aunque las lentes y los espejos concentren la luz, no son los mejores dispositivos para este cometido. La verdad es que el comportamiento de cualquier dispositivo óptico que concentre la luz formando una imagen se aleja bastante de lo esperado teóricamente. La razón es sencilla: aunque las imágenes que producen lentes y espejos sean casi perfectas en el punto focal, resultan turbias y distorsionadas fuera de él. Esta es la razón de que las máximas concentraciones de luz sólo puedan conseguirse cuando se prescinde de toda una serie de requisitos relacionados con la forma ción de imágenes, circunstancia de la que ha empezado a sacarse partido hace poco tiempo. Los dispositivos diseñados con este fin reciben el nombre de concentradores sin imágenes, que se comportan como un embudo. La luz penetra en los concentradores a través de una gran superficie y se refleja de suerte tal que incide sobre otra mucho menor. Es evidente que este proceso destruye toda imagen de la fuente luminosa, pero tampoco la necesitamos, puesto que lo que nos interesa es el efecto concentrador. La
80
misión de un horno solar, por ejemplo, no es formar una imagen perfecta del Sol; lo importante es que reciba la máxima intensidad de rayos solares por unidad de superficie. Las grandes concentraciones de luz que se obtienen con estos dispositivos sin imágenes han encontrado ya numerosas aplicaciones en campos científicos y técnicos muy dispares, desde la física de altas energías hasta la energía solar. Los investigadores continúan trabajando para descubrir nuevas aplicaciones de los concentradores sin imágenes, aplicaciones que se basan siempre en la obtención de grandes intensidades de luz, sin que sea necesario preservar las imágenes. El autor de este artículo y sus colaboradores de la Universidad de Chicago estudiaron la utilización de esta clase de dispositivos para obtener grandes intensidades de luz solar en cualquier lugar del sistema solar, incluyendo la propia superficie del Sol.
tivos que concentran la luz hasta un límite lo más elevado posible. Mis investigaciones sobre óptica sin imágenes comenzaron en el campo de la física de altas energías. T. A. Romanowski y yo colaboramos en una experiencia para detectar una desin-
L
a óptica sin imágenes nació a mediados de los años sesenta, cuando un soviético, V. K. Baranov, un alemán, Martin Ploke, y el autor diseñaron, cada uno por su cuenta, los primeros concentradores parabólicos compuestos. El nombre del dispositivo resulta inapropiado, porque sus paredes no suelen ser parabólicas. La denominación alude a una clase de disposi1. CONCENTRADORES sin imágenes, denominados concentradores parabólicos compuestos; recogen los rayos solares que llegan al tejado del edificio del Departamento de Agricultura en Springfield. Los reflectores que forman este sistema aumentan al máximo la concentración de luz que llega hasta un conjunto de tubos en los que se ha practicado el vacío. Los tubos retienen el calor de forma parecida a como lo hace un termo doméstico. La superficie total del sistema, que se utiliza para calentar y refrigerar el edificio, es de algo más de 1000 metros cuadrados.
TEMAS 6
tegración rara de lambda, partícula que pertenece a la clase de los hiperones, partículas inestables. Los hiperones se parecen a los protones y neutrones que existen en la materia ordinaria, pero su masa es algo mayor. Las partículas lambda se suelen desintegrar en un protón (o un neutrón) y un pion; pero en estas desintegraciones se produce un electrón con una frecuencia del orden de uno por mil. Nosotros deseábamos investigar esta desintegración rara de las partículas lambda para comprobar el modelo de Cabbibo-KobayashiMasakawa. Nuestro trabajo consistía en detectar estas desintegraciones raras con electrón en el seno de los procesos dominantes con pion. Nos propusimos detectar los electrones producidos en dicha desintegración estudiando la radiación de Cerenkov, efecto denominado así en memoria de su descubridor soviético.
LA CIENCIA DE LA LUZ
La radiación de Cerenkov es la analogía óptica de la “explosión sónica”. Igual que se produce una onda sonora de choque cuando un avión a reacción vuela a una velocidad superior a la del sonido en el aire, así, cuando una partícula se mueve en el interior de un sólido, líquido o gas con una velocidad mayor que la de la luz en estos medios, se produce la emisión de una onda de choque luminosa. (Los lectores saben que, de acuerdo con el postulado de Einstein, nada puede moverse con una velocidad mayor que la de la luz en el vacío; aunque la velocidad de una partícula en esos medios materiales pueda superar a la velocidad de la luz en ellos, nunca puede ser mayor que la de la luz en el vacío.) La velocidad con que se mueven los piones es mucho menor que la de los electrones, porque su masa es unas 300 veces mayor; por tanto, en el seno de un gas de fluorcarburo, tan sólo las velocidades de los
electrones son lo suficientemente elevad as par a produc ir rad iac ión de Cerenkov. Para detectarla era necesario recoger la débil luz producida y hacerla llegar a unos fotomultiplicadores, con el fin de registrar la presencia de un solo electrón. Sin embargo, dado que la luz emitida era muy débil y se distribuía sobre una superficie muy grande y bajo ángulos muy diferentes, captarla por métodos corrientes hubiera requerido más de cien tubos fotomultiplicadores de gran tamaño (doce centímetros de diámetro), lo que resultaba muy costoso y poco práctico. Era obligatorio, pues, aplicar una técnica diferente. Al fin y al cabo un tubo fotomultiplicador no necesita obtener una imagen perfecta de una fuente luminosa para funcionar bien; lo único que necesita es recibir luz. Cuando nos enfrentamos a este problema, sabíamos ya que era posible
81
captar luz con mayor eficiencia que la de los dispositivos habituales de obtención de imágenes. Un simple cálculo me convenció de la posibilidad de obtener un rendimiento cuádruple del común, reduciendo así el número de fotomultiplicadores necesarios a un par de docenas. Con la ayuda de Henry Hinterberger, un ingeniero experimentado, empezamos a trabajar en este proyecto. Meses después diseñábamos y construíamos el primer concentrador parabólico compuesto, un reflector en embudo. Estábamos en el año 1965. demás de resolver nuestro problema, había yo contribuido a descubrir el campo de la óptica sin imágenes, aunque en aquel entonces no era consciente de ello. Pocos avances 2. METODO DE LOS RAYOS MARGINALES, una de las dos técnicas empleadas se produjeron en él hasta mediados de para diseñar concentradores sin imágenes. El concentrador se construye de suerte los años setenta, cuando otros invesque todos los rayos luminosos que entran en el dispositivo según cierto ángulo de empezaron a darse cuenta incidencia máximo se dirijan, tras sufrir como mucho una sola reflexión, hasta tigadores el de las enormes posibilidades que ofreorificio de salida. Se puede comprender cómo funciona este dispositivo haciendo deslizar un trozo de cuerdalínea ( ( azul) a lo largo de una barralínea roja). El cían estos concentradores sin imágediagrama muestra a la cuerda en varias etapas del proceso de deslizamiento. La nes en relación con la astronomía y la cuerda se mantiene siempre tensa en dirección paralela a los rayos de luz incidenenergía solar. Fue entonces cuando te, doblándose luego bruscamente para ir a buscar el orificio de salida punto ( A), llegaron a mi conocimiento los descude modo que su longitud total permanezca inalterada. Los puntos en los que se brimientos independientes de Baranov dobla la cuerda definen la pared del concentrador. y Ploke, casi diez años después de que se hubieran producido. Existen ahora dos formas de diseñar concentradores sin imágenes. La primera de ellas se conoce con el nombre de método de los rayos marginales. Consiste en que la luz penetra en el concentrador bajo ángulos de incidencia comprendidos entre cero grados (incidencia superior) y cierto valor máximo, por ejemplo, 20 grados. En el método de los rayos marginales, todos los rayos de luz que penetran en el dispositivo según el máximo ángulo son dirigidos, tras sufrir a lo sumo una reflexión, hasta el borde del orificio de salida. Por tanto, todos los rayos restantes del haz, correspondientes a los ángulos intermedios, se reflejan dentro de la propia abertura de salida, un fenómeno llamativo que se produce de forma perfecta en dos dimensiones (concentradores en artesa) y casi perfecta en tres dimensiones (concentradores en cono). La belleza del método de los rayos marginales estriba sobre todo en su sencillez. El segundo método, de contenido más abstracto, se parece muy poco al método de los rayos marginales. Entre los investigadores que han contribuido a desarrollar el método del 3. CONCENTRADOR PARABOLICO COMPUESTO, basado en el método de los rayos flujo vectorial geométrico, que es marginales, que concentra la energía solar en los tubos absorbentes. El que uno de como se le llama, quisiera mencionar ellos aparezca negro indica que ha absorbido todos los rayos del campo angular del a Walter T. Welford y a Xiaohui Ning. concentrador. Esta configuración permite la máxima absorción de los rayos solares Cuando se usa este método, se supone sin recurrir a un costoso equipo de seguimiento y sirvió de base a diversos concenque el conjunto de rayos que atratradores solares comercializados a principios de los años och enta. Con la superación de la crisis petrolífera, gran parte de la investigación se trasladó a Japón. viesa un sistema óptico se comporta
A
82
TEMAS 6
en principio como un fluido. Ahora bien, en lugar de atravesar el espacio en el sentido usual de la palabra, dichos rayos atraviesan un espacio fásico, una re gión abstracta constituida por las posiciones y las direcciones de los rayos. El flujo vectorial geométrico es una magnitud que está relacionada con los valores de las posiciones y direcciones. El diseño de un concentrador para una aplicación determinada ocurre de suerte tal que dicho flujo vectorial se conserve, es decir, que no sufra ninguna perturbación. sta forma de decirlo puede resultar demasiado oscura, pero un ejemplo lo aclarará. Imaginemos una lámina flexible de una película muy reflectora del tamaño de esta revista y un objeto redondo, por ejemplo, una naranja. Supongamos que la lámina se enrolla para formar un cartucho de forma cónica, con la cara brillante en el interior, y se deja un agujero del tamaño de una moneda en uno de sus extremos (véase la figura 4). Este agujero se coloca sobre la naranja y se ajusta la abertura del cono hasta conseguir que, mirando desde el otro extremo, pueda vérsela entera. En esta situación el concentrador (el cono reflector) no perturba el flujo vectorial geométrico asociado a la naranja; las líneas de flujo que emergen de ella son radiales por efecto de la simetría y el cono sigue estas líneas. Esta es la razón de que pueda verse la naranja entera, aunque su mayor parte quede oculta al ojo. Este efecto es mucho más que una simple ilusión óptica. El cono refleja los rayos de luz de una porción pequeña de la naranja de forma tal que lo que se ve es toda la naranja. Supongamos ahora que invertimos la dirección de todos los rayos. Los rayos que penetran en el cono y se dirigen hacia la superficie de la naranja serán reflejados hasta el agujero más pequeño. En otras palabras, los rayos que normalmente se dirigirían hacia la superficie de la naranja pasan ahora a través del agujero y la luz se concentra. Lo que interesa en la mayoría de las aplicaciones prácticas es concentrar la luz sobre una superficie plana y no esférica. La solución es mucho más complicada en este caso que en el anterior, pero los principios básicos son los mismos. Cada línea de flujo es ahora una hipérbola y, por consiguiente, las paredes del concentrador deben adquirir esa forma. Cuando uno de estos concentradores se coloca en el foco de un telescopio o de un horno solar, por ejemplo, el instrumento es “engañado”
E
LA CIENCIA DE LA LUZ
4. FLUJO VECTORIAL GEOMETRICO: método para construir concentradores sin imágenes. Supongamos que un conjunto de rayos que atraviese un sistema óptico se comporte como un fluido. En el caso de un objeto redondo, por ejemplo, una naranja, las líneas de flujo son radiales. Si enrollamos una lámina flexible de un material muy reflector dándole una forma cónica, situando la cara reflectora en su interior, de manera que en el extremo más estrecho exista un agujero del tamaño de una monedaarriba ( ), podremos situarlo sobre la naranja de modo que parezca vérsela entera por la parte más ancha abajo ( ). El cono sigue las líneas del flujo y da la impresión de que puede verse la naranja entera, cuando la realidad es que toda ella, salvo una pequeña parte, está tapada.
por él, presentando una superficie mayor a la luz incidente, lo que equivale a decir que los rayos luminosos se concentran. La proliferación de dispositivos ópticos sin imágenes obedece al deseo de diseñar concentradores solares que no necesiten orientarse para ir siguiendo la trayectoria del Sol. Tanto por razones de eficacia como de economía, es necesario que los dispositivos de energía solar concentren los rayos solares. Las temperaturas que suministra un calentador solar aumentan a medida que lo hacen las concentraciones de luz; con frecuencia resulta más barato concentrar la luz procedente de una superficie determinada sobre una superficie menor de células solares que llenar toda la superficie con células solares. Sin embargo, los sistemas de seguimiento se basan en la utilización de máquinas muy complicadas, cuyos gastos de instalación y de mantenimiento repercuten en el coste de la energía generada.
L
a crisis del petróleo avivó el desarrollo de fuentes de energía alternativas y propició una carrera para hacer más atractiva la opción de la energía solar. Surgió así un interés en la construcción de concentradores solares mucho más eficaces para reducir la necesidad de sistemas de seguimiento. Robert G. Sachs conocía los trabajos que yo había realizado con concentradores no focalizadores que tenían formas peregrinas y pensó que yo podría ayudarle en esta tarea. Los dispositivos sin imágenes resultaban adecuados para esta tarea, tal como demostraron las primeras investigaciones llevadas a cabo en colaboración con William W. Schertz y Ari Rabl. Gracias a la colaboración de Joseph J. O’Gallagher, Manuel
Collares-Pereira y Keith A. Snail demostré que se podían diseñar concentradores sin imágenes capaces de enfocar bien los rayos solares durante casi todo el día sin necesidad de ningún movimiento, concentradores que podían acoplarse a cualquier geometría razonable. Posteriormente, trabajando con distintos colaboradores y con el apoyo del Instituto de Investigación de Energía Solar en Golden, nos propusimos demostrar que los dispositivos sin imágenes concentran los rayos solares
83
5. PARA MEDIR GRANDES INTENSIDADES de rayos solaresprocede a registrar el cambio de la temperatura del líquido se hace que la luz atraviese un concentrador de zafiro situa- antes y después de la llegada de la radiación. La calibración do en un termo lleno de líquido, es decir
hasta el límite teórico impuesto por la termodinámica o hasta muy cerca de esa frontera. De acuerdo con el segundo principio de la termodinámica, ningún dispositivo puede concentrar los rayos solares hasta alcanzar una intensidad que corresponda a una temperatura que supere a la que existe en la superficie del Sol. Si dicha intensidad se alcanzara, sería posible construir una máquina térmica que trabajara entre el Sol y el concentrador y que sería capaz de producir energía sin coste alguno: esta máquina
un calorímetro. Sese realiza mediante un calefactor eléctrico.
sería un móvil perpetuo. El valor del límite superior de la concentración es unas 46.000 veces mayor que el de la intensidad de la luz solar en la superficie de la Tierra. (Me cupo el honor de ser el primero que calculó el valor de este límite superior, basándome en argumentos de conservación del espacio fásico.) Existe una escapatoria para producir concentraciones que superen este valor de 46.000. Si el concentrador se fabrica con un material cuyo índice de refracción sea n, el valor del límite
superior de la concentración aumenta en un factor n2. (El índice de refracción de un material es igual a la relación entre la velocidad de la luz en el vacío y su velocidad en el material en cuestión; cuanto menor sea esta última, tanto mayor es el índice de refracción.) Por ejemplo, el índice de refracción del vidrio vale 1,5 y, por tanto, el máximo teórico de un concentrador de vidrio se eleva a 100.000. El aumento de la concentración por los materiales con índice de refracción elevado se debe a que desvían más los
Cómo alcanzan el límite termodinámico los concentrador es sin imágenes as leyes de la termodinámica imponen un límite teórico a la concentración máxima de l os rayos solares. La intensidad de la luz solar que incide so bre la Tierra viene dada por la intensidad de la luz existente en la superficie del Sol, multiplicada por la superficie solar, 4πR2, y dividida por la superficie de la esfera definida por la órbita de la Tierra, 4πD2. La intensidad de la luz en el Sol es mayor que en la Tierra en un factor (D/R)2, que de acuerdo con la trigonometría equivale a 1/sen2θ, donde θ representa el semiángulo subtendi do por el Sol, cuyo valor es de 0,267 grados. Si sustituimos este dato en la expresión anterior, obtenemos un valor de 46.000. De acuerdo con la termodinámica, ningún dispositivo puede concentrar la luz solar sobre la Tierra con un valor mayor que el
L
84
anterior. Si este valor se alcanzara, sería posible construir una máquina térmica, situada entre el Sol y dicho dispositivo, capaz de producir energía de la nada: habríamos creado la máquina de movimiento perpetuo. Hay una escapatoria, consis tente en fabricar el concentrador con una sustancia cuyo índice de refracción sea mayor que la unidad; la concentración máxima alcanzable aumenta entonces por el factor n2, resultando ser n2/sen2θ. Los elementos ópticos normales, que producen imágenes, no alcanzan más que una cuarta parte del límite de concentración teóri ca. Un espejo parabólico produce una imagen del Sol en su foco cuya superficie viene dada por la expresión πR 2sen 2θ/cos 2φ, donde R representa la longitud que se indica en la figura, θ es el semiángulo subtendido por el Sol y φ el
TEMAS 6
6. EL LASER SOLAR es una de las aplicaciones posibles de átomos, produciéndose una emisión de luz a una o varias las grandes intensidades de luz que se obtienen con los frecuencias. La luz emitida se refleja una y otra vez en sensistemas ópticos sin imágenes. La luz concentrada penetra dos espejos, a través de uno de los cuales sale el haz de por uno de los extremos de un cristal de láser y excita sus hacia el exterior.
rayos de luz que inciden bajo ángulos mayores. Este fenómeno es una manifestación de la ley de Snell y resulta conocido para quien haya observado la fractura aparente que presenta un bastón sumergido en el agua. Los principios de la termodinámica no se violan por este aumento de la concentración según n 2, debido a que la radiación de energía de un objeto resulta también proporcional a n 2, cancelándose recíprocamente ambos factores.
ángulo del borde del espejo. La superficie de captación del espejo viene dada por la expresión πR 2sen 2φ. La concentración que produce este espejo se puede expresar como el cociente entre el área del espejo y el área de la mancha luminosa: sen 2φcos 2φ/sen 2θ o, lo que es lo mismo, (1/4)sen 22 φ/sen 2θ. El valor máximo de esta expresión viene dado por (1/4)1/sen 2θ, es decir, un valor igual a la cuarta parte del límite ter modinámico. Como es natural, si se tiene en cuenta la obstrucción que introduce el blanco focal, la concentración resulta todavía menor.
LA CIENCIA DE LA LUZ
Para alcanzar el límite termodinámico, el concentrador sin imágenes se coloca en el foco de un espejo telescópico parabólico. En principio debería ser posible obtener concentraciones muy altas con sólo el elemento sin imágenes, pero en la práctica esto requeriría que fuese enorme y su construcción resultase económicamente prohibitiva. El espejo tiene un diámetro de 40 centímetros y produce una mancha de un centímetro de diámetro a una distancia de un metro. En la primera serie de experiencias construimos un embudo de plata y lo llenamos con un aceite cuyo índice de refracción valía 1,53; nos proponíamos “concentrar” la mancha de un centímetro a dimensiones del orden del milímetro. Con este dispositivo alcanzamos valores de concentraciones 56.000 veces mayores que la intensidad de los rayos solares sobre la superficie de la Tierra, lo cual equivale aproximadamente a un 70 por ciento de la intensidad en la superficie del Sol. Este valor queda toda vía algo lejos del límite teórico de 100.000, debido a las pérdidas por reflexiones y al bloqueo de la luz por el equipo de medida. Otra serie de experiencias ha consistido en fabricar el concentrador sin imágenes con zafiro, un material cuyo índice de refracción es todavía mayor (1,76). El diseño fue más atrevido y el límite teórico era del orden de 140.000. El valor de la concentración alcanzada en la práctica fue de 84.000, superando la intensidad de la superficie solar en un 15 por ciento. Si alguien hubiese preguntado dónde se encontrarían los rayos solares más intensos de todo el sistema solar, hubiésemos podido responder que en el tejado de nuestro laboratorio de la Universidad de Chicago. Entre las posibles aplicaciones de los rayos solares muy intensos se halla
láser
la construcción de un láser alimentado con energía solar. El uso de este dispositivo tendría un interés evidente en las comunicaciones por satélite. Otro de los motivos para construir tal láser sería obtener una fuente intensa de luz ultravioleta. Se cree que estas fuentes ultravioletas podrían servir para destruir residuos industriales peligrosos. (Si se construyeran en un desierto, estas instalaciones podrían funcionar casi por completo con energía solar.) No hemos sido nosotros los primeros en construir láseres alimentados con energía solar. Amnon Yogev y su grupo del Weizmann, los adelantados en este campo, han producido láseres basados en la óptica sin imágenes con potencias de salida de centenares de watt.
E
lementos ópticos de este tipo han encontrado muchas otras aplicaciones. Se usaron en el satélite COBE y se usan en detectores de radiación cósmica subterráneos. Incluso los mecanismos de la visión humana parecen estar basados en los principios de la óptica sin imágenes. Los conos de la retina que concentran la luz tienen formas parecidas a los concentradores parabólicos compuestos.
BIBLIOGRAFIA COMPLEMENTARIA HIGH COLLECTION NONIMAGING OPTICS.
Roland Winston y W. T. Welford. Academic Press, 1989.
NONIMAGING OPTICS
FOR
FLUX CONCEN-
. Roland Winston, I. M. Bassett y W. T. Welford enProgress in Optics, vol. 27, págs. 161-226; 1989. SUNLIGHT BRIGHTER THAN THE SUN. D. Cooke, P. Gleckman, H. Krebs, J. O’Gallagher, D. Sagie y R. Winston en Nature, vol. 346, n.o 6287, pág. 802; 30 de agosto de 1990. TRATION
85
Giroscopios ópticos Dana Z. Anderson
Aunque carecen de partes móviles, detectan movimientos de rotación lo mismo que los giroscopios mecánicos y han adquirido gran importancia en los sistemas de guía para la navegación
L
a palabra giroscopio nos trae a la memoria el recuerdo del trompo o peonza que, impulsado por un cordel, es capaz de mantenerse en equilibrio incluso sobre la punta de un lápiz. Tal juguete constituye una primaria representación de una familia de instrumentos cuya estructura esencial la constituye un disco en rápida rotación. El momento angular del disco impide que éste cambie de orientación, aun cuando gire todo el aparato. En virtud de ello el giroscopio puede mostrar la magnitud de una rotación y, de este modo, facilitar información direccional para la navegación. De hecho casi todos los vehículos algo más complicados que el automóvil, e incluso algunos que lo son menos, dependen de los giroscopios para mantener su trayectoria. El giroscopio constituye el núcleo de los sistemas de guía por inercia de aviones y de buques transoceánicos, porque funciona sin necesidad de estímu los exteriores. Este aparato detecta el movimiento incluso dentro de un recinto cerrado que impida no sólo la observación de las estrellas sino también la acción del campo magnético sobre la brújula. Los investigadores comprobaron a principios de siglo que la luz podía presentar un comportamiento giroscópico: el tiempo que emplea en recorrer una trayectoria circular depende de que el circuito permanezca estacionario o esté girando. La diferencia de tiempo entre uno y otro caso puede utilizarse para medir la velocidad de rotación. Pero el desarrollo de un giroscopio óptico tuvo que esperar en la práctica al advenimiento del láser y de otros adelantos de la técnica óptica, como son los cables de fibra óptica y los espejos de gran poder reflectante. En base a ellos se han desarrollado dos clases de sensores ópticos de rotación: los giroscopios de fibra y los giroscopios de láser anular. El más perfeccionado de estos dos dispositivos es el giroscopio de láser
86
anular, instrumento fascinante que ya tiene aplicaciones prácticas en sistemas de guía. Hay aviones comerciales, como los Boeing de las series 757/767 y cierto número de Airbus A310, que emplean giroscopios de láser anular en vez de los de tipo mecánico. Aunque la sensibilidad de los nuevos instrumentos es extraordinaria, el uso creciente de giroscopios ópticos en la navegación no responde a una necesidad de mejorar la precisión, puesto que los mecánicos también son precisos, sino a la carencia de partes móviles, que los diferencia de éstos y los hace más sencillos. Aunque los dispositivos ópticos reales también tengan alguna parte móvil, son más fáciles de mantener y resultan más baratos que sus contrincantes mecánicos. Para comprender cómo se aprovecha la luz para medir una rotación, con sideremos a un observador fijo situado dentro de un anillo circular. Supongamos que el observador emita un destello luminoso de tal manera que una mitad recorra el anillo en un sentido y la otra mitad en el opuesto. Si el anillo no gira, es evidente que ambas mitades deben volver al observador simultáneamente. Pero si gira, por ejemplo en sentido contrario al del movimiento de las agujas del reloj, el punto srcen del pulso se moverá hacia el destello que viaja en sentido horario y se alejará del que viaja en sentido antihorario. Por tanto el observador encontrará antes el destello que se mueve en sentido horario que el que lo hace en sentido opuesto. La diferencia entre los tiempos de llegada es directamente proporcional a la velocidad de rotación del anillo sin que influya en ello el que éste gire o no alrededor de su centro. La diferencia entre los tiempos de circulación se atribuye a una diferencia de longitud entre los trayectos recorridos. En el ejemplo anterior, el camino del destello que va en senti do antihorario es más largo que el seguido
por el que se mueve como el reloj. La diferencia de longitud de los recorridos producida por la rotación constituye el llamado efecto Sagnac, en honor de Georges Marc Marie Sagnac, descubridor de este fenómeno en 1913. El efecto Sagnac se ve con mayor claridad en el giroscopio de fibra, por lo que lo estudiaremos en primer lugar, a pesar de que su desarrollo
1. GIROSCOPIO DE LASER ANULAR. Como se aprecia en el ejemplar de la página siguiente, consta de un solo bloque de vidrio. El canal cuadrado perforado en el bloque contiene una mezcla de gases. Una corriente eléctrica entre el cátodo, o electrodo negativo, y el ánodo, o electrodo positivovéase ( el esquema superior), excita los átomos del gas y motiva que emitan luz. Los espejos colocados en las cuatro bloque mantienen la luz esquinas dentro deldel canal cuadrado, con lo que se forma una onda estacionaria. (La luminosidad de la mitad superior del canal es un fenómeno llamado descarga en el plasma; la onda estacionaria no puede verse.) La cinta negra de la parte inferior impide ver detalles que los fabricantes, Litton Guidance and Control Systems, consideran que son de su propiedad.
TEMAS 6
empezase una docena de años después que el del giroscopio de láser anular y de que todavía no se haya conseguido fabricar con esta técnica un instrumento práctico verdaderamente sensible a la rotación. La parte esencial del giroscopio de fibra es una larga fibra óptica, de medio a un kilómetro de longitud, que está bobinada para
LA CIENCIA
DE LA
LUZ
hacerla manejable. La fibra actúa como una tubería de luz, quedando ésta confinada dentro de sus paredes. La razón de emplear una fibra tan larga se debe a que la diferencia entre las longitudes recorridas, y por tanto entre los tiempos, aumenta con la longitud de la fibra, lo que facilita las medidas de rotación.
Este giroscopio utiliza el valor extremadamente bajo de la longitud de onda de la luz para medir con precisión la diferencia entre las distancias recorridas por dos rayos que se propaguen en direcciones opuestas. Los rayos se obtienen mediante un espejo semitransparente que desdobla en partes iguales el haz procedente de
87
la fuente de luz (se emplea casi siempre un láser, aunque no necesariamente). Los dos haces producidos circulan en direcciones opuestas por el carrete de fibra bobinada y al salir se recombinan en el espejo semitransparente. Si se coloca una pantalla a la salida del espejo, no se observa ninguna señal luminosa mientras el carrete de fibra permanezca estacionario. La razón es que los dos rayos
siguen trayectos de igual longitud y el espejo semitransparente introduce un cambio de fase: el rayo reflejado por el espejo está en exacta oposición de fase con el transmitido. A la salida, por tanto, se produce una interferencia destructiva entre ambos y se anulan mutuamente. El comportamiento es distinto cuando el carrete de fibra gira. (Se supone que el carrete, la fuente de luz,
el espejo semitransparente y la pantalla giran de modo solidario; el carrete no gira respecto a los otros componentes.) Por ejemplo, imaginemos que el conjunto esté montado en un avión y que el aparato cambie de rumbo bruscamente. En este caso los dos haces, que se propagan en sentidos opuestos por la fibra, recorren longitudes ligeramente distintas. A la salida del espejo semitransparente ya no se cancelan por completo y aparece una mancha brillante en la pantalla. Si el instrumento girase con suficiente rapidez, de modo que la diferencia de longitudes entre los dos trayectos recorridos equivaliese a media longitud de onda de la luz, la mancha luminosa adquiriría la intensidad de la fuente de luz srcinal. Esta es una versión esquemática del giroscopio de fibra. En la práctica se emplean refinados dispositivos electrónicos para analizar la salida del espejo semitransparente y obtener de ella la velocidad de rotación.
E
n 1958 se publicó un trabajo de Arthur L. Schawlo w y Charles H. Townes en el que se e stablecieron los principios básicos del láser. Siguieron poco después los primeros trabajos sobre el giroscopio de láser anular. Clifford V. Heer pronto se dio cuenta de que podía emplearse una cavidad resonante para medir velocidades de rotación. Una cavidad resonante es un recinto hueco que sirve para reforzar ondas sonoras o bien ondas electromagnéticas. En realidad cualquier láser constituye una cavidad resonante. Consta, a grandes rasgos, de un tubo largo y recto que está lleno de una sustancia amplificadora, que puede ser un sólido, un líquido o un gas. Cada extremo se cierra con un espejo semitransparente finamente pulido. Conforme la luz va y vuelve de uno a otro espejo, su intensidad queda amplificada. La salida del láser acontece cuando parte de la luz atraviesa uno de los espejos. Heer comprobó que, si a una cavidad resonante se le da forma de anillo, puede construirse un giroscopio óptico, en el que la luz circula muchas veces a lo largo de la misma trayectoria en lugar de ir y venir entre dos espejos. Tanto Heer como Adolph H. Rosenthal 2. EL PRINCIPIO BASICO en el que se apoya el giroscopio óptico reside en que consiguieron el ulteriores progresos teótiempo que necesita la luz para recorrer una trayectoria circular depende de que ricos y Warren M. Macek y Daniel T. la trayectoria sea estacionaria o esté girando. Supongamos que un hipotético obM. Davis, Jr. presentaron el primer servador situado en un anillo estacionario emita un destello luminoso y que dos giroscopio de láser anular en 1963. El mitades del mismo se propaguen a lo largo del anillo en sentidos opuestos arriba ( ). instrumento estaba formado por cuaEl observador recibirá simultáneamente los dos pulsos. Sin embargo, si el anillo tro tubos de vidrio dispuestos en un gira, el observador se mueve hacia uno de los destellos y en sentido opuesto al otro, por lo que recibirá en instantes distintos los dos pulsos ( inferior). La diferen- cuadrilátero de un metro de la do. Se parte cia de tiempos es proporcional a la velocidad de giro del anillo. hacía circular la luz por el dispositivo
88
TEMAS 6
mediante espejos situados en cada esquina. El progreso técnico realizado en los años posteriores ha sido espectacular: un giroscopio sensible de láser anular cabe ahora en la palma de la mano y suele consistir en un solo bloque de
vidrio en cuyo interior se ha perforado un canal cuadrado, que contiene una mezcla de gases, como puedan ser el helio y el neón. Completan el láser un pequeño número de electrodos y cuatro espejos. El cuatro no es un número mágico, pues algunos giroscopios de
láser anular tienen un canal triangular y tres espejos y los hay con canal hexagonal y seis espejos. Aunque los giro sco pios de lás er anular reales tengan forma poligonal, su funcionamiento se comprende mejor imaginando el caso ideal de un
3. CON EL GIROSCOPIO DE FIBRA podemos medir una velo-arriba). Cuando todo el aparato (el láser, el espejo semitranscidad de rotación detectando la interferencia entre dos rayos parente, el carrete de fibra y la pantalla) gira, los dos haces de luz que se propaguen en sentidos opuestos por una largaya no se anulan exactamente y se forma una mancha luminofibra óptica bobinada. Los dos haces se obtienen desdoblandosa sobre la pantalla abajo ( ); el brillo de la mancha aumenta un rayo láser mediante un espejo semitransparente. Tras re-con la velocidad de rotación. La velocidad de rotación del correr la fibra, los dos rayos se recombinan en el espejo. aparato, y por tanto la del vehículo en el que está montado, se Cuando el aparato no gira, los haces se interfieren destructi-deduce analizando la intensidad de la mancha. Los giroscovamente y no aparece luz a la salida panta ( lla oscura de pios de fibra se encuentran en fase de desarrollo.
LA CIENCIA
DE LA
LUZ
89
anillo circular. Cuando el anillo permanece estacionario, una descarga en el gas del láser genera una onda luminosa estacionaria en el interior del anillo. Como le sucede a la cuerda vibrante de un violín, a lo largo de la onda hay una sucesión de nodos (puntos estacionarios) y de antinodos (puntos de máxima oscilación). La longitud de onda de la luz es extremadamente pequeña: unos 0,6 micrometros (un micrometro es una millonésima de metro), por lo que en todo el anillo cabe un gran número de nodos y antinodos. Por ejemplo, la onda de un anillo que tenga 30 centímetros de perímetro presenta del orden de un millón de nodos y antinodos. Supongamos que el anillo gira, debido por ejemplo a que el supuesto avión que lleva el giroscopio cambia de rumbo. La onda estacionaria permanece fija en un sistema de referencia inercial, que no gira. La consecuencia es que el giroscopio de láser anular manifiesta el efecto Sagnac. Un observador que girase con el anillo vería pasar los nodos y antinodos de la onda estacionaria. El número de nodos que pasarían ante él sería directamente proporcional al ángulo que hubiese girado el anillo y, por tanto, contándolos podría medirse el ángulo de giro que hubiese realizado el avión. También puede emplearse un anillo no circular (digamos que triangular o
cuadrado) para detectar la rotación, pero en este caso la onda estacionaria no permanece fija en un sistema de referencia inercial cuando el anillo gira. Se observa una rotación a una velocida d más pequeña que la que presenta el anillo. La velocidad de giro de la onda estacionaria depende de la forma del anillo. En lo que concierne al observador, el ángulo de rotación sigue siendo proporcional al número de nodos que pasan por un punto dado del anillo. Si el giroscopio de láser anular fuera un dispositivo perfecto, la velocidad con la que pasarían los nodos por un punto dado del anillo sería directamente proporcional a la velocidad de rotación de éste. Si el anillo no girase, la posición de los nodos permanecería fija. En la práctica, sin embargo, hay dos causas principales de error que motivan desviaciones de este comportamiento ideal. Por fortuna ninguna de ellas es decisiva, pues ambas pueden remediarse. La primera fuente de error consiste en un efecto de deriva, en virtud del cual la onda estacionaria gira incluso cuando el anillo no lo hace. La deriva se srcina porque el gas del interior del anillo fluye, flujo que surge a causa del suministro de energía necesario para producir la onda estacionaria. Para aportar la energía se aplica una gran diferencia de potencial entre un
electrodo positivo, o ánodo, situado en un extremo del anillo y un electrodo negativo, o cátodo, en el otro extremo. El elevado potencial ioniza parte del gas y crea un plasma: una especie de “sopa” de electrones y de iones cargados positivamente. Los electrones son atraídos hacia el electrodo positivo y los iones positivos hacia el electrodo negativo. Este flujo induce un movimiento más complicado de los átomos neutros del gas, que redunda en un flujo a lo largo del anillo siguiendo la trayectoria del haz luminoso. La consecuencia es puede que las ondas estacionarias giren incluso cuando el anillo no lo haga.
L
os fabricantes de giroscopios de láser anular reducen al mínimo este problema diseñando anillos con dos flujos gaseosos contrapuestos. Por ejemplo, un giroscopio puede que cuente con un electrodo negativo y dos positivos, estando éstos colocados en dos lados opuestos de un cuadrado. Se elimina así en su mayor parte el flujo gaseoso inducido. La cancelación mutua no es completa pero, si la deriva residual es estable, puede medirse y ser compensada, quedando sólo como causa de error de deriva los cambios imprevistos. La segunda y más seria fuente de error a la hora de utilizar el instrumento reside en un fenómeno denomi-
4. ANCLAJE DE FRECUENCIA. Constituye una posible fuente entre las ondas un acoplamiento cuyas consecuencias pueden de error en el funcionamiento de un giroscopio de láser anular. comprenderse imaginando que los espejos fuesen perfectos y Provoca que la onda estacionaria quede “anclada” en el anillo que se hubiese colocado una delgada lámina de vidrio dentro del instrumento, de modo que el observador situado en el anill del o anillo, perpendicularmente a la trayectoria seguida por la no pueda decir si el aparato gira o no. La onda estacionaria luz (derecha). La onda estacionaria tiende a presentar un nodo puede considerarse el resultado de superponer dos ondas que (“valle”, o punto estacionario) en el lugar ocupado por la lámina se propagan a lo largo del anillo en sentidos opuestos. El fenóde vidrio. Puesto que ésta se encuentra fijada al anillo, la onda meno del anclaje obedece a minúsculas imperfecciones de estacionaria los tiende a girar con el anillo. Esto ocurre cuando las espejos del giroscopio. Tales imperfecciones ocasionan que una velocidades de rotación son pequeñas. El efecto puede reducirpequeña fracción de la onda luminosa incidente se dispersese enhaciendo oscilar el anillo a un ritmo elevado mediante un dirección opuesta a la trayectoria srcinal ( ). Aparece vibrador; el movimiento “desprende” la onda estacionaria. izquierda
90
TEMAS 6
nado anclaje de frecuencia. Se produce porque la onda estacionaria se inmoviliza dentro del anillo, de modo que un observador fijo no pueda decir si gira o no. El anclaje de frecuencia, cuyos efectos sólo se presentan si la velocidad de rotación es relativamente pequeña, desempeña un papel análogo al del rozamiento en un giroscopio mecánico. La onda luminosa estacionaria puede considerarse como la superposición de dos ondas que se propaguen por el anillo en direcciones opuestas. El anclaje de frecuencia resulta de un acoplamiento entre ambas, debido a que las minúsculas imperfecciones de los espejos del giroscopio dan lugar a la dispersión de una pequeña fracción de la onda luminosa incidente en dirección opuesta a la de su trayectoria inicial. Para comprender el resultado del acoplamiento entre las ondas incidentes y las dispersadas consideremos un sencillo modelo. Supongamos que los espejos sean perfectos y que se fije dentro del anillo, perpendicular a la trayectoria de la luz, una delgada lámina de vidrio. (Como las imperfecciones de los espejos están fijas en el anillo, también tendrá que estarlo la lámina de vidrio.) Una pequeña cantidad de la luz que incide sobre el vi drio es reflejada en dirección opuesta. La onda estacionaria del giroscopio de láser anular tiende a presentar un nodo en la lámina de vidrio. Por ser éste fijo, la onda estacionaria tenderá a girar con el anillo y, si la velocidad de rotación es baja, conseguirá hacerlo.
U
na analogía válida del anclaje de frecuencia la constituye una bola sumergida en un líquido viscoso, como sería un almíbar, que descienda por una pendiente ondulada. La fuerza de la gravedad representa en este caso la rotación del anillo. Una ladera con fuerte pendiente corresponde a una elevada velocidad de rotación. El fluido viscoso impide que la bola se acelere indefinidamente; impone, pues, un límite a la velocidad. Las ondulaciones representan los nodos y los antinodos de la onda estacionaria y la bola corresponde a la posición de la lámina de vidrio. La altura de las ondulaciones es proporcional a la cantidad de luz que la lámina refleja. Sin rotación no hay pendiente y la bola permanece en uno de los valles localizados entre dos ondulaciones, o sea, en un nodo. Cuando el anillo gira lentamente, es como si sólo existiera una ligera pendiente. La bola se movería un poco hacia abajo, pero a la siguiente ondulación encontraría
LA CIENCIA DE LA LUZ
5. GIROSCOPIO MECANICO. Aunque funciona según el mismo principio que un giroscopio de juguete, resulta mucho más complejo. Sus aplicaciones a la navegación están dejando paso al giroscopio óptico.
una ligera subida que no podría remontar y quedaría atrapada. Esto corresponde al anclaje de frecuencia, es decir, nos encontramos en una situación en la que la onda estacionaria permanece fija respecto al anillo y el giroscopio no da ninguna señal, por lo que falla la detección de la rotación. A las velocidades de rotación más altas les corresponde en nuestro modelo una mayor inclinación y la bola puede rebasar las ondulaciones descendiendo por la pendiente. Tales inclinaciones corresponden a velocidades de rotación para las que las frecuencias quedan desancladas y el anillo ya es sensible a la rotación: la onda estacionaria no permanece fija respecto al anillo y el giroscopio da una señal. Conforme se aumenta la velocidad de rotación, la perturbación que las irregularidades ocasionan en
el movimiento de la bola es cada vez menos importante.
E
l anclaje de frecuencia a bajas velocidades de rotación ha entorpecido a la industria de giroscopios ópticos desde sus inicios. Se han dedicado grandes esfuerzos a eliminar el problema. La solución que ha tenido más éxito consiste en el empleo de un vib rad or mec áni co que hac e gir ar rápidamente el anillo en sentidos opuestos. La idea básica es la de mantenerlo en movimiento para evitar el anclaje de frecuencia. Puesto que la oscilación del anillo no produce ningún giro neto, la vibración no afecta al resultado de las mediciones. Sin embargo resulta enojoso tener que acudir a este tipo de solución, puesto que en principio el giroscopio de láser anular presentaba la gran ventaja de carecer de partes móviles. Aunque el
91
movimiento de vibración sea suave, el vibrador resulta complicado (de todos modos, mucho menos que el giroscopio mecánico). Los problemas de deriva y de anclaje de frecuencia son de índole técnica y en principio pueden eliminarse de raíz. Hay otras causas más profundas que afectan a la sensibilidad del instrumento en último término: los dictados de la mecánica cuántica y del principio de incertidumbre de Heisenberg. En su forma más simple el principio de incertidumbre establece que es imposible conocer simultáneamente la posición y la velocidad exactas de una partícula, de un electrón, por ejemplo. Aplicado al giroscopio de láser anular, esto significa que una onda estacionaria no permanecerá rigurosamente en reposo ni siquiera aunque el anillo se mostrara estacionario. Merece destacarse el avance técnico que supone que los giroscopios de láser anular se acerquen a los límites impuestos por la mecánica cuántica en menos de un factor de 10. La causa fundamental de error en un giroscopio de láser anular reside en una manifestación del principio de incertidumbre conocida con el nombre de emisión espontánea. La energía suministrada excita los electrones de los átomos que constituyen el medio amplificador del anillo óptico. El fenómeno láser se produce cuando un fotón, o cuanto de luz, estimula un átomo y ocasiona la transición de un electrón excitado a un estado inferior no excitado. Cuando ocurre tal transición, el átomo emite un fotón que tiene la misma dirección, frecuencia y fase que el fotón incidente. Pero es frecuente que un electrón del átomo experimente una transición espontáneamente, emitiendo un fotón con una dirección y fase arbitrarias. Algunos de esos fotones son emitidos según la dirección de la onda estimulada y cambian su fase en una pequeña cantidad aleatoria. En el transcurso del tiempo, las emisiones espontáneas provocan que la onda estacionaria se aparte de su posición inicial: el giroscopio desarrolla un error de corrimiento angular. Las aplicaciones que requieren mucha precisión necesitan en general giroscopios grandes, pues así se reduce al mínimo el influjo del error de corrimiento. La calidad de los espejos afecta también a la precisión. Un espejo perfecto reflejaría todos los fotones incidentes. En realidad, cada vez que un fotón incide en un espejo existe una pequeña probabilidad de que sea dispersado, absorbido o trans-
92
mitido. El grado de rendimiento de un giroscopio aumenta con el número de vue lta s rea liz ada s por cad a fot ón antes de que se pierda por absorción, transmisión o dispersión. Esta es la razón de que el desarrollo de los giroscopios de láser anular haya propiciado un espectacular progreso en la técnica de espejos libres de pérdidas. Las pérdidas de uno bueno de los utilizados en tales giroscopios son inferiores a uno por cada 5000 fotones incidentes. (Los espejos corrientes de cuarto de aseo pierden un fotón de cada 20 incidentes.) A pesar de las evidentes diferencias entre los giroscopios de fibra y los de láser anular, la naturaleza impone, mediante la mecánica cuántica, que sus rendimientos teóricos resulten similares. Un carrete de fibra con un cierto número de espiras equivale, en el fondo, a un giroscopio de láser anular cuyos fotones recorran el mismo número de vueltas en el anillo, suponiendo que los instrumentos tengan las mismas dimensiones, posean idénticas potencias ópticas y operen con luz de la misma longitud de onda.
N
ingún giroscopio óptico fascina tanto a los chiquillos como el juguete que constituye la versión simple del giroscopio mecánico. Claro que el éxito de cualquier instrumento no depende de tales consideraciones, sino que va ligado a una cuestión esencialmente económica. El impulso que recibe la tecnología de los giroscopios ópticos está relacionado con su coste. La belleza de los principios en que se sustentan los giroscopios ópticos y su elegante estructura son, en cambio, algo más que un mero reflejo de su valor como instrumento para la navegación.
BIBLIOGRAFIA COMPLEMENTARIA MULTIOSCILLATOR LASER GYROS.
W. W. Chow, J. B. Hambenne, T. J. Hutchings, V. E. Sanders, M. Sargent III y M. O. Scully en IEEE Journal of Quant um Electronics, vol. QE-16, número 9, páginas 918-936; septiembre, 1980.
THE RING LASER GYRO.
W. W. Chow, J. Gea-Banacloche, L. M. Pedrotti, V. E. Sanders, W. Scleich y M. O. Scully en Reviews of Modern Physics, volumen 57, número 1, páginas 61-104; enero, 1985. GYROSCOPES MAY CEASE SPINNING. Graham J. Martin en IEEE Spectrum, volumen 23, número 2, páginas. 48-53; febrero, 1986.
TEMAS 6
Tensión visible Jearl Walker
Si sometemos a esfuerzo mecánico un objeto de plástico situado entre dos filtros polarizadores, se colorea a fractura de los materiales por sobreesfuerzo mecánico es algoUn tanprocedimiento frecuente como económicamente indeseable. para prevenirla consiste en ensayar piezas de muestra aplicándoles unas tensiones mecánicas suficientes para destruirlas. Cuando se utilice otra pieza igual, podrá hacerse de modo que las tensiones que sufra queden muy por debajo del valor peligroso. Otro método, el fotoelasticimétrico, se basa en la experimentación con modelos de la pieza, hechos de plástico o de materiales parecidos, a los que se somete a estudios ópticos que proporcionan una imagen directa de la distribución de tensiones en su interior. Frank R. Seufert realiza estudios fotoelásticos sobre modelos de objetos diversos. Cuando a él acude alguien interesado en un problema de este tipo, lo primero que hace es construir un modelo en plástico de unos tres milímetros de espesor de la pieza en cuestión. Si el objeto es grande, realiza el modelo a escala reducida. Lo monta en un bastidor de madera y ensaya el estado de tensiones del objeto real sometiéndolo a esfuerzos por medio de gomas y tornillos, siendo más convenientes estos últimos, porque pueden apretarse paulatinamente y se regulan con más facilidad. Coloca luego el modelo delante de un filtro polarizador y lo ilumina con una luz que, procedente de una lámpara de 200 watt, atraviesa un difusor de vidrio esmerilado y después el filtro. Entre el modelo y una cámara de 35 milímetros (una réflex de objetivo simple) sitúa un largo parasol hecho de cartón. Montado en la cámara hay un teleconvertidor, desprovisto de objetivos, que hace las veces de tubo telescópico para alejar el objetivo de la película; cualquier otro tipo de tubo serviría igual. El dispositivo de Seufert incluye un teleobjetivo de 135 milímetros puesto a f 2,5, así como un segundo filtro polarizador y un filtro azul claro (del modelo 80A) montados sobre el objetivo. La cámara se mantiene inmóvil con ayuda de la pieza superior de un trípode sujeta a un bloque de contrachapado. Para tomar una foto, orienta el primer filtro polarizador con su eje de polarización a 45 grados con la vertical. Luego coloca el modelo de plástico delante y enciende la lámpara. A la vez que mira a través de la cámara, rota el filtro polarizador situado delante del objetivo hasta que a la imagen del modelo se superpone una imagen, o más bien una figura, interpretable. Esto lo fotografía valiéndose de un disparador de cable que acciona asimismo un flash electrónico ubicado junto a la lámpara y cuya luz extra hace falta para que la foto salga bien. Utiliza película negativa en color de sensibilidad ASA 100 y de la que obtiene copias positivas brillantes. En las fotos correspondientes aparecen unas líneas coloreadas que revelan las configuraciones de las tensiones en los modelos de plástico. Destacan las zonas sometidas a mayo-
L
LA CIENCIA
DE LA
LUZ
res esfuerzos y que son los lugares más vulnerables a la fractura. El primer filtro del montaje polariza la luz. Esta, al pasar por el plástico en estado de tensión, recoge información codificada acerca de ese estado. El segundo filtro polarizador (el montado en la cámara) hace visible dicha información para el observador. En la figura 3 se muestran las tensiones demodelo un pequeño elemento delgado que forma parte de un sometido a estudio fotoelástico. Sus bordes se hallan todos en estado de tensión perpendicular (que, en física, se llama tensión normal) a causa de las fuerzas de tracción que actúan perpendicularmente a cada uno de ellos. En los bordes se generan, además, tensiones cortantes o tangenciales, pues el material de los lados opuestos del elemento tiende a deslizarse en sentidos contrarios. Así es la naturaleza de las tensiones en un elemento elegido al azar. Esa imagen se simplifica si, en dicha zona, se busca un elemento orientado de modo diferente. Este nuevo elemento presenta la particularidad de ser cuadrado y de tener dos ejes, llamados ejes principales, de gran importancia. La ventaja de considerar un elemento orientado de ese modo reside en que los bordes no sufren tensiones tangenciales, sino sólo normales. Pues bien, lo que revela la fotografía de un modelo sometido a tensión iluminado con luz polarizada es la orientación de los ejes principales. Para comprender la interacción entre la luz polarizada y laslatensiones principales plástico esSegún necesario conocer naturaleza de la luzdel polarizada. la física clásica, la luz es una onda compuesta de campos eléctricos y magnéticos oscilantes. Se trata de una onda peculiar en cuya propagación no participa soporte material alguno. Las ondas acuáticas concuerdan mejor con nuestra intuición, pues en ellas interviene la oscilación de la superficie del agua: hay algo material que participa. En la concepción ondulatoria de la luz, empero, las oscilaciones corren a cargo de campos eléctricos y magnéticos inmateriales. Son las componentes eléctricas las que definen la polarización de la luz. Fijémonos en la figura 4, donde se representa el campo eléctrico en un punto, que vamos a examinar mediante un vector (de módulo, dirección y sentido dados) aplicado a dicho punto. Estas ideas son muy útiles cuando se considera cómo puede comportarse una partícula cargada que se sitúe en ese punto. Y también para adquirir una imagen mental de la luz. Podemos considerar la ilustración cual instantánea de una onda luminosa. Superpuestos al rayo, que indica la dirección de propagación, se distinguen vectores eléctricos asignados a distintos puntos algunos suyos. Vamos a centrar nuestra atención en uno de éstos y a observar cuidadosamente qué sucede. En ese punto, en la primera instantánea, el vector eléctrico es largo y apunta hacia arriba; cualquier partícula positiva que se encontrara en él “se sentiría” intensamente atraída hacia arriba. Después de nuestra primera instantánea, la luz sigue propagándose hacia la derecha; el campo eléctrico en nuestro punto varía con gran rapidez, literalmente a la
93
1. Dos de los modelos en plástico de Frank R. Seufert sometidos a compresión
94
TEMAS 6
POLARIZADOR LAMPARA DE 200 W CON REFLECTOR DE 30 CM
CAMARA REFLEX DE UN OBJETIVO
FLASH ELECTRONICO
TELECONVERTIDOR 2X
PARASOL
FILTRO DE 80A
FILTRO POLARIZADOR
OBJETIVO DE 135 MM
MODELO SOMETIDO A TENSIONES CABLE DE ACCIONAMIENTO REMOTO
DIFUSOR DE VIDRIO ESMERILADO
104 MM
2. Montaje experimental de Seufert
velocidad de la luz. Esto lo revela una nueva instantánea, en la que el vector eléctrico en el punto considerado señala ahora hacia abajo. Este vector no es uno de los más largos de la ilustración, ni es ahora tan largo como lo era inmediatamente antes de la instantánea. Una partícula positiva que se hallara en el punto en cuestión “sentiría” sobre sí una fuerza descendente de intensidad moderada. A la par que la luz pasa “vertiginosamente” por el punto, los vectores eléctricos oscilan en dirección y magnitud. Sin embargo, no hay que dejarse engañar por la representación. No hay tales vectores. Ni cada rayo tiene vectores que sobresalgan de él cual espinas del tallo de una rosa. Los vectores eléctricos son sólo minúsculos retazos de imaginación prendidos de una recta a la que llamamos rayo. Pero, por muy ficticios que sean, los vectores eléctricos se convierten poco menos que en imprescindibles para describir la polarización de la luz. En nuestras dos instantáneas, los vectores quedan en el plano de la página. Sin embargo, los vectores de la luz emitida por las fuentes más comunes no están tan restringidos en lo que respecta a su dirección. Necesariamente perpendiculares a un rayo, pueden apuntar, sin embargo, en cualquier dirección de un plano normal a él. De esta luz se dice que no está polarizada. Cuando la luz atraviesa un filtro polarizador, la oscilación de sus vectores queda estrictamente limitada a un solo eje. De esta luz se dice que está polarizada linealmente. (Hay quien la califica de luz polarizada en un plano.) Si luz no polarizada procedente de una bombilla eléctrica incide sobre un filtro de este tipo, la luz emergente tendrá sus vectores eléctricos confinados en un eje único contenido en un plano perpendicular al rayo. La dirección de polarización es la orientación de ese eje; si éste es vertical se dice que la luz está polarizada verticalmente. Los filtros polarizadores actúan por eliminación. El filtro contiene cadenas moleculares que podemos imaginar cual absorbentes paralelos de gran longitud. Cuando la luz llega a ellos, se eliminan los vectores eléctricos que oscilan paralelamente a los mismos; los perpendiculares los atraviesan. Por ejemplo, si las moléculas largas del filtro estuviesen tendidas horizontalmente (paralelamente al eje x), desaparecerían las componentes horizontales de los vectores.
LA CIENCIA
DE LA
LUZ
En la figura 5 se representa esquemáticamente la luz no polarizada mediante dos vectores dobles: el filtro suprime el horizontal y deja pasar el vertical. El resultado es luz polarizada verticalmente. De ordinario no se especifica la orientación de las moléculas de un filtro, sino que a éste se le atribuye un eje de polarización perpendicular a la longitud de las moléculas. Este eje imaginario corre paralelo a la polarización de la luz saliente. Supongamos que un rayo de luz polarizada verticalmente encuentra en su camino un segundo filtro polarizador. ¿Lo atravesará? Ello depende del eje de polarización del filtro. Si éste es vertical, será paralelo a la polarización de la luz incidente y pasará toda. Pero si es horizontal, no pasará luz alguna. Cuando la luz, que se desplaza en el aire con una celeridad de 3 × 108 metros por segundo, penetra en un medio transparente cualquiera, disminuye su velocidad efectiva. Ello se debe a que la luz interactúa con las moléculas que encuentra en su trayecto, de tal modo que,a cada encuentro con una molécula, la luz es absorbida, para reemitirse tras una breve demora. Entre moléculas su velocidad es de 3 × 108 metros por segundo, igual que en el vacío. Pero como sufre retrasos intermitentes, para propagarse en el seno del material necesita más tiempo quepara propagarse la misma distancia en el vacío. Por ello decimos que la luz se propaga más lentamente en los medios materiales. Este hecho fue objeto de medición indirecta mucho antes de que se supiera nada acerca de las moléculas. Con el propósito de tabular el efecto, se asignó un número llamado índice de refracción a cada sustancia transparente. Un vidrio de índice de refracción 1,6 transmite la luz más lentamente que otro de índice 1,5. (En ambos casos, el tiempo real de transmisión es tan increíblemente corto que la diferencia carece de toda importancia en lo que atañe a nuestra vida cotidiana.) David Brewster descubrió en 1816 cómo valerse del índice de refracción para estudiar las tensiones de los medios transparentes. Al someter a tensión una hoja de vidrio iluminada con luz polarizada linealmente, se encontró con que se producía una variación del índice de refracción de la luz. Mejor todavía, el índice resultante dependía del tipo de polarización de la luz. Para seguir los experimentos de Brewster, imaginemos una hoja de vidrio vertical uniformemente comprimida por fuerzas aplicadas en la parte superior y en la inferior,
95
EJES PRINCIPALES DE TENSION
TENSION NORMAL
TENSION TANGENCIAL
ELEMENTO ORIENTADO DE MANERA ESPECIAL
ELEMENTO ELEGIDO AL AZAR
3. Tensiones perpendicular y tangencial en un elemento
PRIMERA INSTANTANEA
PUNTO OBSERVADO
SEGUNDA INSTANTANEA
4. “Instantáneas” de los vectores eléctricos de un rayo de luz
Z
X
LUZ NO POLARIZADA
FILTRO CON EJE DE POLARIZACION VERTICAL
POLARIZACION DE LA LUZ TRANSMITIDA POR EL PRIMER FILTRO
FILTRO CON EJE DE POLARIZACION HORIZONTAL
5. Obstrucción del paso de la luz con filtros polarizadores cruzados
96
de modo que los ejes principales sean uno vertical y el otro horizontal. Cuando la luz que ilumina el vidrio esté polarizada verticalmente, el índice de refracción que encuentre será menor y viajará a mayor velocidad que si estuviera polarizada horizontalmente. Pero si el vidrio está sometido a tracción (tensado por fuerzas que actúan por arriba y por abajo), acontece lo contrario. Las sustancias de este tipo, o sea, cuya velocidad de transmisión depende de la polarización de la luz, se llaman birrefringentes, o doblemente refractantes. ¿De qué modo puede facilitar la birrefringencia el estudio de un estado de tensiones? Nos lo desentraña un ejemplo sencillo. Imaginemos una lámina de plástico vertical, comprimida de modo que los ejes principales sean uno vertical y el otro horizontal. La manera en que la luz polarizada interactúe con nuestro plástico sometido a tensión dependerá de si su polarización es paralela a alguno de aquellos ejes. Este paralelismo podemos crearlo iluminando el plástico a través de un filtro polarizador con el eje vertical. En el lado contrario pondremos otro filtro polarizador con el eje horizontal. El primer filtro se llama polarizador; analizador, el segundo. De ambos se dice que están cruzados. La luz atravesará la lámina de plástico a la velocidad que permita el estado de tensiones. La luz que salga del material seguirá polarizada verticalmente y, por tanto, será detenida por el analizador. Un observador que mire a través de éste no verá más que oscuridad. En un montaje de este tipo desaparece la transmisión siempre que se ilumine el plástico con luz polarizada paralelamente a uno de los ejes principales. Rotemos ahora los dos filtros 45 grados en el mismo sentido. En este caso, la lámina de plástico recibirá luz polarizada a 45 grados con respecto a la vertical. Más exigente es el recorrido de la luz en el seno de la lámina: debemos considerar la polarización en sus dos componentes paralelas a los ejes principales. Estas dos componentes se propagan por el plástico a celeridades diferentes, pues los índices de refracción según los dos ejes difieren.
TEMAS 6
Cuando las componentes emergen del plástico se sería paralela al eje de polarización del analizador y, así, recombinan. Cabe entonces la posibilidad de que la luz la luz lo atravesaría. quede polarizada en otra dirección. Que ahora la luz atraCabe, asimismo, cualquier otra situación intermedia; viese o no el analizador dependerá del modo en que haya pero entonces se hace más difícil imaginar el resultado de variado la polarización. la recombinación, pues la asociación de las componentes Para determinar esa variación hemos de examinar de no da ya una luz polarizada linealmente. En este caso la qué forma el plástico altera la longitud de onda de la polarización gira continuamente en torno al rayo, de tal luz. Para simplificar, supongamos que la luz sea mono- modo que el vector eléctrico da una vuelta de arriba abajo, cromática, vale decir, compuesta de una única longitud y luego al revés. De la luz con polarización rotatoria se de onda. Cuando esta luz pasa del aire a un medio trans- dice que está polarizada elípticamente. (En el caso parparente, su longitud de onda se acorta; tanto más cuanto mayor sea el índice de refracción del medio. Como el plástico sometido a tensión tiene un índice de Z refracción distinto según cada EL POLARIZADOR PRODUCE eje principal, el grado de reducUNA LUZ POLARIZADA ción de la longitud de onda VERTICALMENTE X dependerá de la polarización de la luz. Si ésta es vertical, la longitud de onda queda dividida LUZ NO por el índice de refracción asoEJES PRINCIPALES POLARIZADA ciado al eje vertical; si es horiDE TENSION zontal queda dividida por el índice asociado al eje horizontal. Pero si la polarización está POLARIZACION comprendida entre ambos ejes, NO MODIFICADA PLASTICO hemos de considerar las dos SOMETIDO componentes. Entonces, la comA COMPRESION ponente vertical se acortará en una cuantía y la horizontal en una cuantía diferente. Dado que las dos componentes atraviesan el plástico con longitudes de onda distintas, EL ANALIZADOR CIERRA EL PASO oscilará cada una un número de A LA LUZ veces diferente. Por ejemplo, la componente polarizada parale6. Alineamiento de la polarización con un eje de tensión principal lamente al eje principal vertical podría oscilar 1000 veces (longitudes de onda); la otra componente, al tener una longitud de onda más corta, podría oscilar z una vez más, con un total de 1001 oscilaciones. O sea, las dos 45o componentes inician su recorrido exactamente en fase y x lo terminan también en fase, aunque una de ellas haya oscilado una vez más. Entonces, al recombinar 45o POLARIZADOR matemáticamente las dos comCON EL EJE A 45o ponentes a su salida del plástico, CON RESPECTO VERTICAL encontraríamos que los vectores A LA VERTICAL eléctricos de la luz oscilarían o 45 exactamente igual que antes de 45o penetrar en él. La polarización está inclinada 45 grados con respecto a la vertical. Y, como los filtros polarizadores están cru45o zados, el analizador impide el paso de la luz que llega a él. UN RESULTADO POSIBLE: LUZ POLARIZADA A 45o Pero si una de las componenCON RESPECTO A tes diera una semioscilación LA VERTICAL ANALIZADOR más, la recombinación produciría una polarización girada 90 7. Una de las posibilidades con polarización inclinada grados. Esta nueva polarización
LA CIENCIA
DE LA
LUZ
97
RESULTADOS DE LA SEGUNDA FOTO
ISOCLINA
LINEAS ESTIMADAS DE TENSION PRINCIPAL
EJES PRINCIPALES ESTIMADOS
ISOCLINA
8. Estudio de isoclinas
ticular en que la longitud máxima del vector permanezca constante durante la rotación, se habla de una luz polarizada circularmente.) El analizador transmite en parte la luz polarizada elípticamente, dejando pasar la componente paralela a su eje de polarización y cerrando el paso a la otra. La consecuencia de todo este análisis es que lo que un observador vea a través del analizador dependerá del ángulo que formen la polarización de la luz y uno de los ejes principales del estado de tensión del plástico. El paralelismo entre ambos da oscuridad en el analizador. Aunque no haya paralelismo, si la luz que sale del plástico es de igual polarización, el analizador tampoco la dejará pasar. En cualquier otro caso, conseguirá pasar al menos una parte de la luz. Nuestro ejemplo se distingue por su sencillez: la tensión es uniforme y los ejes principales son uno vertical y otro horizontal en todos los puntos de la lámina de plástico. Si ésta estuviera sometida a tensiones variables de un punto a otro, la orientación de los ejes variaría de un punto a otro. El objeto de la fotoelasticidad es descubrir esa orientación, para intentar localizar así las zonas del modelo susceptibles de romperse bajo el estado de tensión. Cuando al plástico se le aplica una distribución de tensiones complicada y desconocida, el modelo, visto por el analizador, presenta una configuración de líneas oscuras y claras superpuestas, llamadas franjas. La franja oscura señala los puntos del interior del plástico de los que emerge una luz polarizada exactamente del modo que imposibilita su paso a través del analizador. La razón de ello estriba en que la luz que pasa por uno de tales puntos está polarizada paralelamente a uno de los ejes principales, o bien que tiene dos componentes (paralela cada una a los ejes principales en ese punto) que, al recombinarse, dan una luz con la misma polarización que tenía al penetrar en el plástico. En ambos casos, el analizador no la deja pasar. La mayoría de las franjas oscuras se deben habitualmente a la primera causa. Esas franjas reciben el nombre de isoclinas. La distribución y configuración de las isoclinas revela la orientación de los ejes principales en el seno del plástico. Si queremos representar gráficamente los ejes principales, fotografiaremos el plástico a través del analizador para una orientación particular de los dos filtros polarizadores. Supongamos que el eje del primero esté vertical y que el del segundo sea horizontal. Se ilumina el plástico con luz polarizada verticalmente. Así, las isoclinas que salgan en la foto señalarán los puntos del plástico que se
98
distinguen por tener uno de los ejes principales vertical. (Como los ejes principales son perpendiculares entre sí, el otro eje será horizontal.) La configuración de la foto se calca en papel y se dibujan los ejes principales sobre varios puntos de las isoclinas. Luego se rotan los filtros 10 grados, por ejemplo, y se toma otra foto. Las isoclinas señalarán los puntos que tengan uno de sus ejes principales inclinado 10 grados con respecto a la vertical. Esas isoclinas se añaden al calco, y se trazan los ejes principales en unos cuantos puntos. Tras algunas fotos más, el calco revelará la orientación de los ejes en numerosos puntos del plástico. Seguidamente se trazan sobre el dibujo líneas que enlacen puntos de igual tensión. Por ejemplo, partiendo de un punto puede tirarse una línea que conecte un eje principal con otro eje principal correspondiente a un punto vecino. Aunque aquí sea inevitable trabajar un poco a ojo de buen cubero, se obtendrá un mapa aproximado de las líneas de tensión principal. Las franjas resultantes de una recombinación se llaman isocromas. Por lo general aparecen ocultas por las isoclinas, pero pueden aprovecharse para asignar valores a las tensiones principales reveladas por las isoclinas. Para hacer uso de ellas, deben primero eliminarse las isoclinas. A tal fin, colocaremos dos filtros adicionales, llamados placas de cuarto de onda, en el trayecto de la luz. Una de las placas se intercala entre el primer polarizador y el plástico, y la otra entre éste y el analizador. La función de una placa de cuarto de onda consiste en transformar luz polarizada linealmente en luz polarizada circularmente. Estas placas actúan de manera algo similar al plástico sometido a estudio. Son birrefringentes, es decir, poseen dos ejes ortogonales (el “rápido” y el “lento”) que dejan pasar la luz a celeridades distintas. Supongamos que el primer polarizador deje pasar la luz polarizada verticalmente. La primera placa de cuarto de onda se ajusta con su eje rápido inclinado 45 grados con respecto a la vertical. La luz que llega a ella tiene componentes según el eje rápido y según el lento. Ambas componentes, al atravesar la placa, oscilan un número de veces diferente cada una. Y de esta diferencia depende la polarización de la luz que salga de la placa. Entonces, como las placas se diseñan para que una componente realice un cuarto de oscilación más que la otra (de ahí su nombre de placa de cuarto de onda), la luz emergente estará polarizada circularmente. La segunda placa de cuarto de onda se instala con su eje rápido perpendicular al de la primera. La misión de
TEMAS 6
esta segunda placa es sustraer la diferencia de un cuarto de longitud de onda comunicada a las componentes por la primera. Al llegar aquí podría parecer que la cosa no merecía la pena; sin embargo, todo ello nos servirá para lograr nuestro propósito. Cuando la luz polarizada circularmente atraviesa el plástico tensado, la polarización no puede ser rigurosamente paralela a un eje principal. Por tanto, desaparecerán las isoclinas nacidas de ese paralelismo, y lo que se recibe a través del analizador será una configuración de isocromas. Esta configuración ofrece la ventaja de que sus franjas están relacionadas con la intensidad de las tensiones del plástico. Lo que determina la polarización de la luz en cualquier punto del plástico es la diferencia entre las tensiones principales; esa diferencia determina si un punto acaba formando parte de una franja oscura o de otra clara. Los valores de la tensión en cualquier punto del plástico pueden calcularse, en principio, examinando las isocromas. Como la configuración de isocromas depende del acortamiento de las longitudes de onda de las dos componentes luminosas transmitidas por cualquier punto del plástico, tal configuración tendrá que ver con la longitud de onda de la luz que lo ilumine. Si ésta es blanca, cada color creará su propia configuración. Acontece que, en un punto dado, algún color quizá parta con la misma polarización que a su entrada, caso en el que el analizador eliminará el color. La polarización de los otros colores que pasen por ese punto variará un poco y, por ello, serán parcialmente transmitidos por el analizador, de modo que el observador
no verá el punto del plástico ni blanco ni negro, sino coloreado. Y la agrupación de los puntos que generen los mismos colores formará una configuración de isocromas coloreadas. Resulta difícil predecir qué color verá el observador en un punto concreto, pues depende del modo en que la polarización altere los distintos colores, así como de la sensibilidad del observador y de la respuesta al color de la película que tenga la cámara. La predicción se complica aún más cuando aumenta la diferencia entre las tensiones en un punto del plástico. Cuando son lo bastante elevadas, los colores comienzan a difuminarse en un fondo blanco. Las fotos de Seufert provienen de experimentos en los que la luz lanzada a través del plástico sometido a tensión está polarizada linealmente. En ellas aparecen tanto las isoclinas (que sólo son claras y oscuras) como las isocromas (coloreadas). Las dos fotografías de la figura 1 muestran modelos de plástico que concentran las tensiones en sus zonas cóncavas, donde las isocromas se agolpan más, indicando que las diferencias entre las tensiones varían considerablemente en esos puntos. Como los modelos están sometidos a compresión por fuerzas que actúan a la derecha y a la izquierda, las zonas cóncavas están comprimidas. En la foto superior, la zona convexa sufre tracción. La distribución de color más uniforme de las porciones rectas indica que la distribución de tensiones es más uniforme en ellas que en las porciones curvas.
BIBLIOGRAFIA COMPLEMENTARIA PHOTOELASTICITY: PRINCIPLES & METHODS.
H. T. Jessop y F. C. Harris. Dover Publications, Inc., 1960. William A. Shurcliff y Stanley S. Ballard. D. Van Nostrand Company, Inc., 1964. PHOTO -E LASTIC A NALYSIS . A. W. Hendry. Pergamon Press, POLARIZED L IGHT .
1966.
Z
X
45o
EJE RAPIDO
LUZ POLARIZADA CIRCULARMENTE
POLARIZADOR
PLACA DE CUARTO DE ONDA 45o EJE RAPIDO UN RESULTADO POSIBLE
PLACA DE CUARTO DE ONDA
9. Cómo eliminar las isoclinas para ver las isocromas
LA CIENCIA
DE LA
LUZ
ANALIZADOR
99
Interferometría óptica de superficies Glen M. Robinson, David M. Perry y Richard W. Peterson
Basándose en la naturaleza ondulatoria de la luz y en la potencia de los ordenadores modernos, se han diseñado unos dispositivos sensibles capaces de medir la textura de las superficies
L
as cintas de vídeo, las bolas de los rodamientos, las películas fotográficas y las pastillas de los ordenadores funcionan mal si sus superficies son ásperas o presentan irregularidades. Para obtener acabados de gran precisión es necesario disponer de medios especiales capaces de medir la textura de la superficie. Las técnicas utilizables hasta una fecha relativamente reciente tenían muchas limitaciones. Nosotros pusimos a punto en 1980 un método mucho mejor. La interferometría óptica, un fenómeno basado en la naturaleza ondulatoria de la luz que permite acometer medidas precisas de las formas o de las distancias, parecía un candidato muy adecuado para alcanzar dicho objetivo, pues proporciona una resolución extraordinaria y no requiere un contacto físico directo con la superficie sometida a estudio. Pero la interpretación de las imágenes interferométricas, o interferogramas, y su ligazón con las medidas significativas de la textura de las superficies revisten especial dificultad. Los interferogramas tradicionales consisten en un conjunto de instantáneas con zonas claras y oscuras que, en general, apenas se parecen a los contornos del objeto estudiado. Así las cosas, se le ocurrió una solución del problema a uno de los autores (Robinson) mientras estaba viendo un programa de televisión en el que se mostraban unas imágenes tridimensionales, obtenidas por ordenador, de las capas de rocas situadas bajo un pozo de petróleo. Combinando adecuadamente la técnica de la interferometría con potentes ordenadores y programas avanzados de obtención de gráficos, descubrimos la posibilidad de presentar, de manera interesante e intuitiva, la ingente cantidad de información que existe en un interferograma. Por otra parte, una vez que toda la información contenida en un interferograma se ha introducido en el orde-
100
nador, podemos echar mano de técnicas matemáticas para deducir los datos estadísticos útiles que guarden relación con la textura de la superficie. Estos métodos se han incorporado ya en algunos dispositivos comerciales. La interferometría se utiliza en ciertas aplicaciones de control de calidad y ha permitido reducir el coste y mejorar el funcionamiento de productos muy diversos, desde películas fotográficas hasta cintas magnéticas y disquetes. La celeridad con que se ha incorporado la interferometría óptica analizada con ordenadores a los procesos industriales ha dejado al descubierto las limitaciones de los viejos métodos de medición. Por ejemplo, las técnicas tradicionales basadas en la difusión luminosa exponen la textura general de una superficie estudiando la forma en que ésta refleja la luz. Método que no nos dice nada acerca de los rasgos singulares de la superficie en cuestión, ni de su distribución acumulativa por tamaños. La microscopía óptica o la electrónica, que son capaces de resolver pequeños detalles, no pueden medir las alturas de las imperfecciones o protuberancias que existen en las superficies.
O
tro método clásico, conocido con el nombre de rugosimetría, se basa en recorrer con una plumilla o punzón la superficie considerada. Las subidas y bajadas del punzón graban el relieve de la superficie en una cinta fina. Pero hay un inconveniente: la aplicación de la técnica exige aportar una presión bastante elevada sobre la punta del punzón, con el consiguiente riesgo de compresión y alteración de las superficies de las películas y cintas sometidas a examen. En comparación con todos estos métodos, la interferometría óptica presenta importantes ventajas. Por única herramienta utiliza un haz de luz de poca intensidad; se trata, pues,
de un proceso inocuo. En principio la interferometría permite resolver las irregularidades de una superficie hasta un tamaño de varios angstrom. (Un angstrom es igual a la diez milmillonésima parte de un metro, diámetro aproximado de un átomo de hidrógeno.) El fiable trabajo se realiza además en brevísimo tiempo, porque el área observada es muy grande en relación con las dimensiones de los rasgos individuales de la superficie. El principio fundamental de la interferometría consiste en la interacción o interferencia entre dos ondas luminosas que se encuentran una con otra, de forma parecida a lo que sucede cuando se ondas superficiales enencuentran el agua. Endos cualquiera de estos casos, cuando la cresta de una onda coincide con el valle de la otra, la interferencia es destructiva y las ondas se anulan. Cuando coinciden las dos crestas o los dos valles, las ondas se refuerzan mutuamente. Hace unos 100 años, Albert A. Michelson desarrolló las técnicas basadas en la
TEMAS 6
interferometría y posibilitó con ello la medición de distancias con suma precisión. El dispositivo desarrollado por este físico norteamericano, conocido con el nombre de interferómetro de Michelson, todavía se emplea. El funcionamiento del interferómetro de Michelson está basado en el uso de una superficie parcialmente reflectora, o divisor del haz, que descompone un haz de luz monocromática (luz de un color o longitud de onda único) en dos haces, que se mueven en diferentes direcciones a lo largo de los brazos del instrumento. En nuestra
oscuras (allí donde se anulan) en el haz recombinado. Cuando en la diferencia entre los caminos recorridos en los dos brazos del interferómetro se produce un cambio equivalente a una longitud de onda, la onda recombinada recorre un ciclo completo luz-oscuridad-luz, circunstancia en la que se crea una nueva región o franja brillante. Para explicar la relación espacial entre dos ondas apelamos al ángulo de
mente ese patrón de bandas. Por ejemplo, si la muestra presenta una protuberancia cuya altura sea igual a media longitud de onda, las franjas se desplazan en un ciclo (360 grados), debido a que el correspondiente recorrido disminuye en una longitud de onda. Las figuras de franjas reproducen las elevaciones de la superficie de forma parecida a como lo hacen las líneas de nivel de un mapa topográfico. El intervalo entre bandas viene determinado, a la vez, por la pendiente de la superficie de la muestra y por la inclinación del espejo de referencia.
1. ESTA IMAGEN INTERFEROMETRICA del revestimiento de una pieza metálica muestra las irregularidades que presenta la superficie cuando actúa una tensión que srcina la rotura por desgaste. Las técnicas de interferometría óptica de gran precisión desarrolladas por los autores permiten conocer las causas de los fallos d e los materiales, para así diseñar productos de mejor calidad y más duraderos.
aplicación, uno de estos haces se refleja sobre la superficie de un espejo plano de referencia; el otro se refleja en la superficie de la muestra sometida a estudio. Ambos haces vuelven a reunirse luego en el divisor. La textura de la superficie de la muestra produce cambios en la distancia recorrida por el segundo haz. Cuando los haces se recombinan, algunas partes del segundo estarán en fase con el primero, mientras que otras estarán fuera de fase. La consecuencia es que la relación espacial entre ambos haces poseerá una información minuciosa de la topografía de la superficie, información que se manifiesta a través de regiones brillantes (allí donde los dos haces se refuerzan) y de regiones
LA CIENCIA DE LA LUZ
fase; si vale cero grados, significa que las dos ondas se mueven en fase y, por tanto, se refuerzan mutuamente. Cuando el ángulo de fase relativo es igual a 360 grados, la diferencia entre los caminos recorridos por uno y otro haz en los respectivos brazos es exactamente igual a una longitud de onda y, en consecuencia, se produce la creación de una nueva franja brillante. Cuando el espejo de referencia se inclina un tanto, la diferencia entre los caminos recorridos a lo largo de la imagen cambia de forma regular y continua. Se genera así una serie regular de franjas de interferencia paralelas. Las irregularidades existentes en la superficie de la muestra alteran manifiesta-
La medición manual de cada uno de los cambios acontecidos en las franjas de un interferograma típico puede producir fácilmente unos 10.000 datos. El procesamiento de semejante avalancha de datos requiere el auxilio de un ordenador. De ahí que antaño las aplicaciones de la interferometría microscópica se limitaran, por lo común, a problemas en dos dimensiones bien definidos: cálculo de espesores, de profundidad de depósitos o de arañazos aislados. Dos avances han hecho posible la realización de estudios interferométricos rápidos y adecuados. El primero consiste en la disponibilidad de ordenadores digitales de velocidad y
101
capacidad grandes. El segundo lo aportó John H. Bruning en 1974, con la crea ción de un proceso al que denominó interferometría de detección de fase directa. La técnica desarrollada por Bruning exige medir tres o más figuras de interferencia, cada una de las cuales está asociada con una posición vertical,
algo distinta, del espejo de referencia o de la muestra. Todas estas posiciones difieren entre sí a lo sumo en una longitud de onda (360 grados de fase). Bruning observó que el conjunto de estas tres figuras encerraba la información necesaria para determinar la diferencia de fase entre el haz de referencia y el haz de la muestra, para
Así procede la interferometría
S
e produce interferencia de la luz cuando dos ondas o conjuntos de ondas interactúa entre sí. En el interferómetro de Michelson, un haz de láser incide sobre un espejo semiplateado, que lo descompone en dos; uno se refleja en la muestra y el otro se refleja en un espejo de referencia. Cuando ambos haces se recombinan, las ondas presentan cierta diferencia de fase y se cancelan total o parcialmente. Las figuras de interferencia o interferogramas (fila de abajo) se caracterizan por la repetición de unas imágenes de oscuridad-luz-oscuridad conocidas como bandas de interferencia. Las crestas y valles de la superficie de la muestra observada producen un cambio en el trayecto recorrido por el primero de los haces citados, alterando la relación espacial entre ellos y la forma de las franjas. Las bandas se distorsionan con los accidentes de la superficie de la muestra, obteniéndose unas figuras parecidas a las líneas de nivel de los mapas topográficos. El tratamiento de estas figuras de interferometría mediante un ordenador se basa en la obtención de tres interferogramas diferentes de la muestra (en est e caso, una cinta de vídeo muy rugosa). Cuando la muestra se mueve, la distancia recorrida por el primer haz varía y las fases del haz recombinado cambian. El brillo variable de cada punto del interferograma se analiza para poner de manifiesto la fase de la onda y, en consecuencia, la altura delpunto correspondiente de la superficie. Toda esta información se representa como una imagen tridimensional.
T
todos los puntos de la superficie de ésta. La aplicación de las adecuadas ecuaciones trigonométricas a las tres figuras de luz y oscuridad nos da una lectura precisa de las fases de las ondas por toda la superficie. Partiendo de esta información, podemos deducir cuál es la topografía superficial que ha producido las fases observadas.
L
a medición de las fases relativas de los haces de referencia y de la muestra proporciona una sensibilidad mucho mayor que la del viejo método de medida del desplazamiento de las franjas de interferencia del haz reconstruido. El método de Bruning aporta, además, una visión uniforme de la superficie de la muestra, facilitando la automatización del proceso de medida. En estos veinte años hemos diseñado, construido y perfeccionado dos tipos de dispositivos para llevar a cabo interferometrías directas con detección de la fase. Uno de estos sistemas, basado en la técnica de Bruning, em plea un interferómetro de Michelson o similar en conexión con un microscopio óptico para obtener imágenes tridimensionales de las superficies. El otro sistema, más innovador, mide el perfil bidimensional de la superficie de una muestra que se mueve deprisa bajo un haz de láser enfocado. El microscopio óptico del primero de estos aparatos aumenta la figura de interferencia producida por el interferómetro. Una cámara de vídeo registra esta imagen aumentada, la convierte a una forma digitalizada y la almacena en un ordenador. El proceso de digitalización divide la imagen en un reticulado, cada una de cuyas celdas define un elemento de imagen o píxel. Estos píxeles constituyen las partes más pequeñas dela imageninterferométri ca, de modo parecido a lo que sucede con los puntos que forman las fotografías que se reproducen en los periódicos. Moviendo la muestra o el espejo de referencia alteramos la fase de cada uno de los píxeles que constituyen la imagen interferométrica. El método de Bruning ordinario de tres pasos requiere que este proceso se repita otras dos veces para recoger tres imágenes de interferencia. Siempre que la muestra se mueve un octavo de longitud de onda, la longitud recorrida cambia en un cuarto de longitud de onda y la fase se desplaza 90 grados. La fase de cada píxel de la imagen de interferencia dependerá de la distancia recorrida por el haz de luz, distancia que viene condicionada por la textura de la superficie y por el movimiento neto de la muestra.
EMAS 6
2. EL INTERFEROMETRO DE MICROSCOPIO viene a ser el3. EL INTERFEROMETRO DE BARRIDO POR LASER dirige interferómetro de Michelson dotado con lentes de aumento yun haz de láser enfocado sobre la muestra en movimiento. Un con una placa ajustable para colocar la muestra a observar. modulador cambia su frecuencia, srcinando una figura de Una cámara de vídeo recoge la figura de interferencia obteinterferencia regular cuando se le recombina con el haz nida en tres posiciones diferentes de la muestra y la convier-emergente. Las irregularidades de la muestra modifican la te en un conjunto de datos digitales, con los que un programadistancia recorrida por el haz, alterando las condiciones de de ordenador reconstruye una imagen tridimensional. interferencia.
Los interferómetros de barrido por láser detectan la fase de las ondas en función del tiempo. Con algunos prototipos primitivos se pretendía medir los cambios rápidos que experimentan los plasmas termonucleares. Los instrumentos que hemos construido basados en esta técnica dirigen un haz láser hacia un objeto en movimiento: la bobina de una cinta magnética o el disquete en rotación de un ordenador. Como sucede en los dispositivos que usan microscopios, las medidas de la fase se llevan a cabo desdoblando y recombinando el haz.
E
l proceso de interferometría de barrido por láser se inicia con el haz emitido por un láser de helio y neón, cuya luz tiene una longitud de onda de 6328 angstrom. En este caso resulta más conveniente considerar la frecuencia de la luz, es decir, el número de ciclos de ondas que se producen cada segundo. Una longitud de onda de 6328 angstrom corresponde a una frecuencia de 474.100.000 megahertz (un megahertz es igual a un millón de ciclos por segundo). El haz procedente del láser atra-
LA CIENCIA DE LA LUZ
viesa un modulador óptico-acústico, es decir, un dispositivo capaz de alterar la frecuencia de la luz. La frecuencia del haz emergente está desplazada 40 megahertz. Se hace que el haz, agudamente enfocado, incida sobre la muestra en movimiento. Tras ser reflejado por su superficie, recorre de nuevo su camino srcinal, vuelve a atravesar el modulador y sufre otro desplazamiento de 40 megahertz. Finalmente se refleja en el espejo de salida del láser, donde se recombina con la luz sin desplazar que emerge de él. Los dos pases a través del modulador alteran la frecuencia de la luz de láser en 80 megahertz respecto a su frecuencia srcinal. Cuando se recombina con el haz primigenio, la luz desplazada produce un “batido” de franjas de interferencia a 80 megahertz. Los haces se encuentran en fase y desfase mutuas 80 millones de veces por segundo y la intensidad de la luz (brillo) de cada punto aumenta y disminuye 80 millones de veces por segundo en el detector. La presencia de irregularidades en la superficie de la muestra modifica la longitud del recorrido del haz de láser reflejado por ella y, en
consecuencia, el tiempo invertido en dicho recorrido, lo que se traduce en un cambio constante de la fase, que se superpone al ritmo regular de las interferencias, conforme vamos moviendo la muestra bajo el haz de láser. Un detector electrónico mide rápidamente dicha fase y envía la información correspondiente hacia un microprocesador, donde se analiza y se crea el perfil bidimensional de la superficie en movimiento.
L
as muestras de uno de nuestros interferómetros laséricos, por ejemplo, son cintas de vídeo dispuestas en una suerte de bucles de unos 50 centímetros de longitud; se deslizan luego sobre una guía perfectamente pulimentada que está situada en el foco del haz del láser. Hay otra versión en la que los disquetes y otros objetos planos se mueven bajo el haz sobre un plato giratorio, que barre una superficie de unos 50 centímetros de longitud y un micrometro de anchura. Las muestras pasan bajo el foco del haz a una velocidad de 15 o 20 centímetros por segundo. Los dos tipos de interferómetros de
103
4. LA SUPERFICIE DE LAS CINTAS MAGNETICAS ha de sersitivo basado en un microscopioabajo ( ). Los primeros proporextraordinariamente lisa para que funcionen bien. La intercionan figuras alargadas de los perfiles bidimensionales, que ferometría permite medir su textura superficial con facilidad resultan útiles para conocer el espesor medio del revestimieny rapidez. Presentamos los perfiles típicos cuando se mide con to magnético de la cinta. Los segundos crean imágenes tridiun interferómetro de barrido por láser arriba ( ) y con un dispo- mensionales, que indudablemente son más intuitivas.
detección directa de fase son capaces de resolver detalles de tamaño inferior a unos 10 angstroms de altura en la superficie observada, lo cual representa una precisión unas treinta veces mayor que la conseguida mediante técnicas interferométricas clásicas. El interferómetro microscópico, diseñado para aumentar la imagen de la muestra unas 400 veces, alcanza una resolución espacial del orden del micrometro y obtiene imágenes de 125 por 200 micrometros. Cuando la ampliación disminuye, decae el poder de resolución y aumenta la superficie rastreada. La resolución espacial de un interferómetro de barrido por láser depende de la distancia entre los puntos a que se toman datos, que, a su vez, depende de la velocidad con que la muestra pasa bajo el haz y de la velocidad con que se produce la recogida de datos, o velo cidad de mues treo . (En últi ma instancia, la resolución de ambos tipos de interferometría viene limitada por el fenómeno de la difracción, una consecuencia de la naturaleza ondulatoria de la luz.) Un valor típico de la distancia entre los puntos de los datos es de 1,6 micrometros. Los detalles de interés que aparecen en la superficie de la mayoría de las muestras observadas (por ejemplo, las cintas de vídeo) vienen a tener
104
unos 10 micrometros de diámetro; los dos interferómetros proporcionan resultados comparables y complementarios. Si el tamaño de los rasgos supera en mucho ese valor, el interferómetro de barrido por láser logra una medición mejor de la rugosidad, dada su capacidad de rastrear una región más extensa. En la recogida de los tres interferogramas que se necesitan en el interferómetro microscópico se tarda unos dos segundos, el mismo tiempo que supone la medida del perfil de una superficie con el interferómetro de observación de láser. El ordenador invierte unos dos minutos en analizar la superficie estudiada a partir de los datos recogidos. Una vez procesados los datos, hay que compensar los errores en las fases. Estos errores se producen cuando la topografía de una superficie sube o baja con tal pendiente que la longitud de los recorridos de la luz cambia en una cuantía mayor que media longitud de onda (180 grados) entre dos observaciones. Se producen también errores cuando la brusquedad de la protuberancia impide que la luz reflejada incida sobre las lentes del dispositivo de barrido. En tales casos, el ordenador busca la fase perdida, debido a que dicha fase se repite en cada ciclo. (Por ejemplo, al ordenador
le parece que la cresta de una onda es exactamente la misma que la cresta siguiente.) El hecho de que la superficie que puede abarcar el interferómetro microscópico sea bastante grande resulta ventajoso para proceder a las correcciones de los errores en la fase. Los algoritmos utilizados por el ordenador permiten detectar automáticamente los datos medidos incorrectamente y examinar las zonas de rastreo adyacentes para proceder a las oportunas comparaciones. Estos dispositivos permiten corregir los errores de la fase sin perder nada de las imágenes. La corrección de estos errores con el interferómetro de barrido por láser resulta mucho más difícil, debido a que el haz examina sólo una zona muy estrecha de la superficie, sin que aporte información sobre el área que la rodea y que podría servir de referencia. Los datos que proporcionan los interferómetros microscópicos deben cribarse también en lo concerniente a la curvatura de las imágenes, circunstancia ésta que podría obedecer a un montaje inadecuado, a una curvatura inherente de la muestra o a la existencia de aberraciones en el sistema óptico. El cálculo de dicha curvatura se lleva a cabo aplicando las técnicas estadísticas adecuadas para permitir un redondeo de los datos, de forma tal
TEMAS 6
que la curvatura en cuestión se pueda eliminar matemáticamente (por sustracción) de modo que aflore sólo la textura de la superficie que nos interesa. Para terminar, los datos corregidos se representan en una for ma tridimensional. Al estar generadas por ordenador, las imágenes interferométricas pueden doblarse, girarse o invertirse. Con la ayuda de un programa especial para gráficos se puede exagerar el relieve vertical de las imágenes obtenidas o utilizar colores que realcen las características topográficas. Este apoyo informático permite también simular una visión lateral en ángulo, que aporte una perspectiva familiar y fácilmente comprensible. Frente a todas estas posibilidades, las fotografías de microscopía óptica y electrónica sólo pueden regristrarse en dirección vertical, que suele resultar poco natural. Los ordenadores calculan la altura, la profundidad y el volumen de cualquier detalle de la superficie que el interferómetro haya detectado. La topografía general de la superficie, dentro de la zona captada en la imagen procesada, se analiza con los métodos matemáticos tradicionales. Si, por ejemplo, interesase conocer la medida en que la textura de una muestra influirá en su comportamiento, un histograma del número de irregularidades en relación con su tamaño ofrecerá valiosa información. La altura media de las irregularidades y la desviación típica de sus alturas son también datos útiles.
L
os datos proporcionados por el interferómetro de barrido por láser se someten a un proceso parecido. Una vez eliminados los errores de fase, el perfil de la superficie consiste en una serie de componentes que varían pausadamente (frecuencias bajas) y otra serie dotada de variaciones más rápidas (frecuencias elevadas). En el caso de muestras lisas, como son las cintas de vídeo, las componentes de frecuencias elevadas encierran la mayor parte de la información útil. Las frecuencias bajas corresponden sobre todo al ruido propio de la instrumentación, a la presencia de vibraciones y a los cambios de espesor de la muestra. Los algoritmos utilizados por el ordenador filtran bien las componentes indeseadas. En el caso de las cintas magnéticas, las componentes de frecuencias bajas sí podrían importar, porque reflejan las variaciones de espesor de los revestimientos magnéticos. Los perfiles lineales de las superficies creados con los interferómetros de barrido por láser son más difíciles de
LA CIENCIA DE LA LUZ
interpretar que las imágenes gráficas que proporcionan los dispositivos interferométricos basados en microscopios, que resultan mucho más intuitivas y estéticamente más atractivas. Las técnicas estadísticas condensan los perfiles obtenidos y permiten presentarlos de una forma más comprensible y útil. Estos métodos también permiten medir el ta maño y la periodicidad de figuras superficiales repetidas. El análisis estadístico revela a veces pautas superficiales allí donde las imágenes interferométricas de perfil o tridimensionales se limitaban a mostrar un orden aleatorio. También se han desarrollado otros tipos de interferómetro. Frank E. Talke y David B. Bogy han construido un interferómetro de láser que examina los corrimientos que experimenta la frecuencia de la luz lasérica. Se centran en el estudio de los movimientos de los cabezales de grabación y de reproducción de los ordenadores, que resultan de las irregularidades de las superficies de los discos en rapidísima rotación. James C. Wyant y Chris L. Koliopoulos han diseñado otros interferómetros similares al nuestro de microscopio. Gracias a sus excepcionales prestaciones, la interferometría directa de detección de fase no ha tardado en rebasar las paredes de los laboratorios para situarse en el mercado. Varias empresas han aprovechado la investigación universitaria y comercializan ya interferómetros de detección de fase en dos y tres dimensiones; otra vende un interfer ómetro de barrido por láser basado en un principio diferente al descrito en este artículo. La empresa 3M utiliza la técnica de fase directa para caracterizar las superficies de productos de grabación magnéticos, láminas de plástico, cabezales de grabación y piezas de maquinaria de precisión. Pero hemos abordado un abanico más amplio de aplicaciones: películas fotográficas, cintas adhesivas, ceras sobre losetas de pavimentos cerámicos, cilindros de calandria industriales (utilizados para presionar sustancias y obtener láminas delgadas), lentes y espejos e incluso empastes dentales. La interferometría de detección de fase ha desempeñado un papel especialmente destacado en la mejora del proyecto y de la fabricación de cintas magnéticas. Está experimentalmen te comprobado que el funcionamiento de una cinta de grabación de vídeo depende íntimamente de la rugosidad de su superficie. Los interferómetros de barrido por láser pueden detectar variaciones muy pequeñas del espesor
de los revestimientos magnéticos; al poder registrar los datos con rapidez, sin que exista un contacto físico y de forma no destructiva, es posible controlar automáticamente, con gran facilidad y de forma continua las características de las cintas fabricadas. El coste de fabricación de videocasetes, discos de ordenador y otros artículos similares de grabación se ha reducido sustancialmente gracias a la interferometría, en tanto que mejoraban el funcionamiento y la calidad de los productos. Es preciso averiguar la forma en que el material de revestimiento de los disquetes o el de las bolas de rodamientos se desgastan para poder mejorarlos. Como la magnitud del desgaste suele ser pequeñísima y local, incluso en el caso de que el producto presente fallos de funcionamiento, las técnicas de interferometría han refinado los procesos de medición, amén de acotar con mayor precisión los mecanismos responsables de esas pérdidas. La topografía de la superficie de las películas fotográficas reveladas guar da relación directa con la densidad óp tica de la imagen (es decir, con el ennegrecimiento de la emulsión). Las técnicas de interferometría determinan su definición midiendo las pendientes de su topografía superficial, información que resulta muy valiosa para el desarrollo de nuevos tipos de películas.
E
l advenimiento de la interferometría de detección directa de fase ha convertido en tarea rutinaria la medición de la textura superficial de las películas de poliéster, material que se utiliza como sustrato de muchos productos (cintas adhesivas, re vesti mie nto s dec ora tiv os, cin tas magnéticas y películas fotográficas), con las consecuencias positivas que ello acarrea para la calidad de los productos resultantes.
BIBLIOGRAFIA COMPLEMENTARIA D IGITAL WAVEFRONT MEASURING IN TERFEROMETER FOR TESTING OPTICAL SURFACESAND LENSES. J. H. Bruning, D.
R. Herriott, J. E. Gallagher, D. P. Rosenfeld, A. D. White y D. J. Brangaccio en Applied Optics, vol. 13, n.o 11, páginas 2693-2703; noviembre de 1974. THREE-DIMENSIONAL S URFACE M ETROLOGY OF MAGNETIC RECORDING MATERIALS T HROUGH DIRECT -P HASE -D ETECTING MICROSCOPIC INTERFEROMETRY. D. M.
Perry, P. J. Moran y G. M. Robinson en Journal of the Institution of Electronic , vol. 55, n.o 4, págs. and Radio Engineers 145-150; abril de 1985.
105
Conjugación de fase óptica Vladimir V. Shkunov y Boris Ya. Zel’dovich
En la vida cotidiana el tiempo transcurre siempre hacia adelante. Sin embargo, la situación es cualitativamente diferente en el caso del movimiento ondulatorio: las trayectorias de las ondas luminosas pueden ser “invertidas temporalmente”
I
magínese una nadadora en un trampolín, preparándose para dar un salto. Una carrera rápida, un vuelo..., pero debido a un pequeño error técnico su cuerpo penetra en el agua con un ángulo incorrecto, dándose un gran chapuzón y srcinando ondas que avanzan a partir del punto de contacto con el agua. ¡Qué maravilloso sería poder invertir el tiempo, con el fin de corregir el error y obtener una mayor puntuación! El agua proyectada volvería a unirse, las ondas regresarían al punto de contacto, la saltadora sería arrojada fuera del agua y ascendería hasta el trampolín y la superficie quedaría tan lisa como lo estaba antes del salto. Desgraciadamente, aunque este su puesto se pueda obtener fácilmente con la ayuda de un proyector cinematográfico, el proceso de inversión temporal que representa contradice nuestra experiencia cotidiana. Existe una buena razón para ello: la secuencia de acontecimientos que acabamos de describir viola el segundo principio de la termodinámica (la ley que establece que los sistemas tienden a la máxima entropía). Sin embargo, dicha secuencia se puede realizar con éxito si lo que se considera es el movimiento de la luz o de cualquier otra radiación electromagnética. Este fenómeno es posible gracias a una importante propiedad de los rayos luminosos, conocida desde hace mucho tiempo: el carácter reversible de su propagación. Para cada haz luminoso, cualquiera que sea su estructura de rayos, existe otro posible haz con “tiempo invertido”, cuyos rayos siguen las mismas trayectorias, aunque en sentido opuesto, de forma análoga al movimiento de una película hacia atrás. El éxito de la inversión del movimiento ondulatorio débese a la gran simplificación del problema: los movimientos térmicos y
106
mecánico-cuánticos de los átomos y electrones que irradian y refractan la luz no necesitan ser invertidos. En la práctica, basta con invertir el comportamiento temporal de los parámetros macroscópicos que describen el movimiento medio de un gran número de partículas. La existencia de haces invertidos tiene consecuencias muy importantes. Es evidente, por ejemplo, que un haz ideal, es decir, libre de distorsión y con una divergencia mínima, se puede degradar cuando se transmite a través de mat eri ale s no hom ogé neo s (como es una lámina de vidrio de espesor no uniforme). La propiedad de reversibilidad implica que es posible crear un haz “antidistorsionado”, que se vuelve ideal tras volver a atravesar dichos materiales no homogéneos. La técnica por la que los haces en cuestión se crean y se manipulan se conoce con el nombre de conjugación de fase óptica. Las ondas que constituyen dicho haz se denominan ondas de fase conjugada.
frentes de onda de los haces luminosos reales pueden adquirir formas y topologías bastante complicadas. El concepto de frente de onda se puede utilizar para comprender las propiedades de una onda de fase conjug ada . Sup ong amo s que hac emo s una fotografía de una onda luminosa en la que el haz se propaga de izquier da a derecha [ véase la figura 3]. En virtud de la reversibilidad de la propagación de la onda, al examinar esta fotografía no seríamos capaces de decir si el sentido de propagación es de izquierda a derecha o de
A
ntes de describir las propiedades de una onda de fase conjugada vamos a expo ner algu nas noci ones básicas del movimiento ondulatorio. A medida que un conjunto de ondas se mueve por el espacio, sus oscilaciones llegan a los diferentes puntos en tiempos diferentes. De los puntos en que las oscilaciones son sincrónicas se dice que están en fase. La fase representa el valor del período en relación con cierta posición inicial. Las superficies que unen a los puntos con una misma fase se conocen como frentes de onda. Una propiedad importante de los frentes de onda consiste en que dichas superficies son perpendiculares a la dirección de propagación. Los frentes de onda de las ondas planas son planos, y esferas concéntricas, los frentes de onda de las ondas esféricas. Los
TEMAS 6
derecha a izquierda. Sin embargo, si el haz se propagara de derecha a izquierda (es decir, si el haz se hubiera invertido), los frentes de onda se habrían invertido respecto a la dirección del haz. Este es el motivo por el cual el proceso de generar una onda invertida se conoce también con el nombre de inversión de los frentes de onda. La relación entre los frentes de onda de dos ondas mutuamente invertidas es análoga a la relación entre las posiciones de dos ejércitos enemigos sobre un mapa militar. El frente de cada ejército coincide con el del otro y las direcciones de los movimientos deseables son opuestas. Podemos decir que las líneas del frente están invertidas entre sí: una parte convexa del frente de uno de los ejércitos corresponde a una parte cóncava del otro. Utilizando un lenguaje distinto, diremos que la diferencia de fase entre dos puntos cualesquiera del haz invertido tiene un signo opuesto al de ladiferencia de fase entre esos mismos puntos del haz srcinal. La operación matemática de cambiar el signo de la fase recibe el nombre de conjugación. Por esta razón se acuñó el término “conjugación de fase óptica” y se introdujo posteriormente en la literatura científica. ¿Cómo se conjuga una onda? Es
LA CIENCIA DE LA LUZ
decir, ¿cómo se invierte? Obtener la conjugación de fase de una onda plana es fácil: la utilización de un espejo plano da lugar a la reflexión de la onda hacia atrás. La conjugación de una onda esférica no resulta mucho más difícil. En este caso, se monta un espejo cóncavo con forma de sección esférica de manera que el centro del espejo corresponda a la fuente de la onda. En cada punto del espejo los rayos inciden perpendicularmente y, por tanto, son reflejados exactamente hacia atrás. ara conjugar un haz con un frente de onda arbitrario se podría utilizar en principio un espejo cuyo perfil coincidiera con el frente de onda. Desgraciadamente resulta difícil poner en práctica este método. En primer lugar, sería necesario construir un espejo diferente para cada haz incidente. En segundo lugar, la forma del frente de onda de un haz de láser puede cambiar durante un impulso
P
breve; por consiguiente, la forma del espejo debería cambiarse de manera continua para que en todo momento se ajustara a la forma de la onda. Finalmente, la precisión requerida para construir y colocar tal espejo sería extraordinariamente grande. Para producir una onda de fase conjugada se requiere la utilización de un medio o de una superficie cuyas propiedades resulten afectadas por las características de las ondas que incidan en él. Esta dependencia permite que dicho medio o superficie se ajuste automáticamente al haz incidente con tal exactitud que, bajo ciertas condiciones, se srcine un haz de fase conjugada. Afortunadamente tales materiales existen y se conocen con el nombre de materiales ópticos no lineales. La difusión de Brillouin estimulada y la mezcla de cuatro ondas son dos métodos basados en el empleo de estos materiales y se utilizan mucho para la conjugación de fase. La difusión de
1. HAZ LUMINOSO con la fase conjugada, es decir, con la fase “invert ida temporalmente”; puede compensar las distorsiones srcinadas por un medio ópt icamente no homogéneo o irregular (un vidrio deslustrado). Un haz de láser muy coherente (izquierda) resulta distorsionado y se convierte en un haz degradado ( ). El centro haz degradado se invierte luego por conjugación de fase óptica. La transmisión hacia atrás del haz con la fase conjugada a través del medio irregular o no homogéneo restablece la calidad del haz srcinalderecha ( ).
107
Brillouin estimulada, uno de los efectos más bellos de la óptica no lineal, fue descubierta en 1964 por Raymond Y. Chiao, Boris P. Stoicheff y Charles H. Townes. Se produce cuando se dirige un haz luminoso sobre cualquier medio transparente, como un cristal, un vidrio, un líquido o un gas comprimido. La luz poco intensa los atraviesa sin atenuación apreciable. Pero el comportamiento de un haz luminoso muy intenso re sulta sorprendente. Cuando se al canza una potencia umbral del orden del millón de watt, el haz se refleja hacia atrás casi por completo. Se trata sin duda de una potencia muy elevada, pero que se puede obtener con facilidad utilizando un láser pulsante de laboratorio. El haz reflejado es la consecuencia del proceso que srcina la difusión de Brillouin (denominada así en memoria del físico francés Louis Marcel Brillouin). La difusión de Brillouin se produce cuando una onda sonora incide sobre un sólido, líquido o gas.
La onda sonora srcina ciertas alteraciones periódicas en la densidad del material en que se propaga. El resultado es que se forman una serie de zonas alternativas de compresión y de enrarecimiento, que se mueven con la onda a través del material. Dado que las zonas de compresión son más densas que las de enrarecimiento, el comportamiento de una onda luminosa que incida en el material es diferente en ambas. Con cretamente, el índice de refracción del primer tipo de zonas es ligeramente diferente del índice de refracción del segundo. (El índice de refracción de un material es el cociente entre la velocidad de la luz en el vacío y la velocidad de la luz en el material.) Si la separación entre las zonas es exactamente igual a la semilongitud de onda de la luz incidente, la luz se reflejará. Este tipo de reflexión resultará familiar a quienes hayan observado una capa delgada de aceite sobre agua y advertido su superficie coloreada con todos los colores del arco iris. En cada punto
de esta capa se refleja un color mejor que los otros: aquel cuya semilongitud de onda equivale al espesor de la capa en cuestión en dicho lugar. Como el espesor de la capa de aceite varía de un punto a otro, se reflejan en cada punto diferentes colores.
E
n la difusión de Brillouin estimulada, la onda sonora, o variación de la presión y la densidad, no se aplica externamente al material, sino que es estimulada internamente por pares de ondas luminosas que se propagan en sentido contrario. De la misma forma que el sonido consiste en una onda de presión y densidad, la luz consiste en un campo eléctrico en movimiento. Un campo eléctrico puede comprimir el material; este fenómeno se conoce con el nombre de electrostricción. En consecuencia, cuando un campo eléctrico se mueve a través de un material con la velocidad del sonido, puede dar lugar a una onda sonora. Dicho campo eléctrico puede generarse por interferencia de dos haces ópticos que avancen en direcciones opuestas, si su diferencia de frecuencias es igual a la frecuencia del sonido. En el caso de una difusión de Brillouin estimulada uno de estos haces es el haz luminoso incidente. El otro haz luminoso procede de la difusión del haz incidente por las pequeñas fluctuaciones de densidad, estocásticamente distribuidas en el medio (es decir, ondas sonoras fluctuantes térmicamente). Cuando la frecuencia y la dirección de una onda difundida son las adecuadas, la onda interfiere con el haz incidente y amplifica las variaciones de presión y de densidad del material. Estas variaciones conducen subsiguientemente a la reflexión de una pequeña parte del haz incidente. La fracción reflejada interfiere a su vez con el haz incidente, dando lugar a nuevas variaciones de presión y de densidad, que conducen a más reflexiones del haz incidente. Las reflexiones aumentan exponencialmente con la distancia, hasta que un haz reflejado emerge del material. Sin embargo, dado que la amplificación depende de la intensidad del haz incidente, un requisito previo para obtener dicho haz reflejado consiste en que la potencia del haz incidente supere cierto valor umbral. La conjugación de fase por difusión de Brillouin estimulada se obtuvo por vez primera en 1972 por Valery V. 2. REVERSIBILIDAD DE LAS ONDAS LUMINOSAS, que tiene consecuencias muy Ragul’skii, Vladimir I. Popovichev, importantes. Un haz direccional ideal (es decir, un haz libre de distorsión y de diFuad S. Faizullov y uno de nosotros vergencia) sufre una degradación al atravesar una placa de vidrio de espesor no (Zel’dovich). El factor principal para uniforme (arriba). El haz se puede regenerar si los rayos individuales que lo intesu consecución consistió en el uso de gran se invierten y se transmiten hacia atrás a través de la misma placa de vidrio (esquema inferior). una placa de vidrio especial, que había
108
TEMAS 6
3. ESTA FOTOGRAFIA de un haz de laser sugiere la reversibireferencia”; estas bandas corresponden a las superficies de los lidad de las ondas luminosas: si el único dato fuera esta imagen frentes de onda, es decir, a los lugares donde la oscilación es sería imposible afirmar si el haz se mueve de izquierda a deresincrónica. Los frentes de dos ondas mutuamente conjugadas cha o de derecha izquierda. (La dirección es de izquierda (en aderecha) nuestro están caso, las que se mueven hacia la las izquierda y hacia derecha.) La serieade bandas verticales oscuras aparece como la invertidos en relación con direcciones de resultado de la interferencia del haz de láser con un haz “depropagación, como ilustra el esquema de la derecha.
sido convertida en no uniforme mediante un ataque con ácido fluorhídrico. Un haz de luz roja de un láser pulsante de rubí sufría una distorsión al atravesar dicha placa. El haz distorsionado pasaba a un tubo de un metro de longitud, cuatro milímetros de anchura y cuatro milímetros de altura, lleno de gas metano a una presión de 140 atmósferas. La difusión de Brillouin estimulada tenía lugar en este tubo; cuando el haz reflejado atravesaba la misma placa de vidrio
atacada químicamente emergía sin distorsión. En otras palabras, su estructura era idéntica a la del haz incidente. La conjugación de fase por difusión estimulada se ha llevado a cabo con posterioridad utilizando numerosos medios de difusión y muchos tipos de láser diferentes. La ventaja principal de esta técnica consiste en que sólo requiere una celda llena con un sólido, líquido o gas adecuado. La simplicidad del método de difusión es timulada
llevó a decir a Robert W. Hellwarth que “a la naturaleza seguramente le gusta el haz de fase con jugada”. Es interesante destacar que el propio Hellwarth propuso en 1977 otra forma de conjugar las fases: la mezcla de cuatro ondas. La mezcla de cuatro ondas es el otro método de conjugación de fase más utilizado en la actualidad. Se basa en la interferencia de cuatro haces luminosos en un medio no lineal. Tres de los haces lo son de entrada: uno de
4. DIFUSION DE BRILLOUIN ESTIMULADA. Se trata de un método para producir haces luminosos con la fase conjugada. Un haz luminoso de gran potencia y muy direccional azul ( ) sufre una distorsión al atravesar una placa de vidrio de espesor no uniforme. El haz distorsionado penetra luego en un material que pudiera ser cristal, vidrio, o un líquido o un gas comprimido. El haz se difunde debido a las fluctuaciones de densidad estocásticamente distribuidas (ondas sonoras fluctuantes térmicamente) situadas al final del medio en cuestión, dando lugar a una serie de ondas de configuraciones variables fragmento ( s rojos curvados ). Cuando la frecuencia y la direcciónespaciales de una onda difundida son exactamente las adecuadas, la onda interferirá con el haz incidente y dará lugar a la formación de más variaciones de presión y de densidad en el medio considerado ( barras grises en la región aumentada de la derecha). Estas variaciones producen la subsiguiente reflexión de una pequeña porción de haz incidente. La porción reflejada interfiere a su vez con el haz incidente, srcinando nuevas variaciones de presión y densidad, que reproducen el fenómeno y srcinan nuevas reflexiones del haz incidente. Estas reflexiones aumentan de manera exponencial, hasta que un haz de fase conjugada muy potente en color ( rojo) emerge del material. La gran calidad y direccionalidad del haz srcinal se restablece en la transmisión hacia atrás del haz conjugado a través de la placa de vidrio.
LA CIENCIA DE LA LUZ
109
ellos es el haz objeto cuya fase se desea conjugar y los otros dos son haces de referencia. Los haces de referencia, que se mueven en direcciones opuestas entre sí, suelen ser ondas planas y tienen la misma frecuencia que el haz objeto. El haz objeto puede penetrar en el medio considerado en cualquier dirección. El cuarto haz es un haz de salida; es el conjugado de fase del haz objeto y emerge a lo largo de la misma línea que el haz objeto, aunque su sentido de propagación es contrario al de éste. El haz conjugado se produce como consecuencia de ciertas perturbaciones srcinadas en el medio material
por la interferencia del haz objeto con uno de los haces de referencia. Cuando los campos eléctricos de la ondas oscilan en fase, los campos se suman y la intensidad local de la luz es elevada. Si oscilan con fases opuestas, los campos se restan y la intensidad local de la luz es baja. Las zonas de alta intensidad están intercaladas entre las zonas de baja intensidad. El tamaño, forma y orientación de todas las zonas vienen determinados por las características de los campos que interfieren. En consecuencia, toda la información sobre la fase del haz objeto está almacenada en lo que se conoce como
5. LA MEZCLA DE CUATRO ONDAS constituye otro método para producir haces con la fase conjugada. Se basa en la interferencia de cuatro haces luminosos en un cristal, vidrio, líquido o gas comprimido. Tres de los haces son haces de entrada: uno de ellos es el haz objeto (representado aquí como una onda esférica), cuya conjugación de fase se desea, y los otros dos son haces de referencia. El cuarto es el haz de salida; su fase es la conjugada del haz objeto. La interacción del haz objeto con uno de l os haces de referencia azul ( ) produce una figura de interferencia en el medio material considerado. El segundo haz de referencia (rojo) se refleja en la figura de interferencia. Dado que el segundo haz de referencia proviene de una dirección opuesta a la del primero, el haz refle jado es el conjugado de fase del haz objeto. En realidad, todos estos procesos tienen lugar simultáneamente. Más aún, en el medio material se forman dos figuras de interferencia: cada uno de los haces de referencia da lugar a una figura en la que se refleja el otro haz.
figura de interferencia, que se manifiesta en el medio en cuestión como una serie de zonas con índices de refracción diferentes. El segundo haz de referencia se refleja en las zonas de la figura de interferencia, es decir, el haz lee la información que sobre la estructura de la fase almacena dicha figura. Dado que la dirección del segundo haz de referencia es opuesta a la del primero, el haz reflejado es el conjugado de fase
6. DIRECCIONALIDAD DE LOS HACES de láser: se mejora utilizando la conjugación de fase óptica. La mayoría de los láseres diseñados para producir haces potentes se construyen de acuerdo con el esquema representado en la parte superior de esta figura. Un “oscilador local” o generador primario produce un haz muy direccional a expensas de la potencia de salida. La potencia aumenta cuando el haz pasa a través de un amplificador. Sin embargo, la existencia de irregularidades (inhomogeneidades) en el medio de amplificación produce ciertas distorsiones en el haz. La figura de la parte inferior muestra la forma en que se pueden compensar dichas distorsiones. La luz procedente de un generador primario se refleja con un espejo semitransparente hacia un amplificador. El haz sufre distorsionado que sale del amplificador una conjugación de fase y se devuelve al amplificador. El haz con la fase conjugada se propaga hacia atrás respecto al haz srcinal a través de las mismas irregularidades del medio considerado y, como consecuencia, su movimiento se invierte . El haz de “doble pasada” resultante tiene gran potencia y se encuentra libre de distorsiones.
110
TEMAS 6
7. EN LA RADIACION AUTODIRIGIDA tenemos otra de lascalentar, que difunde la radiación en todas direcciones. Paraplicaciones de la conjugación de fase óptica. Esta técnica te de esta radiación atraviesa una lente e incide sobre un proporciona una forma de calentar un objeto pequeño sinamplificador situado cerca del objeto. La radiación aumenta necesidad de recurrir a un sistema complicado de lentes y desu potencia al atravesar el amplificador. Un conjugador de espejos; podría utilizarse quizá para calentar un plasma den-fase sito al final del amplificador crea un haz “antidistorsioso e iniciar una fusión termonuclear. Un haz luminoso de nado” y lo refleja a través del amplificador, dirigiendo un poca potencia se dirige hacia las proximidades del objeto apotente haz de láser sobre el objeto.
del haz objeto. Aunque la reflexión producida en cada zona de la figura sea débil, la suma de todas ellas adquiere su importancia y puede transferirse una cantidad considerable de energía desde el haz de referencia hacia el conjugado.
L
a simetría en la disposición de los haces de referencia sugiere que la figura de interferencia podría crearse también con el segundo haz de referencia y el haz objeto y leerse con el primer haz de referencia. En realidad se forman dos figuras de interferencia en el medio no lineal: cada haz de referencia srcina una figura en la que se refleja el otro haz de referencia. Lo que acabamos de describir en realidad es el registro y la reproducción de un holograma “dinámico”. Un holograma es una figura de interferencia formada con haces láser y almacenada en una película fotográfica, lo cual permite producir una imagen tridimensional. La holografía tradicional “estática” requiere tres etapas diferenciadas: en primer lugar, se procede a registrar el holograma iluminando una transparencia fotográfica con la figura de interferencia
LA CIENCIA DE LA LUZ
resultante de dos ondas, un haz objeto y un haz de referencia; a continuación, se revela la película y finalmente se lee el holograma con el mismo u otro haz de referencia. La mezcla de cuatro ondas es un ejemplo de holografía dinámica, debido a que los tres procesos citados —registro, revelado y lectura— tienen lugar simultáneamente. Las variaciones causadas en el índice de refracción desaparecen cuando lo hace la radiación de iluminación, y el holograma está cambiando continuamente en respuesta a las variaciones del haz objeto. A la vista de lo que antecede, no resulta sorprendente que la idea de la conjugación con cuatro ondas se encontrara ya en los trabajos de los pioneros de la holografía, tales como Dennis Gabor, Yury N. Denisyuk, Emmett N. Leith y Juris Upatnieks. Herwig W. Kogelnik propuso en 1965 que las tres etapas de la holografía estática se podrían combinar para dar lugar a un holograma dinámico y, por tanto, producir una conjugación de fase. En 1971 Boris I. Stepanov, Evgeny I. Ivakin, Alexander S. Rubanov y J. P. Woerdman llevaron a cabo los primeros ensayos de hologra-
fía dinámica utilizando haces de referencia que se propagaban en direcciones opuestas. Hellwarth inició posteriormente el estudio exhaustivo de la mezcla de cuatro ondas y también describió adecuadamente el fenómeno en términos de óptica no lineal. Entre los investigadores que han desempeñado un papel relevante en el desarrollo de la conjugación con cuatro ondas podemos citar a Ammon Yariv, David M. Pepp er, David M. Bloom y Paul F. Liao.
M
uchos laboratorios de todo el mundo han utilizado con éxito la conjugación con cuatro ondas. Uno de los atractivos de este método consiste en que, al contrario de lo que sucede en la conjugación de fase por difusión de Brillouin estimulada, no se requiere una potencia mínima de la onda objeto para que se produzca la conjugación. Las posibles aplicaciones de la conjugación de fase óptica son múltiples. La producción de haces de láser muy direccionales y de radiación autodirigida son dos de las primeras. Esta última aplicación proporciona una forma de calentar un objeto
111
pequeño, cuya superficie puede ser mínima (la millonésima parte de la sección transversal del haz de láser utilizado), sin necesidad de recurrir a un sistema complicado de lentes, espejos y otros elementos ópticos. Esta técnica tal vez sirva en el futuro para calentar un plasma denso e iniciar así un proceso de fusión termonuclear. Casi todos los dispositivos diseñados para proporcionar haces de láser potentes se construyen de acuerdo con el esquema que detallamos a continuación. En primer lugar se construye lo que se llama un generador primario (“oscilador local”), capaz de producir un haz muy direccional a expensas de la potencia de salida. A continuación se hace pasar el haz a través de un amplificador para obtener la potencia deseada. El amplificador consiste en un sólido o un gas de moléculas muy excitadas. Cuando el haz primario lo atraviesa, estimula las moléculas y da lugar a la liberación de energía en forma de radiación. Un amplificador homogéneo ideal no distorsionaría la direccionalidad del haz, para lo que se requeriría una constancia de su índice de refracción superior a una parte por millón. Difícilmente se puede esperar la obtención de un grado de homogeneidad tan elevado, sobre todo teniendo en cuenta las condiciones de excitación intensa del medio amplificador. El índice de refracción del vidrio, por ejemplo, cambia en una parte por millón cuando la temperatura varía unas tres centésimas de grado centígrado.
fenómeno radica en el hecho de que el haz de fase conjugada se propaga hacia atrás con respecto al haz srcinal, a través de las mismas irregularidades que el láser y, por tanto, “invierte” su movimiento. El haz de fase conjugada compensa no sólo las irregularidades estáticas debidas a los elementos ópticos, sino también las irregularidades dinámicas. La explicación de este fenómeno se basa en el hecho de que el tiempo que la luz invierte en recorrer algunos metros a través del amplificador es del orden de una cienmillonésima de segundo, un valor mucho menor que el tiempo necesario para la excitación y relajación de las irregularidades ópticas en un láser. La conjugación de fase óptica ha demostrado también su utilidad para conseguir radiación autodirigida, idea que fue propuesta inicialmente por Kogelnik. Existen varias formas posibles de llevar a cabo esta técnica. Nos limitaremos a describir sólo un ejemplo. Se empieza por dirigir un haz amplio de un láser de potencia relativamente baja hacia las proximidades del objeto que se desea calentar. El objeto difunde la radiación en todas las direcciones; una parte de esta radiación, después de atravesar algunas lentes ópticas, llega a un amplificador colocado cerca del objeto. A medida que la radiación avanza a través del amp lif ica dor , su pot encia aumenta. Un conjugador de fase situado al final del amplificador crea un haz “antidistorsionado” y lo refleja sobre dicho amplificador. Como resultado de todo este proceso se obtiene un as distorsiones en la direccionali- haz direccional de elevada potencia dad del haz introducidas por un focalizado sobre el objeto. La focalizaamplificador pueden corregirse afortu- ción del haz sobre el blanco está liminadamente mediante un montaje de tada solamente por la naturaleza “doble paso”, que hace uso de la conju- ondulatoria de la luz (es decir, por los gación de fase óptica. Esta idea fue efectos de difracción) y es indepenpropuesta y comprobada experimen- diente de la orientación del sistema talmente en 1972 por Oleg Yu, Nosatch, focalizador. El blanco parece “atraer” Ragul’skii y sus colaboradores, gene- a la radiación amplificada. Nikolay G. rando un haz idealmente dirigido con Basov y sus colegas han estudiado la un láser pulsante de rubí. Este haz se posibilidad de producir la fusión hacía pasar por un amplificador de nuclear con láser utilizando la técnica rubí; el haz resultante, potente aun- de autodirección de la radiación. que distorsionado, se sometía a una conjugación de fase óptica. Finalmente, el haz conjugado de fase se devolvía de nuevo al amplificador. BIBLIOGRAFIA COMPLEMENTARIA Descubrieron que, durante el segundo paso por el amplificador, el haz consuOPTICAL PHASE CONJUGATION . Dirigido por mía casi toda la energía almacenada R. A. Fischer. Academic Press, 1983. . Número esOPTICAL PHASE CONJUGATION en las moléculas excitadas del rubí. pecial del Journal of the Optical Society Se ha descubierto además algo vero 5; mayo, 1983. , vol. 73, n. of America daderamente importante: cuando el PRINCIPLESOF PHASE CONJUGATION. B. Ya. haz de fase conjugada atraviesa el Zel’dovich, N. F. Pilipetsky y V. V. Shkuamplificador se hace idealmente nov. Springer-Verlag, 1985. direccional. La explicación de este
L
T
EMAS 6