Sumario Teoría del arco iris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
H. Moysés Nussenzveig
Objetivos fotográficos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 William H. Price
Delicias del estenoscopio y de su pariente, el antiestenoscopio antiestenoscopio . . 29
Microscopía confocal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 Jeff W. W. Lichtman
Construcción de un microscopio simple . . . . . . . . . . . . . . . . . . 42
Coherencia óptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
M.a Luisa Calvo Padilla
Hologramas de luz blanca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Emmett N. Leith
Optica adaptativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 John W. W. Hardy
Espejos líquidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 Ermanno F. F. Borra
Optica sin imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 Roland Winston Winston
Giroscopios Giroscopios ópticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 Dana Z. Anderson
Tensión visible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Interferometría Interferometría óptica de superficies . . . . . . . . . . . . . . . . . . . . 100 Glen M. Robinson, David M. Perry y Richard W. Peterson
Conjugación de fase óptica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Vladimir V. Shkunov y Boris Y. Zel’dovich
Teoría del arco iris H. Moysés Nussenzveig
¿Por qué aparecen en el cielo esos bellos arcos coloreados cuando las gotas de agua difunden la luz del sol? La respuesta a esta difícil pregunta ha puesto a contribución todos los recursos de la física matemática
E
l arco iris es un puente entre dos culturas, pues su descripción ha venido constituyendo un desafío tanto para los poetas como para los científicos. Suele suponerse que la descripción científica es un sencillo problema de óptica geométrica, resuelto hace mucho tiempo y cuyo único interés actual sería como ejercicio histórico. Pero no es así, pues sólo recientemente se ha elaborado una teoría cuantitativa satisfactoria del arco iris, teoría que además abarca mucho más que la óptica geométrica, basándose en todo lo que sabemos sobre la naturaleza de la luz, siendo necesario tener en cuenta sus propiedades ondulatorias (la interferencia, la difracción y la polarización) y corpusculares (verbigracia, la cantidad de movimiento transportada por un haz de luz). Algunos de los métodos más poderosos de la física matemática se idearon explícitamente para tratar el problema del arco iris y otros estrechamente relacionados con él. El arco iris ha servido de piedra de toque para poner a prueba las teorías ópticas. La más afortunada de ellas puede, hoy, describir el arco iris matemáticamente, es decir, predecir la distribución de su luz en el cielo. Los mismos métodos pueden aplicarse a fenómenos parecidos, como son los brillantes anillos de color llamados glorias, e incluso a otras clases de arco iris, como los atómicos y nucleares. La comprensión científica del mundo no siempre se acepta sin rese r vas. Goethe escribió que el análisis de los colores del arco iris realizado por Newton “baldaría el corazón de la Naturaleza”. Un sentimiento análogo fue expresado por Charles Lamb y John Keats; en un banquete celebrado en 1817 propusieron un brindis: “Por la salud de Newton y la ruina de las matemáticas.” Los científicos que contribuyeron a la teoría del arco iris no fueron, sin embargo, insensibles a su
2
belleza. En palabras de Descartes: “El El primero que intentó explicar arco iris es una maravilla de la natu- racionalmente la aparición del arco raleza tan notable... que yo difícil- iris fue probablemente Aristóteles. mente podría haber elegido otro ejem- Propuso la idea de que era en realidad plo mejor para la aplicación de mi una clase especial de reflexión de la método.” luz solar por las nubes. La luz se refleEl arco único y brillante que se ve jaría con un ángulo fijo, dando lugar tras un chubasco de lluvia o en la a un cono circular de “rayos de arco rociada de una cascada es el arco iris iris”. Aristóteles explicó así correctaprimario. Su característica más cons- mente la forma circular del arco y picua es su despliegue de colores, que advirtió que no se trataba de un objeto varían mucho en brillo y claridad, pero material en una posición definida del siempre siguen el mismo orden: el cielo, sino más bien de un conjunto de violeta es el más interno, mezclándose direcciones a lo largo de las cuales se gradualmente con varios tonos de difunde fuertemente la luz hasta los azul, verde, amarillo y naranja, siendo ojos del observador. el rojo el más externo. l ángulo que forman los rayos del Otras características del arco iris son menos acusadas y, de hecho, no arco iris y la luz solar incidente siempre se presentan. En el cielo, por fue medido por primera vez en 1266 encima del arco primario, se encuen- por Roger Bacon. Obtuvo un resultado tra el secundario, en el que los colores de unos 42 grados; el arco secundario aparecen en orden inverso, con el rojo está unos ocho grados más alto en el más hacia dentro y el violeta en el cielo. Hoy día se acostumbra medir borde externo. Una observación cui- esos ángulos en la dirección opuesta, dadosa revela que la región situada atendiéndose al cambio total de direcentre ambos arcos es bastante más ción de los rayos procedentes del Sol. oscura que el cielo circundante. El ángulo del arco primario mide, por Incluso en aquellos casos en los qu e el tanto, 180 menos 42, es decir, 138 arco secundario no sea discernible, se grados; se trata del llamado ángulo puede ver que el arco primario tiene del arco iris. El ángulo del arco se cunun “lado iluminado” y un “lado oscuro”. dario mide 130 grados. Tras la conjetura de Aristóteles A la región oscura se la ha denominado banda oscura de Ale jandro, en hubieron de pasar diecisiete siglos honor del filósofo griego Ale jandro de antes de que la teoría del arco iris Afrodisia, quien la describió por pri- progresase algo. En 1304 el monje mera vez hacia el año 200 de la era alemán Teodorico de Freiberg rechazó cristiana. la hipótesis aristotélica de que el arco Otra característica que se ve sólo algunas veces es una serie de débiles bandas, en la que suelen alternar el 1. ARCO IRIS DOBLE fotografiado en el rosa y el verde, hacia la parte interna Parque Nacional de Pallastunturi, Findel arco primario. (Pueden aparecer landia. La banda brillante más interna es más raramente en la parte exterior al el arco primario; está separado del arco arco secundario.) Estos “arcos super- secundario, más débil, por una región, numerarios” se ven generalmente con llamada banda oscura de Alejandro, que es visiblemente más oscura que el cielo la máxima claridad hacia la parte circundante. Bajo el arco primario hay superior del arco primario. Aunque no unas pocas bandas tenues de rosa y verde; son nada llamativos, han tenido una son los arcos supernumerarios. A la teoimportante influencia en el desarrollo ría compete dar una explicación cuantitativa de cada uno de esos rasgos. de las teorías sobre el arco iris.
E
TEMAS 6
iris resultase de la reflexión colectiva por las gotas de agua de una nube, proponiendo en cambio que cada gota individual era capaz de producir un arco iris. Además comprobó esta con jetura mediante experimentos realizados con una gota aumentada: un frasco esférico de vidrio lleno de agua, que le permitió seguir el camino de los rayos luminosos que constituyen el arco iris. Los descubrimientos de Teodorico permanecieron en buena medida ignorados durante tres siglos, hasta que volvieron a ser redescubiertos inde-
LA CIENCIA DE LA LUZ
pendientemente por Descartes, que siguió el mismo método. Ambos mostraron que el arco iris está con stituido por rayos que penetran en una gota y se reflejan una sola vez en su superficie interna. El arco secundario está formado por rayos que han sufrido dos reflexiones internas. En cada reflexión se pierde algo de luz, lo q ue es la causa principal de que el arco secundario sea más débil que el primario. Teodorico y Descartes también se dieron cuenta de que la luz dispersada por el globo en una dirección determinada, comprendida en el margen de ángulos
correspondientes al arco iris, presentaba un solo color. Si se variaba la posición del ojo para explorar los otros ángulos de dispersión, aparecían los otros colores espectrales, de uno en uno, por lo que llegaron a la conclusión de que cada uno de los colores del a rco iris llegaba al ojo procedente de un conjunto diferente de gotas de agua. Teodorico y Descartes comprendieron que todos los rasgos fundamentales del arco iris se pueden explicar examinando la luz que pasa por una gota única. Los principios fundamentales que determinan la naturaleza del
3
2. LA GEOMETRIA DEL ARCO IRIS viene determinada por el ángulo de desviación, que es el ángulo que forma la dirección del rayo incidente con la del rayo emergente de la gota, en el sentido de propagación de éste. Los rayos incidentes se desvían preferentemente según ángulos de 138 y de 130 grados, originando los arcos iris primario y secundario, respectivamente. Entre esos ángulos es muy poca l a luz que es devuelta por las gotas; ésa es la región de la banda oscura de Alejandro. Los ángulos óptimos son ligeramente distintos para cada longitud de onda de la luz, por lo cual se dispersan los colores. El orden en que aparecen l os colores en el arco secundario es el inverso del que corresponde al arco primario. No existe un plano único en el que se halle el arco iris; éste es el conjunto de direcciones a lo largo de las cuales la luz incidente se desvía hacia el observador.
arco son los que rigen la interacción entre la luz y los medios transparentes, es decir, la reflexión y la refracción. La ley de la reflexión es el principio, conocido e intuitivamente evidente, de que el ángulo de reflexión debe ser igual al ángulo de incidencia. La ley de la refracción es algo más complicada. Mientras que el camino de un rayo reflejado queda completamente determinado por la geometría, la refracción obliga a tener en cuenta las propiedades de la luz y las propiedades del medio. La velocidad de la luz en el vacío es invariante; en realidad, constituye una de las constantes fundamentales de la naturaleza. En cambio la velocidad de la luz en un medio material queda determinada por las propiedades del medio. El cociente entre velocidad de la luz en el vacío y velocidad de la luz en una substancia se llama índice de refracción de esa substancia. Para el aire, este índice sólo es un poco mayor que la unidad; para el agua vale aproximadamente 1,33. Un rayo de luz que pase de aire a agua se retarda al atravesar la superficie de separación; si incide oblicuamente sobre dicha superficie, el cambio de velocidad se traduce en un cambio de dirección. Los senos de los ángulos de incidencia y refracción para dos medios están siempre en una relación constante e igual al cociente de los índices de refracción de los dos medios. Esta igualdad se llama ley de Snell, en honor de Willebrord Snell, quien la formuló en 1621.
S
e puede realizar un análisis pro visional del arco iris aplicando las leyes de la reflexión y de la refracción a la trayectoria de un rayo luminoso al atravesar una gota. Admitiendo que la gota sea esférica, todas las direcciones son equivalentes y sólo queda una variable importante: la distancia del rayo incidente a un eje paralelo a él y que pase por el centro de la gota . Esta distancia se llama parámetro de impacto y varía desde cero, cuando el rayo coincide con el eje central, al radio de la gota, si el rayo es tangente. El rayo incidente sufre una reflexión parcial en la superficie de la gota; 3. LA REFLEXION Y LA REFRACCION de la luz en la superficie de separación entre denominaremos a esta luz reflejada el aire y el agua son los hechos básicos en la formación de un arco iris. Por lo que “rayos desviados de primer orden”. La a la reflexión se refiere, el ángulo de incidencia es igual al ángulo de reflexión. En luz restante pasa al interior de la go ta el caso de la refracción, el ángulo que la luz transmitida forma con la normal a la (con un cambio de dirección causado superficie de separación viene determinado por las propiedades del medio, caracpor la refracción) y al llegar de nuevo terizadas por el índice de refracción. La luz que penetra en un medio con un índice a su superficie vuelve a transmitirse de refracción más alto es desviada, acercándose a la normal. La luz de longitudes parcialmente (rayos de segundo orden) de onda diferentes se desvía según ángulos ligeramente distintos; esta dependencia entre índice de refracción y color se llama dispersión. Las teorías suelen tratar por y se refleja parcialmente. Cuando la separado cada componente monocromática de la luz incidente. luz reflejada vuelve a incidir sobre la
4
TEMAS 6
superficie, se divide otra vez entre una RAYO DE componente reflejada y otra transmiTERCER ORDEN (ARCO IRIS tida, proceso que continúa indefinidaPRIMARIO) mente. La gota da origen por tanto a una serie de rayos difundidos, cuya intensidad suele decrecer rápidamente. Los rayos de primer orden representan la reflexión directa por la gota y los de segundo orden se transmiten directamente a través de ella. Los de tercer orden son los que salen de la gota tras una reflexión interna, y forman el arco iris primario. Los rayos de cuarto orden, que han sufrido RAYO DE dos reflexiones internas, originan el SEGUNDO ORDEN arco secundario. Los arcos de orden superior proceden de rayos con trayectorias más complicadas, pero de ordinario no son visibles. RAYOS DE PARAMETRO El ángulo de desviación de cada ORDENES SUPERIORES DE IMPACTO orden de rayos varía dentro de un amplio intervalo de valores en función del parámetro de impacto. Cuando hay Sol la gota queda iluminada simultáneamente para todos los parámetros RAYO INCIDENTE de impacto, por lo que la luz se dispersa GOTA DE AGUA prácticamente en todas las direcciones. No es difícil encontrar trayectos de rayos luminosos a través de la gota que RAYO DE CUARTO ORDEN contribuyan al arco iris, pero hay una (ARCO IRIS infinidad de ellos que dirigen la luz SECUNDARIO) RAYO DE PRIMER ORDEN hacia otros lados. ¿Por qué entonces se refuerza la intensidad dispersada en la 4. EL RECORRIDO DE LA LUZ al atravesar una gota se puede determin ar aplicanproximidad del ángulo del arco iris? do las leyes de la óptica geométrica. Cada vez que el haz incide sobre la superficie, Esta es una cuestión que Teodorico no parte de la luz se refleja y parte se refracta. Los rayos reflejados directamente por examinó; Descartes fue el primero en la superficie se llaman rayos de primer orden; los que se transmiten directamente a través de la gota se llaman de segundo orden. Los rayos de tercer orden emergen solucionarla. Aplicando las leyes de la reflexión y tras una reflexión interna; éstos son los que originan el arco iris primario. El arco de la refracción en cada punto en el secundario está constituido por rayos de cuarto orden, que han experimentado dos reflexiones internas. El valor del ángulo de desviación de los rayos de cada tipo que un rayo pudiese incidir sobre la está determinado por un único factor, el parámetro de impacto ( que es la distancia superficie de separación aire-agua, del rayo incidente a un eje paralelo a él y que pase por el centro de la gota). calculó laboriosamente los caminos de muchos rayos incidentes según muchos En el caso de los rayos de cuarto según el parámetro de impacto. Es parámetros de impacto. Los rayos de tercer orden tienen una importancia orden, el ángulo de desviación es nulo decir, la luz desviada será más bripredominante. Cuando el parámetro cuando lo es el parámetro de impacto; llante allí donde se reúnan la mayor de impacto es cero, los rayos son des- en otras palabras, el rayo central se cantidad de rayos que incidieron con viados en la dirección de incidencia, es refleja dos veces y después continúa parámetros de impacto diferentes. decir, una vez han pasado por el centro en su dirección original. Al aumentar Las regiones de mínima variación son de la gota se reflejan en su pared el parámetro de impacto también lo las vecinas a los ángulos de desviación opuesta, girando un ángulo de 180o y hace el ángulo de desviación, pero de máximo y mínimo, lo que explica el regresando hacia el Sol. A medida que nuevo esta variación se invierte en especial carácter de los ángulos de los crece el parámetro de impacto y los cierto momento, esta vez a 130 grados. arcos primario y secundario. Y como rayos incidentes se separan del centro Los rayos de cuarto orden tienen un en la región comprendida entre los de la gota, el ángulo de desviación dis- ángulo de desviación máximo de 130 ángulos de 130 y 138 grados no puede minuye. Descartes halló, sin embargo, grados y, si el parámetro de impacto haber rayos desviados de los órdenes que esta variación no continúa cuando aumenta más, los rayos salen apun- tercero y cuarto, queda también expliel parámetro de impacto ha aumen- tando hacia la parte posterior de la cada la banda oscura de Alejandro. tado hasta su valor máximo, caso de gota, desviados hacia la dirección de incidencia rasante en que el rayo es incidencia. uede entenderse mejor la teoría de Descartes si se considera un contangente a la superficie de la gota. Por La iluminación de una gota que esté el contrario, el ángulo de desviación al Sol es uniforme y los parámetros de junto de gotas que, de alguna manera, pasa por un mínimo cuando el pará- impacto de los rayos incidentes esta- difundieran la luz uniformemente en metro de impacto vale aproximada- rán también uniformemente distri- todas direcciones. Un cielo lleno de mente 7/8 del radio de la gota, y des- buidos. Sería de esperar, por tanto, tales gotas sería uniformemente bripués aumenta de nuevo. El ángulo de que la concentración de luz desviada llante desde todos los ángulos. En un desviación correspondiente al mínimo fuese máxima donde más lenta sea la cielo poblado de gotas de agua reales vari ación del ángu lo de desviación hay disponible la misma cantidad de vale 138 grados.
P
LA CIENCIA DE LA LUZ
5
luz, pero ha sido redistribuida. La mayoría de las zonas celestes están iluminadas más débilmente de lo que lo estarían con dispersión uniforme, pero en la proximidad del ángulo del arco iris hay un arco brillante, que se atenúa gradualmente en el lado iluminado y más bruscamente en el lado oscuro. El arco secundario es otra región análoga de gran intensidad, salvo que es más estrecho y todas sus características son más débiles. Conforme a la teoría cartesiana, la zona situada entre los arcos es decididamente más oscura que cualquier otra parte: si sólo contuviera rayos de órdenes tercero y cuarto, sería muy negra.
El arco iris cartesiano es un fenómeno sorprendentemente sencillo. El brillo es una función de la velocidad de variación del ángulo de desviación. Este queda determinado por dos factores: el índice de refracción, que se supone constante, y el parámetro de impacto, que se supone distribuido uniformemente. Un factor que carece de influencia alguna sobre el ángulo del arco iris es el tamaño de las gotas: la geometría de la desviación es la misma para las gotitas de agua que constituyen las nubes que para los globos de vidrio llenos de agua que usaban Teodorico y Descartes. Hasta ahora hemos prescindido de una de las características más conspi-
180
cuas del arco iris: sus colores. Por supuesto que Newton los explicó en 1666 mediante sus experimentos con prismas. Tales experimentos demostraron no solamente que la luz blanca es una mezcla de colores, sino también que el índice de refracción difiere para cada color, efecto llamado dispersión. Se deduce, por tanto, que cada color o longitud de onda de la luz debe tener su propio ángulo de arco iris; lo que observamos en la naturaleza es una reunión de arcos monocromáticos, cada uno ligeramente corrido respecto al anterior. Partiendo de sus mediciones del índice de refracción, Newton calculó que el ángulo del arco iris es de 137
A RAYO DE TERCER ORDEN
160
B
C
RAYO DE ARCO IRIS PRIMARIO
140
) S O D A 120 R G (
BANDA OSCURA DE ALEJANDRO
N O I 100 C A I V S E D 80 E D O L 60 U G N A
RAYO DE ARCO IRIS SECUNDARIO
RAYO DE CUARTO ORDEN
40
20
0
PARAMETRO DE IMPACTO
C A
PARAMETRO DE IMPACTO A RAYO DEL ARCO IRIS
B C
6
ANGULO DE DESVIACION B
RADIO DE LA GOTA
5. ANGULO DEL ARCO IRIS. La especial importancia que tiene se observa al considerar el ángulo de desviación en función del parámetro de impacto. Cuando éste es cero, el ángulo de desviación para un rayo de tercer orden es de 180 grados; el rayo pasa por el centro de la gota, se refleja en la superficie situada más allá del centro y vuelve hacia el Sol en la dirección de incidencia, pero en sentido opuesto. A medida que aumenta el parámetro de impacto disminuye el ángulo de desviación, hasta que llega a alcanzar un valor mínimo. Este rayo de mínima desviación es el rayo del arco iris en el diagrama de la izquierda; los rayos con parámetros de impacto a uno y otro lado de él se desvían según ángulos mayores. La desviación mínima es aproximadamente de 138 grados y la máxima concentración de rayos desviados se encuentra en la proximidad de este ángulo. El incremento resultante de la intensidad de la luz difundida se percibe como arco primario. El arco secundario se forma de manera análoga, excepto que el ángulo de desviación para los rayos de cuarto orden que lo forman aumenta hasta un máximo, en lugar de disminuir hasta un mínimo. El máximo se encuentra hacia los 130 grados. Ningún rayo de los órdenes tercero y cuarto puede alcanzar ángulos de desviación entre 130 y 138 grados, lo que explica la existencia de la banda oscura de Alejandro. A la izquierda se ve cómo dos rayos de tercer orden, con parámetros de impacto a uno y otro lado del correspondiente al rayo del arco iris, emergen según el mismo ángulo de desviación. La interferencia entre rayos como éstos da lugar a los arcos supernumerarios.
TEMAS 6
grados y 58 minutos para la luz roja y de 139 grados y 43 minutos para la luz violeta. La diferencia entre ambos es de 1 grado y 45 minutos, que debería ser la anchura del arco iris si los rayos de la luz solar incidente fueran exactamente paralelos. Aceptando medio grado para el diámetro aparente del Sol, Newton obtuvo una anchura total de dos grados y quince minutos para el arco primario. Entre Descartes y Newton quedaron explicadas las características más importantes del arco iris. Explicaron la existencia de los arcos primario y secundario y de la zona oscura que los separa; calcularon sus posiciones angulares y describieron la dispersión de la luz difundida formando un espectro. Todo ello se consiguió usando exclusivamente la óptica geométrica. Su teoría, sin embargo, tenía un fallo importante: era incapaz de explicar los arcos supernumerarios. La comprensión de esos detalles aparentemente nimios requiere tener ideas más sutiles sobre la naturaleza de la luz.
L
os arcos supernumerarios aparecen en el lado interno, o iluminado, del arco primario. En esta región angular hay dos rayos de tercer orden que, tras haber sido difundidos, emergen en la misma dirección; provienen de rayos incidentes que tienen parámetros de impacto a uno y otro lado del valor que corresponde al arco iris. Así, para cualquier ángulo dado ligeramente mayor que el del arco iris, la luz difundida incluye rayos que han seguido dos caminos diferentes en el interior de la gota. Los rayos emergen por distintos lugares de su superficie, pero siguen la misma dirección. En los tiempos de Descartes y de Newton, esas dos contribuciones a la intensidad difundida sólo podían manejarse por simple suma. El resultado es que la intensidad obtenida decrece continuamente con la desviación respecto al ángulo del arco iris, sin traza alguna de arcos supernumerarios. La verdad es que las intensidades de los dos rayos no pueden sumarse porque no son fuentes independientes de radiación. El efecto óptico escondido tras el fenómeno de los arcos supernumerarios lo descubrió Thomas Young en 1803, demostrando que la luz era capaz de producir interferencia, fenómeno que ya era conocido por el estudio de las olas en el agua. La superposición de ondas producidas en cualquier medio puede dar lugar bien a un refuerzo (cresta sobre cresta) o bien a una anulación (cresta sobre seno). Young demostró la interferencia de las
LA CIENCIA DE LA LUZ
6. LA CONFLUENCIA DE RAYOS desviados por una gota da lugar a cáu sticas. Una cáustica es la envolvente de un sistema de rayos. De interés especial es la cáustica de los rayos de tercer orden, que tiene dos ramas, una real y otra virtual; la última se forma por prolongación de los rayos hacia atrás. Cuando se construye el rayo d el arco iris en ambas direcciones, se aproxima asintóticamente a las ramas de la cáustica. George B. Airy elaboró una teoría del arco iris basada en el análisis de tal curva. Habiendo escogido un frente de onda inicial —una superficie perpendicular en todos los puntos a los rayos de tercer orden— Airy pudo determinar la distribución de las amplitudes de las ondas restantes. Un punto débil de esta teoría es la necesidad de presuponer las amplitudes iniciales.
ondas luminosas haciendo pasar un siguen trayectos de longitudes cada delgado haz de luz monocromática a vez más diferentes. Cuando la diferentravés de dos orificios de diámetro muy cia es igual a la mitad de la longitud pequeño y observando las franjas de onda, la interferencia es completaalternativamente iluminadas y oscu- mente destructiva; para ángulos ras que se producían. El propio Young mayores, los dos haces vuelven a reforseñaló la relación entre su descubri- zarse. El resultado es una variación miento y los arcos supernumerarios periódica de la intensidad de la luz del arco iris. Los dos rayos desviados desviada, una serie de bandas alternaen la misma dirección por una gota son tivamente brillantes y oscuras. estrictamente análogos a la luz que pasa a través de los dos agujeros en el omo los ángulos de desviación a los que se produce interferencia experimento de Young. En el caso de ángulos muy próximos al del arco iris constructiva están determinados por los dos trayectos por la gota difieren la diferencia de longitud entre los muy poco, de modo que ambos rayos trayectos de los dos rayos, esos ánguinterfieren constructivamente. Al los están afectados por el radio de la aumentar el ángulo, los dos rayos gota. El aspecto de los arcos supernu-
C
7
difracción es un sutil y difícil problema de física matemática; los estímulos para el desarrollo subsiguiente de la teoría del arco iris derivaron principalmente de los esfuerzos realizados para resolverlo. Richard Potter observó en 1835 que el cruce de varios conjuntos de rayos luminosos en una gota da lugar a cur vas cáusticas. Una cáustica, o “curva ardiente”, representa la envolvente de un sistema de rayos y va siempre asociada a un brillo elevado. Una cáustica conocida es la curva brillante de dos arcos que se unen en punta y que se forma en una taza de té cuando la luz del Sol se refleja en sus paredes interiores. Las cáusticas, como el arco iris, suelen tener un lado iluminado y otro oscuro; la intensidad aumenta continuamente hasta la cáustica y, pasada ésta, cae en forma brusca. Potter mostró que el rayo de Descartes del arco iris —el rayo de tercer orden con ángulo de desviación mínimo— se puede considerar como una cáustica. Todos los otros rayos transmitidos de tercer orden, cuando se prolongan hasta el infinito, se acercan al rayo de Descartes desde el lado 7. LA INTENSIDAD CALCULADA en función del ángulo de desviación se compara iluminado; no hay rayos de esta clase en tres de las primitivas teorías del arco iris. En el análisis geométrico de Descartes en el lado no iluminado. Hallar la la intensidad es infinita para el ángulo del arco iris; disminuye gradualmente (sin intensidad de la luz desviada por un arcos supernumerarios) en el lado iluminado y cae bruscamente a cero en el lado arco iris es semejante, pues, al prooscuro. La teoría de Thomas Young, basada en la interferencia de las ondas lumiblema de determinar la distribución nosas, predice los arcos supernumerarios, pero retiene la transición brusca de la intensidad de cero a infinito. La teoría de Airy altera la posición de los máximos en de intensidades en la vecindad de una la curva de intensidad y, por primera vez, proporciona (mediante la difracción) una cáustica. explicación de la atenuación gradual del arco iris hasta convertirse en sombra.
merarios (en contraste con el ángulo luz desviada en función del tamaño de del arco iris) depende, pues, del la gota y del ángulo de desviación. tamaño de las gotas. En el caso de La explicación de Young de los arcos gotas grandes la diferencia aumenta supernumerarios se basaba en la mucho más rápidamente que para teoría ondulatoria de la luz. Resultaba gotas pequeñas con el parámetro de paradójico que sus predicciones para impacto. De aquí que, cuanto mayo- el otro lado del arco, para la banda res sean las gotas, tanto más estrecha oscura de Alejandro, estuviesen en será la separación angular entre los desacuerdo con dicha teoría. La teoría arcos supernumerarios. Los arcos son de la interferencia, como las de casi imposibles de distinguir si las Descartes y Newton, predecía comgotas son de diámetro superior a un pleta oscuridad en esta región, al milímetro aproximadamente. La menos cuando sólo se consideraban los superposición de colores tiende tam- rayos de los órdenes tercero y cuarto. bién a eliminar los arcos. La depen- Sin embargo, no es posible una trandencia de los arcos supernumerarios sición tan abrupta, porque la teoría respecto al tamaño de las gotas ondulatoria de la luz exige que las explica por qué son más fáciles de ver acusadas separaciones entre luz y cerca de la cima del arco iris: las gotas sombra se suavicen a causa de la de lluvia tienden a hacerse mayores difracción. La manifestación más a medida que caen. familiar de la difracción es la manera Con la teoría de la interferencia de en que la luz o el sonido parecen cur Young se explicaban todas las carac- varse en el borde de un obstáculo terísticas importantes del arco iris, al opaco. En el arco iris no hay obstáculo menos de forma cualitativa y aproxi- real alguno; de todas maneras, el mada. Faltaba, sin embargo, una borde de separación entre el arco priteoría matemática, cuantitativa, mario y la banda oscura debería precapaz de predecir la intensidad de la sentar difracción. El tratamiento de la
8
G
eorge B. Airy intentó determinar tal distribución en 1838. Su razonamiento se basaba en un principio de la propagación de ondas formulado en el siglo XVII por Christiaan Huygens y perfeccionado más tarde por Augustin Jean Fresnel. Este principio consi dera cada punto de un frente de ondas como fuente de ondas esféricas secundarias; las ondas secundarias definen un nuevo frente de ondas; de esta manera se explica la propagación de las ondas. Se deduce, por tanto, que si se conociera la amplitud de las ondas secundarias en cada punto de un frente de ondas completo, se podría reconstruir la distribución de amplitudes en cualquier otro punto. La totalidad del arco iris se podría describir rigurosamente si conociéramos la distribución de amplitudes a lo largo del frente de ondas en una gota única. Por desgracia no suele poder determinarse la distribución de amplitudes; lo más que generalmente puede hacerse es una estima razonable para un frente de ondas escogido con la esperanza de obtener una buena aproximación. Airy escogió como frente de ondas inicial una superficie del interior de
TEMAS 6
la gota que sea normal a todos los mente, la intensidad disminuye poco rayos de tercer orden y con un punto a poco en la banda oscura de de inflexión (cambio en el sentido de la Alejandro. curvatura) donde corte al rayo de Des Airy realizó sus cálculos para un cartes. Estimó las amplitudes de las arco iris monocromático. Si se quiere ondas a lo largo de este frente mediante aplicar su método al arco iris produhipótesis corrientes en la teoría de la cido a la luz del Sol, hay que superpodifracción y pudo así expresar la ner las distribuciones de Airy generaintensidad de la luz desviada en la das por las diversas componentes región del arco iris en términos de una monocromáticas. Pasar más allá y nueva función matemática, a la que describir la imagen del arco iris que entonces se dio el nombre de integral se percibe exige una teoría de la visión del arco iris y hoy se llama función de del color. Airy. No trataremos aquí de la forma La pureza de los colores del arco iris matemática de la función de Airy. queda determinada por el grado de La distribución de intensidades superposición de los arcos iris monocropredicha por la función de Airy es análoga a la figura de difracción que aparece en la sombra de un filo rectilíneo. En el lado iluminado del arco primario hay oscilaciones de intensidad que corresponden a los arcos supernumerarios; las posiciones y anchuras de esos máximos difieren algo de lo predicho por la teoría de la interferencia de Young. Otra diferencia importante de la teoría de Airy es que la intensidad máxima del arco iris se produce para un ángulo algo mayor que el án gulo de mínima desviación de Descartes. Las teorías de Descartes y de Young predicen una intensidad infinita a ese ángulo, debido a la presencia de la cáustica. En la teoría de Airy no se alcanza intensidad infinita en ningún punto; por lo que se refiere al rayo de Descartes, la intensidad pronosticada por la teoría es menos de la mitad que la que corresponde al máximo. Por último, en el lado oscuro del arco iris aparecen efectos de difracción; en lugar de anularse brusca-
máticos componentes, la que a su vez viene determinada por el tamaño de las gotas. Gotas uniformemente grandes (de diámetro de unos cuantos milímetros) dan generalmente arcos iris brillantes con colores puros; con gotas muy pequeñas (diámetros de 0,01 milímetro aproximadamente) la superposición de colores es tan grande que la luz resultante aparece casi blanca. Una propiedad importante de la luz, de la que hasta ahora hemos prescindido, es su grado de polarización. La luz es una onda transversal, es decir, una onda en la que las oscilaciones son perpendiculares a la dirección
8. LA POLARIZACION del arco iris es el resultado de la reflexión diferencial. Un rayo incidente puede descomponerse en dos componentes, una polarizada paralelamente y la otra perpendicularmente al plano de reflexión. En el caso de un rayo que incida sobre la superficie de separación entre el aire y el agua desde dentro de una gota, la reflectividad de la superficie depende del ángulo de incidencia. Superado cierto ángulo crítico, ambas componentes, la perpendicular y la paralela, son reflejadas por completo, aunque algo de luz viaja paralelamente a la superficie, constituyendo una “onda evanescente”. Para ángulos menores la componente perpendicular es reflejada más eficazmente que la paralela y al llegar a un ángulo particular, llamado ángulo de Brewster, la luz polarizada paralelamente se transmite en su totalidad. El ángulo de reflexión interna para el rayo del arco iris cae cerca del ángulo de Brewster. Por eso la luz del arco iris presenta una polarización perpendicular.
LA CIENCIA DE LA LUZ
9
ángulo de Brewster, en honor de David Brewster, que explicó su importancia en 1815. La luz del arco iris está casi completamente polarizada, como se puede comprobar mirándolo a través de gafas polarizantes y girando los cristales alrededor de la línea de visión. La gran polarización proviene de una notable coincidencia: el ángulo de incidencia interna para el rayo del arco iris es muy próximo al ángulo de Brewster. La mayor parte de la componente paralela escapa en los rayos de segundo orden transmitidos, de jando en el arco iris un predominio de rayos polarizados perpendicularmente. El conocimiento de que tanto la materia como la radiación se pueden comportar como ondas ha ensanchado el campo de aplicación de la teoría del arco iris, que abarca ahora nuevos e invisibles arcos iris producidos en la dispersión atómica y nuclear.
E 9. LA DISPERSION DE UNOS ATOMOS POR OTROS crea un arco iris de partículas. El papel que desempeña el índice de refracción en la desviación óptica está representado aquí por las fuerzas interatómicas. La principal diferencia es que estas fuerzas varían gradual y continuamente, de modo que los átomos siguen trayectorias curvadas. Cuando un átomo se acerca a otro, la fuerza que se ejerce entre ellos consiste al principio en una atracción que aumenta continuamente (sombreado en color ) pero a muy corta distancia se hace fuertemente repulsiva (sombreado gris). Un máximo local del ángulo de desviación corresponde al ángulo del arco iris. Es el ángulo al que se curva la trayectoria que mejor aprovecha la parte atractiva del potencial.
de propagación. (El sonido, por el con- poder reflector de la superficie es trario, es una vibración longitudinal.) pequeño en ambos planos para ánguLa orientación de la oscilación trans- los de incidencia cercanos a la perpen versal se puede separar en componen- dicular y crece muy rápidamente en tes a lo largo de dos ejes perpendicu- la proximidad de un ángulo crítico, lares entre sí. Cualquier rayo luminoso cuyo valor está determinado por el se puede describir en función de esos índice de refracción, sobrepasado el dos estados independientes de polari- cual el rayo resulta totalmente reflezación rectilínea. La luz del Sol es una jado con independencia de su polarimezcla incoherente de los dos en igua- zación. Para ángulos intermedios, sin les proporciones; se dice con frecuen- embargo, el poder reflector depende cia que está polarizada en forma alea- de la polarización. A medida que la toria, o simplemente no polarizada. La incidencia se hace más próxima a la reflexión puede alterar el estado de rasante, se refleja una proporción crepolarización, hecho donde radica la ciente de la componente polarizada importancia de la polarización en el perpendicularmente. En el caso de la análisis del arco iris. componente paralela, en cambio, el Consideremos las reflexiones de un poder reflector decrece antes de emperayo luminoso que se propague por el zar a aumentar. Hay un determinado interior de una gota de agua en el ángulo al que se anula por completo momento en que alcanza la superficie el poder reflector para la onda polaride la gota. El plano de reflexión, es zada paralelamente, onda que se decir, el que contiene los rayos inci- transmite en su totalidad. Por tanto, dente y reflejado, suministra una refe- cuando la luz solar incide con ese rencia geométrica conveniente. Los ángulo, el rayo internamente refleestados de polarización de la luz inci- jado se halla polarizado perpendicudente se pueden dividir en paralelos larmente al plano de reflexión. El a ese plano y perpendiculares a él. El ángulo en cuestión se denomina
10
l matemático irlandés William Rowan Hamilton ya había percibido una cierta analogía entre la óptica geométrica y la mecánica clásica de partículas en 1831. Análogas a los rayos de la óptica geométrica son las trayectorias de las partículas; el cambio de dirección de un rayo de luz al penetrar en un medio de distinto índice de refracción corresponde a la desviación de una partícula que se mueve bajo la acción de una fuerza. En la dispersión de las partículas se presentan analogías respecto de muchos efectos ópticos, entre los cuales hay que contar el arco iris. Consideremos el choque entre dos átomos de un gas. Al acercarse los átomos desde una separación inicial grande, quedan al principio sometidos a una atracción constantemente creciente. A distancias pequeñas, sin embargo, sus cortezas electrónicas comienzan a interpenetrarse y la fuerza atractiva disminuye. A distancias muy pequeñas se convierte en una repulsión cada vez más fuerte. Como en el experimento óptico, la dispersión atómica se puede analizar trazando las trayectorias de los rayos en función del parámetro de impacto. Debido a la variación gradual y continua de las fuerzas, los átomos siguen trayectorias curvadas en lugar de cambiar bruscamente de dirección, como hacían los rayos en la superficie de separación de dos medios de distinto índice de refracción. Aun cuando algunas de las trayectorias sean bastante complicadas, cada parámetro de impacto corresponde a un ángulo de desviación único; hay además una trayectoria que representa una desvia-
TEMAS 6
ción angular local máxima. Esa trayectoria resulta ser la que hace un uso más eficaz de la interacción atractiva entre átomos. Debe esperarse una gran concentración de partículas en sus proximidades: es el ángulo del arco iris para átomos que interactúan. Kenneth W. Ford y John A. Wheeler formularon un tratamiento mecanocuántico del arco iris atómico y nuclear en 1959. La interferencia entre trayectorias emergentes en la misma dirección da lugar a máximos supernumerarios de intensidad. Y se ha deducido una teoría de la dis persión de partículas análoga a la de Airy. El primer arco iris atómico fue observado por E. Hundhausen y H. Pauly en 1964, en la dispersión de átomos de sodio por átomos de mercurio. Se detectaron el máximo principal del arco iris y dos supernumerarios; en experimentos posteriores se obser varon oscilaciones a escalas todavía más finas. Los arcos iris medidos en esos experimentos llevan consigo información sobre las fuerzas interatómicas. De la misma manera que el ángulo del arco iris óptico depende solamente del índice de refracción, el ángulo del arco iris atómico viene determinado por la intensidad de la parte atractiva de la interacción. E igualmente las posiciones de los máximos supernumerarios dependen del tamaño y suministran información sobre el alcance de la interacción. Se han hecho observaciones de la misma clase referentes a la dispersión de núcleos atómicos.
propuso la teoría electromagnética de la luz, hace más de un siglo, se pudo dar una formulación matemática precisa del problema del arco iris óptico. Se necesita calcular la dispersión de una onda electromagnética plana por una esfera homogénea. La solución de un problema parecido, aunque algo más sencillo, es decir, la dispersión de ondas sonoras por una esfera, había sido estudiada por varios investigadores en el siglo XIX , sobre todo por Lord Rayleigh. La solución que obtuvieron constaba de una serie infinita de términos llamados ondas parciales. Gustav Mie y Peter J. W. Debye dieron una solución de la misma forma al problema electromagnético en 1908. Dada la existencia de una solución exacta del problema de la dispersión, podría parecer cosa sencilla determinar todos sus aspectos, incluyendo el carácter preciso del arco iris. El problema, naturalmente, es la necesidad de sumar la serie de ondas parciales, cada término de la cual es una función un tanto complicada. La serie se puede truncar para dar una solución aproximada, pero este método sólo resulta práctico en algunos casos. El número de términos que deben retenerse es del mismo orden de magnitud que el parámetro de tamaño. La serie de ondas parciales es, por tanto, muy adecuada para el tratamiento de la
difusión de Rayleigh, que es la responsable del color azul del cielo; en ese caso, las partículas dispersoras son moléculas, mucho más pequeñas que la longitud de onda, de modo que basta con un término de la serie. Para el problema del arco iris deben tomarse en cuenta parámetros de tamaño de hasta varios millares. Una buena aproximación a la solución por el método de ondas parciales requeriría evaluar la suma de varios miles de términos complicados. Se han hecho intentos con ordenadores, pero los resultados son funciones del parámetro de tamaño y del ángulo de desviación que varían rápidamente, de modo que el trabajo y el costo se hacen enseguida prohibitivos. Además un ordenador no puede calcular más que soluciones numéricas; no ofrece medio de penetrar en la física del arco iris. Estamos, pues, en la mortificante situación de conocer la fórmula de la solución exacta y de no ser capaces de extraer de ella una mayor comprensión del fenómeno que describe.
L
os primeros pasos hacia la resolución de esta paradoja se dieron a comienzos del siglo XX por los matemáticos Henri Poincaré y G. N. Watson, quienes hallaron un método para transformar la serie de ondas parciales, que sólo converge muy lentamente
L
a teoría de Airy consiguió muchos éxitos, pero comporta una desazonante laguna cognoscitiva: la necesidad de adivinar la distribución de amplitudes a lo largo del frente de onda inicial escogido. Las hipótesis empleadas para estimarlas son plausibles sólo para gotas de agua bastante grandes. La mejor manera de expresar el tamaño en este contexto es mediante un “parámetro de tamaño”, definido como la relación de la circunferencia de la gota a la longitud de onda de la luz. El valor del parámetro de tamaño varía entre 100 aproximadamente, en el caso de niebla o neblina, y varios millares para gotas de lluvia grandes. La aproximación de Airy es plausible solamente para gotas cuyo parámetro sea de 5000 o más. Resulta irónico que haya una solución exacta para un problema tan difícil como el del arco iris, solución que además se conoce desde hace muchos años. En cuanto James Clerk Maxwell
LA CIENCIA DE LA LUZ
10. ARCO IRIS ATOMICO detectado por E. Hundhausen y H. Pauly al estudiar la dispersión de átomos de sodio por átomos de mercurio. Las oscilaciones en el número de átomos desviados corresponden a un arco iris primario y dos máximos supernumerarios. Un arco de esta clase contiene información sobre la intensidad y el alcance de las fuerzas interatómicas.
11
11. LA TEORIA DEL MOMENTO cinético complejo del arco iris comienza con la observación de que un fotón, o cuanto de luz, incidente sobre una gota a cierto parámetro de impacto (que no se puede definir exactamente), transporta momento cinético. En la teoría, las componentes de ese momento cinético se extiend en hasta abarcar valores complejos, es decir, valores que contienen la raíz cuadrada de –1. Las consecuencias de este método se pueden ilustrar mediante el ejemplo de un rayo que incida tangencialmente sobre una gota. El rayo genera ondas superficiales que viajan sobre la superficie de la gota y emiten radiación continuamente. El rayo puede también penetrar en la gota con el ángulo crítico para la reflexión total interna, emergiendo bien para formar otra onda superficial o bien para repetir el trayecto interno que, según se explica en el texto, es más corto.
hacia su límite, en una expresión rápidamente convergente. La técnica en cuestión se conoce ahora como la transformación de Watson o el método del momento cinético complejo. No es particularmente difícil ver por qué el momento cinético está relacionado con el problema del arco iris, aunque es menos evidente que sea preciso considerar valores complejos del mismo. La explicación más sencilla la suministra una teoría corpuscular de la luz, en la que un haz de luz se considera como un chorro de partículas llamadas fotones. Aunque el fotón no tenga masa, transporta energía y cantidad de movimiento en proporción inversa a la longitud de onda de la correspondiente onda luminosa. Cuando un fotón choca con una gota de agua con un parámetro de impacto mayor que cero, el fotón transporta un momento cinético igual al producto de su cantidad de movimiento por el parámetro de impacto. Cuando sufre una serie de reflexiones internas, está describiendo, en realidad, elementos de órbita en torno al centro de la gota. La mecánica cuántica impone de hecho ciertas restricciones adicionales sobre este proceso. Por una parte, requiere
12
que el momento cinético tome solamente ciertos valores discretos; por otra, deniega la posibilidad de determinar en forma precisa el parámetro de impacto. Cada valor discreto del momento cinético responde a un término de la serie de ondas parciales.
P
ara realizar la transformación de Watson deben introducirse valores del momento cinético habitualmente considerados como imposibles físicos. Por un lado, se debe permitir al momento cinético que varíe continuamente, en lugar de hacerlo por unidades cuantificadas; y, lo que es más importante, debe permitírsele que se extienda al campo de los números complejos, es decir, los que incluyen una componente real y una imaginaria que contiene algún múltiplo de la raíz cuadrada de –1. El plano definido por esas dos componentes se designa como plano del momento cinético complejo. Mucho es lo que se gana a cambio de las abstracciones matemáticas del método del momento cinético complejo. Sobre todo que, tras recorrer el plano del momento cinético complejo mediante la transformación de Wat-
son, se pueden redistribuir las contribuciones a la serie de ondas parciales. En lugar de un gran número de té rminos, se puede trabajar con sólo unos pocos puntos, llamados polos y puntos de silla, en el plano del momento cinético complejo. Los polos suscitan gran interés teórico en física de partículas elementales, donde se les suele llamar polos de Regge, en honor del físico italiano Tullio Regge. Tanto los polos como los puntos de silla tienen una interpretación física en el problema del arco iris. Las contribuciones de los puntos de silla reales están asociadas a los rayos luminosos corrientes y reales que hemos estado considerando a lo largo de este artículo. ¿Qué ocurre con los puntos de silla complejos? Los números imaginarios o complejos se consideran ordinariamente como soluciones de una ecuación que no tiene sentido físico, pero no son soluciones sin sentido. Las componentes imaginarias van usualmente asociadas al amortiguamiento de la amplitud de la onda en las descripciones de la propagación de ondas. Por ejemplo, en la reflexión total interna de un rayo de luz en la superficie de separación entre el agua y el aire, una onda luminosa “pasa a través del espejo”. Su amplitud, sin embargo, se amortigua rápidamente, de modo que la intensidad se hace despreciable a una profundidad del orden de una sola longitud de onda. Tal onda no se propaga en el aire; por el contrario, queda ligada a la superficie fronteriza, propagándose a lo largo de ella; se llama onda evanescente. La descripción matemática de la onda evanescente lleva consigo las componentes imaginarias de una solución. El efecto túnel de la mecánica cuántica, en el cual una partícula pasa a través de una barrera de potencial sin superarla, tiene una base matemática análoga. También aparecen “rayos complejos” en el lado de sombra de una cáustica, donde describen la amplitud amortiguada de las ondas luminosas difractadas. Las contribuciones de los polos de Regge a la serie transformada de ondas parciales van asociadas a ondas superficiales de otra clase. Estas ondas son excitadas por rayos incidentes que atacan la esfera tangencialmente. Una vez creada tal onda, se propaga sobre la esfera, pero se va amortiguando continuamente porque emite radiación en sentido tangencial, como un aspersor de jardín. En cada punto, a lo largo del camino circular de la onda, ésta penetra también en la esfera con un ángulo de incidencia igual al crítico para que se produzca reflexión total interna,
TEMAS 6
reemergiendo como onda superficial después de describir uno o más de tales atajos. Es interesante observar que Johannes Kepler ya conjeturó en 1584 que esta clase de rayos en “molinillo de viento” podrían ser los responsables del arco iris, pero abandonó la idea porque no le proporcionaba el ángulo correcto del arco. Los físicos holandeses Balthus van der Pol y H. Bremmer aplicaron la transformación de Watson al problema del arco iris en 1937, pero sólo pudieron demostrar que se podía obtener la aproximación de Airy como caso límite. El autor desarrolló una versión mejorada del método de Watson en 1965 y la aplicó al problema del arco iris en 1969 con algo mas de éxito. Al realizar el sencillo análisis cartesiano vimos que en el lado ilumi-
nado del arco iris hay dos rayos que emergen en la misma dirección; para el ángulo del arco iris, se funden en el rayo único de mínima desviación de Descartes y, en el lado en sombra, desaparecen. En el plano del momento cinético complejo, como he mencionado, cada rayo geométrico corresponde a un punto de silla real. De aquí que, en términos matemáticos, un arco iris sea meramente la intersección de dos puntos de silla en el plano del momento cinético complejo. En la región de sombra más allá del ángulo del arco iris, no es que los puntos de silla simplemente desaparezcan, sino que se hacen complejos, es decir, crean una parte imaginaria. La luz difractada en la banda oscura de Alejandro proviene de un punto de silla complejo. Es un ejemplo de “rayo com-
12. LAS TEORIAS CUANTITATIVAS del arco iris predicen la intensidad de la luz desviada en función del ángulo de desviación, del tamaño de la gota y de la polarización. Aquí se presentan las predicciones de tres teorías para el caso de la luz polarizada paralelamente y desviada por gotas de circunferencia igual a 1500 veces la longitud de onda de la luz. Una curva representa la solución “exacta” del problema del arco iris, deducida de las ecuaciones obtenidas por James Clerk Maxwell para describir la radiación electromagnética. La solución exacta es la suma de una serie infinita de términos, aproximada aquí sumando más
LA CIENCIA DE LA LUZ
plejo” en el lado en sombra de una curva cáustica. Debe observarse que la adopción del método del momento cinético complejo no implica que las soluciones previas del problema del arco iris fueran erróneas. La explicación de Descartes del arco primario como rayo de mínima desviación no es en manera alguna incorrecta y los arcos supernumerarios siguen pudiendo considerarse como un efecto interferencial, tal como Yo un g pr op us o. El mé to do de l momento cinético complejo simplemente da una cuenta más completa de los trayectos que le están permitidos a un fotón en la región del cielo correspondiente al arco iris, por lo que logra resultados más reales. Vijay Khare hizo una comparación detallada de las tres teorías del arco iris
de 1500 términos complicados para cada punto usado en el trazado de la curva. La teoría de Airy está en claro desacuerdo con la solución exacta, sobre todo en la región angular de los arcos supernumerarios, donde la solución exacta presenta mínimos en la posición de los máximos de Airy. Por otra parte, los resultados obtenidos por el método del momento cinético complejo corresponden muy aproximadamente a la solución exacta, salvo que no reproducen las pequeñas oscilaciones de alta frecuencia. Estas fluctuaciones se encuentran íntimamente asociadas con otro fenómeno óptico de la atmósfera, la gloria.
13
en 1975: la aproximación de Airy, la solución “exacta” obtenida por sumación de la serie de ondas parciales mediante ordenador y los términos del arco iris en el método del plano del momento cinético complejo, asociados con la intersección de dos puntos de silla. Para la polarización perpendicular dominante, la teoría de Airy requiere solamente pequeñas correcciones en el arco primario y sus errores se hacen apreciables solamente en la región de los arcos supernumerarios. En el caso de los rayos desviados que están polarizados perpendicularmente al plano de incidencia, sin embargo, la aproximación de Airy falla claramente. Para los arcos supernumerarios, la solución exacta muestra mínimos donde la teoría de Airy presenta máxima intensidad y viceversa. Este serio fallo deriva de la casi total coincidencia entre el ángulo de reflexión interna de los rayos del arco iris y el ángulo de Brewster. La amplitud del rayo refractado cambia de signo a este ángulo, cambio que la teoría de Airy no tiene en cuenta. El resultado del cambio de signo es que, a lo largo de las direcciones que corresponden a los máximos en las soluciones de Airy, la interferencia sea destructiva en lugar de constructiva.
E
n términos de las características en gran escala, como son el arco primario, los arcos supernumerarios y el aspecto de la difracción en el lado oscuro, el resultado a partir del momento cinético complejo concuerda muy bien con la solución exacta. Las fluctuaciones de intensidad a menor escala en la curva exacta no son tan bien reproducidas por los términos de arco iris en el método del momento cinético complejo. A cambio de ello la solución exacta requiere la sumación de más de 1500 términos complicados, para un parámetro de un tamaño típico de 1500, mientras que la curva del momento cinético complejo se obtiene con sólo unos pocos términos mucho más sencillos. Las pequeñas fluctuaciones residuales que presenta la curva exacta de intensidad provienen de reflexiones internas de orden superior, es decir, de rayos pertenecientes al tercer y cuarto orden. Estos tienen poco interés para el arco primario, mas para mayores ángulos de desviación su contribución aumenta, haciéndose dominante en la proximidad de la dirección de retrodifusión. Estos rayos son los responsables de otra fascinante manifestación meteorológica: las “glorias”. La gloria aparece como un halo de colores espectrales que rodea la som-
14
bra que un observador proyecta sobre las nubes o la niebla; cuando más comúnmente se observa es desde un avión que vuele por encima de nubes. También se puede explicar mediante la teoría del momento cinético complejo, pero la explicación es más complicada que la del arco iris. Un grupo de ondas que contribuye a la gloria proviene de las ondas superficiales descritas por los polos de Regge que van asociadas a los rayos tangenciales del tipo de molinillo de viento de Kepler. Las reflexiones internas múltiples que dan lugar a polígonos estrellados cerrados desempeñan un importante papel, dando lugar a resonancias o refuerzos de la intensidad. Tales coincidencias geométricas enca jan muy bien en el espíritu de las teorías de Kepler. Otro segundo e importante grupo de contribuciones, puesto de manifiesto por Khare, viene del lado sombreado de arcos iris de orden superior que aparecen cerca de la dirección de retrodifusión. Esas contribuciones representan el efecto de los rayos complejos. El arco iris de décimo orden, formado a sólo unos pocos grados de distancia angular de la dirección de retrodifusión, es particularmente efectivo.
E
n el caso de los arcos iris de orden superior la teoría de Airy daría resultados incorrectos para ambas polarizaciones y, por tanto, debe utilizarse la teoría del momento cinético complejo. Podría decirse que la gloria está formada en parte por la sombra de un arco iris. Satisface descubrir que la elegante, pero aparentemente abstracta, teoría del momento cinético complejo da una explicación de esos dos fenómenos naturales y encontrar además una inesperada relación entre ellos.
BIBLIOGRAFIA COMPLEMENTARIA BY S MALL P ARTICLES. H. C. Van de Hulst. John Wiley & Sons, 1957. LIGHT AND C OLOUR IN THE O PEN AIR. M. Minnaert, trad. al inglés por H. M. Kremer-Priest y revisado por K. E. Brian Jay. G. Bell and Sons Ltd., 1959.
LIGHT S CATTERING
THE RAINBOW : FROM MYTH MATICS
TO
MATHE -
. Carl B. Boyer. Thomas Yoseloff,
1959. INTRODUCTION
TO
METEOROLOGICAL OP-
. R. A. R. Tricker. American Elsevier Publishing Co. Inc., 1970. THEORY OF THE R AINBOW . V. Khare y H . M. Nussenzveig en Physical Review Letters, vol. 33, n. o 16, págs. 976-980; 14 de octubre, 1974. TICS
TEMAS 6
Objetivos fotográficos William H. Price
La disponibilidad de materias primas especiales, los tratamientos antirreflectantes, la informática y las avanzadas técnicas fabriles permiten ofrecer objetivos de gran calidad a bajo precio
E
l diseño de un objetivo fotográ- es ya más que centenario, se producen posible: un huso formado por dos arcos fico se parece a una partida de ahora en grandes cantidades y a bajo de diferente radio. Las gafas corrientes ajedrez. Los ajedrecistas tra- precio. El desarrollo de los métodos de para vista cansada tienen lentes de tan de acorralar al rey contrario por producción automática permite fabri- menisco. medio de una serie de jugadas, mien- car millones de objetivos, ya sean de La cámara oscura se conoce desde tras que quien proyecta un objetivo vidrio o de plástico. Los actuales son la antigüedad. Leonardo da Vinci desintenta “acorralar” la luz para que mucho mejores que los de mayor cali- cribió un tipo muy sencillo, en cuyo todos los rayos provenientes de deter- dad utilizados por los grandes fotógra- interior entra la luz por un pequeño minado punto de un objeto converjan fos del pasado y cuestan menos, a orificio y se forma una tenue imagen en un solo punto de la imagen. Utiliza pesar de su mayor complejidad y de en la pared opuesta. En el siglo XVI se para ello el paso de la luz por una serie los bajos salarios de los operarios del reemplazó este agujero por una lente de elementos transparentes que siglo XIX . Los diseñadores ópticos de menisco, que producía una imagen poseen superficies de curvatura muy saben que la ciencia y la técnica han mucho más brillante. La cámara precisa. Podría pensarse que, puesto facilitado mucho su trabajo y lo han oscura fue un utensilio muy popular que en ambos casos se conocen tanto popularizado, pero también conocen el entre los artistas, que la usaban para el resultado óptimo final como los precio que han tenido que pagar: el realizar perfiles de sus modelos. medios para conseguirlo, no pudiera diseño completo de un buen objetivo haber más que una actuación correcta fotográfico ya no puede confiarse a unque Niepce realizase sus prien cada fase del proceso, pero el caso una sola persona. meras fotografías con una cámara es que el número de posibles conseDesconocemos el tipo de objetivo oscura con lente de menisco, enseguida cuencias que se derivan de las decisio- utilizado en los orígenes de la fotogra- trató de conseguir algo mejor. Se sabe nes que se van tomando es tan amplio fía, pues su inventor, Joseph Nicéphore que Charles Louis Chevalier, que traque en la práctica se puede considerar Niepce, no dejó constancia escrita de bajaba en París en una empresa de infinito. El resultado es que ni en aje- sus experimentos. Sin embargo se ingeniería y de fabricación de instrudrez ni en diseño óptico pueden obte- cree que su primera fotografía, de la mentos, le proporcionó una lente acronerse soluciones perfectas a los pro- que no se dispone, se realizó en 1822 mática de dos elementos. Estas lentes, blemas. En este artículo nos con una cámara oscura dotada de un cuya finalidad es mejorar la aberración centraremos en el diseño de objetivos objetivo de menisco. La palabra cromática de los meniscos sencillos, es fotográficos, aunque los mismos prin- “menisco” (que viene del diminutivo decir, evitar la formación de franjas cipios puedan aplicarse a otros proyec- griego de la luna, meniskos) describe coloreadas, se empezaron a utilizar en tos en que se utilicen lentes. la sección del objetivo más sencillo astronomía en 1758, gracias al óptico El proyectista óptico tiene una gran ventaja sobre el ajedrecista, ya que puede utilizar cualquier información 1. LAS ABERRACIONES DE LOS OBJETIVOS pueden estudiarse aumentando las imágenes que una fuente de luz puntual forma en el plano focal. Las imágenes de disponible capaz de orientarle por entre el ingente número de posibilida- estas microfotografías, realizadas por Norman Goldberg, están aumentadas 600 des existentes. En tiempos pasados diámetros. La imagen ideal debería ser tambi én un punto, pero esto no sucede más esta ayuda provenía fundamental- que cuando la fuente de luz está alineada con el eje de la lente (a). La imagen b muestra uno de los defectos más comunes de los objetivos, la aberración esférica. mente de las matemáticas y de la (La causa de las distintas aberraciones se ilustra en las figuras 5 a 10.) Otro defecfísica, pero últimamente son los orde- to habitual, el astigmat ismo, es el responsable de la línea que aparece en la imagen nadores, la teoría de la información, c, que también sufre de coma y de aberraci ón cromática. El astigmati smo se ve más la química, la ingeniería industrial y claro en la imagen d. Si se desplazase ligeramente el foco del objetivo hacia adelante o hacia atrás, el astigmatismo produciría una línea horizontal o vertical la psicofísica las disciplinas que han contribuido a hacer del diseño de obje- definida. La imagen e muestra otra aberración muy corriente, el coma, que se tivos un trabajo mucho más produc- produce cuando la fuente luminosa está descentrada. Finalmente ƒ presenta una mezcla compleja de coma, astigmatismo y aberración cromática que es típica de tivo. Algunos de los objetivos que pue- las imágenes producidas fuera del eje por los objetivos rápidos que trabajan a den encontrarse ahora en las tiendas plena apertura. Aunque las imágenes tengan un gran aumento, es evidente que el eran inimaginables hace unos dece- objetivo concentra la mayor parte de la energía luminosa dentro de un pequeño nios, mientras que otros, cuyo diseño “disco difuso”, que en este caso es un círculo de 0,03 milímetros de diámetro.
A
16
TEMAS 6
a
b
c
d
e
f
LA CIENCIA DE LA LUZ
17
inglés John Dollond, a pesar de lo cual luz blanca en una franja coloreada. todavía eran una no vedad a principios Todos los colores, es decir, las longitudel siglo XIX . Hacia la misma época en des de onda que componen la luz, viaque Chevalier añadió una lente acro- jan a la misma velocidad en el vacío, mática a la cámara de Niepce, Joseph velocidad que siempre se reduce en Jackson Lister y Giovanni Battista cualquier otro medio material, siendo Amici utilizaron lentes acromáticas en las longitudes de onda más cortas las los microscopios, consiguiendo elimi- más afectadas. Es así como la trayecnar la aberración cromática y haciendo toria de la luz se refracta o tuerce posible la primera observación de una cuando abandona un medio y penetra bacteria. en otro con un cierto ángulo, desviánLa aberración cromática deriva del dose de la línea perpendicular al diophecho de que los prismas dispersan la trio (superficie donde ambos entran
en contacto). El sentido de la desviación depende de que la velocidad en el segundo medio sea mayor o menor que en el primero. Esta capacidad de la luz para refractarse es la base de la óptica refractiva, que es la teoría de las lentes. El mate mático holandés Willebrod Snell van Royen describió y representó gráficamente el fenómeno de la refracción unos sesenta años antes de que Isaac Newton iniciara sus estudios de óptica. René Descartes formuló luego con precisión la ley de la refracción, conocida como ley de Snell: el seno del ángulo de incidencia multiplicado por el índice de refracción del primer medio es igual al seno del ángulo de refracción por el índice de refracción del segundo medio. La ley de Snell sigue siendo la fórmula más utilizada por los diseñadores ópticos, ya que les permite desviar la luz a voluntad.
C
uando un haz de luz blanca incide sobre un vidrio con determinado ángulo, las longitudes de onda azules y violetas son las que más se desvían y las rojas las que menos. Esta es la razón de que los bordes del haz emer2. UN OBJETIVO DE MENISCO SIMPLE está formado por dos superficies esféricas gente parezcan franjas coloreadas. que encierran un huso. Es muy probable que fuera el utilizado por Joseph Nicéphore Newton fue el primero en darse cuenta Niepce en la cámara con la que realizó la primera fotografía en 1822. de que la luz blanca es una mezcla de colores, gracias a sus experimentos con prismas. La primera proposición de su Optiks enuncia que “las luces que tienen colores diferentes tienen también refrangibilidades diferentes”. Se fió en exceso de su vista, sin embargo, pues llegó a la conclusión A N C A L incorrecta de que no podía lucharse Z B U L contra la aberración cromática, por ser inherente a las lentes. Esta es la razón de que inventase el telescopio AIRE VIDRIO AIRE VIDRIO reflector, que elimina el molesto problema al no utilizarlas. 3. LA LUZ SE REFRACTA, o se desvía, cuando cambia su velocidad al pasar de un De lo que Newton no se dio cuenta medio a otro. Las longitudes de onda cortas de la luz viajan más lentamente que las fue de que los colores exhiben distinlargas en el vidrio, por lo que la luz blanca se dispersa en un espectro coloreado. tos grados de poder refractivo al El grado de dispersión varía según la composición del vidrio (o la del medio transpasar por vidrios de composiciones parente de que se trate). diferentes. Con terminología actual diríamos que los vidrios tienen distintas dispersiones. Y esta es el arma que tiene el diseñador de objetivos LUZ BLANCA para combatir la dispersión cromática. El truco consiste en construir lentes que tengan al menos dos elementos. El primero es una lente con vexa fabricada con un vidrio que disperse los colores lo menos posible. El segundo es una lente cóncava de un vidrio que los dispe rse al máxi mo. Digámoslo correctamente: una lente positiva de mínima dispersión se 4. LA ABERRACION CROMATICA puede corregirse combinando vidrios de di spersión combina con otra negativa de máxima diferente. En este ejemplo de un objetivo sencillo de dos elementos, el primero es de vidrio de baja dispersión mientras que el del segundo, que tiene vergencia opuesta y dispersión. Si se hacen bien los cálculos, la dispersión prácticamente menos graduación, es de dispersión elevada. La dispersión se cancela, pero se conserva la capacidad de enfocar. La dispersión de los colores está exagerada. se cancela, mientras que la lente com-
18
TEMAS 6
5. LA ABERRACION ESFERICA es una característica inherente a todas las lentes de sección esférica. La luz que proviene de un mismo punto objeto alcanza su foco en puntos ligeramente separados ( P y P′ ), dependiendo de que los rayos pasen por el centro o por la periferia. La distancia d e separación PP′ varía con la apertura.
puesta sigue conservando su poder refractivo ( véase la figura 4) . Sirva esto como descripción somera del panorama que presentaban los objetivos fotográficos en el siglo XIX . Este tipo de objetivo de dos elementos sigue fabricándose en la actualidad, en forma de objetivos baratos para cámaras sencillas y de objetivos telescópicos, mucho más caros, para fotografía deportiva y de la naturaleza. Estos objetivos han de tener una distancia focal larga para acercar los objetos, siendo aceptable que el campo angular sea pequeño. La receta original de los dos elementos era buena, pero no dejaba de ser una simple receta. Las primeras lentes acromáticas fueron el resultado de ensayos, ya
que no se disponía de una teoría exacta para ajustar las variables.
P
arte de la solución se obtuvo en 1841 con la publicación de la teoría de las lentes de Carl Friedrich Gauss, que simplifica el concepto de lente al ignorar todos los rayos que no estén situados en un plano que contiene al eje de la lente o que no estén próximos a él. A estos rayos se les denomina paraxiales. A pesar de sus simplificaciones, el modelo de Gauss sirve para explicar la distancia focal (la distancia desde el centro óptico de la lente hasta el plano donde convergen todos los rayos para formar un foco), el aumento, la localización de los puntos principales de la lente y la
7. LA CURVATURA DE CAMPO se origina cuando un haz de luz oblicuo forma un foco más próximo a la lente que el del haz axial. El resultado es una superficie de imagen curvada.
LA CIENCIA DE LA LUZ
6. EL COMA se produce cuando la luz que proviene de un punto objeto descentrado pasa a través del perímetro de la lente y forma un foco anular, que se encuentra desplazado radialmente respecto del foco de la luz que ha pasado por el centro de la lente. El coma presenta el aspecto de un núcleo brillante y una cola que se difumina.
localización de la imagen. La teoría de Gauss representó para el diseño óptico lo que la trigonometría para la navegación. El trazado de rayos paraxiales fue durante mucho tiempo la herramienta fundamental para el diseño de objetivos fotográficos. Las simplificaciones implícitas en el procedimiento tienen su coste, ya que el plano de mayor nitidez de la imagen no suele coincidir exactamente con el definido por las reglas gaussianas. Pero, para ser una primera aproximación, se acerca mucho a la verdad. El plano de la imagen gaussiana sirve también como banco de pruebas para analizar todo el abanico de aberraciones con las que tiene que lidiar el proyectista de objetivos,
8. LA DISTORSION es la aberración en virtud de la cual el aumento de la imagen varía con la oblicuidad de los rayos incidentes, haciendo que las líneas rectas aparezcan curvadas.
19
9. EL ASTIGMATISMO es otro defecto común de l as imágenes que una lente produce fuera del eje. La luz que proviene de un punto fuera de eje pasa por la lente a lo largo de a, b y b y se enfoca en S, mientras que los rayos que vienen del mismo punto pero atraviesan la lente por c, d, d, se enfocan en T . A S se le llama el foco sagital o radial y es una línea perpendicular al eje óptico; T es el foco tangencial y es una línea tangente a un círculo centrado sobre el eje óptico.
incluso en el caso de los destinados a la fotografía monocromática, con luz de un solo color. Las aberraciones cromáticas primarias, que fueron definidas matemáticamente matemáticamente por Ludwig Seidel en 1856, son la aberración esférica, el coma, el astigmatismo, la cur vatura de campo y la distorsión. La causa de la aberración esférica es que las superficies de las lentes son secciones de esfera, de modo que la luz que pasa por el borde de una lente llega a un foco localizado en un punto distinto del que alcanza la luz que pasa por el centro. El coma concierne también a la naturaleza esférica de estas superficies, pues las imágenes que se forman fuera del eje central del sistema tienden a ser asimétricas. “Coma” tiene la misma raíz que “cometa”, “co meta”, el término griego para desigde signar una cabellera ondulante. Debido De bido al coma, el punto focal tiene la apariencia de la cola de un cometa. Ast igm at atism ism o sig nif ica “qu e no llega lle ga a ningún punto”; deriva del griego a-, no, y stigma , marca o mancha. También se debe a la asimetría de las imágenes fuera del eje y su efecto es que la luz se desparrame a lo largo de una línea, ya sea en un plano que pasa a través del punto imagen y el eje de la lente, ya en ángulo recto con respecto a este plano. Tiene el efecto curioso de producir líneas horizontales borrosas y líneas verticales nítidas, o viceversa. La curvatura de campo se produce si el lugar geométrico de los puntos
20
10. LA CONDICION DE ABBE PARA EL SENO, formulada por Ernst Abbe, especifica la condición que corrige simultáneamente la aberración de esfericidad y el coma. Si se prolongan los rayos que inciden sobre una lente y los que emergen de ella, se intersecan sobre una superficie, S, definida como el lugar geométrico de todos los puntos en que se refractan los rayos procedentes del infinito. La doble corrección se produce cuando y do es igual a ƒ a ƒ sen θ ; por lo tanto la superficie S es esférica. y es •
más nítidos de la imagen es una super- espectro. El proyectista de objetivos ficie curva en vez de un plano. Esta puede cancelar las aberraciones croaberración es la responsable de que e l máticas de cualquier par de longitucentro de las fotografías sea más nítido des de onda de la luz haciendo uso del que los bordes. En ciertos tipos de número de Abbe, que constituye, pues, telescopios de gran apertura esta la respuesta dada por el gremio a aberración no se corrige, sino que se Newton. curva la placa fotográfica para comPara seleccionar los vidrios de un pensarla. La última de las aberra- nuevo objetivo se consulta un gráfico ciones primarias, la distorsión, pro- de sus propiedades, cuyo eje horizonduce la apariencia de un objeto curvado tal está marcado con los números de proyectado sobre una superficie plana, pla na, Abbe (véase la figura 11). La escala o viceversa. Es algo parecido a lo que vertical muestra el índice de refracle pasa a Groenlandia en un mapam- ción para la luz de un color determiundi obtenido mediante la proyección nado en la región intermedia del de Mercator, que su superficie está espectro. Puede verse así inmediataexagerada. mente la influencia que tienen los materiales disponibles sobre la luz de acia 1840 no sólo vieron la luz los los colores primarios. comienzos del diseño científico La condición de Abbe para el seno de lentes basado en los principios enuncia que el coma se elimina cuando cuando gaussianos, sino también dos hombres la distancia desde el eje del objetivo al que iban a realizar sucesivamente punto de incidencia de un rayo, que sea grandes contribuciones al problema: paralelo al eje, es igual a la distancia Ernst Abbe y John William Strutt, focal del objetivo multiplicada por el que fue más tarde Lord Rayleigh. Ray leigh. seno del ángulo que forma el rayo con Abbe, nacido en 1840, llegó a ser el el eje en el punto focal ( véase la figura director de las secciones de física y de 10). Hoy en día todos los objetivos de proyecto de lentes de la famosa firma cámaras de calidad cumplen la condióptica Carl Zeiss. Entre sus muchas ción de Abbe para el seno. contribuciones están el número nú mero de Lord Rayleigh, dos años más joven Abbe, utilizado para la clasificación de que Abbe, formuló las condiciones que los vidrios ópticos, y la condición de debe cumplir un objetivo perfecto, Abbe para el seno, que define las len- fijando a los proyectistas su meta tes exentas de coma. El número de final. Demostró matemáticamente Abbe es el recíproco del grado de dis- que la imagen formada por un sistema persión; incorpora la diferencia entre óptico no difiere apreciablemente de las refracciones para dos longitudes la imagen perfecta si se cumple la de onda muy separadas entre sí en el condición de que los trayectos ópticos
H
TEMAS 6
de todos los rayos sean de igual longitud. Rayleigh descubrió que en la práctica se puede obtener una imagen perfecta si la diferencia entre el trayecto más corto y el más largo no excede de un cuarto de la longitud de onda de la luz incidente. A tales objetivos se les conoce como “limitados por la difracción”. En términos ideales los objetivos deberían operar en el límite de Rayleigh para cualquier longitud de onda de la luz. Para que pueda cumplirse al máximo esta condición, los vidrios de las lentes habrán de tener todos la misma dispersión parcial, aunque sus dispersiones individuales varíen. (La dispersión parcial es la tasa de cambio de la dispersión con la longitud de onda. La dispersión
en sentido estricto es la tasa de cambio del índice de refracción con la lo ngitud de onda.)
D
urante el siglo XIX y y comienzos del XX Józef Miksa Petzval, Henry Coddington Cod dington y A. E. Conrady, entre otros, elaboraron fórmulas matemáticas y pusieron a punto técnicas para evaluar la magnitud de ciertas aberraciones utilizando el menor número de datos posible. Trataban de evitar así la terrible hipoteca de los cálculos inacabables. Petzval, el inventor del objetivo “fotomatón” que lleva su nombre, descubrió que la curvatura de campo de un objetivo que no tenga astigmatismo es una función relativamente sencilla del índice de refracción
11. LAS PROPIEDADES PROPIEDADES de los vidrios ópticos suelen caracterizarse mediante su índice de refracción, n, que mide la capacidad del vidrio para desviar la luz, y su número de Abbe, ν, que mide su capacidad para dispersar la luz blanca en un espectro coloreado. Cuanto más bajo sea el número de Abbe
LA CIENCIA DE LA LUZ
de los elementos que lo componen y de sus radios de curvatura. A Coddington se debe el desarrollo de fórmulas sencillas para el cálculo del astigmatismo de objetivos de pequeña apertura. Y se considera que Conrady es el padre del diseño óptico moderno, gracias a que aplicó a las aberraciones primarias, tanto monocromáticas como cromáticas, el concepto de diferencia de trayectoria óptica. Fue necesario un siglo de desarrollo de los objetivos fotográficos, digamos hasta mediados los años veinte del actual, para que la creación de un nuevo objetivo dejase de ser un trabajo empírico, aunque todavía fuese fuese más artesanal que científico. Ante un nuevo proyecto de objetivo eran pocos
mayor es la dispersión. Cada punto del gráfico representa un vidrio óptico diferente. Los vidrios de tierras raras ( zona zona co presentan elevados índices de refracción y baja disloreada) presentan loreada) persión. Los plásticos ópticos se localizan en el área rayada situada debajo.
21
12. LA ABERRACION esférica transversal, h, de una lente, L lente, L,, mide en qué grado los rayos de luz originados en O dejan de converger en la imagen puntual gaussiana I . La aberración varía con la apertura de la lente, y lente, y,, conforme al desarrollo en serie h = ay 3 + by by5 + cy cy 7 + ... La ... La representación gráfica de h en función
de y de de y de la parte inferior muestra el resultado de aplicar la ecuación a unos cuantos rayos trazados. Los valores correspondientes a otros rayos que atraviesan la lente se pueden interpolar a partir de la curva, o calcularse mediante la ecuación, resolviéndola para a, b, c,..., c,..., sin necesidad de realizar nuevos trazados.
los diseñadores que poseían la genia- les de objetivos que se utilizan actuallidad requerida para saber qué direc- mente se descubrieron en esta época. ción había que tomar, tras de lo cual Alguno Alg uno s, com o el Son nar ƒ /1, 5 de había que proceder a la aplicación Zeiss, sorprendieron por su luminosilaboriosa de la ley de Snell una y otra dad. Otros, como los tripletes de vez, comprobando el diseño mediante mediante Cooke, tenían la ventaja de su gran el seguimiento de la trayectoria trayectoria de los sencillez. (La nomenclatura ƒ /1,5 sigrayos desde el objeto hasta la imagen. nifica que la distancia focal del objePara quienes no fuesen del gremio tivo es 1,5 veces mayor que su máxima resultaba difícil entender la magnitud apertura. Cuanto más pequeña sea la de esta tarea. Las únicas herramientas fracción de ƒ , mayor cantidad de luz con que se contaba eran unas tablas capta el objetivo en un tiempo dado. de logaritmos naturales con seis deci- La captación de luz, conocida como males y, hacia mediados de los años luminosidad o rapidez, es inversatreinta, una calculadora mecánica de mente proporcional al cuadrado del sobremesa. Un objetivo complicado número ƒ ..)) podía tener a varias personas realiUna breve incursión por la óptica zando cálculos durante varios años. geométrica nos ayudará a comprenLa paciencia era la clave del éxito. der la posición privilegiada del diseño A pesar de la tosquedad de los méto- de Cooke, descrito por primera vez en dos, casi todos los tipos fundamenta- 1893 por H. Dennis Taylor, de la
firma británica Cooke and Sons. La firma óptica óp tica geométrica, a diferencia de la óptica ópti ca física, ignora todos los aspectos conocidos de la luz salvo los que afectan a su trayectoria y propagación. Consideremos la aberración esférica del objetivo hipotético de la ilustración 12. El proyectista trata de que el objetivo ( L L) enfoque todos los rayos desde el punto origen ( O) al punto focal ( I ). Puede verse que L no lo con I ). sigue: la mayor parte de los rayos no converge en I , aunque algunos lo hagan. Para cuantificar la medida en que los rayos alcanzan el punto I se se procede como en las prácticas de tiro: se mide la distancia que hay del centro de la diana al punto de impacto. En óptica a esta desviación se la conoce como aberración transversal y es la distancia medida perpendicularmente a la trayectoria del rayo luminoso. En el esquema del objetivo L la aberración transversal desde el punto deseado, I , se designa mediante una cantidad h (que define la altura hacia arriba o hacia abajo del eje ). La consideración del esquema nos indica que h es función únicamente del punto por el que el rayo penetre en la lente, punto que se designa mediante una cantidad que depende de y. En otras palabras, la aberración esférica transversal de un rayo desde cualquier punto es función de la 13. EL OBJETIVO de tres elementos de Cooke, creado en 1893 por H. Dennis Taylor, apertura del objetivo. Esta es una puede que sea el objetivo fotográfico que más se ha estudiado y perfeccionado. Es característica general de los objetila configuración más simple que permite eliminar las siete aberraciones de tercer vos, que hace que la mayor mayoría ía no logre orden, a saber, la aberración esférica, el coma, el astigmatismo, la distorsión, la su máxima nitidez más que cuando curvatura de campo y las aberraciones cromáticas a lo largo de los dos ejes. Sigue utilizándose actualmente. no se utiliza toda su apertura. La
22
TEMAS 6
aberración esférica influye sólo en la Al enfrentarse con ocho variables imagen de los puntos objeto que se dependientes (siete aberraciones y la encuentren en el eje óptico del obje- distancia focal), el diseñador tiene que tivo y puede variar con la distancia poder organizar otras tantas variables entre uno y otros. independientes, pues de lo contrario Para calcular la posición exacta con no podrá encontrar la solución. Estas respecto a h de cualquiera de los variables independientes, o grados de infinitos rayos aberrantes posibles es libertad, de que dispone quien pronecesario resolver la ecuación: h = ay 3+ yecte un objetivo de tres elementos, + by5 + cy7 + ... Los coeficientes a, b, c, para una selección de vidrios dada, son ... se obtienen trazando varios rayos las siguientes. Hay dos separaciones: para varias aperturas, y, calculando la distancia desde el primer elemento los valores específicos de h y resol viendo las ecuacio nes simu ltáneas resultantes en a, b, c, ... Sus valores difieren para cada objetivo diseñado. Una vez obtenidos para unos cuantos valo res concretos de y, son válidos para todos los valores intermedios, por lo que describen de modo general toda la luz aberrante de la imagen.
al segundo y desde el segundo al tercero. También puede elegir la potencia, o aumento, de cada uno de estos tres elementos. Y, por fin, la curvatura de una de las caras de cada elemento puede fijarse de modo independiente; la curvatura de la otra cara queda determinada por la de la primera y por el aumento. Es así como, con experiencia y tiempo suficientes, el diseñador puede en principio encontrar alguna combinación de las ocho variables de
E
l lector quizá se pregunte por qué no aparecen en la ecuación más que exponentes impares. No se requiere el exponente de primer orden, y1, porque representa los rayos de luz no aberrante que convergen exactamente en I . Todos los términos con exponente par están ausentes porque, con independencia de que y sea positivo o negativo , y 2 , y 4 , etc., serán siempre positivos. La formación de la imagen, sin embargo, ha de ser simétrica. Los términos con exponente par se eliminan porque implícitamente contradicen la simetría. Para objetivos de apertura y campo pequeños los términos de orden superior se vuelven despreciables. Si se corrigen las aberraciones representadas por el exponente de orden tres, la mayor parte de la energía luminosa se concentra en el punto imagen. Las primeras fórmulas prácticas para calcular los términos de tercer orden de las aberraciones primarias fueron publicadas por Seidel a mediados del siglo XIX . La eliminación de las aberraciones de orden bajo no significa necesariamente que se reduzcan las de orden superior, aunque tiende a ser así, circunstancia en la que se obtiene un excelente objetivo. La gran virtud del triplete de Cooke es que contiene el menor número de elementos posible si se quieren eliminar las siete aberraciones de tercer orden. Se trata de la aberración esférica, el coma, el astigmatismo, la distorsión, la curvatura de campo y dos aberraciones cromáticas (a lo largo de dos ejes, longitudinal y transversal). Además de manejar estas abe rraciones el proyectista de objetivos tiene que gobernar otra variable más, la distancia focal de la lente, que determina el aumento.
LA CIENCIA DE LA LUZ
14. LAS REFLEXIONES en las superficies de los objetivos obstaculizaron su diseño hasta el descubrimiento de las capas antirreflectantes a f inales de los años treinta. Cuando se requerían muchos elementos para conseguir características sobresalientes, había que utilizar lentes pegadas entre sí para eliminar los reflejos que se producen en las superficies de vidrio que están al aire (arriba). Esto exige que sus curvaturas sean iguales, lo que reduce las posibil idades de aminorar las aberraciones, aparte de que la fabricación era cara. En muchos casos los diseños gaussianos con menos elementos resultaban de calidad comparable (en el medio). Luego las capas antirreflectantes permitieron realizar sistemas con muchos elementos espaciados por aire (abajo), por lo que se pueden fabricar objetivos fotográficos muy corregidos, de gran apertura (rápidos) y baratos.
23
15. LOS OBJETIVOS DE DISTANCIA FOCAL VARIABLE, popularmente llamados “zoom”, que permiten modificar ampliamente el tamaño de la imagen, también se hicieron viables gracias a las capas antirreflectantes. El objetivo de siete elementos mostrado arriba se proyectó a principios de los añ os sesenta para cámaras cinematográficas de ocho milímetros. Su apertura relativa era de ƒ /1,9 y su distancia focal podía pasar de 10 a 30 mm sin solución de continuidad. Sus componentes primero y tercero se desplazan conjuntamente para conseguir triplicar la distancia focal, al tiempo que se mantiene la imagen enfocada en la película. El rango de distan cias focales del objetivo de abajo es de veinte a uno y se utiliza mucho en televisión. El segundo y el tercer grupo de elementos se mueven en sentido opuesto de forma no lineal para producir el efecto de aproximación o alej amiento y mantener el foco. Se necesitan muchos elementos para corregir las aberraciones de las lentes y cubrir un amplio rango de variación.
un triplete de Cooke que elimine las aberraciones de tercer orden. La evolución de los objetivos fotográficos durante su segundo siglo de vid a fue muy dif ere nte . En 1927 George W. Morley, que trabajaba en el laboratorio de geofísica de la Carnegie Institution de Washington, se dio cuenta de que la composición de los vidrios ópticos venía dictada por la tradición, mientras que él estaba con vencido de que había muchos otros tipos posibles que deberían examinarse, aunque no sabía qué nuevas propiedades pudieran ser útiles. Se puso en contacto con Charles W. Frederik, que era entonces el jefe de proyectos de objetivos de la compañía Eastman Kodak. Frederik acogió bien la sugerencia y, para responder a su demanda, hizo que su departamento proyectase cierto número de objetivos
24
que utilizasen vidrios hipotéticos, de los que no se disponía. Morey y Frederik llegaron a la conclusión de que lo que realmente se necesitaba era un vidrio que presentase baja dispersión y un índice de refracción mucho más alto que el de cualquiera de los entonces disponibles. A finales de 1932 Kodak y Morey firmaron un contrato para que éste se dedicara a experimentar la producción de vidrios del tipo requerido, lo que realizó en el sótano de su casa. Las muestras que presentó demostraron que avanzaba en la dirección correcta, aunque eran demasiado oscuras para hacer lentes con ellas. Aunque no consiguió reducir la coloración, sí logró los valores deseados de refracción y dispersión. Morey utilizó óxido bórico y lantano, una de las tierras raras, para fabricar sus casi opacas piezas de vidrio.
Los laboratorios de investigación de Kodak montaron una pequeña planta piloto para determinar la causa de la coloración y tratar de eliminarla. Los análisis indicaron que se debía a las impurezas, en su mayoría óxidos metálicos, que se introducían al fabricar el vidrio. La utilización de un crisol de platino consiguió reducir la coloración a un tinte amarillo, que e ra inaceptable para muchos objetivos, pero no para las cámaras utilizadas por los Estados Unidos durante la segunda guerra mundial para el reconocimiento aéreo, pues un filtro amarillo elimina algunos efectos indeseables de la condensación atmosférica. Continuaron las investigaciones sobre la purificación química, cuyo resultado fue la eliminación de los últimos vestigios de color cuando se redujeron las impurezas del vidrio a menos de una parte por mil millones, lo que requería crisoles de oro, en vez de platino, en algunos casos. A estos vidrios se les denominó EK, por ser éste el prefijo que tenían en el catálogo de Kodak. Los proyectos de objetivos hipotéticos habían sido proféticos y actualmente todos los fabricantes de vidrio s ópticos producen vidrios de tierras raras. Cualquier objetivo fotográfico de calidad que se fabrique ahora cuenta al menos con un elemento hecho con este tipo de vidrio. Era de esperar que, al tiempo que resolvían muchos de los antiguos problemas, los nuevos vidrios de tierras raras crearan alguno nuevo. Puesto que la reflexión interna de una lente aumenta con su índice de refracción, los nuevos objetivos eran más propensos a mostrar reflejos o brillos parásitos, luces que velan la imagen y tienen mucha más importancia en fotografía de lo que pudiera pensarse, pues destruyen la información, pudiendo compararse con el ruido que aquejase a un sistema de comunicaciones. Se sabía desde 1936 que el recubrimiento de una cara de una lente con una delgada lámina de un material transparente podía disminuir los refle jos e incluso suprimirlos por completo para una longitud de onda arbitrariamente elegida. Los materiales utilizados para el recubrimiento deben tener un índice de refracción igual a la raíz cuadrada del índice de refracción de la lente y el espesor de la capa ha de ser un cuarto de la longitud de onda dada. Este recubrimiento no sólo elimina los reflejos para esa longitud de onda, sino que mejora la transmisión de la luz a través de la lente. Los repetidos intentos para aplicar una delgada capa de recubrimiento a la superficie de un vidrio fueron insa-
TEMAS 6
tisfactorios hasta que John D. Strong lo consiguió en 1936, logrando depositar una lámina de fluorita (floruro de calcio) sobre un vidrio por evaporación al vacío. Estas primeras láminas no se adherían bien, eran delicadas y se desprendían con facilidad. El problema se resolvió calentando la lente durante el proceso de recubrimiento para expeler las impurezas. La fluorita se sustituyó luego por el fluoruro de magnesio, más resistente.
E
ntre los objetivos que se hicieron via ble s gra cia s a los rec ubr imientos y a los vidrios de tierras raras se encuentran los de distancia focal variable, conocidos como “zoom”, que habían hecho su primera aparición en los años treinta con el Vario-Glaukar de la firma Busch, en 1931. Estos objetivos empezaron como configuraciones de siete elementos y una relación de distancia focal de tres a uno, evolucionando luego hasta relaciones de veinte a uno, pasando a estar formados por veinte o más elementos y teniendo los mandos de distancia focal, enfoque y apertura mecanizados y automatizados. Se utilizan mucho en las retransmisiones por televisión de acontecimientos deportivos. La lucha contra los reflejos obligó durante mucho tiempo a proyectar objetivos de muchos elementos, cuyas caras tenían que encajar perfectamente y se cementaban para minimizar las fronteras aire-vidrio. Una vez domeñado aquel problema se pudo abandonar tan costoso camino, retornándose a los objetivos de tipo Gauss, que aprovechan estas discontinuidades entre el aire y el vidrio. Una lente de Gauss de cuatro elementos tiene al menos ocho de ellas y, como el aire se ajusta perfectamente a cualquier superficie, no se necesita ningún acabado especial. Cada par de elementos separados proporciona además al proyectista una variable independiente más. Estas ventajas hacen que los objetivos más rápidos (cuyo número ƒ es de 2 o menos) utilicen ahora elementos separados por aire. El progreso de las técnicas de deposición permitió luego recubrimientos antirreflectantes de gran eficacia, formados por varias capas para abarcar la totalidad del espectro. Una vez se logró que los vidrios de tierras raras fuesen límpidos, se volvió a intentar conseguir que tuvieran baja dispersión y elevado índice de refracción. Mientras el propósito de los años treinta era alcanzar un índice de refracción de 1,75 (que suponía una mejora sobre el 1,62 del mejor vidrio crown de entonces), en los años setenta
LA CIENCIA DE LA LUZ
se fabricaron ya lotes experimentales con un índice de refracción de 2,01 y una dispersión relativamente baja. Es ya común la fabricación económica de vidrios inmaculados de tierras raras cuyo índice de refracción está entre 1,95 y 2,0 y que tienen una dispersión reducida. La disponibilidad de esta materia prima excepcional dio libertad a los proyectistas para crear mejores objetivos sin incurrir en costes de producción prohibitivos. Una de las mejoras consistió en aumentar su apertura para que pudiesen hacerse fotografías en color con niveles de iluminación más reducidos que antes, de modo que no hubiese que utilizar largas exposiciones o fuentes de luz artificial. Lo deseable son objetivos cuya apertura sea de ƒ /1,9, pero antes esto requería que tuviesen al menos seis elementos. Los nuevos vidrios permi-
ten construir objetivos de ƒ /1,9 e idéntica calidad que no requieren más que cuatro elementos (véase la figura 16) y son, por tanto, más económicos. También en los años treinta se hicieron los primeros intentos para reducir los costes de los objetivos fotográficos utilizando lentes de plástico. Con las técnicas de moldeado por compresión de entonces no era posible obtener superficies de la tersura necesaria. También podían fabricarse lentes por el sistema de encastrado, pero el procedimiento era demasiado lento y demasiado caro. Los moldes de inyección surgieron finalmente como el más prometedor de los métodos disponibles. A principios de los años cincuenta se empezaron a utilizar visores fabricados con plástico transparente moldeado, generalizándose luego el uso de objetivos de plástico para las cámaras
16. LOS VIDRIOS DE INDICE ELEVADO permiten reducir el número de elementos necesarios para conseguir determinado grado de corrección de las aberraciones. Las dos configuraciones que aquí se muestran tienen ƒ /1,9 y producen imágenes de calidad parecida. Los índices de refracción del objetivo gaussiano de seis elementos varían entre 1,6 y 1,75. En el objetivo Tessar de cuatro elementos los índices van de 1,9 a 1,95. Una ventaja adicional del objetivo Tessar radica en que el diafragma de apertura se sitúa delante de las lentes, lo que permite el alineamiento preciso de los cuatro elementos en una sola montura.
25
cambiaron esta situación. En principio los objetivos hechos con estas lentes pueden captar el doble de luz (es decir, son un número ƒ más rápidos) que los construidos con elementos totalmente esféricos, siendo comparables su calidad y número de elementos. Hubo que desarrollar nuevas técnicas para la inspección de superficies aesféricas. Una de ellas consiste en utilizar un sistema de lentes denominado corrector óptico nulo, que convierte un haz de luz paralelo en un frente de onda distorsionado o aberrante, siendo éste el que incide sobre la superficie aesférica que se está comprobando. Si 17. LA COMPROBACION DE LAS SUPERFICIES AESFERICAS que tienen algunas tiene la curvatura apropiada, la luz lentes plantea problemas específicos. Una de las maneras de hacerlo es con un coincidente se reflejará de tal forma que rrector óptico nulo, que convierte un haz de luz paralelo incidente (con frente de ondas plano) en otro haz convergente y aberrante que se ajusta a la superficie se recompondrá el frente de ondas aesférica. Luego la luz reflejada rehace el camino incidente y vuelve a emerger del originario cuando vuelva a pasar por corrector como una onda plana. Este dispositivo se coloca en uno de los brazos de el corrector óptico nulo, lo que permite un interferómetro, que registra cualquier desviación de la forma ideal de la superanalizar las superficies aesféricas con ficie aesférica por los cambios en el frente de ondas plano resultante. un interferómetro, igual que las planas o las esféricas. El moldeo por inyección permite formás sencillas y desembocando en la se hace con las de vidrio. Otras mejoproducción de objetivos tripletes por el ras del proceso de moldeado y el de- mar una montura plástica directamétodo del moldeado por inyección, sarrollo de modelos matemáticos con mente sobre una lente de vidrio tallada, que era un logro notable si se tienen la intención de conseguir mejores pulida y que haya recibido el trataen cuenta los serios problemas que tolerancias, permitieron alcanzar miento antirreflectante, lo que a veces hubo que afrontar. precisiones de centésimas de milíme- resulta preferible, porque los probleUno de los inconvenientes de las tro en la sección axial de la lente, de mas de montura son de los más enrelentes de plástico son los cambios tér- milésimas en la diametral y obtener vesados de la fabricación de objetivos. micos, pues presentan menos densi- grandes cantidades de lentes unifor- El moldeo por inyección proporciona una exactitud y una repetibilidad a la dad y un índice de refracción más bajo mes con un mismo molde. en una atmósfera caliente que en o tra La superficie esférica de una lente hora de montarlos que, de otro modo, fría. Los investigadores de Kodak tra- es sólo una aproximación a la superfi- resultan prohibitivos económicabajaron para descifrar el problema y cie ideal. El espejo ideal de un teles- mente. llegaron a diseñar objetivos en los que copio de reflexión tiene sección paraunque la estabilidad dimensional, el acortamiento del foco que el calor bólica. Las lentes perfectas deberían la elasticidad, la dureza y el índice provocaba en un elemento se compen- tener una superficie de rotación ligesaba exactamente con el alargamiento ramente más compleja. La refracción de refracción del vidrio sean superiores producido en otro. óptica aesférica, o no esférica, se ha a los del plástico, y aunque los tipos de venido uti liz ando des de los años plástico ópticos se limiten a unos cuanero había otra dificultad aún más treinta, después de que Bernhard tos polímeros, la mayor parte acrílicos, insidiosa: la de conseguir fabricar Schmidt descubriese accidentalmente de estireno y de estireno-acrilonitrilo, lentes libres de tensiones mecánicas una técnica manual para fabricar una las cámaras con objetivos de plástico internas. La presencia de estas ten- lente aesférica correctora que operase aesféricos requieren pocos elementos siones en una lente tiene consecuen- conjuntamente con un espejo telescó- para obtener buenos resultados, percias indeseables, aparte de que a pico esférico. Este procedimiento, que mitiendo un grado de corrección de veces se reducen con los cambios de todavía se usa, utiliza la tensión aberraciones excelente. Otra posibilidad de corregir las temperatura repetidos (como sería, superficial de una lámina de vidrio por ejemplo, sacar la cámara al exte- caliente que se deja caer sobre un limitaciones de las superficies esféririor cuando la temperatura es baja y molde para conseguir una superficie cas es utilizar vidrios con gradiente de volverla a intro ducir en el interior muy pulida. La cara que entra en con- índice. La aberración esférica es un más caliente). Tal modificación altera tacto con el molde tiene un acabado buen ejemplo. Su causa es que la las dimensiones de la lente en grado tosco y se la aplana, pero la opuesta superficie esférica resulta demasiado suficiente para que se produzca una adopta la forma del molde, conser- pronunciada en el borde, lo que puede de gradación de la imagen. Tras vando su pulimento de calidad. Gra- contarrestarse ya sea haciendo aesfémuchos intentos infructuosos, la solu- cias a este proceso fue posible el teles- rica una cara y suavizando su curvación consistió en utilizar moldes de copio gran angular de Schmidt. Pero, tura hacia el borde, ya disminuyendo una cerámica especial que tenía bue- salvo esta aplicación, no se utilizaban el índice de refracción del vidrio ha cia nas propiedades de pulido y unas elementos aesféricos más que en algu- la periferia. La investigación sobre características de transferencia de nas cámaras cinematográficas profe- vidrios y plásticos con gradiente de calor que permitían la fabricación de sionales, con precios muy elevados y índice y de los modelos matemáticos lentes libres de tensiones internas. La luminosidades superiores a ƒ /1,2, que- necesarios para el diseño de objetivos técnica resultó también adecuada dando fuera del alcance de la mayoría con ellos es más compleja, pues la luz no describe trayectorias paralelas en para el recubrimiento antirreflec- de los fotógrafos aficionados. tante de lentes plásticas, al igual que Las lentes de plástico aesféricas estos medios, de modo que el cálculo
A
P
26
TEMAS 6
matemático de estas trayectorias y la definición de los frentes de onda son mucho más difíciles. Se ha dicho muchas veces que los proyectistas de objetivos están entre quienes más se han beneficiado de la aparición de los ordenadores. Sin ellos sería ciertamente arduo el cálculo de nuestras superficies aesféricas y de nuestros objetivos de focal variable. Hacia 1950 ya se habían escrito programas de trazado de rayos que funcionaban en algunos computadores de la época. Posteriormente se escribieron diversos programas de diseño automático de objetivos en universidades, centros públicos y empresas privadas. Kodak contrató a Donald P. Feder en 1956 para que desarrollase un programa práctico de diseño automático. Feder ya había elaborado pre viamente un programa para compro-
bar los objetivos utilizados por el ejército norteamericano, operación que entonces costaba unos 2000 dólares. El coste del mismo análisis con el programa mejorado que escribió para Kodak al año siguiente había bajado a 100 dólares. Otro programa escrito por Philip E. Creighton en 1971 podía elaborar una serie completa de análisis para ocho planos focales, cinco longitudes de onda y cinco aperturas angulares de un objetivo que tuviese hasta 12 superficies por menos de 5 dólares. Pero la verdadera contribución de los ordenadores no radica en el análisis, sino en la mejora del diseño de objetivos. Hay que conseguir reducir sus defectos a un mínimo aceptable. Lo que de verdad querríamos sería reducirlos al mínimo matemático, pero esto no es posible, ya que reque-
18. LA FUNCION DE TRANSFERENCIA DE MODULACION de un sistema fotográfico completo comprende la modulación, o las pérdidas, introducidas en cada una de sus etapas. Los detalles finos de la imagen se interpretan en este análisis como variaciones espaciales de la intensidad de la luz, de la misma manera que las variaciones t emporales observadas en la potencia de una señal de radio se utilizan para evaluar la calidad de los equipos. Cada etapa de un sistema fotográfico reproduce los detalles finos (las frecuencias espaciales elevadas) con una pérdida de contraste (es decir, modulados). Estas curvas están calibradas tomando como referencia la eficacia
LA CIENCIA DE LA LUZ
riría la resolución de un gran número de ecuaciones simultáneas no lineales con un gran número de incógnitas, tarea que supera a las matemáticas contemporáneas. Lo que sí se puede hacer gracias a los ordenadores es conseguir una serie de aproximaciones cada vez más ajustadas a un objetivo impecable. Se demostró públicamente que esto era factible en un simposio de óptica celebrado en la Universidad de Rochester en 1962, donde Feder y sus colaboradores diseñaron un sistema completo de cuatro elementos en una tarde, lo que ocupó dos horas y media a la máquina, tiempo que se reduciría a segundos si se ejecutase el mismo programa en un ordenador actual. Al resultado se le bautizó como el “objetivo del simposio”. En otra aplicación realizada aquel mismo año a un obje-
del ojo humano, normalizada para que muestre el pico de respuesta (100 % de contraste relativo) para una frecuencia espacial relativa igual a uno. A diferencia de las lentes, el ojo degrada el contraste de las imágenes cuya frecuencia relativa es mayor y menor que uno. La imagen percibida por el ojo es el resultado de multiplicar las cuatro primeras curvas de modulación (la del objetivo, la de la emulsión de la película, la del objetivo de la ampliadora y la de la emulsión del papel). La calidad de la imagen transmitida al cerebro es proporcional al área definida por la última curva, que es la resultante del proceso mencionado.
27
COLABORADORES DE ESTE NUMERO Traducción: Manuel Puigcerver: Teoría del arco iris; M.a Luisa Calvo Padilla: Objetivos fotográficos; J. Vilardell: Delicias del estenoscopio y de su pariente, el antiestenoscopio y Tensión visible; Luis Bou: Microscopía confocal; Ramón Fontarnau y Frances E. Lynd: Construcción de un microscopio simple; Juan Santiago: Hologramas de luz blanca; Mónica Murphy: Optica adaptativa y Espejos líquidos; Amando García: Optica sin imágenes, Interferometría óptica de superficies y Conjugación de fase óptica ; José M. Vidal Llenas: Giroscopios ópticos.
28
Página
Fuente
3
Manuel Crespo
4-13
Gabor Kiss
17
Norman Goldberg, cortesía de Popular Photography
18-27
Dan Todd
29
Kenneth A. Connors
31
John M. Franke
32-34
Michael Goodman
35
Adam Lloyd Cohen
36-37
Jeff W. Lichtman
38
Matthew H. Chestnut
39
Jeff W. Lichtman (arriba), Stephen J. Smith y Michael E. Dailey (abajo)
40
Jared Schneidman/JSD (dibujos), Jeff W. Lichtman y Susan Culican ( fotografías)
41
Jeff W. Lichtman
47-53
M.a Luisa Calvo Padilla
55-58
Fritz Goro
59-66
George V. Kelvin
69
Roger Ressmeyer/Starlight Photo Agency, Inc.
70
Jared Schneidman/JSD
71
Jared Schneidman/JSD (dibujos), John W. Hardy ( fotografías)
72-73
Jared Schneidman/JSD
75
Robert J. Sica, Univiversidad de Ontario Oeste
76
Boris Starosta
77
Guy Plante, Universidad de Laval
78
B. Starosta (arriba), Terry Byers, Co. Lockheed (izquierda), Guy Plante (derecha)
79
Robert J. Sica
80-81
Laboratorio Nacional de Argonne
82
Andrew Christie (arriba), Laboratorio Nacional de Argonne (abajo)
83-85
Andrew Christie
86-87
Jon Brenneis
88-90
Ian Worpole
91
Jon Brenneis
94
Frank R. Seufert
95-99
Michael Goodman
100-101
Glen M. Robinson, David M. Perry y Richard W. Peterson
102-103
Andrew Christie
104
Glen M. Robinson, David M. Perry y Richard W. Peterson
106-107
A. V. Mamaev y N. A. Melnikov
108
Ian Worpole
109
A. V. Mamaev (arriba, izquierda), Ian Worpole (arriba derecha y abajo )
110-111
Ian Worpole
tivo de gran calidad para microfilm, cuál de dos objetivos imperfectos es el que inicialmente se había proyectado más recomendable. “a mano”, el programa introdujo mejoSchade logró aplicar a los objetivos ras que aumentaban su precisión y la teoría de la información y definir su reducían los costes de fabricación. El “función de transferencia óptica”. Lo tiempo del diseño óptico automático hizo considerando las variaciones de había llegado. la intensidad luminosa de la imagen Desde entonces se ha avanzado formada por un objetivo de la misma mucho en la elaboración de programas manera que los ingenieros de radio para el proyecto automático de objeti- consideran las variaciones tempora vos, no cabiendo duda sobre sus ven- les de la potencia de la señal para tajas en comparación con los métodos calibrar la calidad de los transmisoanteriores de cálculo. No sólo han res, los receptores y los amplificadomejorado la calidad y la productivi- res. El hecho de que la función de dad, sino que también se ha ganado transferencia muestre muchas coincien seguridad respecto de las caracte- dencias con los criterios tradicionalrísticas que tendrá el producto termi- mente empleados por los diseñadores nado y cómo se desarrollará su pro- de objetivos es una indicación de su ducción. Esta gran seguridad deriva validez. Más importante todavía en buena medida de las técnicas Monte resulta que la función de transferenCarlo utilizadas para analizar la sen- cia de un objetivo pueda combinarse sibilidad de un diseño a los cambios con las de la película fotográfica, las acumulativos que se van produciendo de los dispositivos de copia, las de los durante la fabricación, dentro de unos objetivos de proyección, etc. Puede límites normales del proceso de con- calcularse la función de transferencia trol, lo que permite decidir si es posi- de un objetivo proyectado y compable o no fabricar el producto. rarla luego con los resultados del Los fotógrafos profesionales y los ejemplar construido. La informática aficionados dedicados suelen discutir permite, pues, establecer modelos con vehemencia sobre las caracterís- matemáticos del sistema fotográfico ticas de unos objetivos frente a otros, completo, desde el objeto elegido hasta sobre todo en el caso de objetivos espe- la función de transferencia del ojo del ciales para cámaras de 35 mm de pre- observador. cio elevado. Aunque pueden hacerse pruebas que determinen la resolución a comparación de estas medidas y cálculos objetivos con las reacde un objetivo (definida como el número de líneas por milímetro que ciones subjetivas de los observadores puede diferenciar en varias zonas de ante las imágenes fotográficas resulsu campo y para varias aperturas), tantes proporciona datos a los diseñasuele admitirse sin embargo que la dores sobre qué fotografía es la mejor. consideración aislada de esta caracte- Estos modelos conceptuales han ayurística no es una guía muy fiable de la dado mucho a la industria fotográfica calidad de las fotografías que pro- a la hora de decidir dónde concentrar duzca. Gran parte del misterio que sus esfuerzos de investigación y derodea la “calidad” de los objetivos fue sarrollo para mejorar la relación entre desentrañado por Otto H. Schade en calidad y precio en provecho de quie1951. Schade hizo investigaciones nes hacen fotografías. sobre los objetivos utilizados en toda la cadena de transmisión de información que constituye un sistema de teleBIBLIOGRAFIA COMPLEMENTARIA visión y demostró que la capacidad de APPLIED OPTICS AND OPTICAL DESIGN: registrar los más mínimos detalles no PART TWO. A. E. CONRADY . Dirigido por estaba necesariamente relacionada Rudolf Kingslake. Dover Publications, con la eficacia general para transmitir Inc., 1960. información. La conclusión más sorPHOTOGRAPHY : ITS MATERIALS AND PROprendente fue que algunos de los objeCESSES. Dirigido por C. B. Neblette. tivos más apreciados eran menos adeD. Van Nostrand Company, Inc., 1962. cuados para la televisión que otros OPTICAL COMPONENTS. Dirigido por Rudolf Kingslake en Applied Optics and considerados inferiores. Optical Engineering: Vol. III . Academic Las investigaciones de Schade añaPress, 1965. dieron una nueva dimensión a la defiM ODERN O PTICAL E NGINEERING. Tim nición que había establecido Rayleigh J. Smith. McGraw-Hill Book Company, de la calidad de la imagen. El criterio 1966. de Rayleigh se contempla ahora como SPSE H ANDBOOK OF P HOTOGRAPHIC un caso límite: determina uno de los SCIENCE AND ENGINEERING. Dirigido por Woodlief Thomas, Jr., John Wiley and extremos de un continuo de calidad. Sons, 1973. Nos dice cuándo se aproxima a la perfección un objetivo, pero no nos dice
L
TEMAS 6
Delicias del estenoscopio y de su pariente, el antiestenoscopio Jearl Walker
L
a deslumbrante diversidad y perfección de las cámaras fotográficas que hoy día se encuentran en las tiendas hace perder de vista que pueden obtenerse fotografías muy aceptables sin otra cosa que un orificio diminuto, o estenope, interpuesto entre la película y el objeto fotografiado. Tal es el fundamento de la cámara oscura, llamada también estenoscopio. Lo mismo cabe afirmar acerca del complemento óptico del estenope, o “antiestenope”, que es una mácula, muy pequeña y circular, que se interpone entre la película y el objeto; así, puede hablarse del “antiestenoscopio”. Para tratar el tema de la fotografía estenoscópica voy a seguir las investigaciones de Kenneth A. Connors y de Matt Young,
mientras que la novedosa y original idea de la fotografía antiestenoscópica procede de Adam Lloyd Cohen. La fotografía estenoscópica (estenopetografía) se basa en el paso de la luz a través de un orificio practicado en una pantalla opaca. Luego la luz va a parar sobre un trozo de película, donde reconstruye una imagen del objeto fotografiado. Referencias a las imágenes estenoscópicas se encuentran ya en Aristóteles; Leonardo da Vinci estudió sus principios y Lord Rayleigh las analizó formalmente. La sencillez constituye una de las muchas ventajas que ofrece la cámara oscura frente a las cámaras de objetivo refringente. Al fotografiar un objeto con una cámara oscura, cada
1. Estenopetografía de Kenneth A. Connors
LA CIENCIA
DE LA LUZ
29
punto del objeto colocado frente a ella proyecta su propia manchita luminosa sobre la película (o papel fotográfico). La reunión de esas manchitas constituye la imagen que registra la película. Para que dicha imagen sea nítida, las manchitas contiguas no deben solaparse; habrán de ser, pues, lo más pequeñas posible. Buena parte del diseño de un estenoscopio descansa en la elección del tamaño del estenope y de una distancia entre dicho orificio y la película tales que las manchitas luminosas proyectadas sobre la película queden separadas y alcancen su máxima luminosidad. En principio, el tamaño del estenope puede ser ilimitado. Sin embargo, cuanto mayor sea, tanto más alejado de la película deberá colocarse y tanto mayor habrá de ser la película; de ahí que la práctica fije unos límites al tamaño del orificio. Existe también un lími te teórico para la pequeñez del estenope. Consideremos una cámara cuyo estenope se encuentre a una distancia razonable (varios centímetros) de la película. Supongamos que el estenope sea relativamente grande (demasiado con respecto a su distancia a la película) y que la cámara esté orientada hacia un manantial luminoso puntual y muy alejado. Los rayos luminosos procedentes de la fuente llegarán al estenope prácticamente paralelos entre sí y al eje geométrico que atraviesa el orificio por el centro y es perpendicular a la pantalla. En tal caso el radio de la manchita luminosa recogida en la pantalla será igual al radio del orificio y, por ser éste grande, la manchita en cuestión resultará grande también. Si se fotografiaran en estas condiciones un gran número de manantiales luminosos puntuales, sus manchitas se solaparían en la película, impidiendo que se les distinguiera individualmente. Si se reduce el tamaño del estenope, se achica el tamaño de la manchita luminosa producida por cada fuente puntual. La mejora de la situación por este procedimiento está limitada por el hecho de que el estenope acabaría siendo tan pequeño que la l uz que lo atravesase se difractaría, para dar una figura de interferencia, circunstancia en la que una fuente puntual no crearía una pequeña mancha luminosa en la película, sino una figura circular compuesta de una mancha central luminosa, rodeada de anillos más tenues. Si menguáramos todavía más el tamaño del estenope, se agrandaría la figura de difracción, con la consiguiente pérdida de resolución de la fotografía. El radio óptimo del estenope es función de su distancia a la película; la relación puede mostrarse mediante un razonamiento en el que la luz se representase en forma ondulatoria. Imaginemos que se retiran el estenope y la pantalla; y consideremos una onda luminosa, procedente de un manantial puntual, que atraviesa el plano ocupado antes por la pantalla. Atendamos, en ese plano, a una familia de zonas circulares concéntricas con el eje geométrico de la cámara. Tales zonas pueden identificarse por su distancia a un punto situado en el centro de la película, punto que también está en el eje geométrico. La distancia entre la zona central y este último punto será la que mediaba entre el estenope y la película. La segunda zona está más alejada del punto central de la película en una semilongitud de onda, la tercera lo está en una semilongitud de onda más, y así sucesivamente. Todas las zonas envían ondas luminosas al punto central; ahora bien, por tratarse de trayectos distintos, las ondas se interfieren a su llegada. Por ejemplo, la onda procedente de la segunda zona llega desfasada en media longitud de onda respecto a la onda procedente de la zona central. En este sentido, cuando las amplitudes de las dos
30
ondas fuesen iguales, ambas se anularían entre sí. Desde luego, si las contribuciones tuvieran todas la misma amplitud, se anularían sin excepción en el punto central. La verdad es que las amplitudes no son iguales, como se demuestra en exposiciones más rigurosas que ésta que puedo ofrecerles aquí, por lo cual la anulación es sólo parcial. La amplitud total de la onda luminosa en el punto central resulta ser la mitad de la que supondría la contribución de la zona central por sí sola. Como la intensidad luminosa depende del cuadrado de la amplitud, ello implica que la intensidad en el punto central es la cuarta parte de la que sería si sólo contribuyese la luz procedente de la zona central. Pues bien, una de las finalidades del estenope es obstruir todas las zonas, salvo la central. (Hay investigadores que afirman que las obstruye todas, excepto las dos primeras.) Un estenope de dimensiones óptimas permite que al punto central de la película sólo llegue luz de la zona central; con un estenope así, la manchita luminosa central será clara y pequeña, con la luz bien distribuida. Si el estenope no alcanza su tamaño óptimo, sólo una parte de la zona central contribuirá a la iluminación de la película, la mancha luminosa será más apagada y la luz estará peor distribuida. Pero si lo rebasa en demasía, las zonas adicionales que abarca harán que decrezca la claridad de la manchita, al tiempo que aumenta de tamaño. Lo que se persigue, pues, no es que el est enope sea de un tamaño concreto, sino que entre su magnitud y su distancia al punto central de la película haya determinada relación. Cuando el objeto a fotografiar se encuentra relativamente alejado, el radio óptimo del estenope viene a coincidir, aproximadamente, con la raíz cuadrada del producto de la longitud de onda de la luz por la distancia entre el orificio y la película. A partir de la relación mencionada cabe definir una distancia focal del estenope. Este actúa como un objetivo, en el sentido de que proporciona una imagen concentrada de un objeto. Su distancia focal es aproximadamente la longitud de onda de la luz partida por el cuadrado del radio del orificio. Cuando la película diste del estenope una longitud igual a la distancia focal, la manchita luminosa de la película será reducida y clara, pues sólo entonces la zona central llena por completo el estenope y contribuye con su luz al punto central. Supongamos que el objeto esté cercano. Si hubiéramos de fotografiarlo con un objetivo refringente, podríamos calcular la distancia correcta entre éste y la película aplicando la fórmula llamada de las lentes delgadas, que establece que la inversa de la distancia entre objetivo y película debe ser igual a la inversa de la distancia focal del objetivo menos la inversa de la distancia al objeto. Esta relación mantiene su validez para l os estenopes, con tal de que la distancia focal se defina de la forma indicada antes; ello permite enfocar una cámara oscura y obtener así una fotografía de la mejor nitidez. Si el objeto está alejado, la mejor posición de l a película es la correspondiente a la distancia focal. Si nos desplazamos hacia el objeto, acortando la separación entre el mismo y el estenope, deberemos incrementar la distancia entre la película y el estenope, a fin de mantener la nitidez óptima en la imagen. Una corrección tal quizá no resulte muy viable, ya que en los estenoscopios suele ser fija la distancia entre estenope y película, en cuyo caso vale la pena sustituir el estenope por otro menor, de suerte que disminuya la distancia focal. En la práctica no se efectúa ninguna de esas correcciones, dado que la nitidez de la fotografía suele ser aceptable, aun cuando el tamaño del estenope y la dis-
TEMAS 6
tancia entre éste y la película no cumplan la relación óptima. Y si se fotografía una escena cuyos objetos se encuentren a distancias de la cámara que varíen entre límites amplios, en su mayoría aparecerán en la fotografía aceptablemente enfocados. Esta gran profundidad de campo es característica del estenoscopio. A partir de lo expuesto podemos calcular el tamaño conveniente del estenope, o bien la distancia entre éste y la película, una vez escogido uno de ellos. Pero, ¿cuál de esos datos se elige para calcular el otro? La respuesta la dicta el sentido común. En efecto, nadie desea un estenoscopio de varios metros de longitud. Y queremos una foto perfecta, en la que se aprecien los detalles que
nos ofrece la contemplación directa de la escena. Y es precisamente aquí, en la nitidez de la imagen, donde se encuentra el punto de partida para establecer las condiciones de la cámara. El límite hasta el que el ojo humano es capaz de percibir con nitidez se llama poder separador, magnitud angular que se expresa en radianes. Supongamos que nuestro campo visual abarque dos puntos. En tanto que el ángulo que subtiendan sea superior a determinado valor mínimo, 0,001 radianes aproximadamente, podremos discriminarlos. Cuando dicho ángulo sea menor, sólo veremos un objeto único y borroso. Por ejemplo, dos puntos contiguos, separados un milímetro entre sí y a un
2. Fotograma gran angular obtenido por John M. Franke con una cámara oscura dotada de una semiesfera de vidrio detrás del estenope
LA CIENCIA
DE LA LUZ
31
Pero si no cambiásemos también el tamaño del fotograma y la distancia a la cual lo contemplamos, no habría manera de advertir la mejora. Por otro lado, la cámara habría de tener en este caso 50 centímetros de longitud (para que la distancia entre el estenope y la película fuese la correcta) y se necesitaría una película mayor para recoger toda la luz procedente del estenope. Es evidente que la cuantía de la mejora no vale la pena. Cuando el estenope sea mayor de lo debido, la nitidez se degradará, con el inconveniente adicional de que aparecerán detalles falsos en el foto3. Estenopetografía grama. Este efecto, que se llama separación espuria, resulta del solapametro de nosotros, se encuentran precisamente en el miento de las imágenes de varios objetos contiguos. En límite de nuestra capacidad para verlos con nitidez. En la ilustración superior de la página siguiente aparece la tal caso bastaría una cámara con ese poder separador; explicación de Young acerca de la separación espuria aumentarlo no valdría de nada. de tres barras verticales. A título demostrativo, supongamos que la copia final La mayoría de los sistemas de lentes producen una dishaya de tener las mismas dimensiones que la película y torsión lineal en las imágenes registradas sobre película. que vamos a contemplarla a una distancia igual a la Por ejemplo, un objeto cuadrado puede aparecer como si existente entre el estenope y la película. Propongámonos sus lados fuesen levemente curvos. La mayoría de las cámafotografiar dos fuentes luminosas puntuales y continuas, ras modernas incorporan dispositivos para corregir este cuya separación angular corresponda al poder separador fallo. Pero una de las ventajas del estenoscopio es que se del ojo humano (0,001 radianes). La cámara deberá pro- encuentra prácticamente libre de distorsión lineal. yectar sobre la película dos manchitas que apenas se El estenoscopio presenta, empero, varios tipos de toquen, o que se solapen muy poco. Entonces, al obser- aberración, incluida la cromática. En efecto, como el radio var la fotografía, podremos verlas como manchitas ape- óptimo del estenope (y, por tanto, su distancia focal) nas separadas. El ángulo que formen en nuestro campo depende de la longitud de onda de la luz, la cámara sólo visual puede calcularse dividiendo el diámetro del este- puede optimizarse para una longitud de onda. Puede nope por la longitud de onda de la luz. Sea ésta de 500 conseguirse la mejor nitidez para esa longitud de onda, nanómetros (aproximadamente el centro del espectro pero la que se obtenga para las demás que integran la visible); si el ángulo que mide nuestro poder separador luz blanca será peor. es 0,001 radianes, el radio del estenope habrá de cif rarse Con película de color, los bordes de las imágenes apaen 0,25 milímetros. recen borrosos; a veces se aprecian incluso coloreados. Una vez determinado este valor, a través de la fórmula Con película de blanco y negro sólo se observa un emantes referida se deduce que la distancia óptima entre borronamiento de los bordes. Para eliminar la aberrael estenope y la película es de 12,5 centímetros. Si dupli- ción cromática suele emplearse película en blanco y cáramos el radio del estenope y, de acuerdo con ello, negro con un filtro de color colocado ante el estenope. corrigiéramos la distancia de la película al orificio, la El tamaño del estenope y la distancia de la película al nitidez de una foto hecha con esa cámara sería doble. mismo se optimizan para la longitud de onda que deja pasar el filtro. Se eliminan los demás colores y los bordes de la imagen aparecen menos borrosos por aberración cromática. Otra aberración que presentan las cámaras oscuras es el astigmatismo, que se manifiesta cuando el objeto fotografiado se encuentra fuera del eje central del estenope. Aquí ocurre que el estenope visto desde el objeto tiene forma elíptica, no circular y, si el objeto es una fuente luminosa puntual, sobre la película se proyectará una manchita elíptica. Tampoco el lugar de la película sobre el que se proyecte la manchita estará a la distancia correcta del estenope. Si el centro de la película se coloca a la distancia correcta del orificio, todos los demás puntos de la película quedarán demasiado lejos, lo que significa que únicamente se obtendrá una nitidez óptima en el centro. 4. Zonas cuya luz contribuye al centro de la película
32
TEMAS 6
5. Tipos de separación
Un problema más grave de las cámaras oscuras es su viable; una solución de compromiso pudiera ser un reducida aptitud para captar luz. Debido a su apertura, soporte cilíndrico. habitualmente muy pequeña, se necesitan exposiciones John M. Franke resolvió esa dificultad de un modo prolongadas. Por ejemplo, si la película está a la distan- ingenioso. Puso una semiesfera de vidrio inmediatacia focal del estenope y esa distancia es de unos pocos mente detrás del estenope de la cámara, en la cual el centímetros, el número f de la cámara se cifrará aproxi- soporte de la película era una placa plana normal. Cuando madamente en 200. Aunque la pequeña apertura hace la luz atraviesa el estenope y penetra en el vidrio, se que el sistema sea lento, tiene a su favor la gran profun- refracta. La totalidad del campo, que abarcaba 180 gradidad de campo resultante. dos, se reducía entonces a un cono de luz de 84 grados Son varias las razones por las que la intensidad luminosa de abertura. Cuando la luz emerge del vidrio lo hace proyectada sobre la película no es nunca uniforme. perpendicularmente a su superficie y, por ello, no sufre Supongamos que van a fotografiarse dos manantiales desviación. Esta reducción angular de 180 a 84 grados le luminosos puntuales, uno en el eje central y otro fuera permitió a Franke ubicar la película a una distancia conde él. La luz procedente de la fuente situada fuera del veniente del estenope y, aun así, obtener un fotograma eje se encuentra con un estenope aparentemente elíptico; gran angular con un campo de casi 180 grados. en consecuencia, por el orificio pasará menos luz proceFranke empleó una semiesfera de 25,4 milímetros de dente de ese punto que procedente del situado en el eje. diámetro, construida con vidrio BK-7, cuyo índice de refracLa luz que genera la manchita excéntrica ha de recorrer ción es de 1,5 aproximadamente. Aunque el diámetro no además una distancia mayor para llegar a la película y, influye de modo decisivo, con vidrios de diferentes índices por tanto, se extiende más, alcanzando así la película con de refracción se consiguen diferentes resultados. Puede menor intensidad. Por otro lado, esa luz llega a la película resultar entretenido ensayar con otros vidrios e incluso bajo un ángulo que esparce aún más la exposición sobre con plásticos de buena calidad. Si se desea un campo de su superficie, reduciéndose más la intensidad. 180 grados, las imágenes resultarán algo distorsionadas La limitación del campo responde hacia los bordes de la foto. a otra razón adicional: no todo Hay varias formas de construir un objeto suficientemente separado del estenope. Préstese atención al orifieje central refleja la luz hacia la pelício, que deberá ser circular y tener el cula, salvo que ésta sea muy ancha o borde liso. Young ha conseguido se coloque bastante cerca del esteestenopes perfectamente limpios nope. Se ha intentado siempre salvar sirviéndose de láminas de latón de 50 esa dificultad arrimando la película micrometros de espesor (como las hacia el estenope, para que pueda que se emplean para hacer supleobtenerse una fotografía de ángulo mentos espaciadores, etc.). A tal fin, amplio. Pero este truco tiene un fallo: monta una aguja de coser en una reduce la nitidez de la foto, ya que fresadora y luego, con el avance verla película no estará entonces a la tical de la máquina, impulsa la aguja distancia del estenope correspona través de la delgada lámina de diente a la nitidez óptima. latón, bajo la cual coloca un bloque Otro procedimiento para aumentar de plomo recién pulido para evitar el campo es preparar un soporte para que se deforme. Tras eliminar las la película en forma de semiesfera, rebabas del borde del orificio, lo escacentrada en el estenope. Toda la luz ria con la punta seca de un compás y que penetre por éste alcanzará vuelve a limpiarlo. entonces la película, incluso la proLas láminas de latón que emplea cedente de objetos situados casi a 90 Connors miden de 25 a 50 micromegrados respecto al eje central. Otra tros de espesor. No se recomiendan consecuencia sería un menor debiliplaquitas más gruesas, si se quiere tamiento de la exposición, ya que la evitar que el orificio se convierta en luz incidiría siempre perpendicularun cilindro demasiado largo, en cuya mente sobre la película. También superficie interior se produzcan mejoraría la nitidez de los objetos reflexiones de los rayos luminosos. separados del eje central, al estar Sobre cartón consistente o madera todas las porciones de película a la blanda pulida coloca un trozo cuamisma distancia del estenope. Pero drado de lámina. Luego, valiéndose la construcción de un soporte semiesde la punta seca de un compás, prac6. Montaje de Franke para fotos gran angulares férico no resulta por desgracia muy tica una pequeña embutición en la
LA CIENCIA
DE LA LUZ
33
segundo es que puede emborronarse la foto con la sacudida que resulta de la retirada y reposición del adhesivo. Por mi parte, prefiero el procedimiento que apunta Young. Sobre el cuerpo de su cámara de 35 milímetros monta un tubo telescópico, de los que pueden comprarse en las tiendas de fotografía para la mayoría de las cámaras de objetivo desmontable; en su extremo externo sujeta el objetivo estenoscópico. A falta de tubo telescópico, yo aproveché un tubo de cartón, que fijé al cuerpo de mi cámara con varias capas de cinta adhesiva negra. La ventaja de este tipo de estenoscopio es que permite la impresión de un carrete de película entero. Da la coincidencia de que mi cámara es un modelo réflex de objetivo simple, por lo que pude observar una 7. Montaje antiestenoscópico de Adan Lloyd Cohen imagen tenue de la escena antes de tomar cada foto. lámina, con cuidado para que la punta no la traspase por En la estenopetografía, la luz atraviesa un orificio para completo, tras de lo cual da la vuelta a la pieza y fricciona generar una imagen: en la antiestenopetografía de con papel de lija fino el conito formado en el reverso de Cohen, un antiestenope, u obstáculo, proyecta una imala embutición. Estas operaciones las repite tantas veces gen negativa del objeto. Este dispositivo constituye el como sea preciso, hasta que obtiene un orificio lo sufi- complemento óptico del estenope. Aquí, la pantalla y el cientemente ancho para que por él pase la caña de la orificio están sustituidos por un pequeño obstáculo de punta del compás, cuyo diámetro ha medido previamente sección circular, de modo que la luz que hubiera pasado con un microscopio de retículo graduado, de modo que por el estenope queda obstruida y la luz que hubiera ya sabe cuál es el tamaño del estenope. Cuando quiere sido obstruida por la pantalla llega a la película, dando un estenope de diámetro menor que la punta de compás una imagen negativa. El fotograma antiestenoscópico de que dispone, detiene el proceso de agrandamiento final es similar al estenoscópico, con una salvedad: las antes de que toda la punta penetre en el orificio. zonas claras y oscuras aparecen intercambiadas. Conseguido el estenope, Connors encola la lámina a En las imágenes que proyectan los antiestenopes de un soporte hecho de placa de latón l atón más gruesa (de unos Cohen no interviene la difracción de la luz, pues los 125 micrometros de espesor), de modo que el estenope antiestenopes son demasiado grandes para originar figuquede centrado en un orificio de unos seis o siete milí- ras de difracción importantes. La imagen la crea sencimetros taladrado en la pieza más gruesa. El l ado de este llamente la obstrucción de los rayos luminosos procedenconjunto que ha de encararse a la película lo pinta de tes del objeto. Toda manchita que aparezca en la película negro mate para disminuir las reflexiones luminosas en registra la sombra de una porción del objeto que se el interior de la cámara. Hay quien opina que también encuentra en la intersección del objeto con l a recta defidebe ennegrecerse la superficie interna del estenope, nida por la manchita y el antiestenope. pero Connors se opone a estropear la simetría del orificio Los fotogramas obtenidos con antiestenopes tienen construido y sólo pinta hasta uno o dos milímetros de peor contraste que los estenoscópicos, porque los disdistancia de él. positivos antiestenoscópicos antiestenoscópicos permiten que a la película Los estenopes deben mantenerse libres de polvo, por llegue casi toda la l uz procedente de la escena. De esa lo que es conveniente guardarlos en bolsitas de plástico luz, la mayor parte es una iluminación uniforme que no hasta que se necesiten. Connors examina periódicamente sirve para nada y que simplemente reduce el contraste los suyos al microscopio para comprobar si el polvo ha de la imagen. Es el resto de la luz, la fracción no unidañado su simetría. forme, la que transporta la información acerca del Estos objetivos estenoscópicos pueden montarse, prác- objeto. El contraste mejoraría si hubiera alguna forma ticamente, en cualquier tipo de caja hermética a la luz. de disminuir la iluminación uniforme o de aumentar la Yo mismo he visto estenoscopios hechos con cajas de proporción de luz no uniforme que contiene la inforgalletas. Trabajando en un cuarto oscuro, el fotógrafo mación sobre el objeto. monta un trozo de papel fotográfico en la parte posterior La desigualdad entre ambas iluminaciones puede de la caja y desliza la tapa. Luego, para evitar que pene- aumentarse si el antiestenope se acerca a la película; tre luz prematuramente en el interior, coloca un trozo ahora bien, lo mismo que ocurría en l a estenopetografía, de cinta adhesiva negra sobre el estenope. Cuando todo esa medida rebaja la nitidez del fotograma. No obstante, está listo, efectúa la exposición arrancando el adhesivo Cohen afirma que con gusto sacrifica algo de nitidez para del orificio y volviendo a colocarlo después. Una cámara conseguir un contraste suficiente como para reconocer así funciona, desde luego, como estenoscopio, pero tiene la imagen en la foto. dos inconvenientes: el primero es que sólo puede tomarse Parte de la iluminación uniforme proviene de porciones una foto cada vez que se saca del cuarto oscuro; el de la escena que no tienen importancia para el foto-
34
TEMAS 6
grama. Para reducir esta iluminación irrelevante, Cohen sitúa un diafragma de campo (una pantalla con un orificio mayor que el antiestenope) delante del antiestenope. El orificio es lo suficientemente ancho para que las porciones extremas del objeto iluminen los bordes de la película y lo suficientemente pequeño para impedir que lo haga el resto de la escena. El coloreado de las imágenes antiestenoscópicas puede ser sorprendente. Si se fotografían unos cuantos objetos de diferentes diferen tes colores, las imágenes de cada uno 8. Estenopetografía ( izquierda) y antiestenopetografía suelen presentar un color difede una P recortada en papel, obtenidas por Cohen rente al suyo. Este cambio depende depende del color que da la combinación de los colores de los objetos del conjunto. Si la combinación da blanca, cada color del conjunto cambia en la fotografía a su complementario; un objeto rojo dará una imagen cuyo color será la sustracción de blanco menos rojo (puesto que el antiestenope bloquea el rojo procedente del objeto). Por consiguiente, el color de la sombra es el azul verdoso llamado cian, complementario del rojo. De la misma manera, un objeto verde crea una sombra magenta. Algunas de las propiedades de las cámaras oscuras las comparten por igual los antiestenoscopios. Su campo es grande, el ajuste del aumento se consigue variando la distancia entre el estenope y la película y no existe distorsión lineal. En los antiestenoscopios puede evitarse el astigmatismo si el antiestenope se construye esférico, pues así toda la luz procedente del objeto se ve interceptada por un obstáculo obstáculo de sección circular, aun cuando el objeto esté muy separado del eje central de la cámara. 9. Anillo brillante, fotografiado por Cohen a través de una serie de antiestenopes Otra diferencia entre ambos tipos de fotografía es que, si se dispone una serie de estenopes alineados entre el objeto y expenden las tiendas de artículos para oficina. y la película, no se obtiene nada, mientras que una serie Recomienda que el redondel no sea muy pequeño, para de antiestenopes sí que produce resultados. Ello se debe evitar que sufra el contraste del fotograma. Se aconseja a que las pantallas donde se perforan los estenopes que las escenas tengan mucho contraste para que el impiden que la luz se proyecte sobre la sucesión de ellos fotograma también lo muestre. La experimentación en más cercanos a la película; por el contrario, los anties- antiestenopetografía puede comenzarse recortando tenopes se interfieren muy poco. La figura 9 es una figuras de papel negro opaco e iluminándolas por detrás fotografía obtenida por Cohen con una serie de anties- con una fuente difusa de luz. tenopes que colocó entre un anillo brillante y la película. Cada antiestenope produce su propia imagen en negativo del anillo. BIBLIOGRAFIA COMPLEMENTARIA A quienes pueda interesar la antiestenopetografía, Cohen les ofrece las sugerencias siguientes. Como antiesPINHOLE IMAGERY. M. Young en American en American Journal Journal of Physics, Physics, vol. 40, n. o 5, págs. 715-720; mayo, 1972. tenope se utilizará una manchita redonda de pintura FIELD-WIDENED PINHOLE CAMERA. John M. Franke en Applied Applied negra depositada sobre un trozo de vidrio o de acetato o 17. págs. 2913-2914; septiembre, 1979. Optics, Optics , vol. 18, n. limpio; su tamaño no es decisivo y, en su lugar, puede pegarse un redondel, como los que se usan para rotular
LA CIENCIA
DE LA LUZ
35
Microscopía confocal Jeff W. Lichtman
Esta técnica microscópica microscópica no tiene rival para la producción de imágenes nítidas, sean planas o en tres dimensiones
M
arvin Minsky es el padre de la inteligencia artificial. También es autor de otro importante im portante logro. En los años cincuenta construyó un microscopio óptico revolucionario, que le permitía observar con claridad capas sucesivas de una muestra sin tener que rebanar el espécimen en finos cortes. Minsky no recibió el debido reconocimiento cuando patentó su “microscopio de barrido por etapas, de doble enfoque”. En los diecisiete años de vigencia de la patente no percibió derechos ni royalties, y no se fabricó ningún instrumento de concepción similar. Treinta años después, su método —hoy denominado “microscopía confocal”— ha prendido con fuerza y se ha tomado la revancha, hasta convertirse en uno de los progresos más notables de la microscopía óptica de nuestro siglo. No está claro si el interés que suscita ha sido encendido por el redescubrimiento de los primeros trabajos de Minsky o por la reinvención de su
36
idea por otros. Sea como fuere, el fe liz resultado es que ahora contamos con docenas de tipos de microscopios confocales, en una gama que va desde lo rudimentario hasta lo barroco. Minsky desarrolló la técnica mientras reflexionaba sobre el funcionamiento del cerebro. Razonó que, si fuera posible cartografiar las conexiones entre todas las neuronas, el diagrama circuital revelaría indicios del modo en que opera el cerebro. Por desdicha, al aplicar las técnicas de la microscopía óptica ordinaria a la identificación de las sutiles interconexiones de las neuronas de un corte cerebral se tropieza con un grave obstáculo técnico.
En los microscopios ópticos, cuando el objetivo enfoca luz tomada de planos situados por debajo de la superficie del tejido cerebral (o de cualquier material grueso y translúcido), la imagen se torna rápidamente incomprensible. Tratar de ver elementos nerviosos profundos de tal tejido equivale a tratar de localizar un objeto hundido en una charca cenagosa proyectando sobre el agua una linterna: la luz es reflejada por tantas y tan diminutas partículas que resulta imposible distinguir el objeto de su entorno. Para conseguir una representación nítida de un plano individual de una muestra, lo ideal sería recoger re coger
1. GRANOS DE POLEN de girasol ( arriba) y de pino (serie inferior ). ). Estos “retratos” han sido preparados a partir de imágenes obtenidas con un microscopio confocal de planos sucesivos de cada grano. Un ordenador digitalizó dichas imágenes —llamadas secciones ópticas— y las combinó. Tales reconstrucciones digitales pueden observarse en cualquier orientación; el polen de pino se muestra (de izquierda a derecha) en vista lateral, en vista lateral opuesta, girado 72 grados respecto a la primera posición y desde arriba.
TEMAS 6
LA CIENCIA DE LA LUZ
37
2. UNA MICROCAPSULA DE POLIMERO rellena de fluido ( es fera grande), de 0,1 milímetros de diámetro. La imagen se obtuvo a partir de una pila de secciones ópticas, entre las que se contaban las esferas menores aquí mostradas. Las imágenes fueron preparadas por Matthew H. Chestnut para comparar la
luz reflejada del plano de interés y sólo desde él. Pero el material situado por encima y por debajo de ese plano también devuelve luz, creando imágenes borrosas. Al mismo tiempo, el fenómeno de dispersión puede reducir el contraste. La dispersión se produce al incidir la luz sobre partículas diminutas y reflejarse de ellas, incidiendo de nuevo en otras partícula s y así hasta alcanzar la superficie detectora. Las señales producidas por esta luz des viada al aza r no aportan información; crean un resplandor difuso que
38
integridad estructural de esta cápsula con la de otras con diferente composición. Se distingue la cápsula (en verde) del fluido que la llena marcando estos componentes con tintes diferentes. El análisis detallado de muchas vistas no reveló roturas en la cápsula, pero sí ciertas fugas del fluido interior.
tiende a encubrir la luz procedente del plano de interés.
C
on unas pocas modificaciones en el microscopio normal Minsky minimizó la difuminación de la imagen y reforzó el contraste. Evitó que se produjera gran parte de la dispersión; para ello hizo pasar la luz de iluminación a través de un objetivo que enfocaba los rayos en un haz bicónico, cuya forma recuerda un reloj de arena. Después llevó el foco de este haz (la angostura en el reloj de arena), que es un punto de luz nítido e intenso,
sobre una porción mínima de la muestra, a la profundidad deseada. Tal proceder garantizaba que esa zona sería la más intensamente iluminada del espécimen y, por tanto, la que reflejase más luz. Igual de importante es que, al enfocar un área, Minsky garantizaba que el resto de la muestra apenas recibiría iluminación, suprimiendo con ello la dispersión. La microscopía óptica al uso iluminaría la muestra entera y se desviaría la luz incidente. La estrategia de enfocar la iluminación sobre una región circunscrita
TEMAS 6
3. LA RECONSTRUCCION TRIDIMENSIONAL de una neurona es la “estrella” de esta secuencia de fotogramas. La estructura que vemos en los sucesivos cuadros está girada unos 10 grados en torno a un eje vertical con respecto a la
limitaba la dispersión total. Pero no impedía que la luz fuese devuelta y dispersada por el tejido iluminado suprayacente e infrayacente a la zona de interés (el tejido que se encuentre dentro de las porciones cónicas del haz iluminador). Gracias a un segundo ajuste Minsky impidió también que gran parte de esta luz espuria alcanzase la superficie detectora; sabía que la luz devuelta era enfocada por el objetivo en un plano situado muy por encima de la muestra. Colocó en ese plano una máscara con una abertura diminuta, que dispuso de modo que la luz de retorno pasara a su través hasta la superficie detectora. El resultado fue impresionante: la señal procedente del punto iluminado pasaba íntegra a través del orificio de la pantalla y alcanzaba la superficie detectora; al propio tiempo, la máscara eliminaba casi toda la luz procedente del tejido exterior al punto. Se formaba así una imagen casi perfecta del punto, esencialmente no perturbada por la dispersión ni difuminada por la luz procedente de zonas no enfocadas. El problema obvio que planteaban las dos primeras fases del método de Minsky era que éstas proporcionaban una imagen nítida, sí, pero sólo de un punto diminuto. Para producir una representación del plano entero, añadió una característica más: la exploración secuencial por líneas, o “barrido”. Corrió la muestra poquito a poco, barriendo el plano de enfo-
LA CIENCIA DE LA LUZ
anterior. La secuencia produce un film de la célula en rotación. Para ver la neurona en tres dimensiones, mire con los ojos bizcos un par de imágenes, enfocando cada ojo en una imagen diferente.
que con el punto luminoso a lo largo de líneas paralelas inmediatas. Al final, cada una de las áreas yacentes a una profundidad dada visitaba el haz iluminador fuertemente concentrado, enviando en secuencia una señal clara a través del orificio filtrante hasta el detector. Minsky maniobraba la muestra con dos diapasones electromagnéticos de horquilla. Uno lo desplazaba a lo largo de cada línea y el otro lo hacía pasar de una línea a la siguiente paralela del plano.
P
ara ver la imagen completa de un plano, hacía que la luz que atravesaba el orificio incidiera en un detector fotomultiplicador. Este detector, a su vez, generaba un flujo de señales eléctricas con las que se confeccionaba una imagen en una pantalla de larga persistencia, tomada de un radar. Subiendo o bajando el objetivo y repitiendo el proceso de barrido, aparecía en la pantalla otro plano de la muestra. La elección de una pantalla grande fue un error táctico. Cuando Minsky les pedía a sus colegas que examinaran el artilugio, éstos solían tener dificultad para interpretar la imagen que estaban viendo . Como Mi nsk y dedujo más tarde, la ima4. NEURONAS ACTIVAS ( objetos coloreados ) resaltadas en gen presentada era excesieste corte de tejido cerebral de un roedor. La figura es una vamente grande. compilación, generada por ordenador, de tres imágenes confo“Les mostré el microscocales realizadas, con 12 segundos de diferencia, por Michael E. pio confocal a muchos visiDailey y Stephen J. Smith. Cada punto temporal se codificó tantes, pero nunca pareciemediante un color, rojo primero, verde luego y por fin azul. La ron muy impresionados con imagen nos revela que las neuronas se excitaron en instantes lo que veían en la pantalla distintos y se mantuvieron activas durante dos de los pulsos (así la célula amarilla) o durante los tres (blanca). de radar”, cuenta. “No caí
39
Así funciona la microscopía confocal
L
rojo en b ) e infrayacentes (en naranja ) del plano de interés. Por último, la luz se traslada de una zona a otra hasta explorar el plano por completo. La nitidez que esta técnica pr oporciona resulta evidente en las fotografías al pie, obtenidas, respectivamente, con un microscopio tradicional (izquierda ) y con uno confocal ( derecha ). Ambas imágenes corresponden a un mismo músculo de ratón, marcado por fluorescencia para resaltar los puntos que entran en contacto con una neurona motora. Para acelerar el barrido, se incorpora un disco provisto de cientos de finos orificios, a través de los cuales se envía y recoge la luz (c ).
os microscopios confocales consiguen elevada resolución en un plano seleccionado merced a tres procesos fundamentales. En el primero, se enfoca luz ( amarilla en a ) mediante una lente objetivo, creando un haz bicónico cuyo vértice o foco ilumina una zona de la muestra, a la profundidad deseada. A continuación, la luz reflejada por esa área (azul ) es enfocada y concentrada en un punto, permitiéndosele que pase en su totalidad a través de una abertura de una máscara situada frente a un dispositivo detector. Las regiones opacas que rodean al orificio de filtrado cierran el paso a los rayos reflejados por la regiones suprayacentes (en
a a
c c
PINHOLE APERTURE DETECTOR
DETECTOR
ORIFICIO FINO
ESPEJO BEAM- DESDOBLADOR SPLITTING DEL MIRROR HAZ
FUENTE LIGHT LUMINOSA SOURCE LENTE LENS ESPEJO DESDOBLADOR BEAM-SPLITTING MIRROR DEL HAZ
b b
FUENTE LIGHT LUMINOSA SOURCE
OBJECTIVE OBJETIVO
SPINNING DISCO GIRATORIO DISK OBJECTIVE OBJETIVO
PLANO PLANE DE OF ENFOQUE FOCUS SPECIMEN MUESTRA
40
SPECIMEN MUESTRA
TEMAS 6
5. LA TEXTURA SUPERFICIAL de una pastilla (“chip”), mostrada en una micrografía óptica normal (izquierda) y en una imagen confocal compuesta (derecha). En esta última se han
en la cuenta hasta mucho después de que no basta sólo con que un instrumento posea elevado poder de resolución; es preciso también que la imagen parezca nítida. Tal vez el cerebro humano precise de cierto grado de compresión foveal para aplicar sus facultades visuales más sobresalientes. En cualquier caso, debí haber utilizado película fotográfica ¡o cuando menos, haber instalado una pantalla más pequeña!” Pero Minsky no hizo ni lo uno ni lo otro.
I
nvestigadores y fabricantes han ideado muchos métodos para combinar las características esenciales de la microscopía confocal: iluminación de una pequeña porción de la muestra, filtrado de la luz de retorno a través de una abertura alineada con la región iluminada y barrido del espécimen. La muestra suele permanecer quieta; en casi todos los dispositivos es el haz luminoso el que viaja. Para acelerar la velocidad de adquisición de la imagen, algunos microscopios desplazan el haz con espejos oscilantes, que obligan a la luz incidente en ellos a fluir raudamente a través de una muestra, que es barrida como barre el rayo electrónico la pantalla de un televisor. Estos espejos permiten reconstruir una imagen en menos de un segundo. Tales instrumentos exigen fuentes luminosas de más brillo que las que Minsky tenía a su disposición; después de todo, han de producir de cada zona una señal que sea detectable casi instantáneamente. Los láseres, muy intensos y fáciles de enfocar en zonas pequeñísimas, se utilizan para este propósito. Para ahorrar tiempo se emplean también múltiples puntos de luz que
LA CIENCIA DE LA LUZ
superpuesto los barridos a tres profundidades. El nivel más profundo es verde; el más alto, rojo. Se obtiene así información que no es posible captar en la microfotografía ordinaria.
exploren simultáneamente diferentes regiones de la muestra. Algunos de estos dispositivos incorporan discos giratorios provistos de muchas aberturas, a través de las cuales pasa la luz de iluminación y la de retorno. Otros equipos se valen de sistemas de rendija, que abrevian el tiempo de barrido iluminando líneas en vez de puntos. Las técnicas de barrido rápido han permitido la observación de planos completos de un espécimen en tiempo real, muchas veces, directamente a través de un ocular. Casi todos los microscopios confocales modernos sacan partido de otro avance revolucionario: el procesamiento digital de imágenes. Conforme un microscopio confocal barre planos sucesivos de la muestra, produce una pila de imágenes, cada una de las cuales constituye una sección óptica; tales secciones vienen a ser imágenes de finos cortes. Los programas de procesamiento de imágenes no sólo registran el brillo de cada zona de cada sección, sino también la ubicación de esa área en la muestra, o sea, su localización en un plano individual (las coordenadas x e y) así como la profundidad de éste (la coordenada z). Los lugares definidos mediante la terna de coordenadas se llaman “vóxeles”, equi valentes en tres dimensiones de los elementos de imagen, o “píxeles” de una imagen bidimensional. Los programas de procesamiento de imágenes compilan vóxeles y preparan con ellos reconstrucciones tridimensionales de objetos microscópicos. También manipulan vóxeles, lo que permite hacer girar alrededor de un eje las imágenes reconstruidas y observarlas desde todos los ángulos. Gracias a esta técnica nos es dado
efectuar rápidamente observaciones que de otra forma hubieran resultado sumamente caras y laboriosas. Por ejemplo, en investigación cerebral, los sistemas de microscopios confocales conectados a ordenadores han resultado valiosísimos para descubrir la estructura del sistema nervioso, y en ellos se apoya la observación de tejidos cerebrales vivos.
L
a microscopía confocal se ha con ve rt ido en un a ag lu ti na ci ón ultrarrefinada de láseres, instrumentos ópticos, sistemas electromecánicos de barrido y de procesamiento informático de imágenes. Ha dado a la microscopía la capacidad de ver el interior de los objetos y de crear, casi a voluntad, imágenes estereoscópicas. El sueño de Minsky —la cartografía microscópica de los circuitos cerebrales— parece estar cobrando realidad.
BIBLIOGRAFIA COMPLEMENTARIA AN EVALUATION
OF
CONFOCAL VERSUS
CONVENTIONAL IMAGING STRUCTURES
BY
OF BIOLOGICAL
FLUORESCENCE LIGHT
MICROSCOPY. J.
G. White, W. B. Amos y M. Fordham, en Journal of Cell Biology, volumen 105, n. o 1, páginas 41-48; julio de 1987. MEMOIR
ON
INVENTING
THE
CONFOCAL
SCANNING MICROSCOPE. M. Minsky en Scanning , vol. 10, n. o 4, páginas 128-138;
julio/agosto de 1988. HIGH-RESOLUTION IMAGING STRUCTURE
WITH A
OF
SYNAPTIC
SIMPLE CONFOCAL
MICROSCOPE. J. W. Lichtman, W. J. Sun-
derland y R. S. Wilkinson en New Biologist , vol. 1, n.o 1, páginas 75-82; octubre de 1989. CONFOCAL M ICROSCOPY. Recopilación de Tony Wilson. Academic Press, 1990.
41
Construcción de un microscopio simple C. L. Stong
L
a falta de visión de Adán, cuando dio nombre a las criaturas de la Tierra (Génesis, 2:19), puso las cosas realmente difíciles para sus descendientes científicos. Si hubiera hecho una lista de los animales según los nombraba, ¡cuán fácil sería ahora, por ejemplo, clasificar una preparación microscópica! Tal como están las cosas, el redescubrimiento y nueva denominación de los organismos del mundo ha supuesto una lenta y penosa labor. Aristóteles conocía unos 520 animales y Teofrasto podía identificar aproximadamente otras tantas plantas. Gracias principalmente a Linneo y a la invención del microscopio, nuestro catálogo actual ha aumentado hasta más de un millón de especies animales y como medio millón de especies de plantas. A pesar de lo cual el censo de la vida sobre la Tierra está lejos de ser completo; nadie sabe cuántos miles de especies quedan por descubrir y clasificar. La búsqueda para completar y ordenar la colección de organismos constituye uno de los desafíos más agradecidos de la ciencia. Y para los aficionados a ésta, se trata de un deporte apasionante. Se puede participar con sólo
42
adquirir un microscopio, ya que la zona más extensa por explorar está ocupada por los microorganismos. Pero la microscopía presenta para el aficionado otros atractivos además del hallazgo de nuevos organismos. Puede construirse en casa un microscopio útil, en menos de una hora, sin tener que desplazarse mucho para encontrar material de estudio. La saliva, por ejemplo, proporciona suficiente variedad de muestras a estudiar durante meses. Parece como si cuantos más organismos se hallasen e identificasen, más quedasen por descubrir. El problema de la miscroscopía no es tanto encontrar materia de estudio cuanto desarrollar la voluntad de querer dedicarse a una cosa concreta. Constantemente nos vemos tentados a explorar los nuevos campos que nos abre el instrumento. Supongamos que alguien derrama la sal y que sus cristales le llaman la atención. Uno empieza a pensar en la cristalografía. Basta con ir hasta la cocina para encontrar material más que suficiente para mantener su microscopio ocupado durante horas, examinando la morfología cúbica de la sal o la estructura brillante del azúcar. Una partícula de polvo, extraída de la punta de los zapatos, proporciona una amplia colección de minerales cristalinos: cuarzo, mica, sílice, calcita. Fragméntese un cubito de hielo en un vaso, póngase un trocito sobre el portaobjetos y obsérvese rápidamente. Los cristales aciculares se convierten casi instantáneamente en una esfera reluciente. Compruébese la pureza de la gota de agua resultante. ¿Contiene partículas de materia en suspensión o quizás organismos en estado latente? Examínense unos granos de pimienta, ¿ha sido adulterada, como a veces ocurre, mediante la adición de almidón? Si así es, se identificarán en seguida los granos de forma ovalada. ¿Se está interesado en las grasas? Contrastar el aspecto de una mancha de mantequilla con un poco de grasa de carne cocida. El interés inicial por los cristales puede ampliarse en cuestión de minutos. Los historiadores no están seguros de quién inventó el microscopio. Como les sucede a muchos productos técnicos, el instrumento parece haber evolucionado gracias a la acumulación de diversos conocimientos, muy entrelazados y difíciles de aislar. La lupa más antigua de las descubiertas hasta ahora se encontró en las ruinas de Nínive por el arqueólogo británico Sir Austen Layard. Era una lente planoconvexa de cristal de roca toscamente pulida, que aumentaba bastante bien. Plinio el Viejo, en el año 100 d.C., citó la “propiedad de quemar que tenían las lentes hechas de cristal”. Pero la ciencia de la óptica, según se entiende modernamente, no se inició hasta el siglo XIII, aproximadamente. 1. Construcción de una lente en forma de perla para un Roger Bacon parece haber sido el primero en sugemicroscopio de Leeuwenhoek rir sus principios. Sus escritos serían el fundamento
TEMAS 6
del microscopio y del telescopio; también es probable que se le deba la invención de las gafas. Bacon enseñó la teoría de las lentes a un amigo, Heinrich Goethals, el cual visitó Florencia en 1285. La información de Goethals pasó a un tal Salvina D’Armato a través de un fraile dominico, Spina. La tumba de D’Armato en la iglesia de Sta. Maria Maggiore lleva la siguiente inscripción: “Aquí yace Salvina D’Armato de los Amati de Florencia, inventor de las gafas. El Señor perdone sus pecados. A.D. 1317.” El microscopio simple —de una sola lente— debió de usarse tan pronto como se inventaran las gafas, e incluso pudo precederlas. No se sabe quién fue el primero en utilizarlo. Sin embargo, el primero que se sirvió de él para algunos descubrimientos importantes fue el holandés Antoni van Leeuwenhoek, nacido en 1632. Tras examinar algunos materiales corrientes con un instrumento simple de lente única, que él mismo había construido, escribió emocionado a la Royal Society de Londres acerca de todos los increíbles obje2. Microscopio de Leeuwenhoek adaptado tos que revelaba. a un portaobjetos moderno Descubrió “organismos culebreantes” y “gusanos” en el agua tomada del canal de su Delft natal y en raspados de sus dientes. Tal vez su contribución más impor- dadosamente. (El aumento de una lente de este tipo es tante fuese la observación de los glóbulos rojos de la san- aproximadamente igual al resultado de dividir 300 por su gre. Leeuwenhoek no sólo identificó los eritrocitos sino diámetro en milímetros.) La calidad de las lentes así fabrique también realizó dibujos precisos de su forma envián- cadas está lejos de ser uniforme; por consiguiente, debedolos, junto con las mediciones de su tamaño, a la Royal rán hacerse varias y seleccionar la mejor. Society. Puede dejarse un trozo del filamento de cristal unido a Cualquiera que tenga algún tiempo libre puede cons- la perla, utilizándolo luego para montar la lente en su truirse un microscopio como el de Leeuwenhoek. Su eje- soporte. Leeuwenhoek montaba sus lentes entre dos placas cución es fácil y confiere al principiante una valiosa expe- de latón, en las que había practicado un orificio. Pero a mí me ha resultado más cómodo no perforar más que una riencia en la preparación y manejo de los especímenes. Los materiales necesarios son una varilla de cristal, corta placa y pegar a ella la pieza de cristal por su vástago, con y delgada; una lámina metálica, por ejemplo de hierro o la perla ocluyendo el agujero. El agujero tiene que ser un latón, de unos 2,5 × 7,5 cm y de 1,5 mm de espesor; dos poco menor que la perla, para que no se escape la luz por tornillos pequeños con las correspondientes tuercas; un los bordes de la lente, cosa que disminuiría el contraste de tubo de pegamento de secado rápido y un poco de la imagen. La lente se fija a la placa con el pegamento. celofán. La distancia focal de esta lente minúscula es muy corta, En cuanto a la varilla de cristal, bastará una de vidrio lo que significa que el portaobjetos sobre el que se monte incoloro y transparente, de las utilizadas para agitar líqui- el espécimen tiene que hallarse muy cerca de ella, a veces dos en los laboratorios. Se pasa el centro de la varilla por casi tocándola. Para enfocar su microscopio y situar la la llama de un mechero Bunsen o de un fogón de la cocina, muestra en la posición correcta, Leeuwenhoek utilizaba introduciéndola poco a poco en la llama para evitar las un conjunto de tornillos que movían una punta de metal, fuerzas creadas al calentarla bruscamente, que causarían que servía de portaobjetos. Yo he sustituido la punta metálica por un trozo de celofán, pegado su rotura. El centro se pone rápidamente al rojo vivo y se torna maleaal mecanismo de ajuste. Las muesble. tras se adhieren al celofán. Retirar rápidamente la varilla del Por desgracia, el microscopio de fuego y estirarla, lo que producirá Leeuwenhoek carece de la comoun filamento del grosor de un cabedidad de observación de los instrullo y de unos 60 cm de longitud. mentos modernos. Para ver la imaUna vez enfriado, se rompe un gen aumentada hay que acercar fragmento, de unos quince centímucho el ojo a la lente. Roger Hayward diseñó un modelo mejor, metros, de la parte media del filamento. en el que se emplean un portaob jetos clásico, un espejo para goberUn extremo de este hilo vuelve a ponerse despacio en contacto con nar la luz y un control del enfoque más práctico. Estas modificaciones la llama. Se volverá incandescente casi en el acto, formándose una hacen más cómodo el manejo del pequeña perla. Se sigue introduinstrumento, pero no evitan que ciendo el filamento en la llama haya de acercarse el ojo a la hasta que el diámetro de la perla lente. sea como de 1,5 mm. Si se tiene en cuenta su primitivo La lente del microscopio ya está diseño, la cantidad de detalles que terminada. El aumento de la muestra el microscopio de Leeupequeña perla será de unos 160 3. Reproducción de uno de los microscopios wenhoek es asombrosa. Se supone fabricados por Van Leeuwenhoek que Leeuwenhoek consiguió trabadiámetros, si se ha preparado cui-
LA CIENCIA DE LA LUZ
43
jar con perlas más pequeñas, que daban mayores aumentos, sita ninguna máquina especial para cortar, pues una simple pero pronto aprendió a valorar más la resolución que la hoja de afeitar sirve para muchos tipos de muestras. ampliación, utilizando el aumento más bajo posible. Una Cuando un organismo es completamente transparente, imagen grande, pero borrosa, no ofrece ninguna ventaja a veces es necesario colorearlo o colocarlo dentro de una sobre otra pequeña y también borrosa. substancia refractora de la luz. El proceso de tinción es un Leeuwenhoek dictó, por lo menos, otra lección funda- arte en sí mismo, ya que siempre se produce una alteración mental, a saber, la de la importancia de preparar cuida- química del organismo. Hay colorantes que afectan a una dosamente los objetos para su examen microscópico. parte determinada de la célula, pero no a otras. Utilizando Como escribiera el matemático Robert Smith en el siglo diferentes productos químicos se puede teñir el núcleo de XVIII en su obra Compleat System of Optiks, “tampoco debeun color y el citoplasma que lo rodea de otro. mos olvidar una habilidad en la que él [Leeuwenhoek] Hay muchas bacterias que sólo pueden distinguirse unas sobresalió muy particularmente, la de preparar sus muestras de otras por la forma en que captan un determinado de la mejor manera para ser observadas con el microscopio; colorante; ésta es la base, por ejemplo, de su clasificación y estoy seguro de que cualquiera que examine algunas de en “grampositivas” y “gramnegativas”. estas mismas muestras a través de estas lentes, quedará La preparación de muestras para el microscopio ha orisatisfecho. Por lo que a mí respecta, he encontrado mucha ginado su propia literatura especializada, con volúmenes dificultad en este punto, observando diferencias muy apre- enteros dedicados a temas tales como las técnicas de deseciables entre los detalles de la misma muestra preparada cación, la limpieza, el blanqueado para eliminar los pigpor mí y la preparada por el señor Leeuwenhoek, observa- mentos que perturban la visión, los métodos de flotación das con lentes de calidad muy parecida”. de muestras en medios líquidos, la selección de cubreobDesde la época de Smith, generaciones enteras de fabri- jetos con propiedades ópticas que concuerden con las del cantes de portaobjetos han desarrollado técnicas para la instrumento o el pulido y ataque de las superficies metápreparación de muestras, tan fascinantes casi como el licas para revelar su estructura cristalina. Procesos todos manejo del propio microscopio. Algunas muestras grandes, ellos que resultan casi tan numerosos y variados como los como la raíz seca de un cabello o una pulga muerta proce- objetos que desfilan bajo la lente del instrumento. dente de un perro, no requieren otra preparación que la de Después de haber construido y utilizado un aparato de colocarlas sobre un portaobjetos con una pizca de bálsamo Leeuwenhoek, es muy probable que se quiera progresar. del Canadá, o algún otro englobante para preparaciones, y Un microscopio compuesto clásico ahorrará mucho cubrirlas con un delgado cristal. Los objetos diminutos, como esfuerzo visual. Debe ser un instrumento de buena calidad, los glóbulos rojos de la sangre, pueden verse bastante bien capaz de mostrar detalles pequeños. Sus aumentos serán si se extienden con cuidado sobre un portaobjetos y se pro- acordes con la capacidad del principiante. Los objetivos tegen con un cubreobjetos. Pero los que son gruesos y opa- de muchos aumentos suelen resultar decepcionantes, ya cos, los que son transparentes y los que contienen agua en que su buena utilización requiere destreza. su estructura requieren un tratamiento especial. Cuando se quiere estudiar el interior de una muestra, hay que cortar su parte superior o, si es transparente, hay BIBLIOGRAFIA COMPLEMENTARIA que iluminarla por debajo. Algunas muestras requieren THE LEEUWENHOEK LEGACY. B. J. Ford. Biopress and Farrand secciones muy finas. Hay aparatos para cortar, llamados Press. 1991. microtomos, que pueden cortar tejidos congelados o incluiVAN LEEUWENHOEK , L’EXERCICE DU REGARD. Ph. Boutibonnes. dos en cera en secciones casi tan finas como la longitud de Belin. París. las ondas luminosas. Además de resolver el problema de MANUAL DE MICROSCOPÍA. M. Locquin y M. Langeron. Labor. la iluminación, los cortes finos aclaran la imagen, ya que Barcelona, 1985. el microscopio aumenta en todas direcciones. No se nece-
INVESTIGACION Y CIENCIA DIRECTOR GENERAL Francisco Gracia Guillén EDICIONES José María Valderas, director ADMINISTRACIÓN Pilar Bronchal, directora PRODUCCIÓN M. a Cruz Iglesias Capón
Bernat Peso Infante Carmen Lebrón Pérez SECRETARÍA Purificación Mayoral Martínez EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1. a 08021 Barcelona (España) Teléfono (93) 414 33 44 - Telefax (93) 414 54 13 SCIENTIFIC AMERICAN EDITOR IN CHIEF John Rennie BOARD OF EDITORS Michelle Press, Managing Editor ;
Philip M. Yam, News Edito r ; Ricki L. Rusting, Timothy M. Beardsley, Associate Editors ; John Horgan, Senior Writer ; Corey S. Powell, Electronic Features Editor ; W. Wayt Gibbs; Kristin Leutwyler; Madhusre Mukerjee; Sasha Nemecek; David A. Schneider; Gary Stix; Paul Wallich; Glenn Zorpette; Marguerite Holloway, Contributing Editors. PRODUCTION Richard Sasso CHAIRMAN AND CHIEF EXECUTIVE OFFICER John J. Hanley PUBLISHER Joachim P. Rosler
44
DISTRIBUCION para España: MIDESA
Carretera de Irún, km. 13,350 (Variante de Fuencarral) 28049 Madrid Tel. (91) 662 10 00
PUBLICIDAD
GM Publicidad Francisca Martínez Soriano Menorca, 8, semisótano, centro, izquierda. 28009 Madrid Tel. (91) 409 70 45 – Fax (91) 409 70 46
Cataluña y Baleares: Miguel Munill para los restantes países: Muntaner, 339 pral. 1.a Prensa Científica, S. A. 08021 Barcelona Muntaner, 339 pral. 1.a – 08021 Barcelona Tel. (93) 321 21 14 Teléfono (93) 414 33 44 Fax (93) 414 54 13 Copyright © 1996 Prensa Científica S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor del libro. ISSN: 1135-5662 Dep. Legal: B-32.350-1995 Filmación y fotocromos reproducidos por Scan V2, S.A., Avda. Carrilet, 237 – 08907 l'Hospitalet (Barcelona) Imprime ROTOCAYFO, S.A. Ctra. de Caldes, km 3-Santa Perpètua de Mogoda (Barcelona) Printed in Spain - Impreso en España
TEMAS 6
Coherencia óptica María Luisa Calvo Padilla
Esta importante propiedad física está asociada a las fuentes de radiación luminosa y a los fenómenos producidos por su interacción y propagación. ¿Sobre qué fundamento descansa?
L
a luz desempeña un papel principal en nuestra existencia. Es un fiel mensajero que nos re vela múltiples aspectos de la vida en el planeta y su entorno. Cuanto mejor conozcamos su naturaleza, mejor comprenderemos el universo del que formamos parte. Nos proponemos analizar aquí uno de los aspectos más sutiles de la luz: la información implícita que lleva sobre las fuentes que la generan. Nos interesará también su capacidad de interaccionar consigo misma al propagarse a partir de la fuente de emisión, dando lugar a los fenómenos de interferencia. La luz nos informa acerca de la naturaleza de los obstáculos con los que interacciona cuando encuentra a su paso elementos materiales de muy diversa índole, tamaño y geometría, originando lo que se conoce como difracción por objetos rígidos. Los fenómenos de interferencia y de difracción constituyen el fundamento de la formación de imágenes en instrumentos ópticos: telescopios, microscopios, cámaras fotográficas, etc. Apli caci one s impo rtantes de est os fenómenos son también la espectroscopía como método de análisis espectral de fuentes de luz, tanto en su vertiente de espectroscopía interferencial como de espectroscopía por transformación de Fourier, que permite obtener el espectro de potencia de una fuente. Se diría que la luz encierra en su estructura una suerte de código del que pueden extraerse importantes datos acerca de su propia naturaleza y la estructura de la materia. Los fenómenos de interferencia y difracción fundamentan los principios básicos de la holografía y sus ramas de aplicación más específicas, como la metrología y la interferometría holográfica. Estas técnicas se están ampliando a métodos interferométricos que hacen uso no de luz visible, sino de partículas elementales, entre los que cabe destacar la interferome-
46
tría de neutrones, que origina nuevos encuentre en ese campo se verá somecampos de la física interconectados tida a la acción de una fuerza. Estamos entre la óptica clásica y la física de hablando del concepto de campo clápartículas: la óptica de neutrones. sico. En los fenómenos que describaSi bien los primeros interferóme- mos sobre interacción luz-luz y luztros de neutrones construidos en 1962 materia no tendremos en cuenta los producían una baja calidad en la visi- aspectos relativistas, según los cuales bilidad de las franjas de interferen- la interacción no puede darse en cualcias, posteriores técnicas basadas en quier instante de tiempo. Explorala reflexión de Bragg por cristales de remos la naturaleza de los campos silicio mejoraron bastante los resulta- electromagnéticos clásicos para adendos. Uno de estos experimentos, de- trarnos luego en algunas de sus caracsarrollado en 1975 por el grupo de terísticas a la hora de analizar el oriSamuel A. Werner, se fundamentaba gen, propagación e interacción de los en la puesta a punto de un dispositi vo campos de luz. topológicamente análogo al interferó August Fresnel, físico francés, puso metro de Mach-Zender, donde se opera de manifiesto en 1814 la naturaleza con un separador de haz. A grandes ondulatoria y transversal de la luz rasgos, consiste en hacer incidir un mediante experimentos que produhaz de neutrones sobre un cristal de cían interferencias, difracción y polasilicio, que actúa de separador, de rización. Para interpretar sus resulmanera que la red cristalina debe tados, Fresnel supuso que estas ondas reflejar este haz bajo un ángulo par- se mantenían en un medio impercepticular cuyo valor depende de la lon- tible, el éter. Fresnel imaginó la luz a gitud de onda del haz de neutrones y la manera de un vector que represende la distancia entre planos de la red tara un desplazamiento (propagación) cristalina. A este ángulo se le conoce en este medio ideal. En el siglo XIX se como ángulo de Bragg. Trabajando en suponía que el éter constituía un estas condiciones se refuerza la ener- medio elástico, o fluido, donde se genegía reflejada y mejoran notablemente raban y propagaban las vibraciones. las mediciones. Este y otros experiontra la teoría del medio elástico mentos han puesto de manifiesto que operaba la naturaleza transverlas leyes que rigen la interacción de haces de neutrones son las mismas sal de la luz, es decir, las vibraciones que genera son siempre perpendiculaque las de los campos macroscópicos. Mas, para entender bien estos méto- res a la dirección que marca el movidos y experimentos obtenidos de la miento de las ondas. No existen ondas interacción de la luz con la materia, de luz longitudinales. Lo comprobó ya de la interacción de la luz consigo otro físico francés, Etienne-Louis misma o con haces de partículas, Malus, en 1808. Malus observó que, si hemos de conocer de antemano la un haz de luz blanca incide con cierto naturaleza de la radiación y las con- ángulo sobre la superficie pulida de secuencias que de ella se derivan. un vidrio, después de reflejada se conPara ello hay que introducirse en el vierte en luz plano polarizada, es decir, toda la luz vibra perpendicular concepto de campo. En mecánica clásica, todos los fenó- a la dirección del haz, como si estumenos que llevan asociada interacción viera contenida en un plano de polade partículas se describen mediante rización perpendicular a la dirección campos de fuerza. Cuando una partí- de avance. Pero hasta 1864 J. Clerk Maxwell cula actúa sobre una segunda, crea un campo; cualquier otra partícula que se no dio la primera explicación satisfac-
C
TEMAS 6
toria al proponer una teoría que pre- que haya polos magnéticos libres o sentaba un doble requerimiento: las monopolos. vibraciones de la luz son estrictamente Las cuatro ecuaciones maxwelliatransversales y existe una conexión nas no dan directamente la magnitud entre luz y electromagnetismo. Max- del campo electromagnético, sino la well expresó los resultados de su tra- proporción en que varía el campo elécbajo teórico en cuatro ecuaciones, que trico en las tres direcciones del espallevan hoy su nombre. Su desarrollo cio. En general, admitiremos que el estaba basado en los resultados de las campo electromagnético es la superinvestigaciones llevadas a cabo por posición de un campo eléctrico y un Hans Christian Oersted, Michael campo magnético. Estas ecuaciones Faraday y Joseph Henry en experi- fundamentales conducen a dos que mentos que demostraron la inducción describen la propagación, y en las cuaelectromagnética, que vincula la elec- les la velocidad de las ondas propagatricidad con el magnetismo. das en el éter se calcula sucesivamente La primera ecuación de Maxwell en términos de magnitudes eléctricas establece que un campo magnético (unidades electrostáticas) y unidades puede ser inducido por la existencia electromagnéticas (basadas en el de cargas libres (electrones) en movi- magnetismo). La determinación expemiento. La segunda ecuación, equiva- rimental de esta velocidad conduce al lente y recíproca de la anterior, des- valor numérico c, que representa la cribe la inducción de una corriente velocidad de la luz en un medio con eléctrica en presencia de un campo propiedades máximas de transmisión magnético variable, fenómeno obser- y mínimas de absorción, el vacío. Este vado experimentalmente por Faraday resultado supone la confirmación de (ley de inducción). La tercera ecuación las ideas de Maxwell sobre la naturaexpresa la ausencia de cargas eléctri- leza electromagnética de la luz. A parcas libres en el vacío; finalmente, la tir de estos experimentos las dos posicuarta establece la imposibilidad de bles naturalezas del éter se fundieron
1. MOTEADO LASER. Cuando observamos un fenómeno de difracción producido por la interacción de un haz láser de helio-neón con una diapositiva, provocamos un moteado láser. Este fenómeno, el granulado que cubre todo el fondo de la figura, se debe a la interacción múltiple del haz altamente
LA CIENCIA DE LA LUZ
en un continuo; la electricidad, el magnetismo y la óptica se fundieron, a su vez, en una sola ciencia.
L
as ecuaciones de Maxwell caracterizan la propagación de un campo óptico en el espacio libre, sin restricciones por lo que se refiere a las dimensiones idealmente infinitas del medio en el que se propaga. Pero si este medio tiene unas dimensiones y una geometría determinadas (por ejemplo, esférica, cilíndrica, etc.), hemos de introducir la condición de contorno. Si descomponemos idealmente el campo en dos direcciones, una perpendicular y otra tangencial a la superficie que marca la discontinuidad, la conservación del flujo de energía a través de la superficie requiere la conservación de ambas componentes. De esta manera añadimos al campo electromagnético una condición adicional, la de comportarse como un campo conservativo. Teóricamente, se tendría aquí una descripción completa de la propagación de un campo clásico. Queda, sin embargo, por considerar un factor importante. Los campos
coherente con las microdeformaciones de la superficie de la diapositiva. Ha ocurrido, en efecto, un fenómeno de dispersión múltiple aleatoria, esto es, un proceso estadístico originado por las condiciones de coherencia espacio-temporal de la fuente así como de la estructura del objeto.
47
2. EVOLUCION en la calidad de las franjas de interferencia, en esta secuencia de fotografías obtenidas en un int erferómetro de Michelson, cuando se provocan artificialmente vibra-
ciones mecánicas. El movimiento de toda la estructura, esto es, la suma de armónicos a distintas frecuencias, destruye las condiciones de coherencia. Al cesar las oscilaciones espurias,
ópticos llevan asociadas frecuencias trabajo el uso de la teoría escalar en tación compleja es una función expode oscilación muy altas (10 14 hertz, o óptica. Demostraron que la justifica- nencial. ciclos por segundo); significa ello que ción de una teoría escalar para la proLa representación tanto vectorial los detectores clásicos no pueden pagación del campo electromagnético como escalar de una onda está sujeta medir las magnitudes asociadas a los guarda relación directa con el con- a dos parámetros fundamentales: la valores reales del campo eléctrico y el cepto de medida. Así, la cantidad amplitud y la fase. Podemos asociar e l campo magnético. Para establecer observable en un fenómeno óptico es concepto de amplitud a una función una medida válida hemos de tomar un la irradiancia (densidad de energía que da cuenta de la energía que transpromedio temporal del vector de por unidad de superficie), una magni- porta la onda. Matemáticamente, el Poynting asociado al flujo de energía. tud escalar. módulo al cuadrado de la amplitud (Este vector, que toma su nombre del compleja corresponde a la intensidad, físico Henry Poynting, define la direce puede obtener una descripción que es la magnitud escalar que regisción de propagación de la energía percompleta de fenómenos de difrac- tran los detectores de radiación. Estos pendicular al plano formado por el ción, interferencia y propagación con valores de la energía se miden en uni vector eléctrico y el vector magnético.) una teoría escalar en términos de dades radiométricas derivadas de uniEste promedio debe tomarse en inter- magnitudes observables. Para justifi- dades eléctricas, expresadas en watts valos de tiempo grandes, comparados car esta descripción, se supone que el por metro cuadrado. con los períodos de oscilación del campo vectorial, E(t), sólo se identiSi volvemos a la representación campo óptico. Y se hace necesario fica con una única componente escalar compleja de la onda escalar y tomaestablecer una relación entre el pro- V (t). Pero ello no es suficiente. En la mos el módulo cuadrado, observamos medio temporal del vector de Poynting teoría escalar de la coherencia se que se ha producido una pérdida de y la distribución de la intensidad aso- define una relación directa entre las información acerca de los parámetros ciada a un campo conservativo. cantidades cuadráticas de las varia- que la caracterizan. Aunque se obtiene ¿Cómo justificar físicamente la bles que representan el campo. Esta la intensidad, se ha perdido la necesidad de operar con campos esca- relación se establece como una corre- información relativa a la fase, es decir, lares? Al considerar un campo escalar lación cruzada entre dos componentes a la naturaleza oscilante de la onda. se obvia un importante fenómeno aso- vectoriales del campo electromagné- Por tanto, los detectores de radiación ciado a la naturaleza vectorial de la tico. Al resultado de esta operación se habituales (sistema visual de verteluz: la polarización. En un tratamiento le conoce como matriz de coherencia brados e invertebrados, fotomultipliescalar se trabaja con una sola com- mutua. Sus cuatro elementos son cadores, placas fotográficas y toda la ponente, ya sea del campo eléctrico o magnitudes escalares independien- gama de detectores que basan su fundel magnético. Por ejemplo, si de las tes que pueden ser medidas física- cionamiento en el efecto fotoeléctrico) tres componentes del vector eléctrico E mente, ya que son proporcionales a la son detectores cuadráticos: no dan para las tres direcciones del espacio irradiancia del campo electromagné- cuenta de las oscilaciones del campo (E x, E y y E z) tomamos E x, quiere decir tico. De esta forma, el uso de la teoría emitido por una fuente, sino sólo del que la energía del campo fluye en un escalar se puede justificar diseñando porcentaje de energía transportado. plano perpendicular a la dirección x. experimentos en los cuales los fenóPara cuantificar la fase no basta con Fuera de ese plano no habrá radiación menos de interacción de la radiación utilizar un fenómeno de propagación. o flujo de energía. La aplicación de una no induzcan mezclas de componentes Hay que realizar una operación más, teoría escalar simplifica considerable- del campo vectorial E(t) y en los cuales la suma de dos ondas al menos; es lo mente la complejidad de trabajar con no se hace necesario describir la pola- que conocemos como fenómenos de ve ct ore s de tr es co mp on ent es . rización del campo. La representación superposición de ondas. Imaginemos Conduce, además, a interesantes más sencilla de V (t) es una función una piscina olímpica donde se disporesultados, válidos para explicar fenó- sinusoidal o cosinusoidal que denota nen a saltar dos nadadores. El agua de menos de interacción de radiación. En su condición de campo oscilante como la piscina forma una superficie sin 1970, Arvind Marathay y George onda periódica en el tiempo y en el ninguna perturbación. En un primer Parrent analizaron en un interesante espacio. Su correspondiente represen- cuadro, los nadadores saltan y llegan
S
48
TEMAS 6
nada frecuencia. Si el conjunto de áto- observador no podrá predecir en el mos emite en fase y a la misma frecuen- tiempo el comportamiento de este tren cia, es decir, síncronamente, de ondas. Se entiende, pues, que el obtendremos una fuente macroscópica observable tenga la particularidad de perfectamente monocromática y con un poder ser predeterminado en el grado de coherencia máximo (máximo tiempo; es decir, podemos predecir su reforzamiento de la energía). evolución temporal. En la naturaleza no existen fuentes de luz capaces de emitir radiación con l comportamiento matemático de la fase dista mucho de ser trivial. una sincronización perfecta. En las estrellas, por ejemplo, la asincronía de Se requieren unas herramientas matesu emisión de radiación es tal, que máticas que presenten determinadas deberíamos considerarlas fuentes que propiedades, puesto que se trata de emiten radiación incoherentemente. representar una magnitud compleja. La radiación solar se caracteriza por Según estableció E. C. George Sudarshan, podemos representar la fase su alto grado de incoherencia. De entre las fuentes disponibles, como una función de distribución de sólo hay una que se aproxima mucho probabilidades, por una distribución al comportamiento síncrono, y es la gaussiana por ejemplo. La representafuente láser. Diremos de ella que ción de una magnitud en el plano composee un grado de coherencia máximo. plejo nos lleva a hablar del fasor, que Aunque su monocromaticidad tampoco describe, en cada instante, el punto del es perfecta, sus átomos emiten en una espacio donde se encuentra la perturbanda de frecuencias espectrales muy bación. Por ejemplo, el fasor de una estrecha; la anchura media de su onda exponencial avanza como un espectro es casi inapreciable, por lo “sacacorchos”, o podría materializarse que su monocromaticidad también es como un “muelle”, capaz de deformarse máxima. Vemos, pues, que un método en el tiempo dependiendo de su grado de cuantificar la fase se basa en la de coherencia. medida del grado de coherencia de las La magnitud que define el grado de fuentes que emiten la radiación. En coherencia de una fuente emisora de términos más rigurosos, la física radiación es un escalar análogo al matemática enuncia que la fase per- campo vectorial en términos de obsertenece al espacio de los números y es, vables. La correlación temporal de dos por tanto, un observable, aunque no campos vectoriales medida en un en valor absoluto sino relativo, como diferencia de fases. Para tener una idea intuitiva de observable se hace necesario recurrir a una escala de tiempos. Imaginemos un fenómeno de superposición de varios trenes de onda que emiten a distintas frecuencias. El tren de ondas resultante aparecería como periódico para un obser vador cuya escala de tiempos fuera mayor que un período de la oscilación. Pero si la observación se hace en una escala de tiempos inferior al período, el
E
reaparecen las franjas. En general, las mesas de trabajo para interferometría láser son antivibratorias.
al agua en el mismo instante. Comienzan a nadar a braza formando cada uno surcos o perturbaciones sobre la superficie del agua, como ondas esféricas. Los deportistas crean perturbaciones síncronas, y ambas están en fase. Si observamos la superficie del agua, las dos ondas al superponerse forman depresiones (superposición destructiva) y puntos máximos de avance de la perturbación (superposición constructiva): estamos ante un fenómeno interferencial. La onda resultante se distribuye en mínimos (puntos donde la energía se anula) y máximos (puntos donde la energía se refuerza).
S
upongamos un segundo cuadro. De nuevo sobre la superficie perfecta del agua se van a lanzar los nadadores. Pero ahora no lo hacen en el mismo instante; uno de ellos salta décimas de segundo antes que el otro. Las perturbaciones que forman ambos nadadores son asíncronas, es decir, no hay coincidencia en las fases, y ya no observaremos el fenómeno de máximos y mínimos, sino unas figuras distorsionadas. Al no haber coincidencia temporal en las fases, no se producen las interferencias. Sustituyamos a los deportistas por átomos de una fuente, de modo que cada uno emita energía en la forma de un fotón o cuanto de luz a una determi-
3. COMPARACION de tipos de franjas de interferencias producidas por un interferómetro de Michelson (arriba) con luz blanca, a la izquierda, y con una lámpara de vapor de mercurio, a la derecha. La visibilidad es máxima ya que sólo está asociada a una longitud de onda (línea lambda, de 550 nanómetros) del espectro de la fuente de mercurio. En las franjas inferiores se observa un mayor detalle en la estructura fina del espectro y la anchura de banda. Ello es debido a que las interferencias se han producido en un interferómetro de Fabry-Perot. En general, la visibilidad de las franjas es proporcional al grado de coherencia de la fuente.
LA CIENCIA DE LA LUZ
49
50
TEMAS 6
intervalo finito de tiempo se repre- función de coherencia mutua se vio el dio. Si los campos que genera son impusenta matricialmente como la matriz interés de analizar la situación en que ros, en cada franja se observará una de coherencia. La llamada función de ésta puede representarse como pro- distribución de colores. Esta distribucoherencia mutua es la traza (o diago- ducto de dos funciones independien- ción cromática se repetirá periódicanal) de esta matriz. Así, en experimen- tes. En 1961, Leonard Mandel esta- mente y creará una figura de interfetos que conllevan correlación de cam- bleció las condiciones de validez de rencia donde aparece un mapa pos ópticos, el observable está dicha representación. Y así se com- cromático repetitivo, que no debe conrelacionado con esta función, la cual a probó que, a partir de dos haces de luz fundirse con las franjas coloreadas que su vez está directamente relacionada “espectralmente puros” (con función se observan al descomponerse la luz con la medida de la irradiancia. La de coherencia reducible), se obtenía blanca por la dispersión. Lo que define función de coherencia mutua es, pues, otro haz “espectralmente impuro” (con a un campo espectralmente impuro es la magnitud escalar que conecta con función de coherencia no reducible). la periodicidad con que aparecen las el campo vectorial. No deja de se r, sin En efecto, tomemos dos haces de luz franjas coloreadas. embargo, un hecho sorprendente el con idénticas propiedades. Si los Hasta aquí, hemos venido entenque, si bien la luz tiene naturaleza recombinamos o superponemos para diendo el concepto de coherencia vin vectorial, el tratamiento de algunos producir interferencias, y el haz resul- culado a la capacidad de una fuente fenómenos ópticos considerando la luz tante reproduce las características de de radiación para producir fenómenos como campo escalar conduce a res- los espectros individuales de ambos interferenciales. Pero ya en 1956 puestas correctas con respecto a las haces sin recombinar, diremos que el Handbury Brown y Richard Twiss medidas de irradiancia. campo resultante es espectralmente descubrieron que los fotones, o cuanNo es fácil establecer una relación puro. Si no se cumple esta propiedad, tos de luz, aislados e independientes, o identificar la magnitud escalar uti- entonces se comportan como espec- interferían y podían detectarse simullizada en la descripción de estos fenó- tralmente impuros. táneamente, lo que llevó a la revisión menos con las componentes del vector del concepto clásico de coherencia; así eléctrico E(t). Para que exista tal idenesde el punto de vista matemá- nació la idea de que la correlación tificación se requiere que los fenómetico, la función que representa la entre fotones es de naturaleza estanos ópticos no presenten cambios en correlación entre dos campos cumple dística, lo que posibilitaba medir la los estados de polarización. Por ejem- unas propiedades particulares, si hay correlación entre fluctuaciones de la plo, la descripción propuesta no sería pureza espectral. Para describir la intensidad entre dos puntos diferen válida para fenómenos de difracción pureza consideraremos un producto tes del espacio. de luz por un cristal en cuya estruc- de dos funciones. Una función indica ¿Con qué probabilidad se localizan tura haya realojamiento de iones al el grado de correlación para la fuente los fotones que interactúan en el espapaso de la radiación y consecuente- luminosa con una anchura de banda cio y en el tiempo? ¿Hasta qué grado mente variaciones en los planos de muy estrecha (fuente cuasimonocro- sabemos que el fenómeno será obserpolarización de la luz modulada den- mática), y está asociada a la coheren- vable? La naturaleza dual de la luz cia temporal. La otra función, que como onda-corpúsculo nos recuerda tro del cristal. En resumen, puede establecerse una multiplica a la anterior, constituye que existe una relación de indetermiteoría escalar para describir fenómenos una función de correlación que repre- nación entre las imprecisiones asociaópticos de difracción, interferencia y senta el grado de correlación para un das al número de fotones y a la fase de propagación, mediante la factorización intervalo de tiempo dado (asociada a la onda electromagnética. En ese de la función de coherencia mutua. la coherencia espacial). En estas con- marco cuántico, la coherencia óptica Pero dicha factorización implica una diciones se dice que la función de es el conjunto de propiedades de corremonocromaticidad total de la fuente, correlación es reducible. lación estadística entre los elementos algo imposible en física. Habrá, pues, Podemos evaluar el grado de pureza de los campos ópticos. que introducir artificialmente algunas espectral realizando mediciones en un La primera comprobación llevada a condiciones de incoherencia. espectroscopio. El análisis de las fran- cabo por Brown y Twiss encontró inteDesde los comienzos del estudio de jas aisladas nos dará una idea de la resantes aplicaciones en astrofísica y las propiedades matemáticas de la composición espectral de la luz de la radioastronomía. Más tarde, desarrofuente en estu- llaron el interferómetro estelar de
D
4. SECUENCIA DE FRANJAS de interferencia, obtenida en un interferómetro que opera por división del frente de ondas. En ellas se observa otro fenómeno de interés para la cuantificación de la coherencia de una fuente: su grado de coherencia espacial. Para realizar el experimento, se sitúa delante de la fuente (lámpara de sodio) un rendija estrecha de anchura variable. A continuación, el biprisma divide la luz en dos frentes que, al superponerse, dan lugar a las interferencias. Si ahora vamos abriendo progresivamente la rendija se observa en las siguientes que disminuye la visibilidad. Si seguimos abriendo la rendija llegará un momento en que la visibilidad es nula (no hay franjas), pues habremos llegado a una anchura tal, que la fuente ha perdido su grado de coherencia espacial. Cuanto más puntual sea la fuente, mayor será la visibilidad de las franjas de interferencia que se producen. El único cero de visibilidad corresponde a la última observación. Al ser la fuente cuasimonocromática no se obtienen mínimos intermedios de visibilidad cero. En este experimento, y en el de la figura 5, nos ha ayudado Alberto Varela Vargas.
LA CIENCIA DE LA LUZ
51
5. LONGITUD FINITA de los trenes de onda luminosos emitidos por una fuente; en este caso se trata de una lámpara de sodio a baja presión que emite con un espectro cuya línea espectral más energética es de 589 nanómetros, y que corresponde al doblete amarillo anaranjado. El interferómetro de Michelson (arriba, a la izquierda) tiene un tornillo micrométrico que actúa sobre uno de los espejos. En la posición inicial, cuando los caminos ópticos recorridos entre los dos brazos del interferómetro están compensados, la visibilidad de las franjas es máxima. Si desplazamos el espejo móvil por medio del tornillo, se observa una disminución progresiva en la visibilidad de las franjas hasta una posición entre los espejos para la cual la visibilidad de las franjas se hace cero.
intensidad. Los gigantescos reflectores instalados en Narrabri, en Nueva Gales del Sur, captaron señales de Sirio. Se obtuvo un valor para el diámetro angular de Sirio que fue estimado en 6,9 × 10–3 segundos de arco. Desde el punto de vista del fenómeno de la correlación entre campos ópticos, este experimento puso de manifiesto la posibilidad de alcanzar correlaciones de orden superior. La correlación entre intensidades origina una estadística entre campos de orden superior a dos. La correlación clásica de segundo orden, definida en términos de la función de coherencia mutua, describe efectos que dependen de correlaciones entre campos en dos puntos espaciotemporales. Si la correlación es de orden N , los efectos se describen en N puntos espacio-temporales, y se necesitará un número elevado de fotodetectores. La intensidad o corriente a la salida del correlador será proporcional a la probabilidad de detección coincidente de N fotones por los N fotodetectores en instantes de tiempo correlativos. Una correlación de orden superior pone de manifiesto las rápidas fluctuaciones de la intensidad. En el experimento de Narrabri, las fluc-
52
tuaciones de la intensidad eran proporcionales a una correlación de cuarto orden, y pudieron medirse con dos fotodetectores e instalando un retardador de tiempos sobre uno de los brazos del interferómetro.
E
l experimento con Sirio reveló que la recepción de luz incoherente por dos detectores independientes mostraba una correlación en el espacio y en el tiempo, y podía describirse como un fenómeno de interferencia. Brown y Twiss describieron esta correlación de cuarto orden para distintos instantes de tiempo y distintos puntos del espacio analizando la correlación de la fotocorriente emitida por los detectores de luz. En 1954 Robert Dicke establecía una descripción paralela a la anterior, al señalar que los átomos de un gas excitado deben abordarse aislados, sometidos cada uno de ellos a las leyes de la mecánica cuántica. Así demostró la existencia de correlación angular en la distribución de los fotones emitidos por el gas en una fuente térmica. Las fuentes de radiación, en efecto, quedan caracterizadas por la independencia estadística de los trenes de onda emitidos a partir de cada proceso ató-
mico. La probabilidad de encontrar el sistema en cierto estado de radiación sigue una ley de Gauss. Tales fuentes de distribución gaussiana son estacionarias. Dicho de otro modo, nuestro conocimiento de las mismas no depende del origen de tiempos elegido al realizar una obser vación o detectar la radiación que emiten en un proceso de correlación, sino sólo de la diferencia entre pares de instantes. Por ser estacionarias y hallarse sometidas las fuentes naturales de radiación óptica a fluctuaciones muy rápidas, la correlación entre campos acontece en un tiempo de detección brevísimo, inferior incluso al tiempo de respuesta mínimo de un detector clásico. Estos detectores miden valores medios de emisión, lo que obliga a realizar múltiples medidas correspondientes al mismo experimento, es decir, a la misma distribución, para alcanzar cierto grado de certeza. Se trata de conseguir una media de con junto, que en el caso particular de campos estacionarios puede sustituirse por medidas tomadas en inter valos de tiempo fijos. La descripción clásica de la coherencia está, pues, ligada a la naturaleza de las fuentes y a los instrumentos de medida utilizados. Pero las fuentes de radiación que generan campos ópticos clásicos son fuentes térmicas, sujetas a las leyes de la termodinámica, en cuyo seno nace la noción de entropía de la radiación. Podemos admitir que la entropía del haz resultante después de la superposición es la suma de las entropías de los dos haces que se han recombinado. Sin embargo, esto no es absolutamente cierto, ya que los haces de luz no son total sino parcialmente coherentes y, por ende, sólo parcialmente se correlacionan. Para entenderlo mejor, imaginemos una red de difracción formada por un número muy elevado de trazos infinitamente estrechos, capaz de difractar la luz y descomponerla en un gran número de ondas difractadas en todas las direcciones del espacio. La entropía de las ondas difractadas será igual a la entropía del haz que ha incidido en la red antes de difractarse. Aquí, las ondas difractadas están totalmente correlacionadas. La difracción por una red de trazos es un fenómeno reversible, mientras no haya pérdida o disipación de energía originada por otros procesos distintos. Cada onda emite de forma independiente, con su entropía propia. Hasta ahora no nos hemos salido de un tratamiento semiclásico de la
TEMAS 6
Variación de la visibilidad de las franjas con la anchura de la fuente
E
n el gráfico inferior, simbolizamos con V (d ) la variación de la visibilidad y con d , la anchura de la rendija. Los valores ilustrados corresponden al experimento de la figura 5. De forma aproximada, suponiendo monocromaticidad máxima, esta función se puede ajustar a la expresión:
sen ( ) kr
V(d ) = siendo : k = 2
× π / λ, V (d )
kr
es función de diferencia de coordenadas de posición: r =
d (x 1 – x 2)
z
siendo x 1 – x 2 la distancia entre las dos fuentes virtuales producidas por el biprisma; z , la distancia desde la fuente al plano de observación; r , una coordenada de posición reducida, y k , el módulo del vector de onda. Sépase, pues, que el producto kr es adimensional. Un grado de coherencia espacial que tiene la dependencia en r observada obedece las leyes de escala (factor de escala).
V (d) 1,0
0
d
Ejemplos de fuentes que satisfacen esta ley son las f uentes planas, las secundarias (éste es el caso del experimento), las cuasi-homogéneas.
radiación: la entropía de una fuente luminosa térmica está basada en los principios de la mecánica cuántica estadística, mientras que el campo emitido sigue recibiendo una interpretación clásica. Una descripción cuántica abordaría la fuente y el campo desde la perspectiva del comportamiento aislado de cada átomo emisor y cada fotón radiactivo. De la simbiosis entre la óptica clásica y la física cuántica emergió la óptica cuántica. En la descripción cuántica de la coherencia óptica se aplican los principios de la teoría cuántica de campos. La cuantificación del campo electromagnético se puede establecer considerando que las amplitudes clásicas asociadas se comportan como operadores que siguen unas reglas de conmutación,
LA CIENCIA DE LA LUZ
tal como estableció Louis de Broglie en 1939. El estado estadístico de un campo de radiación define un operador. Cada operador representa un estado excitado de un átomo fuente, con una probabilidad de transición de un estado inicial a un cierto estado final no conocido. Las medidas efectuadas se realizan sobre un operador densidad. La función de correlación cuántica se expresa según este operador afectado por los operadores propios del campo cuantificado. Su significado físico es la tasa de recuento de electrones localizados en puntos del espacio y en instantes de tiempo arbitrarios. Representa, pues, la probabilidad de detección simultánea y asegura la coincidencia máxima de la detección de fotones en todos los puntos del campo.
¿Cómo establecer un principio de correspondencia entre las descripciones clásica y cuántica? Tomemos la función de correlación cuántica. Para N = 1 la función de correlación cuántica representa la correlación entre fotones obtenidos a partir de electrones libres. Estos fotoelectrones forman una corriente medible en un detector clásico, y, así, para N = 1 hay equi valencia. En el experimento de Brown y Twiss la correlación tiene un orden N mayor que 1. La detección tiene lugar en dos fotodetectores que producen dos corrientes independientes. La corriente total es el producto de ambas corrientes en instantes de tiempo afectados de un retardo adicional. Esta es la operación que se realiza en el correlador del dispositivo experimental. El grado de coherencia o grado de correlación está expresado aquí como la diferencia entre la intensidad instantánea y la intensidad total que sale del correlador y que puede definirse en términos de la diferencia entre la función de correlación cuántica de orden N = 2 y la de orden N = 1 elevada al cuadrado. Para observar este fenómeno, es necesario que el tiempo de resolución de cada detector sea inferior al tiempo de coherencia del campo de radiación que proviene, en este caso, de una estrella. Se trata, en realidad, de un excedente de correlación estadística con respecto a la correlación “al azar”. A partir del principio de correspondencia mecánico-cuántico, según el cual la teoría clásica es macroscópicamente correcta y la teoría cuántica debe tender asintóticamente hacia la teoría clásica en el límite para números cuánticos elevados, se puede establecer que, en general, no existe correspondencia directa entre los estados clásicos y los cuánticos.
E
l desarrollo de nuevas fuentes láser de alta potencia y de nuevos detectores ultrarrápidos y estables hace prever la posibilidad de descubrir nuevos efectos asociados a la coherencia de las fuentes de luz.
BIBLIOGRAFIA COMPLEMENTARIA OF P ARTIAL C OHERENCE. Mark J. Beran y George B. Parrent Jr., Society of Photo-Optical Instrumentation Engineers, Prentice Hall, Inc., 1974. THE INTENSITY INTERFEROMETER. R. Handbury Brown FRS. Taylor and Francis Ltd., Londres, 1974. INTERNATIONAL TRENDS IN OPTICS. Dirigido por Joseph W. Goodman. Academic Press, Inc., Nueva York, 1991.
THEORY
53
Hologramas de luz blanca Emmett N. Leith
Existen varios modos de ver hologramas con luz incoherente normal, que hacen superflua cualquier dependencia de la luz coherente del láser y de la luz casi coherente de la lámpara de arco de mercurio
L
a técnica de la holografía, o foto- grafía es un proceso relativamente son más caras que las normales, sino grafía por reconstrucción de directo. La luz coherente emitida por también más incómodas de manejar. frentes de onda, fue inventada un láser se divide en dos haces. Uno Cualquier reducción del requisito de en 1947 por Dennis Gabor como una se usa para iluminar un objeto; la coherencia a la hora de la reproducposible forma de mejorar el poder de parte del rayo que éste refleja incide ción tendría mucha importancia para resolución del microscopio electrónico, sobre una placa fotográfica. El otro la holografía de exhibición. si bien no suscitó atención hasta los haz se dirige directamente a la placa ¿Cuál es la diferencia entre la luz años setenta. Por aquella época Juris por medio de un espejo. La luz proce- coherente y la incoherente? Hay dos Upatnieks y el autor introdujeron una dente del espejo, llamada rayo de tipos de coherencia, temporal y espaserie de innovaciones que hicieron referen cia, se combina en la placa con cial, y se dice que la luz es coherente posible extender el principio de Gabor la luz reflejada por el objeto para for- cuando posee ambos. La luz temporalmás allá de sus aplicaciones iniciales. mar una imagen compleja de interfe- mente coherente es la luz monocromáPor ejemplo, el uso del método del haz rencia. La placa revelada que contiene tica, que sólo tiene una longitud de de referencia fuera del eje permitió esta imagen es el holograma. Cuando onda. La luz espacialmente coherente obtener imágenes holográficas de se ilumina un holograma de este tipo es la que procede de una fuente punmejor calidad. Apro vechando que la con sólo el rayo de referencia, los rayos tual o puede localizarse en un punto. luz del láser es intensa y muy cohe- de luz que atraviesan la placa son La fuente más usual de luz coherente rente pudimos obtener por primera transmitidos o absorbidos selectiva- es el láser, pero también puede obte vez imágenes holo gráf icas de gran mente de manera que creen en el haz nerse a partir de fuentes incoheren verismo de varios tipo s de obj etos emergente una componente que repro- tes, como había que hacer antes de la reflectantes tridimensionales. El de- duce las ondas luminosas originales invención de éste. La coherencia espasarrollo posterior de la holografía ha reflejadas por el objeto cuando se cial puede conseguirse, por ejemplo, estado muy ligado al del láser, por formó el holograma. Un observador situando una abertura muy pequeña cuanto la demanda de mayores y mejo- que vea estas ondas las percibirá como delante de la fuente, de modo que la res hologramas de escenas más si emanasen del objeto original y, por luz proceda toda de ese punto. Para amplias y abundosas ha tendido a tanto, “verá” el objeto como si estu- logar la coherencia temporal hay que incrementar la necesidad de coheren- vier a real mente presente (véase la colocar un filtro de color ante la fuente, cia de las fuentes de luz empleadas. de forma que sólo se transmita la luz figura 6). El deseo paralelo de hacer la holode una banda espectral estrecha. grafía más práctica, y por tanto más a exigencia de coherencia deriva Ambos procesos implican malgastar universal, indujo a la búsqueda de de que el holograma es una gra- la mayor parte de la luz inicial; de ahí bación de la interferencia de dos ondas que se necesite una fuente de luz incométodos que redujeran las exigencias de coherencia del proceso. Pronto y en general, pero no siempre, la luz herente extremadamente intensa hubo hologramas que podían obser- coherente produce imágenes de inter- para obtener una pequeña cantidad varse con luces incoherentes como la ferencia y la incoherente no. Esta cir- de luz coherente. La lámpara de arco solar o la luz blanca de una lámpara cunstancia dificultó mucho el de- de vapor de mercurio constituía una de incandescencia corriente, y no sólo sarrollo de la holografía, sobre todo en de las mejores fuentes de luz cohecon la ayuda de la luz coherente de un lo relacionado con su exhibición, pues rente antes del láser. Su arco es láser, lo que sorpren dió a muchos. las fuentes de luz coherente no sólo intenso y suele tener unos pocos milí Voy a explicar aquí por qué la luz coherente ha desempeñado un papel tan importante en la holografía; 1. FOTOGRAFIAS DEL HOLOGRAMA EN “ARCO IRIS” construido por Stephen Benhablaré después de cómo difieren las ton y Fritz Goro ( página opuesta). Aunque aparece en tres colores diferentes, se fotoexigencias de coherencia según las grafió con luz blanca de una lámpara incandescente de filamento de tungsteno distintas clases de hologramas y, transmitida por el condensador de un microscopio. Los tres colores diferentes se finalmente, describiré algunos pro- deben a que el color del holograma cambia a medida que la cámara (o el ojo) sube o baja; el holograma en cuestión se fotografió con la cámara en tres posiciones verticagresos que han contribuido a la reducles distintas. Cuando la cámara se mueve horizontalmente de un lado a otro aparece ción sustancial de esta exigencia, un rasgo característico de todos los hologramas: la paralaje, o desplazamiento apatanto para ver como para hacer holo- rente de los objetos de una escena tridimensional, cuando se contempla el holograma gramas. desde ángulos diferentes, desplazamiento que se advierte en cada uno de estos tres La formá más conocida de holo- pares de fotografías. El holograma se hizo según el diagrama de la figura 15.
L
54
TEMAS 6
LA CIENCIA DE LA LUZ
55
metros de diámetro, además de que no emite luz de espectro continuo, sino en varias bandas espectrales estrechas. Las técnicas empleadas para obtener luz coherente con una lámpara de arco de mercurio producen, pues, menos pérdidas que si la fuente fuera, por ejemplo, un filamento incandescente de tungsteno. La producción y la contemplación de los hologramas originales de Gabor se hicieron con lámparas de arco de mercurio. Los objetos eran bastante sencillos: unas diapositivas con rótulos opacos y sin escala de grises. Una parte de la luz incidente se hacía pasar por superficies abiertas, relativamente amplias, y servía de haz de referencia. La luz se difractaba o dispersaba en las proximidades de las líneas oscuras que formaban las letras, esparciéndose hasta hacerlas irreconocibles en el plano donde se grababa el holograma. Estos hologramas no resultan impresionantes vistos ahora, pero constituyeron una demostración convincente de un nuevo e interesante principio de la óptica y Gabor recibió el premio Nobel de física de 1971 por su invento. Los primeros hologramas de Gabor no exigían una gran coherencia. Los requisitos de coherencia se calculan generalmente mediante consideraciones bastante elementales sobre la realización y la contemplación de los hologramas. La luz dispersada por cada elemento resolutivo (el punto más pequeño distinguible en el objeto) interfiere con el haz de referencia no dispersado para originar una imagen de difracción circular, consistente en una serie de anillos concéntricos, alternativamente brillantes y oscuros, que se van haciendo más tenues a medida que nos alejamos del centro. Es así como se dispersa la luz procedente de cada elemento resolutivo, pero las imágenes de los puntos próximos se superponen, formando otras más complejas. El holograma es la superposición de muchas imágenes elementales, una por cada elemento resolutivo del objeto. El tamaño del círculo de difracción 2. HOLOGRAMA DE LUZ BLANCA de Denisyuk, realizado por el investigador ruso Yu. N. Denisyuk y fotografiado desde dos ángulos verticales distintos para demostrar no sólo la paralaje vertical conseguida con este método sino también el cambio abrupto del color de la imagen percibida cuando se contempla desde dos direcciones diferentes. Estos hologramas se ven con luz reflejada, procedente de una fuente puntual, que en este caso era un pequeño foco incandescente (véase la figura 14 ).
56
TEMAS 6
básico es proporcional a la longitud de onda de la luz. Si es policromática, es decir, si hay más de una longitud de onda, se puede suponer que cada una de las longitudes de onda forma su propio conjunto de imágenes de difracción, una por cada elemento resolutivo del objeto (véase la figura 8 ). Como el tamaño de las imágenes correspon-
dientes a diferentes longitudes de onda es diferente, un haz que tenga una gama amplia de ellas emborronará el resultado, siendo las líneas más finas las más borrosas. La anchura aceptable de la banda espectral se hace más estrecha al aumentar la distancia entre el objeto y el holograma, o al reducir el tamaño del ele-
3. HOLOGRAMA CORRIENTE realizado con luz de 4 focos de luz diferentes para ilustrar la importancia de la coherencia en el proceso holográfico tradicional. La fotografía superior, izquierda, muestra el holograma visto con la luz roja muy coherente de un láser de helio-neón. La parte superior, derecha, lo muestra visto con luz policromática menos coherente emitida a varias longitudes de onda discretas por dos focos diferentes. La imagen roja está formada con luz del láser de helio-neón; las azules, verdes y ámbar con luz de una l ámpara de arco de mercurio. El desplazamiento de las imágenes correspondiente a las diferentes longitudes de onda se debe a que este tipo de hologramas, llamados hologramas excéntricos o de frecuencia portadora, actúan como una red de difracción, desviando la luz proporcionalmente a su longitud de onda y, por tanto, descomponiendo el haz de luz incidente en sus colores componentes. La fotografía de la parte inferior,
LA CIENCIA DE LA LUZ
mento de resolución. La relación entre el tamaño de la imagen de difracción y el tamaño del elemento resolutivo se llama a veces razón de expansión, ya que cada uno de estos elementos se difunde por tal relación para formar el holograma. Puede demostrarse que, para que semejante emborronamiento alcance valores mínimos, la anchura
izquierda, es una exposición doble; se hizo cubriendo primero una pequeña parte del holograma con luz blanca emitida por una lámpara de arco de circonio. La difuminación de los colores se produce porque cada longitud de onda del espectro continuo de la luz blanca forma su propia imagen, estando todas ellas ligeramente desplazadas entre sí. La parte previamente cubierta del holograma se reemplazó luego por un filtro verde de banda estrecha y se cubrió el resto del holograma. La segunda toma, hecha con ayuda del mismo foco de luz blanca de arco de circonio, revela nítidamente una imagen verde de la escena original. La fotografía de la parte inferior, derecha, vuelve a mostrar el holograma iluminado con el foco de luz blanca del arco de circonio, pero con una red especial intercalada entre el foco y el holograma para compensar la dispersión cromática. La imagen es ahora bastante nítida, sobre todo en el centro, donde la compensación es mejor.
57
4. HOLOGRAMA EN ARCO IRIS DE LA MISMA ESCENA que aparece en las fotografías de la página anterior. Cuando se contempla un holograma de este tipo con luz blanca transmitida desde una distancia de unos 90 cm, la imagen holográfica
resultante varía de color a lo ancho de la escena (de ahí la expresión de holograma en arco iris). El foco de luz blanca utilizado en este caso fue una lámpara de filamento de tungsteno. El humo hace visible el haz de luz.
5. PRIMER PLANO DEL HOLOGRAMA EN ARCO IRIS de la fotografía superior de esta misma página, obtenido con la misma fuente de luz blanca de filamento de tungsteno, pero en este caso desde una distancia de unos 30 centímetros; el color tiene
una apariencia uniforme en toda la imagen. Si se desplazara lateralmente la posición de mira, el color cambiaría, pero seguiría siendo uniforme. La escena representa da en los ho logramas de esta página y de la anterior tiene 50 cm de ancho.
58
TEMAS 6
de la banda espectral debe ser menor que cuatro veces la longitud de onda media dividida por la razón de expansión.
P
or ejemplo, si se toma como objeto una transparencia cuyo detalle más fino sea de 0,01 milímetros, se ilumina con un haz de luz que tenga una banda de longitudes de onda centrada en los 5000 angstrom y se elige una separación entre el objeto y el holograma tal que se obtenga una razón de expansión de 50, resulta aceptable una dispersión de 400 angstrom en la longitud de onda. Ello representa la octava parte del espectro visible completo y un haz que cubriese tal anchura de banda difícilmente podría llamarse coherente. Una lámpara de arco de mercurio ordinaria emite una línea de color verde intenso de uno o dos angstroms de anchura, por lo que tiene más coherencia temporal de la necesaria para construir hologramas. Otro método para describir la exigencia de coherencia temporal es hacerlo en términos de la longitud de coherencia, una cantidad básica que representa esencialmente la distancia a la que la frecuencia de vibración de una onda conserva su precisión; las ondas monocromáticas tienen longitudes de coherencia grandes, al contrario que las policromáticas. Si se divide un rayo de luz en dos partes, que luego volverán a recombinarse, se producirán los efectos de interferencia siempre que la diferencia entre los dos trayectos ópticos no exceda la longitud de coherencia de esa luz. Aun que est e mod o de des cribir la coherencia temporal parezca no tener relación alguna con el anterior, basado en la superposición de las franjas de interferencia formadas por diferentes longitudes de onda, la verdad es que ambas formulaciones son equivalentes. La etapa de reconstrucción, o de contemplación, holográfica viene a ser esencialmente una reproducción de la etapa de formación del holograma, aplicándose las mismas consideraciones de coherencia temporal. Cuando incide sobre el holograma un haz de rayos de luz colimados, o paralelos, cada imagen de difracción elemental se apropia de una porción de la luz incidente, convirtiéndola en un frente de onda esférico que parece emanar del elemento objeto original; a la imagen así formada se la llama “imagen virtual”. La imagen de difracción elemental grabada tiene un comportamiento muy parecido al de una lente que enfocase la luz incidente en un
LA CIENCIA DE LA LUZ
6. LA FORMA MAS CORRIENTE DE HOLOGRAFIA es la aquí representada, que se basa en la luz coherente del láser. En la fase de construcción (arriba), se divide un rayo láser en dos partes. Una se usa para iluminar el objeto; parte de la luz reflejada por éste incide sobre una placa fotográfica. La otra parte se dirige a la placa merced a un espejo. La placa registra las complejas imágenes producidas por la interferencia de los dos haces. En la fase de reconstitución (abajo) se ilumina el holograma sólo con el rayo de referencia; los rayos emergentes contienen un duplicado exacto de los frentes de onda reflejados por el objeto.
punto de la imagen; la estructura de los círculos del diagrama de difracción es similar a la que produciría una lente de Fresnel, dispositivo que se emplea frecuentemente en los cursos de óptica. El tamaño del elemento de resolución de la imagen virtual es exactamente el mismo que el tamaño del elemento resolutivo del objeto original, a menos que las imperfecciones del proceso hayan degradado la imagen. La razón del tamaño del diagrama de difracción al tamaño del elemento resolutivo de la imagen se llama razón de compresión; es, por supuesto, exactamente igual a la razón de expansión. La necesidad de monocromaticidad a la hora de la contemplación se debe a que la curvatura del frente de onda, y por lo tanto la distancia al punto
focal, es proporcional a la longitud de onda de la luz. Si se usase luz de muchas longitudes de onda, cada una de ellas formaría una imagen en una posición diferente y, por tanto, con independencia del plano sobre el que se enfocase el sistema de visión (el ojo o la cámara fotográfica), junto a la imagen enfocada se verían muchas otras algo desenfocadas, formadas por otras longitudes de onda. Este defecto de la imagen resultante se llama “dispersión longitudinal”. La banda espectral de la fuente luminosa habrá de ser lo suficientemente estrecha como para que tales emborronamientos sean insignificantes. Se puede demostrar que la anchura de la banda espectral no podrá ser mayor que la longitud de onda media multiplicada por la razón de compresión, que es exacta-
59
mente el criterio que se siguió en la construcción del holograma. La razón de compresión (o la de expansión) es el único factor que entra en la determinación de los requisitos de coherencia temporal. El tamaño del objeto resulta irrelevante, de modo que el grado de coherencia de una luz no condiciona en modo alguno el tamaño del objeto que pueda holografiarse.
L
a coherencia espacial, el otro aspecto de la coherencia, está relacionada con el tamaño de la fuente luminosa. Puede concebirse una fuente extensa como si estuviera formada por muchas fuentes puntuales ligeramente separadas, cada una de las cuales forma una imagen de difracción por cada elemento resolutivo del objeto (véase la figura 9 ). Todas estas pautas se proyectan a lo largo de la dirección de propagación del haz de luz incidente. Los diferentes elementos resolutivos de la fuente luminosa formarán manchas de difracción ligeramente desplazadas y, si el tamaño de la fuente de luz es grande, la imagen de difracción resultante aparecerá borrosa, sobre todo en los bordes, donde el espaciado de las franjas es más fino. Es claro que la fuente de luz empleada para realizar un holograma habrá de ser lo suficientemente pequeña como para que esta clase de difusión resulte inapreciable. Lo mismo sucede a la hora de contemplarlo: una fuente luminosa extensa lleva a una difuminación de la imagen; la exigencia de coherencia espacial es pues la misma que en la formación del holograma. Nuestro grupo investigador se
dedicó a la holografía óptica en 1960 diferentes direcciones, nuestros holoy se propuso mejorar la calidad de la gramas produjeron la difracción en imagen, que era por aquel entonces varias direcciones. Los rayos que forbastante pobre. Un problema básico maban las dos imágenes se propagacon el que había que enfrentarse era ban ahora en direcciones diferentes y que cada elemento resolutivo del por tanto se separaban. Y también el holograma forma dos ondas de curva- resto de los rayos parásitos se propatura igual y opuesta; la onda adicio- gaba en direcciones diferentes. El nal es convergente y forma una ima- resultado fue que cada una de las dos gen delante del holograma, la llamada imágenes, la real y la virtual, estaba “imagen real”. Pueden contemplarse libre de efectos parásitos y su calidad la imagen virtual o la imagen real, había mejorado mucho. pero siempre con la otra desenfocada como fondo. Este defecto se debe a on muchas más franjas, y más que el proceso de toma no registra el finamente espaciadas, se podría sentido de la curvatura del frente de suponer que se requeriría mayor coheonda. (Dos ondas esféricas, una diver- rencia de la fuente de luz necesaria gente y otra convergente, formarían para construir tales hologramas. Y la misma imagen de difracción.) El además, si el holograma actúa ahora proceso de reconstrucción resuelve como una red de difracción, ¿no tenesta ambigüedad al producir dos derá a dispersar la luz incidente en ondas, una convergente y otra diver- sus colores componentes como hacen gente, pero la calidad de la imagen estas últimas? (Las redes de difracresulta degradada. También se pre- ción desvían la luz transmitida prosentan otros defectos, que introducen porcionalmente a su longitud de onda, componentes adicionales de luz de modo que, dentro de cada orden, la extraña. componente roja se desvía mucho más Upatnieks y yo solucionamos estos que la azul, por poner un ejemplo.) problemas mediante un procedi- Parecía lógico que este tipo de holomiento muy empleado en telecomuni- gramas, que suelen llamarse hologracaciones. Recurriendo a una técnica mas de frecuencia portadora o excénparecida a la modulación de una por- tricos, formasen para cada longitud de tadora de radio por otra onda, hici- onda una imagen ligeramente desplamos que una parte del haz luminoso zada en sentido lateral respecto de la evitase el objeto e incidiese oblicua- imagen formada por otra longitud de mente sobre la placa. Las franjas de onda un poco diferente (véase la figura interferencia se hicieron así más 10). La imagen resultaría muy difufinas y numerosas y el holograma minada incluso en una banda basresultó mucho más parecido a una tante estrecha de longitudes de onda. retícula de difracción ordinaria de Este defecto, llamado dispersión latelíneas paralelas. Del mismo modo que ral, es independiente de la dispersión esta última dispersa un haz de luz longitudinal descrita anteriormente. incidente en muchos rayos separados Podría creerse que nuestra holografía (llamados órdenes), que viajan en perfeccionada exigiese mayor cohe-
7. METODO HOLOGRAFICO ORIGINAL, inventado en 1947 por Dennis Gabor, que empleó sencillas transparencias con rótulos opacos como objetos, iluminándolas con una lámpara de arco de mercurio. El diagrama de la izquierda muestra cómo se hacían los hologramas. La mayor parte de la luz pasaba a través de la transparencia y servía como haz de referencia, pero, en torno a
60
C
las líneas oscuras que formaban las letras, cada uno de los elementos de resolución (o puntos resolutivos más pequeños) difractaba o dispersaba una parte de la luz transmitida en forma de frente de onda esférico. La interferencia de los frentes de onda difundidos por cada elemento de resolución con los no difundidos del haz de referencia creaban en la placa fotográfica una mancha
TEMAS 6
rencia que la del tipo de Gabor, que tiene que ser proporcional a la longitud cia pueden reducirse todavía más. Si, quizá sólo pudiese conseguirse con luz de onda. Por tanto, si las franjas están por ejemplo, se iluminase un holoprocedente de un láser. alineadas en un lugar donde los rayos grama de Gabor interponiendo una Ambas suposiciones son incorrec- se superpongan, se irán desalineando placa de zonas de Fresnel entre él y la tas. Nuestros primeros hologramas progresivamente a medida que se ale- fuente de luz, se podría utilizar la imadel tipo de frecuencia portadora se jen de él; el resultado es la formación gen real formada por la placa de zonas hicieron realmente en la época ante- de un número inadecuado de franjas como fuente de iluminación del holorior al láser y con una luz de arco de de interferencia. Pero si se sitúa una grama. (La placa de zonas forma una mercurio corriente. Puesto que las red de difracción entre la fuente y el imagen de la fuente que está disperexigencias de coherencia de la holo- objeto se puede predispersar la luz de sada longitudinalmente, con el viografía básica no son de suyo muy gran- tal modo que el espaciado de las fran- leta, que posee la longitud de onda más des, la lámpara de arco de mercurio jas sea el mismo para todas las longi- corta, situado en la posición más alesigue cumpliéndolas aunque se las tudes de onda; el número de franjas jada de la placa.) Esta disposición comaumente bastante. Este incremento que se obtiene en estas condiciones es pensa la dispersión longitudinal del no es, por lo demás, fundamental y independiente de la longitud de onda. holograma, haciendo que las imágenes puede evitarse fácilmente. La red compensaría la dispersión late- de todas las longitudes de onda se Supongamos, por ejemplo, que ral, reduciendo así las exigencias de formen a la misma distancia de él durante el proceso de reconstrucción coherencia a las del esquema holográ- (véase la figura 12 ). Esto implica que coloquemos entre la fuente y el holo- fico original de Gabor, y esto tanto en un holograma de este tipo podría verse grama una red de difracción cuyo el momento de la creación como en el con luz blanca. Podría razonarse de espaciado sea igual a la separación de la observación del holograma. modo semejante para el proceso de media entre las franjas del holograma. Cuando publicamos nuestro primer formación del holograma, lo que nos Supongamos también que para ilumi- trabajo sobre holografía dábamos hace pensar que también debería ser nar el holograma se utilice precisa- cuenta de una red como ésta, que en posible realizar hologramas con luz mente el orden difractado que desvíe efecto compensaba las longitudes de completamente blanca. Si se usaran a la luz en sentido opuesto al del holo- onda, aunque fuera sin un propósito la vez una placa de zonas y una red, grama. En este caso las dispersiones específico y aunque la simplicidad del podrían compensarse simultánease compensarían. Desde el punto de objeto hiciera tal compensación inne- mente las dispersiones longitudinal y vista del holograma, cada longitud de cesaria. Robert E. Brooks, L. O. lateral, lo que permitiría crear y obseronda componente de la luz incidente Heflinger y Ralph F. Wuerker propu- var hologramas de haz excéntrico de procedería de una dirección ligera- sieron y experimentaron métodos calidad con luz totalmente blanca. mente diferente, siendo el desplaza- similares de hacer los hologramas con sta idea tiene un aspecto histómiento angular el exactamente nece- láser de pulsos, pero por aquel entonsario para hacer que las imágenes ces los láser de pulsos carecían de la r i c o formadas por las diferentes longitu- coherencia requerida para realizar interesante. En 1955 estábamos trabajando mis colegas y yo en Michigan des de onda coincidiesen. Si se hacen este experimento. los ajustes adecuadamente, las exiHay algunas otras técnicas que en sistemas de formación de imágegencias de coherencia no serán mayo- reducen los requisitos de coherencia nes de radar; se nos ocurrió que si res que las requeridas por el método de las formas más desarrolladas de registrábamos los datos del radar de Gabor (véase la figura 11 ). holografía a las del método de Gabor, sobre una película fotográfica u otro Al crear el holograma se aplica el circunstancia que puede hacer pensar medio similar e iluminábamos las mismo principio. Para que los haces de en que estas últimas sean un mínimo placas resultantes con un haz de luz luz policromática interfieran, el espa- irreducible. Pero esta suposición tam- coherente, generaríamos réplicas ciado de las franjas de interferencia bién es falsa; los requisitos de coheren- ópticas en miniatura de las mi-
E
muy semejante a una placa de difracción de zonas de Fresnel. El holograma resultante es la superposición de todas estas pautas, una por cada elemento de resolución del objeto original. El diagrama de la derecha muestra la forma de contemplar los hologramas una vez revelados. Se representa cómo la difracción de la parte del rayo de referencia transmitido por una mancha de
LA CIENCIA DE LA LUZ
interferencia recrea una imagen virtual de un elemento resolutivo del objeto original. Los nombres de los científicos que aparecen en la transparencia son los mismos utilizados por Dennis Gabor en el holograma original, según se publicó en Proceedings of the Royal Society en 1949. El propósito de su investigación era mejorar el poder de resolución del microscopio electrónico.
61
croondas que hubieran incidido originalmente sobre la antena del sistema de radar, lo que sería un método sencillo y conveniente de obtener imágenes de microondas. Partiendo de esta idea, desarrollamos una teoría bastante completa de la holografía, que en muchos aspectos era paralela al trabajo anterior de Gabor, descono-
cido entonces por nosotros. Nuestra teoría difería de la suya en varios puntos. Presentaba por primera vez la idea de la holografía excéntrica, para evitar el problema de la doble imagen, y también el empleo de una red de difracción en combinación con una placa de zonas de Fresnel, para corregir las dispersiones lateral y
longitudinal, permitiendo en consecuencia operar con luz blanca. Así que, aunque suela identificarse la holografía excéntrica con el láser, en realidad se desarrolló en un contexto de luz completamente blanca. La compensación de la placa de zonas tiene, por supuesto, una limitación importante. La dispersión longi-
8. LA ESCALA DE LA IMAGEN DE DIFRACCION formada por un objeto puntual es proporcional a la longitud de onda de la luz incidente. En los diagramas de esta página se representan los frentes de dos longitudes de onda luminosa diferentes mediante líneas coloreadas de grosores y espaciados distintos. El de la parte superior pone de manifiesto que la pauta formada por la luz de longitud de onda mas larga, o luz más roja, es mayor que la formada por la de longitud de onda más corta, o luz más azul. La imagen formada por un haz luminoso compuesto por muchas longitudes de onda resultaría dif uminada en los bordes; el holograma resultante aparecería también borroso, aunque se le observara con luz perfectamente mono-
cromática. El diagrama inferior muestra un hol ograma hecho con luz monocromática, pero visto con luz policromática. El holograma actúa como una lente, dando lugar a que parte de la luz incidente se convierta en una onda divergente que vuelve a proyectar una imagen virtual, cuya resolución es, en teoría, la misma que la del objeto original. Sin embargo, la distancia entre el holograma y la imagen formada para cada longitud de onda es proporcional a dicha longitud de onda. De aquí que, en el caso de la luz blanca, que consiste en todas las longitudes de onda visibles, no exista ningún plano donde se enfoque toda la luz y la imagen resultante sea borrosa (dis persión longitudinal).
9. UNA FUENTE EXTENSA DE LUZ se comporta como un conjunto de fuentes puntuales, cada una de las cuales iluminase un objeto puntual desde una dirección ligeramente distinta. Las imágenes se proyectan en direcciones distintas
y resultan desplazadas en el holograma. Una fuente espacialmente incoherente, o extensa, produce una imagen borrosa, en la que las franjas de interferencia más finas desaparecen primero.
62
TEMAS 6
tudinal se corrige sólo para un punto imagen sencillo, concretamente aquel cuya componente del holograma se alinea con la placa de zonas de Fresnel compensadora. Esto es un inconveniente serio en holografía corriente, puesto que lo que se desea ver generalmente es la imagen completa y no sólo un trocito. No constituye, en cambio, un gran problema si se aplica al radar, ya que la imagen se va grabando punto por punto mientras se pasa el registro de los datos del radar por una abertura, con lo que los puntos imagen van situándose uno tras otro en posición para que se corrija su dispersión. Este capítulo de la historia de la holografía se cerró con poca fanfarria. En 1958, cuando se terminó nuestro sistema experimental de radar aerotransportado, pudimos verificar tales teorías y otras muchas que nuestro grupo había formulado. Sin embargo, a efectos prácticos, preferíamos las lámparas de arco de mercurio a las de luz blanca. Como nuestro sistema no utilizaba razones de compresión superiores a 100, no se necesitaba corregir la dispersión lateral ni la longitudinal. La lámpara de arco de mercurio funcionaba perfectamente e hicimos con ella reconstrucciones de gran calidad durante varios años, hasta que empezamos a usar el láser en 1962. Al año siguiente introdujimos otra mejora, al decidirnos a corregir otro defecto del proceso holográfico. Cuando se usa luz coherente, se forman imágenes de difracción desde cualquier centro de dispersión que se encuentre en el recorrido de la luz. El polvo que haya sobre las superficies ópticas, las burbujas o cualquier otra oclusión de las lentes añaden su imagen de difracción al holograma, que los retransmite a la imagen. La colocación de un difusor entre el objeto y la fuente de luz sirvió para eliminar estas imágenes parásitas, permitiendo obtener imágenes de calidad comparable a las de la fotografía clásica. Como el difusor tiende a dispersar la luz desviada por el objeto en ángulos mayores, las relaciones de expansión son bastante mayores con esta técnica, incrementándose así las exigencias de coherencia, pero dentro todavía del alcance de la lámpara de arco de mercurio. Nuestro siguiente paso fue construir hologramas de objetos tridimensionales, en vez de las transparencias que habían constituido hasta entonces el objeto de la holografía. Son varias las razones por las que es mucho más difícil hacer un holograma de un objeto tridimensional. Una de ellas es que la
LA CIENCIA DE LA LUZ
10. EL HOLOGRAMA EXCENTRICO, inventado por el autor y Juris Upatnieks, se comporta como una red de difracción de líneas paralelas, que desvía la luz en un ángulo proporcional a la longitud de onda. Las imágenes de longitudes de onda diferentes se desplazan lateralmente, tanto más cuanto mayor sea la longitud de onda.
11. LA DlSPERSION LATERAL SE CORRIGE mediante la inserción de una red de difracción en el camino del haz de luz incidente. La red se escoge cuidadosamente para que su espaciado iguale al espaciado medio de las franjas del holograma, dado que se utiliza para desviar la luz en sentido contrario al del holograma, compensando exactamente la dispersión lateral originada por éste. El resultado final es que las imágenes formadas por dos longitudes de onda diferentes están enfocadas en el mismo punto, que es lo que se pretendía conseguir.
12. LA DISPERSION LONGITUDINAL SE CORRIGE mediante la inserción de una placa de zonas de Fresnel en el camino del haz de luz incidente. El dispositivo realiza una dispersión longitudinal previa del haz de luz bl anca, formando una imagen virtual un tanto desplazada para cada longitud de onda, siendo las longitudes de onda más cortas las que se enfocan más lejos de él. Esta colección de imágenes desplazadas sirve a su vez como fuente de luz para el holograma (que en este caso es un holograma de un solo punto). El holograma actúa exactamente igual que una placa de zonas y desvía más la luz que tiene mayor longitud de onda, reuniendo todos los colores en un punto común. La combinación de redes de difracción y de placas de Fresnel reduce mucho los requisitos de coherencia que ha de tener la iluminación con la que se construyen y contemplan los hologramas excéntricos.
63
13. EL PROCESO DE LIPPMANN para fotografiar en color produce franjas de interferencia en una emulsión fotográfica gruesa haciendo que la luz incidente se refleje por medio de un baño de mercurio situado detrás de la emulsión (diagrama de la izquierda). Los depósitos de plata que se forman en los luga-
necesidad de coherencia temporal aumenta mucho, lo que se entiende rápidamente si se piensa en la exigencia de coherencia temporal en términos de longitud de coherencia. Al preparar nuestro dispositivo, dividimos un rayo láser en dos partes. Una, que servía de rayo de referencia, se dirigía a la placa fotográfica mediante un espejo; la otra era reflejada hacia ella por el objeto. Para que los dos haces interfirieran, la longitud de las trayectorias recorridas por cada uno de ellos no tendría que diferir en más de la longitud de coherencia de la luz. Medimos sus trayectos y los ajustamos para que fueran aproximadamente iguales. Como la longitud de coherencia de la luz láser suele ser de muchos centímetros, no tuvimos que esforzarnos en ser muy precisos. Otra cosa hubiese sido si estuviéramos usando una lámpara de arco de mercurio, cuya longitud de coherencia suele ser menor de una décima de milímetro. Pero cuando el objeto tiene profundidad, la longitud del haz objeto dependerá de la situación del punto considerado sobre el objeto, por lo que no sería posible igualarla para todos los puntos, salvo que se dispusiese de una fuente de luz cuya longitud de coherencia fuese lo suficientemente grande para abarcar la profundidad del objeto. Si ésta fuese, por ejemplo, de medio metro, la longitud de coherencia debería ser de un metro por lo menos, puesto que tal sería la diferen-
64
res donde el brillo es máximo quedan fijados luego durante el proceso de revelado de la placa. Cuando se contempla la placa, la luz incidente se refleja parcialmente en las sucesivas capas de plata de la emulsión (derecha), reforzándose las longitudes de onda correspondientes a la luz usada para la toma.
cia de la longitud de los trayectos luminosos reflejados desde el frente del objeto y desde su parte posterior. La longitud de coherencia requerida cuando se construyen hologramas de transparencias es de una centésima de milímetro aproximadamente. Este nuevo requisito de coherencia es independiente del descrito antes en conexión con las transparencias, pero es tan grande que éste se vuelve irrelevante. En esta fase de nuestro trabajo no hubo más remedio que recurrir al láser que, afortunadamente, había ido desarrollándose durante el mismo período y que apareció en un momento especialmente oportuno para nuestros intereses.
H
asta entonces los procesos de construcción y de observación de hologramas habían tenido unas exigencias de coherencia parecidas, cosa lógica si tenemos en cuenta que la observación no es más que la reconstrucción de los rayos que intervinieron en el proceso de formación. Ahora, en cambio, a la hora de observar un holograma no se da el fenómeno de grandes trayectos ópticos resultantes de las reflexiones a diferentes profundidades del objeto, puesto que no se produce ninguna reflexión de este tipo, lo que tiene como consecuencia que la nueva exigencia de coherencia no afecte al proceso de observación. Por consiguiente, los hologramas de objetos tridimensionales requieren un láser para su formación, pero pueden
observarse con la luz de una lámpara de arco de mercurio, que es el modo habitual. El investigador ruso Yu. N. De nisyuk publicó por la misma época otro descubrimiento importante, que combina el proceso holográfico con un tipo de fotografía en color inventada en 1891 por el físico francés Gabriel Lippmann. El holograma de Denisyuk puede producir imágenes monocromáticas o en color mirado con la luz blanca de una fuente puntual. El proceso de Lippmann consiste en registrar una imagen sobre una placa fotográfica de gran resolución. El lado de la emulsión se refuerza con un baño de mercurio, de modo que la luz que penetre por el lado de la placa se refleja y vuelve a atravesar la emulsión. Los dos rayos luminosos que viajan en direcciones opuestas interfieren inmediatamente, incluso si la fuente de luz tiene un amplio espectro de longitudes de onda, puesto que la diferencia de sus trayectorias es casi nula. Tampoco importa que la fuente de luz carezca de coherencia espacial, puesto que los mismos rayos, u otros muy próximos, se superponen. La consecuencia es que se forman franjas finas (que son realmente capas brillantes alternadas con otras oscuras) orientadas casi paralelamente a la emulsión. La separación entre las franjas es sólo de la mitad de una longitud de onda de la luz, por lo que se forman unas 30 franjas en una emulsión de unas 15 micras de espesor. Las franjas producen depósitos de
TEMAS 6
14. EL METODO HOLOGRAFICO DE DENISYUK consiste básicamente en una combinación de los procesos de Lippmann y de Gabor. Funciona haciendo pasar un haz de luz coherente por una emulsión fotográfica, haciéndolo incidir sobre un objeto y registrando en la emulsión la interfe-
rencia producida entre los haces incidente y reflejado (izquierda ). Para contemplarlo se le ilumina con luz blanca. El proceso de refuerzo favorece a la luz de una única longitud de onda y forma una imagen tridimensional del objeto (derecha ).
plata en las regiones brillantes como la parte reflejada vuelva a atravesar luego se hace un segundo holograma en el proceso fotográfico normal. La la placa en dirección opuesta. Se for- usando como objeto la imagen real del concentración de los granos de plata man franjas en toda la profundidad primero. Durante este proceso se en un punto dado está relacionada con de la emulsión, como en el método de coloca una estrecha rendija horizonel brillo de la imagen en esa zona, mien- Lipmann. El resultado es un holo- tal sobre el primer holograma. Como tras que su espaciado lo está con el grama que tiene las características cada punto de un holograma reprocolor que tenga (véase la figura 13 ). de una placa de Lippmann y puede duce la imagen completa, pero desde Cuando se ilumina esta placa con verse con luz blanca producida por una perspectiva única, la rendija eliluz blanca, cada capa de granos de una fuente de extensión reducida, mina toda la paralaje en el plano verplata actúa como un espejo, reflejando como una lámpara de proyector o una tical. (La paralaje, elemento esencial una pequeña parte de la luz incidente bombilla incandescente ordinaria en la percepción de la tridimensionay transmitiendo el resto a la superficie (véase la figura 14 ). Si se usan tres lidad, es el desplazamiento aparente siguiente, en donde vuelve a repetirse rayos de luz coherente con longitudes de un objeto cuando se ve desde dos el proceso. La luz total reflejada por de onda distintas, una por cada color puntos diferentes.) Si se ilumina el cada punto de la placa es proporcional primario, puede hacerse un holo- segundo holograma con iluminación a la luz que formó las franjas, por lo grama que produzca una imagen a coherente, forma una imagen (sea que el observador ve una imagen del todo color. virtual o real) del objeto original, así objeto original como si de una fotograEl paso siguiente consistió en com- como una imagen real de la rendija. fía corriente se tratase. Lo más impor- binar nuestra técnica de emplear un Para ver la imagen completa, el ojo tante es que la imagen es a todo color, haz de referencia separado con la de del observador debe colocarse en esta debido a los efectos de interferencia Denisyuk, cosa que varios investiga- imagen de la rendija (véase la figura entre las distintas capas. Cada capa dores conseguimos en 1965. El holo- 15 ). Si mueve la cabeza verticalrefleja luz de todos los colores, pero grama de luz blanca de Denisyuk es, mente, la imagen desaparece, puesto sólo resultan reforzados algunos de en efecto, un holograma que está unido que no hay paralaje vertical. En camellos, dependiendo del espaciado entre a un filtro cromático de banda estrecha bio se logra una imagen bastante brilas franjas. Como fue la luz o riginal la en una misma estructura. Pueden con- llante, pues toda la luz que normalque determinó tal separación, los colo- seguirse los mismos resultados si se mente se dispersaría a lo largo de una res resultantes son también los origi- miran otros tipos de holograma con luz línea vertical de, digamos, un metro nales. blanca a través de un filtro de banda en la posición del observador, ahora estrecha, de suerte que la principal se concentra en la imagen de la renl trabajo de Denisyuk es un hito ventaja de este tipo concreto reside en dija y la luminosidad puede ser varios de la holografía. Combinando los evitar la inconveniencia de tener que centenares de veces mayor. resultados de Lippmann y de Gabor, usar un filtro separado. Este método tiene otra ventaja utiliza luz coherente para registrar Stephen Benton realizó otro avance mucho más importante. Si se ilumilas imágenes de difracción produci- importante de la holografía de exhi- nase el holograma con luz de dos londas por el objeto, en vez de su imagen bición en 1969. Su método consta de gitudes de onda diferentes, la disperdirecta. El método de Denisyuk con- dos etapas; primero se hace un holo- sión lateral produciría dos imágenes siste en hacer que la luz pase a través grama del modo habitual (que suele de la rendija desplazadas verticalde una placa, incida sobre el objeto y ser de un objeto tridimensional) y mente, una para cada color. El obser-
E
LA CIENCIA DE LA LUZ
65
15. LOS HOLOGRAMAS EN ARCO IRIS se realizan en dos etapas. Primero se crea un holograma “patrón” corriente ( arriba ). Luego se sitúa sobre él una rendija horizontal y se forma una imagen real, o frente de onda convergente, iluminándolo con la versión conjugada, o de tiempo invertido, del haz de referencia (centro ). Esta imagen sirve entonces como objeto para un segundo holograma, que se impresiona cerca del espacio de la imagen real con ayuda de un haz de referencia convergente, desplazado verticalmente. Si se ilumina el segundo holograma con una fuente de luz blanca, cada longitud de onda forma una imagen de la rendija en una posición vertical diferente (abajo). Cuando el observador mira a través de cualquiera de estas imágenes de la rendija, la escena original se percibe en tres dimensiones, dotada de paralaje horizontal y en un solo color.
mismas nitidez y claridad. Si su cabeza no estuviera en el plano de la imagen de la rendija, seguiría viendo la imagen completa, pero el color cambiaría de arriba aba jo. Esta es la razón de que, a veces, se haya dado a estos hologramas el nombre de “hologramas de arco iris”.
A
vador vería la imagen completa en un color, cuando colocara sus ojos en una de las imágenes de la rendija y, en otro color, cuando los colocara en la otra. Extrapolando este proceso a la iluminación con luz blanca, caso en el que la imagen de la rendija se difuminaría en un espectro continuo, resultaría
66
que el observador podría situarse en cualquier lugar de esta zona para ver el holograma. Donde quiera que sitúe sus ojos, verá la imagen nítida y clara en el color que corresponda a esa parte del espectro. Al mover la cabeza verticalmente la imagen percibida cambiará de color, pero conservará las
cambio de renunciar a la paralaje verti cal , per o con serva ndo la paralaje horizontal normal, se obtienen hologramas que pueden verse con luz blanca sin necesidad de ningún filtro de banda estrecha, ni externo ni incorporado. Además se utiliza toda la luz blanca, en vez de una reducida banda del espectro, por lo que los hologramas Benton resultan extraordinariamente brillantes. La pérdida de la paralaje vertical no suele tener mayor importancia, puesto que el observador suele mover la cabeza en sentido horizontal, casi nunca en el vertical. Es claro que si moviera los ojos verticalmente, cada uno de ellos recibiría la misma imagen y no habría percepción de tridimensionalidad. En suma, el método Benton es un trueque venta joso en el que se renuncia a aspectos de poca monta para conseguir otros importantes. Otra mejora notoria, la técnica compuesta o múltiple, supera algunas de las limitaciones básicas de las técnicas holográficas más habituales, consiguiendo resultados impresionantes. Consiste en sintetizar el holograma a partir de muchísimas fotografías corrientes. Las fotos, tomadas desde posiciones diferentes, constituyen vistas múltiples del objeto y, en su con junto, reúnen toda la información esencial contenida en un holograma. El método compuesto sintetiza las fotografías en un único holograma.
TEMAS 6
Las primeras informaciones sobre hologramas compuestos las publicó Robert V. Pole en 1967. Durante los años siguientes se lograron muchos avances que culminaron en un sistema perfeccionado por Lloyd Cross y sus colaboradores, quienes introdujeron además varias innovaciones oportunas. Para hacer un holograma según el método de Cross, se sitúa el objeto en una plataforma que gira lentamente mientras una cámara cinematográfica toma cientos de fotogramas, exactamente igual que en el cine corriente. Todos estos fotogramas se convierten luego en un único holograma del siguiente modo: gracias a una iluminación coherente, se convierte el primer fotograma en una imagen sobre una pantalla de vidrio esmerilado. La luz transmitida por la pantalla se registra en forma de holograma sobre una placa que consiste en una cinta larga y delgada, como de un milímetro de ancho por veinte centímetros de largo. El cometido de la pantalla es el de dispersar hacia la rendija luz que provenga de todos lados de la imagen. Los sistemas reales se diferencian de éste en que utilizan una lente cilíndrica grande en el plano de la imagen, en lugar del difusor, para dirigir la luz a la rendija, con lo que se obtiene mucha mejor calidad. Tras holografiar de este modo un fotograma, se proyecta el siguiente de la misma manera, formándose un nuevo holograma en una posición adyacente y contigua a la del primero. Esto se hace a gran velocidad con todos los fotogramas por medio de una rendija vertical que se desplaza sobre la película virgen entre cada dos exposiciones. El holograma compuesto resultante se coloca sobre un bastidor en forma de arco, cuyo ángulo corresponde al de rotación del objeto, y se ilumina como un holograma corriente. Cada holograma componente proyecta una imagen virtual sin profundidad o paralaje, exactamente igual a la imagen de la que se hizo el holograma. Pero cuando un observador lo contempla, cada ojo mira a un punto de la imagen a través de hologramas distintos. Las imágenes formadas en las dos retinas son así ligeramente diferentes, como en un estereoscopio, y se perciben como una imagen tridimensional. Si mueve la cabeza lateralmente, apreciará diferentes imágenes holográficas, que reproducirán las relaciones de paralaje de la vida real. Los numerosos fotogramas que contienen muchas vistas diferentes se han con vertido, en efecto, en un holograma único. Es indudable que los cambios de paralaje se producen en forma de
LA CIENCIA DE LA LUZ
pequeños saltos, pero se notan tan poco como los de la secuencia de fotogramas de una película. No hay paralaje en el plano vertical, cosa que vuelve a no tener trascendencia. Pueden combinarse las técnicas de Cross y de Benton para conseguir la visión con luz blanca. No se pierde nada esencial al hacerlo, ya que los hologramas compuestos nunca tienen paralaje vertical.
E
sta técnica ha permitido construir hologramas de seres vivos sin recurrir a la iluminación con rayo láser. Cabe incluso un cierto movimiento del objeto, por lo que se han conseguido hologramas que permiten ver a un individuo moviendo la mano, levantándose o cambiando su expresión facial. Para que este movimiento sea perceptible hay que ver secuencialmente las distintas partes del holograma, ya sea el observador o el holograma el que se desplace. Los hologramas compuestos se elaboran mediante fotos hechas normalmente y con luz blanca ordinaria. Si se usa la técnica de Benton, pueden verse también con esta luz. Puesto que el holograma sólo está formado de transparencias y puesto que el cono de rayos que incide en cada parte de la película es bastante estrecho, también podría construirse con la luz casi coherente de una lámpara de arco de mercurio o, aprovechando nuestra técnica original de exploración, con luz blanca ordinaria. En resumen, el proceso de Cross, que produce hologramas de los más complicados e impresionantes, no requiere en absoluto del láser y podía haberse usado incluso a finales de los años cuarenta, cuando Gabor ideó la holografía. La descripción que hemos hecho de los métodos holográficos y de sus exigencias de coherencia arroja una conclusión fundamental: el proceso no depende para nada de una iluminación muy coherente, ni en la fase de elaboración ni en la de contemplación. Y la verdad es que nunca dependió.
BIBLIOGRAFIA COMPLEMENTARIA PHOTOGRAPHY BY LASER. Emmett N. Leith
y Juris Upatnieks en Scientific American , vol. 212, n.o 6, págs. 24-35; junio, 1965. ADVANCES IN HOLOGRAPHY. Keith S. Pennigton en Scientific American , vol. 218, n.o 2, págs. 40-48; febrero, 1968. HOLOGRAPHY: WITH AN INTRODUCTION TO THE OPTICS OF DIFRACTION, INTERFERENCE, AND PHASE DIFFERENCES . H.
Arthur Klein. J. B. Lippincott Company, 1970.
67
Optica adaptativa John W. Hardy
Unas técnicas desarrolladas durante la guerra fría con fines militares dotan de nuevas posibilidades a los telescopios terrestres
L
a turbulencia atmosférica, que terrestre, donde la turbulencia lo dishace que las estrellas titilen y torsiona. Los cambios de temperatura los objetos lejanos centelleen, ha asociados con la turbulencia producen sido fuente de frustración para los variaciones en la densidad del aire, astrónomos desde que se inventaron los causa del retardo que sufren, en telescopios. “El único Remedio es un diverso grado, distintas partes del Aire sumamente sereno y tranquilo”, frente de onda y motivo de que la imaescribió Sir Isaac Newton en 1704, gen se distorsione. Con la incorpora“como el que quizá haya en las cimas ción de un sistema de óptica adaptade las Montañas más altas, por encima tiva en los telescopios se pretende de las Nubes corpóreas”. Los astró- invertir dicho efecto y restaurar la nomos han seguido este consejo que forma esférica del frente de onda. Newton ofreció en su Optica, pero hasta Se empieza por determinar el grado en las cimas más altas la turbulencia de desfase de cada componente del atmosférica limita la potencia de los frente de onda con respecto a los otros. grandes telescopios. El Telescopio Para ello se divide el espejo del teles Espacial Hubble da fe de la altura a que copio en una serie de zonas y se mide están dispuestos a llegar los astróno- la inclinación del frente de onda en mos para librarse de la turbulencia. cada una. Con la información resulInvestigadores de distintos centros tante, una vez procesada mediante han perseguido otra solución del pro- circuitos electrónicos de gran velociblema de la turbulencia atmosférica, dad, se gobiernan los actuadores que que no requiere abandonar la super- determinan la posición de cada zona de ficie terrestre. También nosotros en la la superficie del espejo. Así, se deforma compañía Litton Itek Optical Sys- el espejo de suerte tal que cualquier tems, en Lexington. Nuestro método, componente del frente de onda que al que se da el nombre de óptica adap- llegue más tarde que otro recorra una tativa, se basa en el desarrollo de la distancia más corta hasta el punto tecnología espacial, aunque, por iro- focal. Este proceso de medida y ajuste nía de las cosas, se aplica a los teles- —una realimentación clásica— se copios terrestres. La óptica adaptativa repite cientos de veces por segundo. emplea un espejo deformable para Cuando la óptica adaptativa funciona compensar, o corregir, la distorsión correctamente, todos los componentes que la turbulencia atmosférica causa han de llegar al punto focal en fase, en los frentes de onda. La técnica que creando una imagen nítida. sirve de soporte a dicha óptica mejoLos ingenieros de radar se habían rará la capacidad que los telescopios adelantado ya en la descomposición de terrestres de la próxima generación un frente de onda en partes para luego tendrán para resolver fuentes pun- devolverlas a la fase correcta. Los tuales y detectar en el cielo objetos de principios matemáticos necesarios extrema debilidad. para compensar la distorsión de un La construcción de telescopios astro- frente de onda son prácticamente los nómicos topa con la dificultad de obte- mismos para las imágenes ópticas que ner la imagen más clara posible de una para el radar. Al principio de los años estrella lejana, que debería aparecer cincuenta los ingenieros de radar como un solo punto. Los objetos exten- empezaron a dividir las antenas en sos, las galaxias, los planetas, pueden segmentos, al objeto de ajustar de considerarse colecciones de puntos. forma independiente la fase de la Una estrella lejana produce un frente señal proveniente de cada zona. Por de onda esférico que viaja por el espa- medio del desplazamiento de fase de cio hasta llegar a la atmósfera los componentes de la onda lograron
68
seguir objetos en movimiento con una antena fija o enfocar el haz sobre objetos situados a diferentes distancias.
L
a idea de aplicar principios adaptativos a los sistemas ópticos surgió en 1953, de la mano de Horace W. Babcock; propuso que se controlase el grosor de una capa de líquido depositada sobre un espejo rígido mediante un haz de electrones con el fin de compensar los errores de fase del frente de onda incidente. Los componentes del frente de onda cuyas fases precediesen a las demás se retrasarían haciéndolos pasar por una lámina de líquido más gruesa. En 1956 se aplicó la idea, más simple, de estabilizar el movimiento de la imagen con una placa lisa de inclinación variable en uno de los espectrógrafos del telescopio Hale de 5 metros. Robert B. Leighton describió el uso de un espejo de cabeceo y pistón ( tip-tilt), un espejo de inclinación ajustable, para obtener óptimas fotografías de los planetas. Sin embargo, la corrección total de la turbulencia atmosférica siguió siendo un objetivo inalcanzable hasta los años setenta, por un doble interés de la defensa estadounidense. Primero, los científicos del Pentágono que se dedicaban a los misiles antibalísticos necesitaban encontrar la manera de enfocar un láser sobre un objetivo remoto, al tiempo que se protegía el haz de la degradación atmosférica. En segundo lugar, la Unión So vié tica estaba lanzando un gran número de satélites militares. La Agencia de Proyectos Avanzados de Investigación para la Defensa (la actual ARPA) bus1. TELESCOPIO equipado con óptica adaptativa, del que es responsable Robert Q. Fugate, del laboratorio Phillips. Los sistemas de óptica adaptativa mejoran las imágenes recogidas por los tel escopios terrestres al borrar los efectos difuminadores de la atmósfera.
TEMAS 6
caba me jores métodos para identifi- sistema. Afortunadamente, en 1966, carlos. Las fotografías tomadas con David L. Fried había ofrecido una telescopios de seguimiento de satéli- pista para hallar la respuesta. Fried tes emplazados en tierra resultaban, vio que los efectos ópticos de la turbua causa de la atmósfera, demasiado lencia del aire se pueden describir borrosas como para proporcionar imá- mediante formas —aberraciones— genes de utilidad aun aplicando un simples del frente de onda, tales como procedimiento de mejora digital. la inclinación, el desenfoque y el astigEn 1972 trabajaba yo en Litton Itek matismo (curvatura esférica y cilínOptical Systems , empresa que ganó un drica), harto conocidas para los que contrato con la ARPA para desarrollar trabajan en óptica. Además, la intensiun método más efectivo. Recurrimos dad de la turbulencia se puede reprea la óptica adaptativa para que la sentar con una sola magnitud —r 0— distorsión “volviese sobre sus pasos” que, para los telescopios corrientes, es antes de que se registrase la imagen; el diámetro de la mayor apertura utise trataba de construir un sistema de lizable antes de que la turbulencia compensación atmosférica en tiempo empiece a degradar la calidad de la real (CATR). imagen. A medida que la turbulencia Aunque este principio ya había sido aumenta, r0 disminuye. En los observaprobado en aplicaciones de radar, no torios terrestres, este parámetro varía se habían construido todavía los com- entre cinco y quince centímetros para ponentes de un sistema óptico adap- las longitudes de onda visibles, con un tativo. Para crear un sistema tal, hubo valor medio de diez centímetros. que enfrentarse a un problema clave: Por esa razón, los telescopios de gran ¿con qué finura hay que dividir el tamaño no resuelven nunca objetos del frente de onda incidente para lograr estilo de las estrellas dobles mejor que una reconstrucción satisfactoria de la lo haría un pequeño instrumento de imagen original? La respuesta deter- aficionado. (Los telescopios grandes mina cuántos actuadores, controlados recogen una cantidad suficiente de luz de forma independiente, necesita el que permita detectar objetos muy débiespejo deformable, lo que a su vez les. También hay períodos en los que determina el costo y la complejidad del la turbulencia es pequeña, lo que posi-
LA CIENCIA DE LA LUZ
bilita que estos instrumentos alcancen una buena resolución.) En óptica adaptativa, r 0 define el tamaño de cada una de las zonas que hay que ajustar a fin de restaurar la imagen. Para lograr una buena compensación a longitudes de onda visibles, un telescopio de 4 metros necesita un espejo deformable controlado por unos 500 actuadores. El valor de r0 depende también de la longitud de onda de la luz incidente. En la banda infrarroja, a dos micras, el valor medio de r0 es de unos 50 centímetros, de modo que el número de actuadores que requiere un telescopio de 4 metros desciende a 50, más o menos. Nos proponíamos construir un prototipo equipado con un número de actuadores suficiente para poner a prueba la idea. De una forma algo arbitraria, nos decidimos por 21 actuadores. Los únicos correctores de frente de onda disponibles en 1972 consistían en espejos segmentados y diseñados para remediar la distorsión de los láseres infrarrojos. Estos dispositivos pecaban de lentitud e imprecisión. Al principio parecía que un cristal de óxido de silicio bismuto era una alternativa prometedora. Vimos que era posible ajustar, mediante la aplica-
69
en una milésima de segundo que la lógica adaptativa necesitaba. Para nuestra fortuna, se estaba desarrollando un nuevo método de medir frentes de onda, la interferometría de desplazamiento de fase ( shearing interferometry). Los interferómetros se usan en óptica para medir la fase de un frente de onda superponiéndolo con un segundo frente cuyas características se conocen, con lo que se produce un patrón interferencial. En óptica adaptativa se necesita saber tan sólo la fase relativa de cada una de las zonas de la apertura con respecto a sus vecinas para determinar hasta qué punto la turbulencia atmosférica ha distorsionado la forma del frente de onda. Los interferómetros de desplazamiento de fase realizan esta tarea al desplazar, o “cizallar” ( shearing), dos copias del mismo frente de onda una distancia conocida y superponerlas a continuación. La intensidad del patrón de interferencia resultante es proporcional al gradiente, o pendiente, del frente de onda.
FRENTE DE ONDA ESFERICO
CAPA TURBULENTA
FRENTE DE ONDA DISTORSIONADO
S
TELESCOPIO ASTRONOMICO
IMAGEN PERFECTA
IMAGEN DISTORSIONADA
2. EL ASPECTO DE LAS ESTRELLAS depende, cuando se las observa desde una gran distancia, de la integridad de los frentes de on da de luz esféricos que producen. Si se pueden enfocar todos los componentes del frente de onda, la estrella aparece en forma de un punto de luz perfecto (izquierda). Sin embargo, la turbulencia atmosférica distorsiona aleatoriamente la morfología del frente de onda, lo que hace que los componentes lleguen desfasados al punto focal (derecha).
ción de un voltaje, el desplazamiento de fase de la luz que lo atravesaba. Pero el cristal transmitía una cantidad insuficiente de luz y su capacidad de corrección de la fase era muy pobre para los efectos de la turbulencia. Exploramos la posibilidad de utilizar un espejo flexible construido con una placa aluminizada, muy fina, que refle jara bien la luz y se doblara con facilidad, pero costó superar el problema de la estabilidad. Pese a que la superficie de un espejo deformable se desplaza menos de 10 micras, se ha de controlar con gran precisión —con una tolerancia muy pequeña, de un cincuentavo de micra. Julius Feinleib, Steven G. Lipson y Peter F. Cone se percataron de que, al montar un espejo de cristal muy
70
fino sobre un bloque de material piezoeléctrico dotado de electrodos, se podían controlar las deformaciones en cientos de zonas del espejo a la velocidad y con la precisión necesarias. Bautizamos al dispositivo con el nombre de espejo piezoeléctrico monolítico. Abordamos luego el problema de medir la distorsión del frente de onda. En aquel entonces, la técnica estándar para lograr una medida precisa de los frentes de onda ópticos consistía en un proceso muy lento en el que se exploraban y digitalizaban manualmente las fotografías procedentes de un interferómetro láser. Con un poco de suerte, la información sobre el fren te de onda estaba disponible al día siguiente, algo tarde para la respuesta
in embargo, aquellos interferómetros de desplazamiento de fase sólo trabajaban con luz monocromáti ca y producían un patrón de interferencia fijo. Para la óptica adaptativa necesitábamos tomar medidas rápidas del frente de onda usando luz blanca de banda ancha, procedente de satélites artificiales iluminados por el sol. James Wyant construyó un interferómetro de desplazamiento para la luz blanca mediante una red de difracción móvil que producía un patrón de interferencia con una variación de la intensidad sinusoidal. Una red de fotodetectores recogía la señal. Al comparar el desplazamiento de fase de la señal eléctrica resultante con una referencia prefijada, resultaba exactamente proporcional a la pendiente del frente de onda óptico en la zona correspondiente de la apertura. Este tipo de interferómetro de desplazamiento es fiable y estable ópticamente; requiere poco calibrado. Mejoras posteriores aumentaron la velocidad del dispositivo; llegó a medir 10.000 frentes de onda ópticos completos por segundo, velocidad que bastaba para medir la peor turbulencia atmosférica. Necesitábamos un elemento más para completar el sistema: un método rápido que sintetizase las mediciones del frente de onda procedentes de cada zona y trazase un mapa del frente de onda continuo que abarcara toda la apertura óptica. Este proceso de reconstrucción del frente de onda es indispensable para determinar el
TEMAS 6
ajuste de cada actuador individual. sensor del frente de onda mide la turDebido al reducido tamaño de los bulencia, podía observarse antes de la ordenadores digitales de esa época, el corrección, pero su compañera no era cálculo en serie presentaba proble- más que un confuso y oscuro borrón. mas. Volvimos a la tecnología analó- Ambas estrellas se movían trémulagica. Construimos una red eléctrica mente a lo largo de varios segundos de sencilla dispuesta de la misma forma arco. Al accionar el bucle de realimenque los actuadores detrás del espejo tación, se enfocaron con nitidez y perdeformable. Se aplicaron a los nodos manecieron inmóviles en el monitor. de la red corrientes eléctricas que El aumento del brillo de las imágenes representaban los valores del frente de onda medido, lo que produjo los volta jes exactos necesarios para ajustar los actuadores. Esta red en paralelo, velocísima, podíamos expandirla para manejar un gran número de actuadores sin merma de velocidad.
era aún más impresionante que la mejora de nitidez. A partir de estos primeros esfuerzos se han construido nuevos tipos de espejos deformables con más de 1000 actuadores. Algunos son espejos segmentados; constan de numerosas placas lisas, cada una montada sobre tres actuadores piezoeléctricos de capa múltiple. Los espejos segmentados
Así opera la óptica adaptativa
L
a óptica adaptativa compensa la distorsión del frente de onda de la luz estelar. Se empieza por concentrar en un haz estrecho la luz que entra en el telescopio. A continuación, el haz se refleja en un espejo deformable y en un segundo espejo, que corrige el movimiento de la estrella. Se divide entonces el haz, de modo que un sensor de frente de onda pueda medir el grado de distorsión de cada componente del frente de onda, información que dirige los movimientos compensatorios de los espejos. Por último, el haz compensado se enfoca hacia una cámara, que registra la imagen corregida. La figura muestra las imágenes corregidas y sin corregir de una estrella y del Telescopio Espacial Hubble visto desde la Tierra.
A
medida que se acercaba la fecha para probar nuestro compensador atmosférico en tiempo real, en diciembre de 1973, crecía nuestra preocupación por la estabilidad del instrumento mientras operase. Cada uno de los 21 actuadores estaba provisto de su bucle de realimentación, pero se producía un acoplamiento cruzado entre los bucles a través del espejo deformable. En otras palabras, la corrección del frente de onda en una zona ejercía un ligero efecto en las demás. Nuestros cálculos demostraban que el nuevo sistema debía ser estable, pero siempre existía la posibilidad de que surgiera un problema imprevisto. Nos preocupaba que el CATR empezara a oscilar, porque ello podría arruinar el espejo piezoeléctrico monolítico que habíamos diseñado. Durante las primera pruebas, comprobamos que el sistema, más estable que una roca, funcionaba a la perfección. El CATR demostró que la óptica adaptativa podía compensar imágenes extensas degradadas por la turbulencia. Pero los actuadores con los que contaba eran insuficientes para aplicarlos a un telescopio de grandes dimensiones. En 1976 comenzamos a construir una máquina mucho ma yor, el sistema de imagen compensada (SIC), provisto de 168 actuadores. J. Kent Bowker, Richard A. Hutchin y Edward P. Wallner desempeñaron papeles importantes en el diseño de este sistema pionero. En 1980 lo instalamos en el telescopio de 1,6 metros del monte Haleakala, en Maui. Cuando en la primavera de 1982 lo probamos con estrellas brillantes, el SIC mostró una estabilidad perfecta. El SIC nos aportó la primera prueba verdadera de hasta qué punto la óptica adaptativa mejora las prestaciones de los telescopios terrestres. Los resultados fueron admirables, especialmente para las estrellas dobles. La estrella más brillante del par, con la que el
LA CIENCIA DE LA LUZ
TELESCOPIO ASTRONOMICO
FRENTE DE ONDA DISTORSIONADA
CORRECCION DEL MOVIMIENTO DE LA IMAGEN
DIVISOR DE HAZ
FRENTE DE ONDA CORREGIDO
CAMARA
IMAGEN CONDENSADA
ESPEJO DEFORMABLE PROCESADOR DE DATOS
SENSOR DEL FRENTE DE ONDA
SISTEMA DE OPTICA ADAPTATIVA
EL HUBBLE SIN COMPENSAR
EL HUBBLE COMPENSADO
ESTRELLA 4968 SIN COMPENSAR
ESTRELLA 4968 COMPENSADA
71
3. PARA OBSERVAR objetos débiles, se ha de medir la turbulencia atmosférica con estrellas más brillantes (a ). Esta técnica sólo funciona si la estrella brillante se halla en la misma zona del cielo que el objeto que se observa; si están demasiado separados, la luz que emiten experimenta diferentes grados de turbulencia (b). Hay pocas estrellas cuyo brillo pueda servir de referencia, razón por la cual la técnica sólo resulta eficaz en una pequeña franja del cielo. Puede crearse un láser, dirigido a través de la atmósfera, a modo de estrella de referencia artificial (c). Con un tramado de balizas de láser se consigue iluminar un campo de visión entero (d). Con todo, seguimos precisando una estrella que caiga cerca para apuntar el telescopio.
a
b ESTRELLA BRILLANTE OBJETO DEBIL
CAPA TURBULENTA
REGION DE TURBULENCIAS COMPARTIDAS
REGION DE TURBULENCIAS DIFERENTES
son los que mayor capacidad tienen de compensar una turbulencia fuerte. Los segmentos están separados entre sí y proporcionan libertad de movimientos. Pero cada faceta requiere Se trabaja en la aplicación de redes una calibración frecuente. Debido a la neuronales a la interpretación de las discontinuidad entre un segmento y señales procedentes del sensor óptico el siguiente, los espejos de este tipo y al control del espejo deformable. tienden a difractar parte de la luz, lo Algunos creen que se puede enseñar que afecta a la claridad de la imagen. a una red neuronal a que interprete Por ello los astrónomos prefieren estos registros mejor que las actuales espejos continuos de placa frontal. redes basadas en algoritmos. Estos espejos constan de una lámina frontal de vidrio aluminizado y flexiese al éxito notable de las primeble montada sobre actuadores fabriras aplicaciones de la óptica adapcados con capas múltiples de material tativa, su adopción generalizada en el piezoeléctrico o electrorresistivo, que campo de la astronomía observacional se expanden o contraen en respuesta se ve obstaculizada por dos problemas a un voltaje de control. Los actuadores fundamentales. Primero, los objetos están montados sobre una placa base débiles pueden observarse sólo cuando rígida. Un espejo de placa frontal con- una estrella brillante se encuentra tinua tiende a una mejor estabilidad cerca de ellos. La necesidad de realizar dimensional, requiere menos mante- medidas en tiempo real de la turbulennimiento y proporciona una correc- cia tan rápidamente, al menos, como ción más homogénea por toda la aper- cambie la atmósfera determina el britura del telescopio. Otro tipo de espejo llo que ha de tener la estrella que sirva deformable, en proceso de desarrollo, de guía: en cada una de las pequeñas es el espejo bimorfo, constituido por zonas de la apertura del telescopio se elementos piezoeléctricos planos han de recoger los fotones suficientes adheridos a la parte posterior de una para tomar una medición precisa del lámina frontal delgada que se dobla frente de onda. En un sistema de óptica al recibir un voltaje. La Universidad adaptativa que trabaje con longitudes de Hawai está construyendo un sis- de onda visibles y bajo condiciones tema de óptica adaptativa basado en estándar, cada centésima de segundo un espejo bimorfo. Este sistema se hay que detectar al menos 100 fotones vale de un sensor de frente de onda por cada zona de 10 cm2. Para cumplir que mide directamente la curvatura este requisito, la estrella de guiado del frente de onda, lo que simplifica debe ser de magnitud 10 o más brilos cálculos requeridos para controlar llante. En promedio, hay sólo tres los actuadores. estrellas de esta magnitud por cada Para las longitudes de onda del grado cuadrado de cielo. infrarrojo, donde los efectos de la Esta restricción sería aceptable, de turbulencia atmosférica son menos no darse un segundo problema fundaintensos, los “correctores modales” mental: la compensación adaptativa ofrecen una posibilidad elegante de sólo es efectiva cuando abarca un compensar la distorsión del frente de ángulo diminuto del cielo —ángulo onda. Estos dispositivos corrigen la isoplanático—, que para las longitudes inclinación, el desenfoque, el astigma- de onda visibles no alcanza los cinco tismo y otras aberraciones. segundos de arco de ancho. Sobre un
área mayor, la turbulencia varía demasiado con respecto a la que mide el sensor del frente de onda para obtener una imagen uniformemente clara; sólo se compensará, pues, la parte central de la imagen, y ésta aparecerá cada vez más borrosa cerca de los contornos. Al no poderse compensar más que una minúscula zona del cielo alrededor de cada estrella de guiado, la óptica adaptativa, sirviéndose de estrellas de guiado naturales, no puede acceder a una gran parte del cielo. Se estudian dos maneras de burlar estos obstáculos. La primera es emplear longitudes de onda más largas (infrarrojas), donde los efectos ópticos de la turbulencia son mucho menos graves y, dado que el valor de r0 a esas longitudes de onda es entre 5 y 12 veces mayor que en las longitudes de onda visibles, cada zona de corrección puede aumentarse en la medida correspondiente. En una zona mayor las perturbaciones del frente de onda tardan más en variar; se tiene, pues, más tiempo para recoger la luz y, en consecuencia, se pueden utilizar estrellas más débiles de guías. Además, el ángulo isoplanático es mayor a longitudes de onda más largas y, por tanto, la zona sobre la que es efectiva la compensación adaptativa también aumenta. Estos factores, tomados en conjunto, permiten utilizar una estrella de guiado visible para otorgar mayor nitidez a las observaciones infrarrojas sobre una fracción del cielo mucho mayor de lo que sería factible con longitudes de onda visibles. El primer sistema infrarrojo, el Come-On, fue desarrollado a principios de los años ochenta por el Obser vatorio Europeo del Sur (ESO) e in vestigadores franceses. Se ha ensayado con
P
72
TEMAS 6
c
d
ESTRELLA ARTIFICIAL
HACES DE LUZ MULTIPLES
HAZ DE LASER
éxito en el telescopio de 3,6 metros del observatorio de La Silla, Chile. La segunda forma de abordar el problema consiste en utilizar haces de láser para producir balizas, o estrellas de guiado, artificiales. Investigadores del laboratorio Lincoln del Instituto de Tecnología de Massachusetts (MIT) y del laboratorio Phillips de las Fuerzas Aéreas de EE.UU . encontraron un método mucho más potente para medir la turbulencia atmosférica. En los años ochenta estudiaban cómo disparar un arma láser de modo que descargara la mayor cantidad de energía posible sobre un objetivo situado más allá de la atmósfera. Los láseres experimentan en las longitudes de onda visibles el mismo tipo de distorsión que sufre la luz procedente de una estrella lejana; se les puede, pues, aplicar los principios de la óptica adaptativa. En 1982 los del MIT corrigieron la distorsión de un láser emitido hacia el espacio con una versión del SIC que tenía 69 actuadores —el “experimento de compensación atmosférica (ECA)”. Uno de los experimentos realizados en el transbordador espacial Discovery consistió en que éste llevara un retrorreflector que reflejaba un haz de láser de vuelta a la Tierra, donde se medía con él la distorsión atmosférica. En pruebas posteriores, los retrorreflectores, instalados a bordo de cohetes, fueron elevados a alturas de 600 kilómetros. Al introducir su información en un espejo deformable, se logró “predistorsionar” un segundo láser de manera que atravesara la atmósfera y se enfocara en un pequeño objetivo si tuado en el cohete. Desde entonces, los instrumentos de óptica adaptativa del ECA se han utilizado con éxito en tareas astronómicas.
LA CIENCIA DE LA LUZ
Los láseres crean en la estratosfera estrellas artificiales de guiado para los telescopios astronómicos. Y lo hacen de dos formas: produciendo la retrodispersión de moléculas de aire a altitudes de 10 a 40 kilómetros —una dispersión de Rayleigh— o estimulando la fluorescencia de una capa natural de vapor de sodio que está a unos 90 kilómetros de altura. Como la baliza de láser está mucho más cerca del telescopio que una estrella real, el dispositivo genera un haz cónico que atraviesa sólo parte de la capa atmosférica turbulenta antes de llegar a la apertura del telescopio. Este efecto se acentúa más con las balizas Rayleigh de baja altitud y obliga a usar más de una baliza de láser.
R
obert Q. Fugate demostró en 1983 que con estrellas de guiado láser podían realizarse medidas del frente de onda. Otros investigadores crearon el primer sistema completo de óptica adaptativa que se valía de estrellas de guiado láser, el SWAT (las siglas en inglés de “técnicas adaptativas de longitudes de onda cortas”). Entre 1988 y 1990, en el observatorio óptico del monte Haleakala, se generaron con rayos láser de color pulsantes —su longitud de onda era de 0,512 micras— balizas artificiales a altitudes de entre 4 y 8 km. Se demostró que se había compensado la turbulencia mediante la comparación de imágenes de estrellas naturales tomadas con y sin la corrección adaptativa; el experimento enseñó que se obtenían mejores resultados con dos balizas de láser que con una. Cuando se recurre a las balizas de láser se suele emplear un tipo diferente de sensor del frente de onda —el
sensor Shack-Hartmann— porque puede trabajar con fuentes de luz continuas y pulsantes. El primero en utilizarlo fue Roland V. Shack, en 1971. Un tramado de lentes cubre el haz óptico; cada una de ellas produce una imagen de la estrella de guiado. Los gradientes del frente de onda se determinan al medir el desplazamiento de la imagen en cada zona. En principio, las balizas de láser deberían permitir que se aplicase la compensación adaptativa a cualquier objeto celeste, por débil que sea y para cualquier longitud de onda capaz de atravesar la atmósfera. Sin embargo, la necesidad de disponer de una estrella natural para apuntar el telescopio limita la eficacia de las balizas. Pero éstas no sirven para apuntar, pues no están fijas en el cielo; su posición absoluta varía en consonancia con el efecto de la turbulencia sobre el haz láser. Dada la necesidad de disponer de una estrella de apuntado, la óptica adaptativa sólo puede abarcar, a longitudes de onda visibles, un 30 por ciento del cielo. A longitudes de onda infrarrojas, la cobertura del cielo llega al 100 por cien. Uno de los problemas pendientes es el de la creación de imágenes nítidas a lo largo de grandes campos de visión. No se ha podido aún obtener una imagen compensada del disco de Júpiter; el disco mide unos 40 segundos de arco de ancho y engloba unos 50 parches isoplanáticos diferentes, o zonas donde la turbulencia atmosférica difiere bastante. Se discute el empleo de espejos deformables múltiples en conjunción con una serie de estrellas de guiado láser. Cada espejo actuaría, al compensar la turbulencia a lo largo de un intervalo de altitudes en la atmósfera, como un corrector tridimensional. Con las estrellas de guiado podrían realizarse muchas medidas del frente de onda, que abarcarían un amplio campo de visión. El diseño de la mayoría de los grandes telescopios que se están planeando o construyendo en estos momentos incluye la óptica adaptativa.
BIBLIOGRAFIA COMPLEMENTARIA ADAPTIVE OPTICS: REVISITED . Horace W.
Babcock, en Science, volumen 249, páginas 253-257; 20 de julio, 1990. PRINCIPLES OF ADAPTIVE OPTICS. Robert K. Tyson. Academic Press, 1991. ADAPTIVE OPTICS FOR ASTRONOMY: PRINCIPLES , P ERFORMANCE AND A PPLICA -
J. M. Beckers, en Annual Review of Astronomy and Astrophysics , volumen 31, páginas 13-62; 1993. TIONS.
73
Espejos líquidos Ermanno F. Borra
Está abierta la puerta a la construcción de telescopios gigantescos para ver más lejos que nunca gracias a los espejos de mercurio líquido muy ligeros, cuyo tamaño podría superar, en mucho, el de los espejos de cristal
D
urante casi cuatro siglos los Físico y escritor excéntrico, debe su ron todo el tiempo apuntando a una telescopios reflectores han fama sobre todo a una célebre denun- misma posición fija. Gracias a los dis venido recogiendo la vacilante cia. Francia se estremeció, en 1904, positivos de carga acoplada (DCA), luz procedente de millones y millones cuando reveló que no existían los finos sensores de luz de estado sólido, de estrellas y galaxias. Nos han des- rayos N, que decía haber descubierto obtuvieron una imagen muy precisa cubierto un universo vasto y complejo; René Blondlot, de la Universidad de sin haber tenido que mover el espejo han ensanchado nuestro mundo y Nancy. A petición de Wood, Blondlot del telescopio. nuestra imaginación. Sin embargo, le hizo en su laboratorio, a oscuras, pese a todos sus logros, el reflector una demostración de cómo se detectal detector DCA compensó la rotaclásico tiene serias limitaciones. Es ban, una vez filtrados por un prisma, ción de la Tierra llevando electrómuy caro. A menudo resulta casi los rayos N, que, sostenía Blondlot, se nicamente sus sensores de luz de este imposible bruñir y pulir una gran parecían a los rayos X. Wood no se lo a oeste, a una velocidad igual a la de superficie de cristal hasta conseguir creía; sustrajo el prisma, esencial desplazamiento de las imágenes que una parábola perfecta, la forma ideal para el experimento, y se lo metió en iba captando el telescopio. Este proceque concentra en un punto los rayos el bolsillo. Blondlot no se percató de dimiento viene a ser como tomar una de luz paralelos. Los espejos se defor- la falta, y sus resultados, tampoco. fotografía de un objeto en movimiento man con los cambios de temperatura Pero el espejo líquido de Wood no con una cámara que se mueva a la y, superado cierto tamaño, tienden a tuvo tanta suerte. La construcción de misma velocidad que él. Un objeto, por abombarse bajo su propio peso. un objeto de esas características exige lo general, sólo tarda en cruzar la Por ello, de vez en cuando, astróno- especial habilidad técnica, de la que estrecha abertura del detector unos mos y ópticos se acuerdan de una vieja carecía. Fotografió las estrellas que cuantos minutos, lo que limita la canrareza: el espejo líquido. No puede hun- pasaban ante su objetivo, pero las tidad de luz que se recoge. Sin dirse, así que cabe hacerlo tan grande imágenes eran borrosas. No era ade- embargo, dado que noche tras noche como se quiera. Además, darle forma cuado el cojinete sobre el que estaba se observan las mismas regiones del parabólica a un líquido es muy sencillo; apoyado el espejo; por culpa de ello, la firmamento, es posible crear imágeel tirón de las fuerzas de la gravedad y velocidad de rotación del mercurio no nes cada vez más intensas sumando centrífuga hace que la superficie de un permanecía constante y la distancia digitalmente, mediante un ordenador, líquido reflectante —mercurio, por focal se alteraba. Además, vibraciones exposiciones sucesivas. ejemplo— en rotación forme una pará- y corrientes de aire produjeron rugoEl logro de Gunn, Schneider y bola perfecta. Este fenómeno, que se sidades en la superficie del mercurio. Schmidt reavivó mi interés por los produce también al remover el café, Por si esto fuera poco, otra dificultad espejos líquidos, de los que había oído ofrece una superficie óptica perfecta de primer orden acosó al astrónomo: hablar en mis primeros años de carrera. que no precisa ser pulida. En conse- un espejo líquido no se pue de inclinar Aunque la idea me pareció sugestiva, cuencia, el coste de los espejos líquidos como se inclina, para compensar la nunca pensé en la viabilidad de su aplipodría ser mucho menor que el de los rotación de la Tierra, un espejo de cación. Sería por los días del experiespejos de cristal. Además, como la cristal, razón por la que las estrellas mento del Monte Palomar; disfrutaba óptica adquiere tanto interés en la quedaron grabadas en la película foto- yo entonces de un período sabático en mayoría de las mediciones científicas, gráfica en forma de rayas. Wood relató la Universidad de Arizona, donde J. los espejos líquidos también podrían con gracia todos estos problemas en Roger, P. Angel y John McGraw se ser de utilidad en numerosos campos un artículo que se publicó en el empeñaban en sacar partido de los de la investigación y la ingeniería. DCA. Se proponían construir un nuevo Astrophysical Journal. No se sabe a quién se le ocurrió Así se quedaron las cosas hasta que, telescopio —cuyo funcionamiento es crear un espejo líquido. Podría haber en enero de 1982, un equipo de cientí- ahora rutinario— para la búsqueda de sido al propio Newton, que inventó el ficos demostró la eficacia de un método supernovas lejanas. El telescopio está telescopio reflector y sabía que la extraordinario que resolvía el pro- fijo permanentemente, de modo que no superficie de un cubo de agua que gira blema de la inclinación. James E. hacen falta ni una estructura ni una adopta una forma parabólica. Pero la Gunn, Peter Schneider y Maarten cúpula móviles. idea no se abordó en serio hasta Schmidt se pasaron una noche en la Al final de mi período sabático había comienzos de este siglo, cuando Robert cima del Monte Palomar observando caído en la cuenta de que no había W. Wood intentó construir un teles- una franja de cielo con el telescopio ninguna razón por la que una cámara copio de espejo líquido. Hale de cinco metros, que mantuvie- DCA pudiera recopilar imágenes pre-
E
74
TEMAS 6
cisas a partir de un espejo de cristal fijo y no a partir de uno líquido. Por supuesto, esa precisión se desperdiciaría si el espejo líquido no generase imágenes de gran calidad. De regreso en la Universidad de Laval me centré en el funcionamiento de los espejos líquidos. Encargué un cojinete lubricado por aire y un motor eléctrico. Nuestros talleres fabricaron el resto de los componentes. Transcurridos escasos meses examinaba mi primer espejo de mercurio, de 50 centímetros de diámetro. Realicé la prueba del cuchillo: acercar una hoja afilada al haz reflejado de un punto de luz. Un espejo ideal proyecta una imagen del mismo tamaño que la fuente puntual; la imagen se eclipsa en el instante en que la punta del cuchillo corta el paso de la luz refle jada. Un espejo defectuoso difunde la luz y crea una imagen mayor, cuyo brillo circunda la punta de la hoja del cuchillo. El resultado de la prueba fue una obstrucción limpia, señal inconfundible de la parábola. Construí otro espejo, de un metro, para estudiar la técnica del mercurio líquido. Me ayudaron Robin Arsenault y Mario Beauchemin. Los análisis posteriores confirmaron que la superficie del espejo era perfectamente parabólica y pasablemente lisa. La maquinaria sobre la que se apoyaba el espejo era tan estable, que las rugosidades de la superficie resultaron despreciables y la distancia focal, constante.
A
la vista de estos esperanzadores resultados decidí emprender un desarrollo en serio. Había que contar con una instalación adecuada para realizar mediciones ópticas exactas y dotarla de los equipos más avanzados. En la construcción hubo que atender al control de sutiles alineaciones ópticas, vibraciones del edificio y turbulencias del aire, perturbaciones capaces de ocasionar graves daños: si se quiere lograr un alto grado de precisión óptica, hay que reducir a un mínimo defectos de incluso 1/40 de la longitud de onda de la luz visible que se puedan producir en la superficie del espejo. En el transcurso de nuestros primeros trabajos con un espejo de mercurio de 1,5 metros de diámetro, Stanislaw 1. TELESCOPIO de espejo liquido de la Universidad Occidental de Ontario. El observatorio porta un sistema de detección y medición del alcance de luz. El telescopio capta la luz emitida por las moléculas que excita en la atmósfera un potente rayo láser.
LA CIENCIA DE LA LUZ
75
Szapiel había obtenido una imagen no interferencia de la luz. Procesamos una cámara programable de 35 milíresuelta de una estrella artificial en cientos de interferogramas, grabados metros, capaz de registrar rastros de una pantalla de televisión. La amplia- con una cámara DCA, hasta quedar- estrellas cuya duración no excedía de mos con una lente de microscopio y, nos satisfechos con la validez de nues- dos minutos. No fue difícil montar este para nuestro asombro, el monitor tros resultados. observatorio con un presupuesto razomostró un disco rodeado por anillos nable. Al final, la instalación en su alternos de oscuridad y luz tenue: ¡la l estudio de un espejo líquido conjunto funcionó bien. No se enconimagen se asemejaba al patrón de entraña mayor dificultad que el traron los destellos; concluimos que, difracción del espejo! La razó n de que estudio de un espejo de cristal porque de existir, no se producían con frese formen sombras es que, aun cuando la superficie de un líquido puede cam- cuencia. Pero lo realmente importante la calidad de una superficie óptica biar su forma muy deprisa. No se fue que este trabajo condujo a una roce la perfección, la naturaleza ondu- debe tomar el promedio de las medi- publicación que ha marcado un hito: lada de la luz impone una limitación das, como se hace con los espejos de la descripción de la primera investifundamental. Las ondas de luz refle- cristal, ya que esta operación infra- gación llevada a cabo con éxito gracias jadas por el espejo se superponen y valoraría las aberraciones debidas a a un espejo líquido. eliminan o refuerzan, tal y como las la turbulencia del aire y a las vibraPero, ¿qué observaciones pueden ondas de la superficie de un estanque ciones. Durante esta etapa de prue- realizarse con un telescopio, por muy generan diseños complejos; aparece bas, la cuidadosa preparación rindió preciso que sea y por muy fácil y ecoentonces un punto de luz, un disco sus frutos. La interferometría demos- nómico que resulte construirlo, si no rodeado de anillos sombreados que tró que la superficie parabólica de un es posible apuntarlo a voluntad? La corresponden al juego constructivo o espejo líquido bien afinado se man- mayoría de los sistemas de detección destructivo de la luz reflejada. Como tiene precisa en 1/30, por lo menos, y registro pueden adaptarse a un teconsecuencia, la nitidez de una ima- de la longitud de una onda de luz, lo lescopio fijo. Aunque no hubiese más gen no se basa tanto en la calidad del que anda cerca de la precisión espe- que la técnica ya probada —la que espejo cuanto en su diámetro: a mayor cificada para el Telescopio Espacial registra las observaciones con los anchura del espejo, más nítida la ima- Hubble. DCA—, es de esperar que los telescogen. Al principio nos costaba creer Pese a que las pruebas conducidas pios de espejo líquido faciliten apreciaque lo visto en la pantalla era el en nuestro laboratorio arrojaron en blemente los rastreos astronómicos. patrón de difracción característico del dos años resultados mucho mejores de Estos instrumentos deberían beneespejo. Pero tras mucho discutir, cal- lo que esperábamos, teníamos aún que ficiar a los cosmólogos. Ellos trazan el cular y experimentar, aceptamos la evaluar el comportamiento del espejo mapa del universo y tienen que obse rprobabilidad de que nuestro espejo líquido en el exterior, sometido a los var objetos extremadamente tenues; fuese casi perfecto. efectos de la intemperie. Para ello necesitan, por tanto, observar durante La confirmación de esta conclusión construimos un observatorio donde largo tiempo con telescopios de gran requería la realización de pruebas aún alojamos, en 1986, un espejo líquido diámetro, pero, dado su elevado coste, más rigurosas. Robert Content estu- de 1 metro y, al año siguiente, uno de nadie puede acceder a ellos a título dió concienzudamente el espejo de 1,5 1,2 metros. Del funcionamiento del individual. Hay tal demanda de tiempo metros con un interferómetro de observatorio se encargaron estudian- de observación en telescopios de cierto lámina de difusión. Este instrumento tes; durante 63 noches despejadas tamaño, que ni siquiera un equipo delinea el contorno de las superficies rastrearon destellos estelares que reunido en régimen de cooperación con una precisión extraordinaria. estaban por confirmar, captados en conseguirá más de una docena de Para ello registra los patrones de otros lugares. Por detector se empleó noches al año para un proyecto específico. Por consiguiente, se tarda años en completar un rastreo.
E
L
2. SUPERFICIE DE UN LIQUIDO EN ROTACION. Adopta una forma parabólica bajo la constante atracción de la gravedad y una aceleración centrífuga que crece con la distancia al eje central. La curva parabólica se produce porque una superficie líquida tiene que ser perpendicular a la aceleración neta que experimenta; en este caso, se va inclinando cada vez más conforme crece la distancia al eje.
76
os cosmólogos podrían disponer de los telescopios de espejo líquido más a menudo que de los costosos aparatos de espejo de cristal. Gracias a esa asequible técnica, el progreso de muchas tareas especializadas, desde la búsqueda de supernovas lejanas y cuásares hasta el estudio de la evolución y la topología del universo, podría avivarse. Paul Hickson construyó un telescopio de espejo líquido de 2,7 metros para realizar rastreos espectroscópicos. El dispositivo utiliza un detector DCA y filtros de interferencia. Andrew E. Potter, Jr. y Terry Byers han construido un telescopio de espejo líquido de tres metros de diámetro destinado a la búsqueda de desechos espaciales no mayores de un centímetro, que constituyen una amenaza para naves y estaciones espaciales. Esta novedosa técnica ofrece, amén de grandes tamaños, valiosas propie-
TEMAS 6
dades: elevada calidad de Afo rtu nadam ente dis pon esu perficie, baja dispersión, mos de diversas opciones para aperturas muy rápidas y un reducir a un mínimo el barrido enfoque variable que se controla de la superficie por el aire. El con suma precisión. Puede, por uso de capas delgadas de mereso, mejorar la investigación en curio amortigua bastante las numerosos campos de la cienperturbaciones. Una capa de cia. Hemos trabajado con el moléculas orgánicas, de lípidos grupo dirigido por Robert J. por ejemplo, que flote sobre el Sica en la construcción de un mercurio también amortiguará espejo líquido que haga de las ondas producidas por el receptor en un sistema de detec viento. Una solución garantición y medición del alcance zada consiste en colocar una (LIDAR). Este tipo de instrupelícula de plástico sobre el mento inspecciona la atmósfera líquido en rotación. Tras probar a una altitud de 30 a 110 kilóuna serie de materiales, vimos metros. En primer lugar, el disque con películas delgadas y positivo dispara un potente rayo fuertes de mylar se protege la láser hacia el cielo para excitar superficie del espejo sin que la las moléculas de la atmósfera; luz se distorsione. éstas emiten luz, cuya intensidad y longitud de onda indican e pueden lograr otras mejolas condiciones de densidad y ras. Como el mercurio es temperatura del lugar donde se pesado, reemplazarlo por un encuentren. El receptor recoge líquido más ligero sería ventaesta luz delatora para interpre joso: un espejo que pesase menos tarla. La potencia captadora de descansaría sobre un cojinete y luz que tiene nuestro espejo de un recipiente más baratos. Por mercurio de 2,65 metros conello hemos empezado a experi vierte a este sistema en uno de mentar con galio, metal líquido los analizadores de la atmósfera más ligero que el mercurio. Los más sensibles que hay. resultados son esperanzadores, Dada la precisión de su forma y aunque el galio se solidifica a parabólica, los espejos fluidos 30 grados, se le subenfría con valen también como superficies facilidad. El subenfriamiento de referencia, de bajo coste, para consiste en mantener una suslas comprobaciones que han de tancia en estado líquido por hacerse en los talleres ópticos. debajo de la temperatura a la El uso más original que hasta el que normalmente se solidifica. momento se le haya dado a un John Gau vin y Gilberto Moretto espejo líquido se debe a Nathalie subenfriaron muestras de galio Ninane. Le saca hologramas a 3. LOS ESPEJOS LIQUIDOS aportan superficies hasta –30 grados. Comprobaron un espejo de mercurio de 1,4 ópticas extraordinarias. El interferograma (arriba) que las muestras siguieron en metros; iluminados de nue vo, corresponde a un espejo líquido de 2,5 metros de estado líquido, de forma estable, generan imágenes que sirven de diámetro. El análisis por ordenador ofrece una ver- durante varias semanas; se soliguía para que al pulir los espejos sión en falso color que muestra el contorno de la dificaron sólo cuando la tempede cristal se consigan parábolas superficie del espejo (centro ). Los rastros de estre- ratura descendió de los –30 grallas (abajo) se obtuvieron mediante un espejo líquidos. Gauvin fabricó un espe jo de perfectas. do de 1,2 metros y una cámara fotográfica, en 1987. Me movía en un principio la aleación de galio de 50 cenposibilidad de construir espejos tímetros de diámetro cuyo funde diámetros gigantescos, de más de superficie de un líquido que gira, se cionamiento fue bastante aceptable. 30 metros incluso. ¿Hasta qué diáme- mueve sobre un marco de referencia Las mejoras de los dispositivos de tro podemos llegar realmente? Sólo lo giratorio, como la Tierra. Hickson y corrección óptica, al expandir la zona sabremos si intentamos construir Brad K. Gibson, por un lado, y yo , por de cielo de la que le llegue luz al apaespejos cada vez más anchos. La rela- otro, hemos calculado que éste no rato, aumentarán también la utilidad tiva facilidad con que preparamos el sería un problema grave. De todas de los telescopios provistos de espejos espejo de 2,7 metros y lo económico formas, nuestras primeras observa- líquidos. Cuando la luz se refleja en que nos resultó son buenos presagios. ciones indicaron que el viento sí crea un espejo parabólico, sólo convergen De todos modos, hay varios factores perturbaciones notables. Aunque una en un punto las imágenes de los objeconstrucción aísle el espejo líquido de tos puntuales y distantes que estén que podrían limitar el tamaño. La curvatura de la Tierra introduce corrientes externas, el aire que su pro- situados directamente sobre el centro una pequeña variación focal, que pia rotación genera terminaría por de la parábola. Las imágenes de los puede corregirse. Hay, sin embargo, poner un tope a su tamaño. Las zonas puntos apartados de este eje central un factor geofísico preocupante: el periféricas de un espejo grande se son manchas, cuyo tamaño aumenta efecto Coriolis, que imprime un mueven a mayor velocidad que las de con su distancia al eje, lo que produce aspecto de espiral a las masas de aire un espejo menor, y esa velocidad supe- borrosidad. Estas distorsiones, que se que se mueven por el globo. Este efecto rior genera una mayor turbulencia dan en cualquier telescopio, se amise da cuando un objeto, por ejemplo la local en el aire. noran por medio de dispositivos ópti-
S
LA CIENCIA DE LA LUZ
77
cos auxiliares. Se trata de lentes o espejos coordinados que alinean los rayos extraviados de la luz reflejada; de esa manera se eliminan muchos errores de la imagen final. La disposición habitual de estos instrumentos permite obtener imágenes fidedignas con una anchura de alrededor de un grado, que es el doble del diámetro
aparente de la Luna. Con telescopios ubicados en varias latitudes de forma que abarquen diferentes partes del cielo, se ensancha la zona de visión. Sin embargo, sería más eficiente y mucho menos costoso desarrollar dispositivos de corrección perfeccionados para ampliar el campo de visión de un solo telescopio.
Con ese propósito, Harvey R. Richardson y Christopher L. Morbe diseñaron un corrector por ordenador que contrarrestara los errores específicos que se producen en las reflexiones de los espejos líquidos. El instrumento, de manejo un tanto difícil, ha de orquestar el movimiento de tres espejos. Aun así, gracias al corrector
Así funcionan los telescopios de espejo líquido
L
a NASA ha construido un espejo líquido de tres metros de diámetro (abajo, a la izquierda ) que buscará desechos espaciales. El diagrama ( arriba ) muestra cómo funciona. El espejo y el cojinete descansan sobre una montura de tres patas; el eje de rotación se alinea verticalmente por medio de dos tornillos ajustables. Un motor eléctrico sincrónico, conectado mediante poleas y una correa, mueve el girador situado bajo el recipiente del espejo; un alimentador de corriente alterna, estabilizado por un oscilador de cristal,
78
controla el motor. Sobre el recipiente base se fragua una parábola sólida hecha de una r esina de poliuretano. Una vez endurecida, se vierte el mercurio líquido en el cuenco. La sencillez del diseño de los espejos líquidos los hace asequibles y fáciles de construir. En el rudimentario observatorio (abajo, a la derecha ) construido en 1987 en Laval, Quebec, se efectuó la primera investigación astronómica realizad a con un espejo líquido. La construcción de un espejo de 2,7 metros de diámetro costaría algo más de dos millones de pesetas.
TEMAS 6
los espejos líquidos producen imágenes excelentes de luz que incide en el espejo formando un ángulo de hasta 7,5 grados con el eje central. Este trabajo pionero demuestra que es posible corregir las aberraciones introducidas cuando la luz se refleja en ángulo agudo en la superficie parabólica líquida.
P
ocas limitaciones afectan, en teoría, a los correctores optimizados. Con ellos, los telescopios de espejo líquido, a pesar de la estrechez del campo de visión, deberían tener a su alcance buena parte del cielo visible, lo que es de apreciar en espectroscopía o en la fotografía de muy alta resolución. Desde un punto de vista práctico, Ming Wang, Gilberto Moretto y yo, en colaboración con Gerard Lemaître, exploramos nuevas adaptaciones de los espejos correctivos. Lemaître inauguró esta técnica óptica, que consiste en deformar espe jos hasta darles una morfología compleja que elimine los errores de reflexión. Recientemente, Wang, Moretto y yo hemos diseñado por ordenador un corrector de gran capacidad, con dos espejos auxiliares. Da excelentes imágenes de zonas del cielo que están desplazadas del eje central nada menos que 22,5 grados. Un dispositivo holográfico podría, al menos en teoría, servir de mediador perfecto que reconciliase las diferencias entre la luz reflejada y su fuente de origen. Podría colocarse en el haz de luz reflejada un holograma grabado de antemano. Al pasar la luz a través del holograma, se filtrarían los errores predecibles. Mosaicos de hologramas generados por ordenador compensarían las aberraciones que se producen cuando la luz viaja largos trechos desde el cenit, a través de grandes campos de visión. ¿Podría instalarse en el espacio un telescopio provisto de espejo líquido? La idea es muy atractiva; los espejos líquidos gozan de excelentes cualidades ópticas, pesan poco y es fácil embalarlos. Pese a sus temperaturas extremas, la Luna podría, sin duda, albergar un telescopio así. El espejo, hecho de ligera aleación de galio, o quizá de una aleación alcalina aún más ligera, permanecería en estado líquido porque esas aleaciones tienen temperaturas de fusión muy bajas. En cambio, pensaba hasta hace poco que poner un telescopio de espejo líquido en órbita era imposible. La gravedad proporciona la aceleración necesaria para que se forme una parábola en la Tierra o en la Luna; un telescopio orbital se encontraría en estado de caída
LA CIENCIA DE LA LUZ
4. ESPEJO LIQUIDO, de 2,7 metros. Al cuidado de Luc Girard, es el receptor de un monitor atmosférico. Se encuentra en la Universidad Occidental de Ontario.
libre, así que no le afectaría la gravedad. No sería práctico que un motor proporcionara la aceleración requerida, ya que acabaría por quedarse sin combustible. Las posibilidades que ofrecerían los vehículos impulsados por velas solares han hecho que cambie de parecer. En 1992 publiqué un artículo en el Astrophysical Journal donde examinaba la posibilidad de que velas solares propulsasen telescopios de espejo líquido en órbita. El Sol proporciona una fuente inagotable de energía, que una vela solar emplearía en darle aceleración a la superficie líquida, para transformarla en una parábola. Quizá parezca una idea más fantasiosa que científica, pero se basa en supuestos razonables. No se ha lanzado todavía con éxito una nave impulsada por velas solares, pero un estudio realizado por la NASA a finales de los años setenta mostraba la viabilidad de esos vehículos. Para que el espejo acelerado por las vela s sola res no fues e adqu iriendo velocidad hasta el punto de acabar saliéndose del sistema solar bastaría con que el recipiente se desplazara más lentamente que su propia velocidad orbital. La vela solar contrarrestaría entonces la atracción gra vitatoria para que el telescopio se mantuviese en órbita. Es posible que reemplazara a toda la fuerza de gra vedad; así se tendría un ins trumento estacionario capaz de largos tiempos de integración. Colin McInnes ha demostrado que los vehículos provistos de velas solares podrían navegar
por múltiples rutas y cambiar de órbita. En tal caso, cabría apuntar un telescopio de espejo líquido en órbita como si fuera un telescopio corriente.
E
n el número de junio de 1987 de Physics Today, Per H. Andersen escribía una nota que llevaba por título: “¿Observarán los futuros astrónomos con espejos líquidos?” Siete años más tarde, se construyeron unos cuantos telescopios de ese tipo. ¿Cuántos astrónomos van a utilizarlos? El tiempo lo dirá, pero espero que, en el peor de los casos, sirvan para tareas astronómicas especializadas, como los rastreos. En el otro extremo, sueño que un día recaiga sobre ellos la mayor parte de la investigación astronómica, quedando relegados los telescopios inclinables a misiones muy concretas.
BIBLIOGRAFIA COMPLEMENTARIA LIQUID MIRROR TELESCOPES : HISTORY . B.
K. Gibson en Journal of the Royal Astronomical Society of Canada, vol. 85, número 4, páginas 158-171; agosto de 1991. THE C ASE FOR LIQUID M IRRORS IN O RBITING T ELESCOPES . E. F. Borra en Astro-
physical Journal, vol, 392, número 1, páginas 375-383; 10 de junio de 1992. L IQUID M IRRORS : OPTICAL SHOP TESTS AND CONTRIBUTIONS TO THE TECHNOLOGY. E. F. Borra, R. Content, L. Girard, S.
Szapiel, L. M. Boily en Astrophysical Journa l, volumen 393, n. o 2, páginas 829-847; 10 de julio de 1992.
79
Optica sin imágenes Roland Winston
Los concentradores sin imágenes —una especie de “embudos” de luz— recogen e intensifican la radiación mucho mejor que las lentes. Se utilizan en campos muy dispares de la física
M
uchos de nosotros aprendimos a concentrar la luz cuando éramos niños. Las ociosas tardes de verano resultaban perfectas para marcar a fuego iniciales sobre madera, utilizando simplemente los rayos del sol y una lupa. ¿Quién puede olvidar el asombro que producía el descubrimiento de que una pieza de vidrio ordinario permitía enfocar los rayos solares sobre un punto mínimo? La mayoría hemos vuelto a repetir la experiencia en la edad adulta. Si alguien preguntara cómo obtener la mayor concentración posible de rayos solares, casi todos aludiríamos a la utilización de una lupa, de una combina ción de lentes o tal vez a la de un espejo telescópico. La lección que aprendimos de niños no era del todo correcta. Aunque las lentes y los espejos concentren la luz, no son los mejores dispositivos para este cometido. La verdad es que el comportamiento de cualquier dispositivo óptico que concentre la luz formando una imagen se aleja bastante de lo esperado teóricamente. La razón es sencilla: aunque las imágenes que producen lentes y espejos sean casi perfectas en el punto focal, resultan turbias y distorsionadas fuera de él. Esta es la razón de que las máximas concentraciones de luz sólo puedan conseguirse cuando se prescinde de toda una serie de requisitos relacionados con la formación de imágenes, circunstancia de la que ha empezado a sacarse partido hace poco tiempo. Los dispositivos diseñados con este fin reciben el nombre de concentradores sin imágenes, que se comportan como un embudo. La luz penetra en los concentradores a través de una gran superficie y se refleja de suerte tal que incide sobre otra mucho menor. Es evidente que este proceso destruye toda imagen de la fuente luminosa, pero tampoco la necesitamos, puesto que lo que nos interesa es el efecto concentrador. La
80
misión de un horno solar, por ejemplo, no es formar una imagen perfecta del Sol; lo importante es que reciba la máxima intensidad de rayos solares por unidad de superficie. Las grandes concentraciones de luz que se obtienen con estos dispositivos sin imágenes han encontrado ya numerosas aplicaciones en campos científicos y técnicos muy dispares, desde la física de altas energías hasta la energía solar. Los investigadores continúan trabajando para descubrir nuevas aplicaciones de los concentradores sin imágenes, aplicaciones que se basan siempre en la obtención de grandes intensidades de luz, sin que sea necesario preservar las imágenes. El autor de este artículo y sus colaboradores de la Universidad de Chicago estudiaron la utilización de esta clase de dispositivos para obtener grandes intensidades de luz solar en cualquier lugar del sistema solar, incluyendo la propia superficie del Sol.
tivos que concentran la luz hasta un límite lo más elevado posible. Mis investigaciones sobre óptica sin imágenes comenzaron en el campo de la física de altas energías. T. A. Romanowski y yo colaboramos en una experiencia para detectar una desin-
L
a óptica sin imágenes nació a mediados de los años sesenta, cuando un soviético, V. K. Baranov, un alemán, Martin Ploke, y el autor diseñaron, cada uno por su cuenta, los primeros concentradores parabólicos compuestos. El nombre del dispositivo resulta inapropiado, porque sus paredes no suelen ser parabólicas. La denominación alude a una clase de disposi1. CONCENTRADORES sin imágenes, denominados concentradores parabólicos compuestos; recogen los rayos solares que llegan al tejado del edificio del Departamento de Agricultura en Springfield. Los reflectores que forman este sistema aumentan al máximo la concentración de luz que llega hasta un conjunto de tubos en los que se ha practicado el vacío. Los tubos retienen el calor de forma parecida a como lo hace un termo doméstico. La superficie total del sistema, que se utiliza para calentar y refrigerar el edificio, es de algo más de 1000 metros cuadrados.
TEMAS 6
tegración rara de lambda, partícula La radiación de Cerenkov es la analo- electrones son lo suficientemente eleque pertenece a la clase de los hipero- gía óptica de la “explosión sónica”. vad as par a produc ir rad iac ión de nes, partículas inestables. Los hipero- Igual que se produce una onda sonora Cerenkov. nes se parecen a los protones y neu- de choque cuando un avión a rea cción Para detectarla era necesario recotrones que existen en la materia vuela a una velocidad superior a la del ger la débil luz producida y hacerla ordinaria, pero su masa es algo mayor. sonido en el aire, así, cuando una par- llegar a unos fotomultiplicadores, con Las partículas lambda se suelen des- tícula se mueve en el interior de un el fin de registrar la presencia de un integrar en un protón (o un neutrón) sólido, líquido o gas con una velocidad solo electrón. Sin embargo, dado que y un pion; pero en estas desintegra- mayor que la de la luz en estos medios, la luz emitida era muy débil y se disciones se produce un electrón con una se produce la emisión de una onda de tribuía sobre una superficie muy frecuencia del orden de uno por mil. choque luminosa. (Los lectores saben grande y bajo ángulos muy diferentes, Nosotros deseábamos investigar esta que, de acuerdo con el postulado de captarla por métodos corrientes desintegración rara de las partículas Einstein, nada puede mo verse con una hubiera requerido más de cien tubos lambda para comprobar el modelo de velocidad mayor que la de la luz en el fotomultiplicadores de gran tamaño C a b b i b o - K o b a y a s h i -Masakawa. vacío; aunque la velocidad de una par- (doce centímetros de diámetro), lo que Nuestro trabajo consistía en detectar tícula en esos medios materiales resultaba muy costoso y poco práctico. estas desintegraciones raras con elec- pueda superar a la velocidad de la luz Era obligatorio, pues, aplicar una téctrón en el seno de los procesos domi- en ellos, nunca puede ser mayor que nica diferente. Al fin y al cabo un tubo nantes con pion. la de la luz en el vacío.) La velocidad fotomultiplicador no necesita obtener Nos propusimos detectar los elec- con que se mueven los piones es mucho una imagen perfecta de una fuente trones producidos en dicha desinte- menor que la de los electrones, porque luminosa para funcionar bien; lo único gración estudiando la radiación de su masa es unas 300 veces ma yor; por que necesita es recibir luz. Cerenkov, efecto denominado así en tanto, en el seno de un gas de fluorCuando nos enfrentamos a este promemoria de su descubridor soviético. carburo, tan sólo las velocidades de los blema, sabíamos ya que era posible
LA CIENCIA DE LA LUZ
81
captar luz con mayor eficiencia que la de los dispositivos habituales de obtención de imágenes. Un simple cálculo me convenció de la posibilidad de obtener un rendimiento cuádruple del común, reduciendo así el número de fotomultiplicadores necesarios a un par de docenas. Con la ayuda de Henry Hinterberger, un ingeniero experimentado, empezamos a trabajar en este proyecto. Meses después diseñábamos y construíamos el primer concentrador parabólico compuesto, un reflector en embudo. Estábamos en el año 1965.
A
demás de resolver nuestro problema, había yo contribuido a descubrir el campo de la óptica sin imágenes, aunque en aquel entonces no era consciente de ello. Pocos avances 2. METODO DE LOS RAYOS MARGINALES, una de las dos técnicas empleadas se produjeron en él hasta mediados de para diseñar concentradores sin imágenes. El concentrador se construye de suerte los años setenta, cuando otros invesque todos los rayos luminosos que entran en el dispositivo según cierto ángulo de tigadores empezaron a darse cuenta incidencia máximo se dirijan, tras sufrir como mucho una sola reflexión, hasta el orificio de salida. Se puede comprender cómo funciona este dispositivo haciendo de las enormes posibilidades que ofredeslizar un trozo de cuerda (línea azul) a lo largo de una barra (línea roja). El cían estos concentradores sin imágediagrama muestra a la cuerda en varias etapas del proceso de deslizamiento. La nes en relación con la astronomía y la cuerda se mantiene siempre tensa en dirección paralela a los rayos de luz incidenenergía solar. Fue entonces cuando te, doblándose luego bruscamente para ir a buscar el orificio de salida ( punto A ), llegaron a mi conocimiento los descude modo que su longitud total permanezca inalterada. Los puntos en los que se brimientos independientes de Baranov dobla la cuerda definen la pared del concentrador. y Ploke, casi diez años después de que se hubieran producido. Existen ahora dos formas de diseñar concentradores sin imágenes. La primera de ellas se conoce con el nombre de método de los rayos marginales. Consiste en que la luz penetra en el concentrador bajo ángulos de incidencia comprendidos entre cero grados (incidencia superior) y cierto valor máximo, por ejemplo, 20 grados. En el método de los rayos marginales, todos los rayos de luz que penetran en el dispositivo según el máximo ángulo son dirigidos, tras sufrir a lo sumo una reflexión, hasta el borde del orificio de salida. Por tanto, todos los rayos restantes del haz, correspondientes a los ángulos intermedios, se reflejan dentro de la propia abertura de salida, un fenómeno llamativo que se produce de forma perfecta en dos dimensiones (concentradores en artesa) y casi perfecta en tres dimensiones (concentradores en cono). La belleza del método de los rayos marginales estriba sobre todo en su sencillez. El segundo método, de contenido más abstracto, se parece muy poco al método de los rayos marginales. Entre los investigadores que han contribuido a desarrollar el método del 3. CONCENTRADOR PARABOLICO COMPUESTO, basado en el método de los rayos flujo vectorial geométrico, que es marginales, que concentra la energía solar en los tubos absorbentes. El que uno de como se le llama, quisiera mencionar ellos aparezca negro indica que ha absorbido todos los rayos del campo angular del a Walter T. Welford y a Xiaohui Ning. concentrador. Esta configuración permite la máxima absorción de los rayos solares Cuando se usa este método, se supone sin recurrir a un costoso equipo de seguimiento y sirvió de base a diversos concenque el conjunto de rayos que atratradores solares comercializados a principios de los años och enta. Con la superación de la crisis petrolífera, gran parte de la investigación se trasladó a Japón. viesa un sistema óptico se comporta
82
TEMAS 6
en principio como un fluido. Ahora bien, en lugar de atravesar el espacio en el sentido usual de la palabra, dichos rayos atraviesan un espacio fásico, una región abstracta constituida por las posiciones y las direcciones de los rayos. El flujo vectorial geométrico es una magnitud que está relacionada con los valores de las posiciones y direcciones. El diseño de un concentrador para una aplicación determinada ocurre de suerte tal que dicho flujo vectorial se conserve, es decir, que no sufra ninguna perturbación.
E
4. FLUJO VECTORIAL GEOMETRICO: método para construir concentradores sin imágenes. Supongamos que un con junto de rayos que atraviese un sistema óptico se comporte como un fluido. En el caso de un objeto redondo, por ejemplo, una naranja, las líneas de flujo son radiales. Si enrollamos una lámina flexible de un material muy reflector dándole una forma cónica, situando la cara reflectora en su interior, de manera que en el extremo más estrecho exista un agu jero del tamaño de una moneda (arriba), podremos situarlo sobre la naranja de modo que parezca vérsela entera por la parte más ancha (abajo). El cono sigue las líneas del flujo y da la impresión de que puede verse la naranja entera, cuando la realidad es que toda ella, salvo una pequeña parte, está tapada.
sta forma de decirlo puede resultar demasiado oscura, pero un ejemplo lo aclarará. Imaginemos una lámina flexible de una película muy reflectora del tamaño de esta revista por él, presentando una superficie y un objeto redondo, por ejemplo, una mayor a la luz incidente, lo que equinaranja. Supongamos que la lámina vale a decir que los rayos luminosos se enrolla para formar un cartucho de se concentran. forma cónica, con la cara brillante en La proliferación de dispositivos el interior, y se deja un agujero del ópticos sin imágenes obedece al deseo tamaño de una moneda en uno de sus de diseñar concentradores solares que extremos (véase la figura 4 ). Este agu- no necesiten orientarse para ir jero se coloca sobre la naranja y se siguiendo la trayectoria del Sol. Tanto ajusta la abertura del cono hasta con- por razones de eficacia como de econoseguir que, mirando desde el otro mía, es necesario que los dispositivos extremo, pueda vérsela entera. En de energía solar concentren los rayos esta situación el concentrador (el cono solares. Las temperaturas que sumireflector) no perturba el flujo vectorial nistra un calentador solar aumentan geométrico asociado a la naranja; las a medida que lo hacen las concentralíneas de flujo que emergen de ella son ciones de luz; con frecuencia resulta radiales por efecto de la simetría y el más barato concentrar la luz procecono sigue estas líneas. Esta es la dente de una superficie determinada razón de que pueda verse la naranja sobre una superficie menor de células entera, aunque su mayor parte quede solares que llenar toda la superficie oculta al ojo. con células solares. Sin embargo, los Este efecto es mucho más que una sistemas de seguimiento se basan en simple ilusión óptica. El cono refleja la utilización de máquinas muy comlos rayos de luz de una porción pequeña plicadas, cuyos gastos de instalación de la naranja de forma tal que lo que y de mantenimiento repercuten en el se ve es toda la naranja. Supongamos coste de la energía generada. ahora que invertimos la dirección de a crisis del petróleo avivó el desatodos los rayos. Los rayos que penetran en el cono y se dirigen hacia la rrollo de fuentes de energía superficie de la naranja serán refleja- alternativas y propició una carrera dos hasta el agujero más pequeño. En para hacer más atractiva la opción de otras palabras, los rayos que normal- la energía solar. Surgió así un interés mente se dirigirían hacia la superficie en la construcción de concentradores de la naranja pasan ahora a través del solares mucho más eficaces para agujero y la luz se concentra. reducir la necesidad de sistemas de Lo que interesa en la mayoría de las seguimiento. Robert G. Sachs conocía aplicaciones prácticas es concentrar la los trabajos que yo había realizado luz sobre una superficie plana y no con concentradores no focalizadores esférica. La solución es mucho más que tenían formas peregrinas y pensó complicada en este caso que en el ante- que yo podría ayudarle en esta rior, pero los principios básicos son los tarea. Los dispositivos sin imágenes resulmismos. Cada línea de flujo es ahora una hipérbola y, por consiguiente, las taban adecuados para esta tarea, tal paredes del concentrador deben adqui- como demostraron las primeras invesrir esa forma. Cuando uno de estos tigaciones llevadas a cabo en colaboconcentradores se coloca en el foco de ración con William W. Schertz y Ari un telescopio o de un horno solar, por Rabl. Gracias a la colaboración de ejemplo, el instrumento es “engañado” Joseph J. O’Gallagher, Manuel
L
LA CIENCIA DE LA LUZ
Collares-Pereira y Keith A. Snail demostré que se podían diseñar concentradores sin imágenes capaces de enfocar bien los rayos solares durante casi todo el día sin necesidad de ningún movimiento, concentradores que podían acoplarse a cualquier geometría razonable. Posteriormente, trabajando con distintos colaboradores y con el apoyo del Instituto de Investigación de Energía Solar en Golden, nos propusimos demostrar que los dispositivos sin imágenes concentran los rayos solares
83
5. PARA MEDIR GRANDES INTENSIDADES de rayos solares se hace que la luz atraviese un concentrador de zafiro situado en un termo lleno de líquido, es decir un calorímetro. Se
hasta el límite teórico impuesto por la termodinámica o hasta muy cerca de esa frontera. De acuerdo con el segundo principio de la termodinámica, ningún dispositivo puede concentrar los rayos solares hasta alcanzar una intensidad que corresponda a una temperatura que supere a la que existe en la superficie del Sol. Si dicha intensidad se alcanzara, sería posible construir una máquina térmica que trabajara entre el Sol y el concentrador y que sería capaz de producir energía sin coste alguno: esta máquina
procede a registrar el cambio de la temperatura del líquido antes y después de la llegada de la radiación. La calibración se realiza mediante un calefactor eléctrico.
sería un móvil perpetuo. El valor del límite superior de la concentración es unas 46.000 veces mayor que el de la intensidad de la luz solar en la superficie de la Tierra. (Me cupo el honor de ser el primero que calculó el valor de este límite superior, basándome en argumentos de conservación del espacio fásico.) Existe una escapatoria para producir concentraciones que superen este valor de 46.000. Si el concentrador se fabrica con un material cuyo índice de refracción sea n, el valor del límite
superior de la concentración aumenta en un factor n2. (El índice de refracción de un material es igual a la relación entre la velocidad de la luz en el vacío y su velocidad en el material en cuestión; cuanto menor sea esta última, tanto mayor es el índice de refracción.) Por ejemplo, el índice de refracción del vidrio vale 1,5 y, por tanto, el máximo teórico de un concentrador de vidrio se eleva a 100.000. El aumento de la concentración por los materiales con índice de refracción elevado se debe a que desvían más los
Cómo alcanzan el límite termodinámico los concentradores sin imágenes
L
as leyes de la termodinámica imponen un límite teórico a la concentración máxima de l os rayos solares. La intensidad de la luz solar que incide so bre la Tierra viene dada por la intensidad de la luz existente en la superficie del Sol, multiplicada por la superficie solar, 4πR 2, y dividida por la superficie de la esfera definida por la órbita de la Tierra, 4 πD 2. La intensidad de la luz en el Sol es mayor que en la Tierra en un factor ( D/R )2, que de acuerdo con la trigonometría equivale a 1/sen 2θ, donde θ representa el semiángulo subtendi do por el Sol, cuyo valor es de 0,267 grados. Si sustituimos este dato en la expresión anterior, obtenemos un valor de 46.000. De acuerdo con la termodinámica, ningún dispositivo puede concentrar la luz solar sobre la Tierra con un valor mayor que el
84
anterior. Si este valor se alcanzara, sería posible construir una máquina térmica, situada entre el Sol y dicho dispositivo, capaz de producir energía de la nada: habríamos creado la máquina de movimiento perpetuo. Hay una escapatoria, consis tente en fabricar el concentrador con una sustancia cuyo índice de refracción sea mayor que la unidad; la concentración máxima alcanzable aumenta entonces por el factor n 2, resultando ser n 2 /sen2θ. Los elementos ópticos normales, que producen imágenes, no alcanzan más que una cuarta parte del límite de concentración teórica. Un espejo parabólico produce una imagen del Sol en su foco cuya superficie viene dada por la expresión πR 2sen 2θ /cos 2φ, donde R representa la longitud que se indica en la figura, θ es el semiángulo subtendido por el Sol y φ el
TEMAS 6
6. EL LASER SOLAR es una de las aplicaciones posibles de las grandes intensidades de luz que se obtienen con los sistemas ópticos sin imágenes. La luz concentrada penetra por uno de los extremos de un cristal de láser y excita sus
rayos de luz que inciden bajo ángulos mayores. Este fenómeno es una manifestación de la ley de Snell y resulta conocido para quien haya observado la fractura aparente que presenta un bastón sumergido en el agua. Los principios de la termodinámica no se violan por este aumento de la concentración según n 2, debido a que la radiación de energía de un objeto resulta también proporcional a n 2, cancelándose recíprocamente ambos factores.
ángulo del borde del espejo. La superficie de captación del espejo viene dada por la expresión πR 2sen 2φ. La concentración que produce este espejo se puede expresar como el cociente entre el área del espejo y el área de la mancha luminosa: sen 2φcos 2φ /sen 2θ o, lo que es lo mismo, (1/4)sen 22 φ /sen 2θ. El valor máximo de esta expresión viene dado por (1/4)1/sen 2θ, es decir, un valor igual a la cuarta parte del límite ter modinámico. Como es natural, si se tiene en cuenta la obstrucción que introduce el blanco focal, la concentración resulta todavía menor.
LA CIENCIA DE LA LUZ
átomos, produciéndose una emisión de luz a una o varias frecuencias. La luz emitida se refleja una y otra vez en sendos espejos, a través de uno de los cuales sale el haz de láser hacia el exterior.
Para alcanzar el límite termodinámico, el concentrador sin imágenes se coloca en el foco de un espejo telescópico parabólico. En principio debería ser posible obtener concentraciones muy altas con sólo el elemento sin imágenes, pero en la práctica esto requeriría que fuese enorme y su construcción resultase económicamente prohibitiva. El espejo tiene un diámetro de 40 centímetros y produce una mancha de un centímetro de diámetro a una distancia de un metro. En la primera serie de experiencias construimos un embudo de plata y lo llenamos con un aceite cuyo índice de refracción valía 1,53; nos proponíamos “concentrar” la mancha de un centímetro a dimensiones del orden del milímetro. Con este dispositivo alcanzamos valores de concentraciones 56.000 veces mayores que la intensidad de los rayos solares sobre la superficie de la Tierra, lo cual equivale aproximadamente a un 70 por ciento de la intensidad en la superficie del Sol. Este valor queda toda vía algo lejos del límite teórico de 100.000, debido a las pérdidas por reflexiones y al bloqueo de la luz por el equipo de medida. Otra serie de experiencias ha consistido en fabricar el concentrador sin imágenes con zafiro, un material cuyo índice de refracción es todavía mayor (1,76). El diseño fue más atrevido y el límite teórico era del orden de 140.000. El valor de la concentración alcanzada en la práctica fue de 84.000, superando la intensidad de la superficie solar en un 15 por ciento. Si alguien hubiese preguntado dónde se encontrarían los rayos solares más intensos de todo el sistema solar, hubiésemos podido responder que en el tejado de nuestro laboratorio de la Universidad de Chicago. Entre las posibles aplicaciones de los rayos solares muy intensos se halla
la construcción de un láser alimentado con energía solar. El uso de este dispositivo tendría un interés evidente en las comunicaciones por satélite. Otro de los motivos para construir tal láser sería obtener una fuente intensa de luz ultravioleta. Se cree que estas fuentes ultravioletas podrían servir para destruir residuos industriales peligrosos. (Si se construyeran en un desierto, estas instalaciones podrían funcionar casi por completo con energía solar.) No hemos sido nosotros los primeros en construir láseres alimentados con energía solar. Amnon Yogev y su grupo del Weizmann, los adelantados en este campo, han producido láseres basados en la óptica sin imágenes con potencias de salida de centenares de watt.
E
lementos ópticos de este tipo han encontrado muchas otras aplicaciones. Se usaron en el satélite COBE y se usan en detectores de radiación cósmica subterráneos. Incluso los mecanismos de la visión humana parecen estar basados en los principios de la óptica sin imágenes. Los conos de la retina que concentran la luz tienen formas parecidas a los concentradores parabólicos compuestos.
BIBLIOGRAFIA COMPLEMENTARIA HIGH COLLECTION NONIMAGING OPTICS.
Roland Winston y W. T. Welford. Academic Press, 1989. NONIMAGING OPTICS
FOR
FLUX CONCEN-
. Roland Winston, I. M. Bassett y W. T. Welford en Progress in Optics, vol. 27, págs. 161-226; 1989. SUNLIGHT BRIGHTER THAN THE SUN . D. Cooke, P. Gleckman, H. Krebs, J. O’Gallagher, D. Sagie y R. Winston en Nature, vol. 346, n.o 6287, pág. 802; 30 de agosto de 1990. TRATION
85
Giroscopios ópticos Dana Z. Anderson
Aunque carecen de partes móviles, detectan movimientos de rotación lo mismo que los giroscopios mecánicos y han adquirido gran importancia en los sistemas de guía para la navegación
L
a palabra giroscopio nos trae a anular, instrumento fascinante que ya la memoria el recuerdo del tiene aplicaciones prácticas en sistetrompo o peonza que, impulsado mas de guía. Hay aviones comerciales, por un cordel, es capaz de mantenerse como los Boeing de las series 757/767 en equilibrio incluso sobre la p unta de y cierto número de Airbus A310, que un lápiz. Tal juguete constituye una emplean giroscopios de láser anular en primaria representación de una fami- vez de los de tipo mecánico. Aunque la lia de instrumentos cuya estructura sensibilidad de los nuevos instrumenesencial la constituye un disco en tos es extraordinaria, el uso creciente rápida rotación. El momento angular de giroscopios ópticos en la navegación del disco impide que éste cambie de no responde a una necesidad de mejoorientación, aun cuando gire todo el rar la precisión, puesto que los mecáaparato. En virtud de ello el giroscopio nicos también son precisos, sino a la puede mostrar la magnitud de una carencia de partes móviles, que los rotación y, de este modo, facilitar infor- diferencia de éstos y los hace más senmación direccional para la navegación. cillos. Aunque los dispositivos ópticos De hecho casi todos los vehículos algo reales también tengan alguna parte más complicados que el automóvil, e móvil, son más fáciles de mantener y incluso algunos que lo son menos, resultan más baratos que sus contrindependen de los giroscopios para man- cantes mecánicos. tener su trayectoria. El giroscopio Para comprender cómo se aproveconstituye el núcleo de los sistemas de cha la luz para medir una rotación, guía por inercia de aviones y de buques consideremos a un observador fijo transoceánicos, porque funciona sin situado dentro de un anillo circular. necesidad de estímulos exteriores. Supongamos que el observador emita Este aparato detecta el movimiento un destello luminoso de tal manera incluso dentro de un recinto cerrado que una mitad recorra el anillo en un que impida no sólo la observación de sentido y la otra mitad en el opuesto. las estrellas sino también la acción del Si el anillo no gira, es evidente que campo magnético sobre la brújula. ambas mitades deben volver al obserLos investigadores comprobaron a vador simultáneamente. Pero si gira, principios de siglo que la luz podía por ejemplo en sentido contrario al del presentar un comportamiento giroscó- movimiento de las agujas del reloj, el pico: el tiempo que emplea en recorrer punto origen del pulso se moverá una trayectoria circular depende de hacia el destello que viaja en sentido que el circuito permanezca estaciona- horario y se alejará del que viaja en rio o esté girando. La diferencia de sentido antihorario. Por tanto el tiempo entre uno y otro caso puede observador encontrará antes el desteutilizarse para medir la velocidad de llo que se mueve en sentido horario rotación. Pero el desarrollo de un que el que lo hace en sentido opuesto. giroscopio óptico tuvo que esperar en La diferencia entre los tiempos de llela práctica al advenimiento del láser y gada es directamente proporcional a de otros adelantos de la técnica óptica, la velocidad de rotación del anillo sin como son los cables de fibra óptica y que influya en ello el que éste gire o los espejos de gran poder reflectante. no alrededor de su centro. En base a ellos se han desarrollado dos La diferencia entre los tiempos de clases de sensores ópticos de rotación: circulación se atribuye a una diferenlos giroscopios de fibra y los girosco- cia de longitud entre los trayectos pios de láser anular. recorridos. En el ejemplo anterior, el El más perfeccionado de estos dos camino del destello que va en sentido dispositivos es el giroscopio de láser antihorario es más largo que el seguido
86
por el que se mueve como el reloj. La diferencia de longitud de los recorridos producida por la rotación constituye el llamado efecto Sagnac, en honor de Georges Marc Marie Sagnac, descubridor de este fenómeno en 1913. El efecto Sagnac se ve con mayor claridad en el giroscopio de fibra, por lo que lo estudiaremos en primer lugar, a pesar de que su desarrollo
1. GIROSCOPIO DE LASER ANULAR. Como se aprecia en el ejemplar de la página siguiente, consta de un solo bloque de vidrio. El canal cuadrado perforado en el bloque contiene una mezcla de gases. Una corriente eléctrica entre el cátodo, o electrodo negativo, y el ánodo, o electrodo positivo (véase el esquema superior ), excita los átomos del gas y motiva que emitan luz. Los espejos colocados en las cuatro esquinas del bloque mantienen la luz dentro del canal cuadrado, con lo que se forma una onda estacionaria. (La luminosidad de la mitad superior del canal es un fenómeno llamado descarga en el plasma; la onda estacionaria no puede verse.) La cinta negra de la parte inferior impide ver detalles que los fabricantes, Litton Guidance and Control Systems, consideran que son de su propiedad.
TEMAS 6
empezase una docena de años después que el del giroscopio de láser anular y de que todavía no se haya conseguido fabricar con esta técnica un instrumento práctico verdaderamente sensible a la rotación. La parte esencial del giroscopio de fibra es una larga fibra óptica, de medio a un kilómetro de longitud, que está bobinada para
LA CIENCIA
DE LA LUZ
hacerla manejable. La fibra actúa como una tubería de luz, quedando ésta confinada dentro de sus paredes. La razón de emplear una fibra tan larga se debe a que la diferencia entre las longitudes recorridas, y por tanto entre los tiempos, aumenta con la longitud de la fibra, lo que facilita las medidas de rotación.
Este giroscopio utiliza el valor extremadamente bajo de la longitud de onda de la luz para medir con precisión la diferencia entre las distancias recorridas por dos rayos que se propaguen en direcciones opuestas. Los rayos se obtienen mediante un espejo semitransparente que desdobla en partes iguales el haz procedente de
87
la fuente de luz (se emplea casi siempre un láser, aunque no necesariamente). Los dos haces producidos circulan en direcciones opuestas por el carrete de fibra bobinada y al salir se recombinan en el espejo semitransparente. Si se coloca una pantalla a la salida del espejo, no se observa ninguna señal luminosa mientras el carrete de fibra permanezca estacionario. La razón es que los dos rayos
siguen trayectos de igual longitud y el espejo semitransparente introduce un cambio de fase: el rayo reflej ado por el espejo está en exacta oposición de fase con el transmitido. A la salida, por tanto, se produce una interferencia destructiva entre ambos y se anulan mutuamente. El comportamiento es distinto cuando el carrete de fibra gira. (Se supone que el carrete, la fuente de luz,
el espejo semitransparente y la pantalla giran de modo solidario; el carrete no gira respecto a los otros componentes.) Por ejemplo, imaginemos que el conjunto esté montado en un avión y que el aparato cambie de rumbo bruscamente. En este caso los dos haces, que se propagan en sentidos opuestos por la fibra, recorren longitudes ligeramente distintas. A la salida del espejo semitransparente ya no se cancelan por completo y aparece una mancha brillante en la pantalla. Si el instrumento girase con suficiente rapidez, de modo que la diferencia de longitudes entre los dos trayectos recorridos equivaliese a media longitud de onda de la luz, la mancha luminosa adquiriría la intensidad de la fuente de luz original. Esta es una versión esquemática del giroscopio de fibra. En la práctica se emplean refinados dispositivos electrónicos para analizar la salida del espejo semitransparente y obtener de ella la velocidad de rotación.
E
2. EL PRINCIPIO BASICO en el que se apoya el giroscopio óptico reside en que el tiempo que necesita la luz para recorrer una trayectoria circular depende de que la trayectoria sea estacionaria o esté girando. Supongamos que un hipotético observador situado en un anillo estacionario emita un destello luminoso y que dos mitades del mismo se propaguen a lo largo del anillo en sentidos opuestos (arriba). El observador recibirá simultáneamente los dos pulsos. Sin embargo, si el anillo gira, el observador se mueve hacia uno de los destellos y en sentido opuesto al otro, por lo que recibirá en instantes distintos los dos pulsos ( parte inferior ). La diferencia de tiempos es proporcional a la velocidad de giro del anillo.
88
n 1958 se publicó un trabajo de Arthur L. Schawlo w y Charles H. Townes en el que se e stablecieron los principios básicos del láser. Siguieron poco después los primeros trabajos sobre el giroscopio de láser anular. Clifford V. Heer pronto se dio cuenta de que podía emplearse una cavidad resonante para medir velocidades de rotación. Una cavidad resonante es un recinto hueco que sirve para reforzar ondas sonoras o bien ondas electromagnéticas. En realidad cualquier láser constituye una cavidad resonante. Consta, a grandes rasgos, de un tubo largo y recto que está lleno de una sustancia amplificadora, que puede ser un sólido, un líquido o un gas. Cada extremo se cierra con un espejo semitransparente finamente pulido. Conforme la luz va y vuelve de uno a otro espejo, su intensidad queda amplificada. La salida del láser acontece cuando parte de la luz atraviesa uno de los espejos. Heer comprobó que, si a una ca vidad resonante se le da forma de anillo, puede construirse un giroscopio óptico, en el que la luz circula muchas veces a lo largo de la misma trayectoria en lugar de ir y venir entre dos espejos. Tanto Heer como Adolph H. Rosenthal consiguieron ulteriores progresos teóricos y Warren M. Macek y Daniel T. M. Davis, Jr. presentaron el primer giroscopio de láser anular en 1963. El instrumento estaba formado por cuatro tubos de vidrio dispuestos en un cuadrilátero de un metro de la do. Se hacía circular la luz por el dispositivo
TEMAS 6
mediante espejos situados en cada vidrio en cuyo interior se ha perforado esquina. un canal cuadrado, que contiene una El progreso técnico realizado en los mezcla de gases, como puedan ser el años posteriores ha sido espectacular: helio y el neón. Completan e l láser un un giroscopio sensible de láser anular pequeño número de electrodos y cuacabe ahora en la palma de la mano y tro espejos. El cuatro no es un número suele consistir en un solo bloque de mágico, pues algunos giroscopios de
3. CON EL GIROSCOPIO DE FIBRA podemos medir una velocidad de rotación detectando la interferencia entre dos rayos de luz que se propaguen en sentidos opuestos por una larga fibra óptica bobinada. Los dos haces se obtienen desdoblando un rayo láser mediante un espejo semitransparente. Tras recorrer la fibra, los dos rayos se recombinan en el espejo. Cuando el aparato no gira, los haces se interfieren destructivamente y no aparece luz a la salida ( panta lla oscura de
LA CIENCIA
DE LA LUZ
láser anular tienen un canal triangular y tres espejos y los hay con canal hexagonal y seis espejos. Aunque los giro sco pios de lás er anular reales tengan forma poligonal, su funcionamiento se comprende mejor imaginando el caso ideal de un
arriba). Cuando todo el aparato (el láser, el espejo semitransparente, el carrete de fibra y la pantalla) gira, los dos haces ya no se anulan exactamente y se forma una mancha luminosa sobre la pantalla (abajo); el brillo de la mancha aumenta con la velocidad de rotación. La velocidad de rotación del aparato, y por tanto la del vehículo en el que está montado, se deduce analizando la intensidad de la mancha. Los giroscopios de fibra se encuentran en fase de desarrollo.
89
anillo circular. Cuando el anillo per- cuadrado) para detectar la rotación, manece estacionario, una descarga pero en este caso la onda estacionaria en el gas del láser genera una onda no permanece fija en un sistema de luminosa estacionaria en el interior referencia inercial cuando el anillo del anillo. Como le sucede a la cue rda gira. Se observa una rotación a una vibrante de un violín, a lo largo de la velocida d más pequeña que la que onda hay una sucesión de nodos (pun- presenta el anillo. La velocidad de giro tos estacionarios) y de antinodos de la onda estacionaria depende de la (puntos de máxima oscilación). La lon- forma del anillo. En lo que concierne gitud de onda de la luz es e xtremada- al observador, el ángulo de rotación mente pequeña: unos 0,6 micrometros sigue siendo proporcional al número (un micrometro es una millonésima de de nodos que pasan por un punto dado metro), por lo que en todo el anillo cabe del anillo. un gran número de nodos y antinodos. Si el giroscopio de láser anular fuera Por ejemplo, la onda de un anillo que un dispositivo perfecto, la velocidad tenga 30 centímetros de perímetro con la que pasarían los nodos por un presenta del orden de un millón de punto dado del anillo sería directanodos y antinodos. mente proporcional a la velocidad de Supongamos que el anillo gira, rotación de éste. Si el anillo no girase, debido por ejemplo a que el supuesto la posición de los nodos permanecería avión que lleva el giroscopio cambia fija. En la práctica, sin embargo, hay de rumbo. La onda estacionaria per- dos causas principales de error que manece fija en un sistema de referen- motivan desviaciones de este comporcia inercial, que no gira. La consecuen- tamiento ideal. Por fortuna ninguna cia es que el giroscopio de láser anular de ellas es decisiva, pues ambas puemanifiesta el efecto Sagnac. Un obser- den remediarse. vador que girase con el anillo vería La primera fuente de error consiste pasar los nodos y antinodos de la o nda en un efecto de deriva, en virtud del estacionaria. El número de nodos que cual la onda estacionaria gira incluso pasarían ante él sería directamente cuando el anillo no lo hace. La deriva proporcional al ángulo que hubiese se origina porque el gas del interior girado el anillo y, por tanto, contándo- del anillo fluye, flujo que surge a causa los podría medirse el ángulo de giro del suministro de energía necesario que hubiese realizado el avión. para producir la onda estacionaria. También puede emplearse un anillo Para aportar la energía se aplica una no circular (digamos que triangular o gran diferencia de potencial entre un
4. ANCLAJE DE FRECUENCIA. Constituye una posible fuente de error en el funcionamiento de un giroscopio de láser anular. Provoca que la onda estacionaria quede “anclada” en el anillo del instrumento, de modo que el observador situado en el anill o no pueda decir si el aparato gira o no. La onda estacionaria puede considerarse el resultado de superponer dos ondas que se propagan a lo largo del anillo en sentidos opuestos. El fenómeno del anclaje obedece a minúsculas imperfecciones de los espejos del giroscopio. Tales imperfecciones ocasionan que una pequeña fracción de la onda luminosa incidente se disperse en dirección opuesta a la trayectoria original (izquierda). Aparece
90
electrodo positivo, o ánodo, situado en un extremo del anillo y un electrodo negativo, o cátodo, en el otro extremo. El elevado potencial ioniza parte del gas y crea un plasma: una especie de “sopa” de electrones y de iones cargados positivamente. Los electrones son atraídos hacia el electrodo positivo y los iones positivos hacia el electrodo negativo. Este flujo induce un movimiento más complicado de los átomos neutros del gas, que redunda en un flujo a lo largo del anillo siguiendo la trayectoria del haz luminoso. La consecuencia es puede que las ondas estacionarias giren incluso cuando el anillo no lo haga.
L
os fabricantes de giroscopios de láser anular reducen al mínimo este problema diseñando anillos con dos flujos gaseosos contrapuestos. Por ejemplo, un giroscopio puede que cuente con un electrodo negativo y dos positivos, estando éstos colocados en dos lados opuestos de un cuadrado. Se elimina así en su mayor parte el flujo gaseoso inducido. La cancelación mutua no es completa pero, si la deriva residual es estable, puede medirse y ser compensada, quedando sólo como causa de error de deriva los cambios imprevistos. La segunda y más seria fuente de error a la hora de utilizar el instrumento reside en un fenómeno denomi-
entre las ondas un acoplamiento cuyas consecuencias pueden comprenderse imaginando que los espejos fuesen perfectos y que se hubiese colocado una delgada lámina de vidrio dentro del anillo, perpendicularmente a la trayectoria seguida por la luz (derecha). La onda estacionaria tiende a presentar un nodo (“valle”, o punto estacionario) en el lugar ocupado por la lámina de vidrio. Puesto que ésta se encuentra fijada al anillo, la onda estacionaria tiende a girar con el anillo. Esto ocurre cuando las velocidades de rotación son pequeñas. El efecto puede reducirse haciendo oscilar el anillo a un ritmo elevado mediante un vibrador; el movimiento “desprende” la onda estacionaria.
TEMAS 6
nado anclaje de frecuencia. Se produce porque la onda estacionaria se inmo viliza dentro del anillo, de modo que un observador fijo no pueda decir si gira o no. El anclaje de frecuencia, cuyos efectos sólo se presentan si la velocidad de rotación es relativamente pequeña, desempeña un papel análogo al del rozamiento en un giroscopio mecánico. La onda luminosa estacionaria puede considerarse como la superposición de dos ondas que se propaguen por el anillo en direcciones opuestas. El anclaje de frecuencia resulta de un acoplamiento entre ambas, debido a que las minúsculas imperfecciones de los espejos del giroscopio dan lugar a la dispersión de una pequeña fracción de la onda luminosa incidente en dirección opuesta a la de su trayectoria inicial. Para comprender el resultado del acoplamiento entre las ondas incidentes y las dispersadas consideremos un sencillo modelo. Supongamos que los espejos sean perfectos y que se fije dentro del anillo, perpendicular a la trayectoria de la luz, una delgada lámina de vidrio. (Como las imperfecciones de los espejos están fijas en el anillo, también tendrá que estarlo la lámina de vidrio.) Una pequeña cantidad de la luz que incide sobre el vi drio es reflejada en dirección opuesta. La onda estacionaria del giroscopio de láser anular tiende a presentar un nodo en la lámina de vidrio. Por ser éste fijo, la onda estacionaria tenderá a girar con el anillo y, si la velocidad de rotación es baja, conseguirá hacerlo.
U
5. GIROSCOPIO MECANICO. Aunque funciona según el mismo principio que un giroscopio de juguete, resulta mucho más complejo. Sus aplicaciones a la navegación están dejando paso al giroscopio óptico.
na analogía válida del anclaje de frecuencia la constituye una bola sumergida en un líquido viscoso, como sería un almíbar, que descienda por una ligera subida que no podría el movimiento de la bola es cada vez una pendiente ondulada. La fuerza de remontar y quedaría atrapada. Esto menos importante. la gravedad representa en este caso la corresponde al anclaje de frecuencia, rotación del anillo. Una ladera con es decir, nos encontramos en una l anclaje de frecuencia a bajas fuerte pendiente corresponde a una situación en la que la onda estaciona velocidades de rotación ha entorelevada velocidad de rotación. El ria permanece fija respecto al anillo pecido a la industria de giroscopios fluido viscoso impide que la bola se y el giroscopio no da ninguna señal, ópticos desde sus inicios. Se han dediacelere indefinidamente; impone, por lo que falla la detección de la cado grandes esfuerzos a eliminar el pues, un límite a la velocidad. Las rotación. problema. La solución que ha tenido ondulaciones representan los nodos y A las velocidades de rotación más más éxito consiste en el empleo de un los antinodos de la onda estacionaria altas les corresponde en nuestro vib rador mecáni co que hace girar y la bola corresponde a la posición de modelo una mayor inclinación y la rápidamente el anillo en sentidos la lámina de vidrio. La altura de las bola puede rebasar las ondulaciones opuestos. La idea básica es la de manondulaciones es proporcional a la can- descendiendo por la pendiente. Tales tenerlo en movimiento para evitar el tidad de luz que la lámina refleja. inclinaciones corresponden a veloci- anclaje de frecuencia. Puesto que la Sin rotación no hay pendiente y la dades de rotación para las que las oscilación del anillo no produce ninbola permanece en uno de los valles frecuencias quedan desancladas y el gún giro neto, la vibración no afecta localizados entre dos ondulaciones, o anillo ya es sensible a la rotación: la al resultado de las mediciones. Sin sea, en un nodo. Cuando el anillo gira onda estacionaria no permanece fija embargo resulta enojoso tener que lentamente, es como si sólo existiera respecto al anillo y el giroscopio da acudir a este tipo de solución, puesto una ligera pendiente. La bola se una señal. Conforme se aumenta la que en principio el giroscopio de láser movería un poco hacia abajo, pero a velocidad de rotación, la perturbación anular presentaba la gran ventaja de la siguiente ondulación encontraría que las irregularidades ocasionan en carecer de partes móviles. Aunque el
E
LA CIENCIA DE LA LUZ
91
movimiento de vibración sea suave, el mitido. El grado de rendimiento de un vibrador resulta complicado (de todos giroscopio aumenta con el número de modos, mucho menos que el giroscopio vue lta s rea liz ada s por cada fot ón mecánico). antes de que se pierda por absorción, Los problemas de deriva y de anclaje transmisión o dispersión. Esta es la de frecuencia son de índole técnica y razón de que el desarrollo de los girosen principio pueden eliminarse de copios de láser anular haya propiciado raíz. Hay otras causas más profundas un espectacular progreso en la técnica que afectan a la sensibilidad del ins- de espejos libres de pérdidas. Las pértrumento en último término: los dic- didas de uno bueno de los utilizados tados de la mecánica cuántica y del en tales giroscopios son inferiores a principio de incertidumbre de uno por cada 5000 fotones incidentes. Heisenberg. En su forma más simple (Los espejos corrientes de cuarto de el principio de incertidumbre esta- aseo pierden un fotón de cada 20 inciblece que es imposible conocer simul- dentes.) táneamente la posición y la velocidad A pesar de las evidentes diferenexactas de una partícula, de un elec- cias entre los giroscopios de fibra y trón, por ejemplo. Aplicado al girosco- los de láser anular, la naturaleza pio de láser anular, esto significa que impone, mediante la mecánica cuánuna onda estacionaria no permane- tica, que sus rendimientos teóricos cerá rigurosamente en reposo ni resulten similares. Un carrete de siquiera aunque el anillo se mostrara fibra con un cierto número de espiras estacionario. Merece destacarse el equivale, en el fondo, a un giroscopio avance técnico que supone que los de láser anular cuyos fotones recogiroscopios de láser anular se acer- rran el mismo número de vueltas en quen a los límites impuestos por la el anillo, suponiendo que los instrumecánica cuántica en menos de un mentos tengan las mismas dimensiofactor de 10. nes, posean idénticas potencias óptiLa causa fundamental de error en cas y operen con luz de la misma un giroscopio de láser anular reside longitud de onda. en una manifestación del principio de incertidumbre conocida con el nombre ingún giroscopio óptico fascina tanto a los chiquillos como el de emisión espontánea. La energía suministrada excita los electrones de juguete que constituye la versión simlos átomos que constituyen el medio ple del giroscopio mecánico. Claro que amplificador del anillo óptico. El fenó- el éxito de cualquier instrumento no meno láser se produce cuando un depende de tales consideraciones, fotón, o cuanto de luz, estimula un sino que va ligado a una cuestión átomo y ocasiona la transición de un esencialmente económica. El impulso electrón excitado a un estado inferior que recibe la tecnología de los girosno excitado. Cuando ocurre tal transi- copios ópticos está relacionado con su ción, el átomo emite un fotón que tiene coste. La belleza de los principios en la misma dirección, frecuencia y fase que se sustentan los giroscopios óptique el fotón incidente. Pero es fre- cos y su elegante estructura son, en cuente que un electrón del átomo cambio, algo más que un mero reflejo experimente una transición espontá- de su valor como instrumento para la neamente, emitiendo un fotón con una navegación. dirección y fase arbitrarias. Algunos de esos fotones son emitidos según la dirección de la onda estimulada y cambian su fase en una pequeña cantidad aleatoria. En el transcurso del BIBLIOGRAFIA COMPLEMENTARIA tiempo, las emisiones espontáneas provocan que la onda estacionaria se MULTIOSCILLATOR LASER GYROS. W. W. aparte de su posición inicial: el girosChow, J. B. Hambenne, T. J. Hutchings, V. E. Sanders, M. Sargent III y M. O. copio desarrolla un error de corriScully en IEEE Journa l of Quant um miento angular. Electronics , vol. QE-16, número 9, págiLas aplicaciones que requieren nas 918-936; septiembre, 1980. mucha precisión necesitan en general THE RING LASER GYRO. W. W. Chow, J. giroscopios grandes, pues así se reduce Gea-Banacloche, L. M. Pedrotti, V. E. al mínimo el influjo del error de corriSanders, W. Scleich y M. O. Scully en miento. La calidad de los espejos Reviews of Modern Physics, volumen 57, número 1, páginas 61-104; enero, afecta también a la precisión. Un 1985. espejo perfecto reflejaría todos los GYROSCOPES MAY CEASE SPINNING. Grafotones incidentes. En realidad, cada ham J. Martin en IEEE Spectrum, volu vez que un fotón incide en un espejo men 23, número 2, páginas. 48-53; febreexiste una pequeña probabilidad de ro, 1986. que sea dispersado, absorbido o trans-
N
92
TEMAS 6
Tensión visible Jearl Walker
Si sometemos a esfuerzo mecánico un objeto de plástico situado entre dos filtros polarizadores, se colorea
L
a fractura de los materiales por sobreesfuerzo mecánico es algo tan frecuente como económicamente indeseable. Un procedimiento para prevenirla consiste en ensayar piezas de muestra aplicándoles unas tensiones mecánicas suficientes para destruirlas. Cuando se utilice otra pieza igual, podrá hacerse de modo que las tensiones que sufra queden muy por debajo del valor peligroso. Otro método, el fotoelasticimétrico, se basa en la experimentación con modelos de la pieza, hechos de plástico o de materiales parecidos, a los que se somete a estudios ópticos que proporcionan una imagen directa de la distribución de tensiones en su interior. Frank R. Seufert realiza estudios fotoelásticos sobre modelos de objetos diversos. Cuando a él acude alguien interesado en un problema de este tipo, lo primero que hace es construir un modelo en plástico de unos tres milímetros de espesor de la pieza en cuestión. Si el objeto es grande, realiza el modelo a escala reducida. Lo monta en un bastidor de madera y ensaya el estado de tensiones del objeto real sometiéndolo a esfuerzos por medio de gomas y tornillos, siendo más convenientes estos últimos, porque pueden apretarse paulatinamente y se regulan con más facilidad. Coloca luego el modelo delante de un filtro polarizador y lo ilumina con una luz que, procedente de una lámpara de 200 watt, atraviesa un difusor de vidrio esmerilado y después el filtro. Entre el modelo y una cámara de 35 milímetros (una réflex de objetivo simple) sitúa un largo parasol hecho de cartón. Montado en la cámara hay un teleconvertidor, desprovisto de objetivos, que hace las veces de tubo telescópico para alejar el objetivo de la película; cualquier otro tipo de tubo serviría igual. El dispositivo de Seufert incluye un teleobjetivo de 135 milímetros puesto a f 2,5, así como un segundo filtro polarizador y un filtro azul claro (del modelo 80A) montados sobre el objetivo. La cámara se mantiene inmóvil con ayuda de la pieza superior de un trípode sujeta a un bloque de contrachapado. Para tomar una foto, orienta el primer filtro polarizador con su eje de polarización a 45 grados con la vertical. Luego coloca el modelo de plástico delante y enciende la lámpara. A la vez que mira a través de la cámara, rota el filtro polarizador situado delante del objetivo hasta que a la imagen del modelo se superpone una imagen, o más bien una figura, interpretable. Esto lo fotografía valiéndose de un disparador de cable que acciona asimismo un flash electrónico ubicado junto a la lámpara y cuya luz extra hace falta para que la foto salga bien. Utiliza película negativa en color de sensibilidad ASA 100 y de la que obtiene copias positivas brillantes. En las fotos correspondientes aparecen unas líneas coloreadas que revelan las configuraciones de las tensiones en los modelos de plástico. Destacan las zonas sometidas a mayo-
LA CIENCIA
DE LA LUZ
res esfuerzos y que son los lugares más vulnerables a la fractura. El primer filtro del montaje polariza la luz. Esta, al pasar por el plástico en estado de tensión, recoge información codificada acerca de ese estado. El segundo filtro polarizador (el montado en la cámara) hace visible dicha información para el observador. En la figura 3 se muestran las tensiones de un pequeño elemento delgado que forma parte de un modelo sometido a estudio fotoelástico. Sus bordes se hallan todos en estado de tensión perpendicular (que, en física, se llama tensión normal) a causa de las fuerzas de tracción que actúan perpendicularmente a cada uno de ellos. En los bordes se generan, además, tensiones cortantes o tangenciales, pues el material de los lados opuestos del elemento tiende a deslizarse en sentidos contrarios. Así es la naturaleza de las tensiones en un elemento elegido al azar. Esa imagen se simplifica si, en dicha zona, se busca un elemento orientado de modo diferente. Este nuevo elemento presenta la particularidad de ser cuadrado y de tener dos ejes, llamados ejes principales, de gran importancia. La ventaja de considerar un elemento orientado de ese modo reside en que los bordes no sufren tensiones tangenciales, sino sólo normales. Pues bien, lo que revela la fotografía de un modelo sometido a tensión iluminado con luz polarizada es la orientación de los ejes principales. Para comprender la interacción entre la luz polariza da y las tensiones principales del plástico es necesario conocer la naturaleza de la luz polarizada. Según la física clásica, la luz es una onda compuesta de campos eléctricos y magnéticos oscilantes. Se trata de una onda peculiar en cuya propagación no participa soporte material alguno. Las ondas acuáticas concuerdan mejor con nuestra intuición, pues en ellas interviene la oscilación de la superficie del agua: hay algo material que participa. En la concepción ondulatoria de la luz, empero, las oscilaciones corren a cargo de campos eléctricos y magnéticos inmateriales. Son las componentes eléctricas las que definen la polarización de la luz. Fijémonos en la figura 4, donde se representa el campo eléctrico en un punto, que vamos a examinar mediante un vector (de módulo, dirección y sentido dados) aplicado a dicho punto. Estas ideas son muy útiles cuando se considera cómo puede comportarse una partícula cargada que se sitúe en ese punto. Y también para adquirir una imagen mental de la luz. Podemos considerar la ilustración cual instantánea de una onda luminosa. Superpuestos al rayo, que indica la dirección de propagación, se distinguen algunos vectores eléctricos asignados a distintos puntos suyos. Vamos a centrar nuestra atención en uno de éstos y a observar cuidadosamente qué sucede. En ese punto, en la primera instantánea, el vector eléctrico es largo y apunta hacia arriba; cualquier partícula positiva que se encontrara en él “se sentiría” intensamente atraída hacia arriba. Después de nuestra primera instantánea, la luz sigue propagándose hacia la derecha; el campo eléctrico en nuestro punto varía con gran rapidez, literalmente a la
93
1. Dos de los modelos en plástico de Frank R. Seufert sometidos a compresión
94
TEMAS 6
POLARIZADOR LAMPARA DE 200 W CON REFLECTOR DE 30 CM
CAMARA REFLEX DE UN OBJETIVO
FLASH ELECTRONICO
TELECONVERTIDOR 2X
PARASOL
FILTRO DE 80A
FILTRO POLARIZADOR
OBJETIVO DE 135 MM
MODELO SOMETIDO A TENSIONES CABLE DE ACCIONAMIENTO REMOTO
DIFUSOR DE VIDRIO ESMERILADO
104 MM
2. Montaje experimental de Seufert
velocidad de la luz. Esto lo revela una nueva instantánea, en la que el vector eléctrico en el punto considerado señala ahora hacia abajo. Este vector no es uno de los más largos de la ilustración, ni es ahora tan largo como lo era inmediatamente antes de la instantánea. Una partícula positiva que se hallara en el punto en cuestión “sentiría” sobre sí una fuerza descendente de intensidad moderada. A la par que la luz pasa “vertiginosamente” por el punto, los vectores eléctricos oscilan en dirección y magnitud. Sin embargo, no hay que dejarse engañar por la representación. No hay tales vectores. Ni cada rayo tiene vectores que sobresalgan de él cual espinas del tallo de una rosa. Los vectores eléctricos son sólo minúsculos retazos de imaginación prendidos de una recta a la que llamamos rayo. Pero, por muy ficticios que sean, los vectores eléctricos se convierten poco menos que en imprescindibles para describir la polarización de la luz. En nuestras dos instantáneas, los vectores quedan en el plano de la página. Sin embargo, los vectores de la luz emitida por las fuentes más comunes no están tan restringidos en lo que respecta a su dirección. Necesariamente perpendiculares a un rayo, pueden apuntar, sin embargo, en cualquier dirección de un plano normal a él. De esta luz se dice que no está polarizada. Cuando la luz atraviesa un filtro polarizador, la oscilación de sus vectores queda estrictamente limitada a un solo eje. De esta luz se dice que está polarizada linealmente. (Hay quien la califica de luz polarizada en un plano.) Si luz no polarizada procedente de una bombilla eléctrica incide sobre un filtro de este tipo, la luz emergente tendrá sus vectores eléctricos confinados en un eje único contenido en un plano perpendicular al rayo. La dirección de polarización es la orientación de ese eje; si éste es vertical se dice que la luz está polarizada verticalmente. Los filtros polarizadores actúan por eliminación. El filtro contiene cadenas moleculares que podemos imaginar cual absorbentes paralelos de gran longitud. Cuando la luz llega a ellos, se eliminan los vectores eléctricos que oscilan paralelamente a los mismos; los perpendiculares los atraviesan. Por ejemplo, si las moléculas largas del filtro estuviesen tendidas horizontalmente (paralelamente al eje x ), desaparecerían las componentes horizontales de los vectores.
LA CIENCIA
DE LA LUZ
En la figura 5 se representa esquemáticamente la luz no polarizada mediante dos vectores dobles: el filtro suprime el horizontal y deja pasar el vertical. El resultado es luz polarizada verticalmente. De ordinario no se especifica la orientación de las moléculas de un filtro, sino que a éste se le atribuye un eje de polarización perpendicular a la longitud de las moléculas. Este eje imaginario corre paralelo a la polarización de la luz saliente. Supongamos que un rayo de luz polarizada verticalmente encuentra en su camino un segundo filtro polarizador. ¿Lo atravesará? Ello depende del eje de polarización del filtro. Si éste es vertical, será paralelo a la polarización de la luz incidente y pasará toda. Pero si es horizontal, no pasará luz alguna. Cuando la luz, que se desplaza en el aire con una celeridad de 3 × 108 metros por segundo, penetra en un medio transparente cualquiera, disminuye su velocidad efectiva. Ello se debe a que la luz interactúa con las moléculas que encuentra en su trayecto, de tal modo que, a cada encuentro con una molécula, la luz es absorbida, para reemitirse tras una breve demora. Entre moléculas su velocidad es de 3 × 108 metros por segundo, igual que en el vacío. Pero como sufre retrasos intermitentes, para propagarse en el seno del material necesita más tiempo que para propagarse la misma distancia en el vacío. Por ello decimos que la luz se propaga más lentamente en los medios materiales. Este hecho fue objeto de medición indirecta mucho antes de que se supiera nada acerca de las moléculas. Con el propósito de tabular el efecto, se asignó un número llamado índice de refracción a cada sustancia transparente. Un vidrio de índice de refracción 1,6 transmite la luz más lentamente que otro de índice 1,5. (En ambos casos, el tiempo real de transmisión es tan increíblemente corto que la diferencia carece de toda importancia en lo que atañe a nuestra vida cotidiana.) David Brewster descubrió en 1816 cómo valerse del índice de refracción para estudiar las tensiones de los medios transparentes. Al someter a tensión una hoja de vidrio iluminada con luz polarizada linealmente, se encontró con que se producía una variación del índice de refracción de la luz. Mejor todavía, el índice resultante dependía del tipo de polarización de la luz. Para seguir los experimentos de Brewster, imaginemos una hoja de vidrio vertical uniformemente comprimida por fuerzas aplicadas en la parte superior y en la inferior,
95
EJES PRINCIPALES DE TENSION
TENSION NORMAL
TENSION TANGENCIAL
ELEMENTO ELEGIDO AL AZAR
ELEMENTO ORIENTADO DE MANERA ESPECIAL
3. Tensiones perpendicular y tangencial en un elemento
PRIMERA INSTANTANEA
PUNTO OBSERVADO
SEGUNDA INS TANTANEA
4. “Instantáneas” de los vectores eléctricos de un rayo de luz
Z
X
LUZ NO POLARIZADA
FILTRO CON EJE DE POLARIZACION VERTICAL
POLARIZACION DE LA LUZ TRANSMITIDA POR EL PRIMER FILTRO
FILTRO CON EJE DE POLARIZACION HORIZONTAL
5. Obstrucción del paso de la luz con filtros polarizadores cruzados
96
de modo que los ejes principales sean uno vertical y el otro horizontal. Cuando la luz que ilumina el vidrio esté polarizada verticalmente, el índice de refracción que encuentre será menor y viajará a mayor velocidad que si estuviera polarizada horizontalmente. Pero si el vidrio está sometido a tracción (tensado por fuerzas que actúan por arriba y por abajo), acontece lo contrario. Las sustancias de este tipo, o sea, cuya velocidad de transmisión depende de la polarización de la luz, se llaman birrefringentes, o doblemente refractantes. ¿De qué modo puede facilitar la birrefringencia el estudio de un estado de tensiones? Nos lo desentraña un ejemplo sencillo. Imaginemos una lámina de plástico vertical, comprimida de modo que los ejes principales sean uno vertical y el otro horizontal. La manera en que la luz polarizada interactúe con nuestro plástico sometido a tensión dependerá de si su polarización es paralela a alguno de aquellos ejes. Este paralelismo podemos crearlo iluminando el plástico a través de un filtro polarizador con el eje vertical. En el lado contrario pondremos otro filtro polarizador con el eje horizontal. El primer filtro se llama polarizador; analizador, el segundo. De ambos se dice que están cruzados. La luz atravesará la lámina de plástico a la velocidad que permita el estado de tensiones. La luz que salga del material seguirá polarizada verticalmente y, por tanto, será detenida por el analizador. Un observador que mire a través de éste no verá más que oscuridad. En un montaje de este tipo desaparece la transmisión siempre que se ilumine el plástico con luz polarizada paralelamente a uno de los ejes principales. Rotemos ahora los dos filtros 45 grados en el mismo sentido. En este caso, la lámina de plástico recibirá luz polarizada a 45 grados con respecto a la vertical. Más exigente es el recorrido de la luz en el seno de la lámina: debemos considerar la polarización en sus dos componentes paralelas a los ejes principales. Estas dos componentes se propagan por el plástico a celeridades diferentes, pues los índices de refracción según los dos ejes difieren.
TEMAS 6
Cuando las componentes emergen del plástico se sería paralela al eje de polarización del analizador y, así, recombinan. Cabe entonces la posibilidad de que la luz la luz lo atravesaría. quede polarizada en otra dirección. Que ahora la luz atraCabe, asimismo, cualquier otra situación intermedia; viese o no el analizador dependerá del modo en que haya pero entonces se hace más difícil imaginar el resultado de variado la polarización. la recombinación, pues la asociación de las componentes Para determinar esa variación hemos de examinar de no da ya una luz polarizada linealmente. En este caso la qué forma el plástico altera la longitud de onda de la polarización gira continuamente en torno al rayo, de tal luz. Para simplificar, supongamos que la luz sea mono- modo que el vector eléctrico da una vuelta de arriba abajo, cromática, vale decir, compuesta de una única longitud y luego al revés. De la luz con polarización rotatoria se de onda. Cuando esta luz pasa del aire a un medio trans- dice que está polarizada elípticamente. (En el caso parparente, su longitud de onda se acorta; tanto más cuanto mayor sea el índice de refracción del medio. Como el plástico sometido a tensión tiene un índice de Z refracción distinto según cada EL POLARIZADOR PRODUCE eje principal, el grado de reducUNA LUZ POLARIZADA ción de la longitud de onda VERTICALMENTE X dependerá de la polarización de la luz. Si ésta es vertical, la longitud de onda queda dividida LUZ NO por el índice de refracción asoEJES PRINCIPALES POLARIZADA ciado al eje vertical; si es horiDE TENSION zontal queda dividida por el índice asociado al eje horizontal. Pero si la polarización está POLARIZACION comprendida entre ambos ejes, NO MODIFICADA PLASTICO hemos de considerar las dos SOMETIDO componentes. Entonces, la comA COMPRESION ponente vertical se acortará en una cuantía y la horizontal en una cuantía diferente. Dado que las dos componentes atraviesan el plástico con longitudes de onda distintas, EL ANALIZADOR CIERRA EL PASO oscilará cada una un número de A LA LUZ veces diferente. Por ejemplo, la componente polarizada parale6. Alineamiento de la polarización con un eje de tensión principal lamente al eje principal vertical podría oscilar 1000 veces (longitudes de onda); la otra componente, al tener una longitud de onda más corta, podría oscilar z una vez más, con un total de 1001 oscilaciones. O sea, las dos 45o componentes inician su recorrido exactamente en fase y x lo terminan también en fase, aunque una de ellas haya oscilado una vez más. Entonces, al recombinar 45o POLARIZADOR matemáticamente las dos comCON EL EJE A 45 o ponentes a su salida del plástico, CON RESPECTO VERTICAL encontraríamos que los vectores A LA VERTICAL eléctricos de la luz oscilarían 45o exactamente igual que antes de 45o penetrar en él. La polarización está inclinada 45 grados con respecto a la vertical. Y, como los filtros polarizadores están cru45o zados, el analizador impide el paso de la luz que llega a él. UN RESULTADO POSIBLE: LUZ POLARIZADA A 45 o Pero si una de las componenCON RESPECTO A tes diera una semioscilación LA VERTICAL ANALIZADOR más, la recombinación produciría una polarización girada 90 7. Una de las posibilidades con polarización inclinada grados. Esta nueva polarización
LA CIENCIA
DE LA LUZ
97
RESULTADOS DE LA SEGUNDA FOTO
ISOCLINA
LINEAS ESTIMADAS DE TENSION PRINCIPAL
EJES PRINCIPALES ESTIMADOS
ISOCLINA
8. Estudio de isoclinas
ticular en que la longitud máxima del vector permanezca constante durante la rotación, se habla de una luz polarizada circularmente.) El analizador transmite en parte la luz polarizada elípticamente, dejando pasar la componente paralela a su eje de polarización y cerrando el paso a la otra. La consecuencia de todo este análisis es que lo que un observador vea a través del analizador dependerá del ángulo que formen la polarización de la luz y uno de los ejes principales del estado de tensión del plástico. El paralelismo entre ambos da oscuridad en el analizador. Aunque no haya paralelismo, si la luz que sale del plástico es de igual polarización, el analizador tampoco la dejará pasar. En cualquier otro caso, conseguirá pasar al menos una parte de la luz. Nuestro ejemplo se distingue por su sencillez: la tensión es uniforme y los ejes principales son uno vertical y otro horizontal en todos los puntos de la lámina de plástico. Si ésta estuviera sometida a tensiones variables de un punto a otro, la orientación de los ejes variaría de un punto a otro. El objeto de la fotoelasticidad es descubrir esa orientación, para intentar localizar así las zonas del modelo susceptibles de romperse bajo el estado de tensión. Cuando al plástico se le aplica una distribución de tensiones complicada y desconocida, el modelo, visto por el analizador, presenta una configuración de líneas oscuras y claras superpuestas, llamadas franjas. La franja oscura señala los puntos del interior del plástico de los que emerge una luz polarizada exactamente del modo que imposibilita su paso a través del analizador. La razón de ello estriba en que la luz que pasa por uno de tales puntos está polarizada paralelamente a uno de los ejes principales, o bien que tiene dos componentes (paralela cada una a los ejes principales en ese punto) que, al recombinarse, dan una luz con la misma polarización que tenía al penetrar en el plástico. En ambos casos, el analizador no la deja pasar. La mayoría de las franjas oscuras se deben habitualmente a la primera causa. Esas franjas reciben el nombre de isoclinas. La distribución y configuración de las isoclinas revela la orientación de los ejes principales en el seno del plástico. Si queremos representar gráficamente los ejes principales, fotografiaremos el plástico a través del analizador para una orientación particular de los dos filtros polarizadores. Supongamos que el eje del primero esté vertical y que el del segundo sea horizontal. Se ilumina el plástico con luz polarizada verticalmente. Así, las isoclinas que salgan en la foto señalarán los puntos del plástico que se
98
distinguen por tener uno de los ejes principales vertical. (Como los ejes principales son perpendiculares entre sí, el otro eje será horizontal.) La configuración de la foto se calca en papel y se dibujan los ejes principales sobre varios puntos de las isoclinas. Luego se rotan los filtros 10 grados, por ejemplo, y se toma otra foto. Las isoclinas señalarán los puntos que tengan uno de sus ejes principales inclinado 10 grados con respecto a la vertical. Esas isoclinas se añaden al calco, y se trazan los ejes principales en unos cuantos puntos. Tras algunas fotos más, el calco revelará la orientación de los ejes en numerosos puntos del plástico. Seguidamente se trazan sobre el dibujo líneas que enlacen puntos de igual tensión. Por ejemplo, partiendo de un punto puede tirarse una línea que conecte un eje principal con otro eje principal correspondiente a un punto vecino. Aunque aquí sea inevitable trabajar un poco a ojo de buen cubero, se obtendrá un mapa aproximado de las líneas de tensión principal. Las franjas resultantes de una recombinación se llaman isocromas. Por lo general aparecen ocultas por las isoclinas, pero pueden aprovecharse para asignar valores a las tensiones principales reveladas por las isoclinas. Para hacer uso de ellas, deben primero eliminarse las isoclinas. A tal fin, colocaremos dos filtros adicionales, llamados placas de cuarto de onda, en el trayecto de la luz. Una de las placas se intercala entre el primer polarizador y el plástico, y la otra entre éste y el analizador. La función de una placa de cuarto de onda consiste en transformar luz polarizada linealmente en luz polarizada circularmente. Estas placas actúan de manera algo similar al plástico sometido a estudio. Son birrefringentes, es decir, poseen dos ejes ortogonales (el “rápido” y el “lento”) que dejan pasar la luz a celeridades distintas. Supongamos que el primer polarizador deje pasar la luz polarizada verticalmente. La primera placa de cuarto de onda se ajusta con su eje rápido inclinado 45 grados con respecto a la vertical. La luz que llega a ella tiene componentes según el eje rápido y según el lento. Ambas compone ntes, al atravesar la placa, oscilan un número de veces diferente cada una. Y de esta diferencia depende la polarización de la luz que salga de la placa. Entonces, como las placas se diseñan para que una componente realice un cuarto de oscilación más que la otra (de ahí su nombre de placa de cuarto de onda), la luz emergente estará polarizada circularmente. La segunda placa de cuarto de onda se instala con su eje rápido perpendicular al de la primera. La misión de
TEMAS 6
esta segunda placa es sustraer la diferencia de un cuarto de longitud de onda comunicada a las componentes por la primera. Al llegar aquí podría parecer que la cosa no merecía la pena; sin embargo, todo ello nos servirá para lograr nuestro propósito. Cuando la luz polarizada circularmente atraviesa el plástico tensado, la polarización no puede ser rigurosamente paralela a un eje principal. Por tanto, desaparecerán las isoclinas nacidas de ese paralelismo, y lo que se recibe a través del analizador será una configuración de isocromas. Esta configuración ofrece la ventaja de que sus franjas están relacionadas con la intensidad de las tensiones del plástico. Lo que determina la polarización de la luz en cualquier punto del plástico es la diferencia entre l as tensiones principales; esa diferencia determina si un punto acaba formando parte de una franja oscura o de otra clara. Los valores de la tensión en cualquier punto del plástico pueden calcularse, en principio, examinando las isocromas. Como la configuración de isocromas depende del acortamiento de las longitudes de onda de las dos componentes luminosas transmitidas por cualquier punto del plástico, tal configuración tendrá que ver con la longitud de onda de la luz que lo ilumine. Si ésta es blanca, cada color creará su propia configuración. Acontece que, en un punto dado, algún color quizá parta con la misma polarización que a su entrada, caso en el que el analizador eliminará el color. La polarización de los otros colores que pasen por ese punto variará un poco y, por ello, serán parcialmente transmitidos por el analizador, de modo que el observador
no verá el punto del plástico ni blanco ni negro, sino coloreado. Y la agrupación de los puntos que generen los mismos colores formará una configuración de isocromas coloreadas. Resulta difícil predecir qué color verá el observador en un punto concreto, pues depende del modo en que la polarización altere los distintos colores, así como de la sensibilidad del observador y de la respuesta al color de la película que tenga la cámara. La predicción se complica aún más cuando aumenta la diferencia entre las tensiones en un punto del plástico. Cuando son lo bastante elevadas, los colores comienzan a difuminarse en un fondo blanco. Las fotos de Seufert provienen de experimentos en los que la luz lanzada a través del plástico sometido a tensión está polarizada linealmente. En ellas aparecen tanto las isoclinas (que sólo son claras y oscuras) como las isocromas (coloreadas). Las dos fotografías de la figura 1 muestran modelos de plástico que concentran las tensiones en sus zonas cóncavas, donde las isocromas se agolpan más, indicando que las diferencias entre las tensiones varían considerablemente en esos puntos. Como los modelos están sometidos a compresión por fuerzas que actúan a la derecha y a la izquierda, las zonas cóncavas están comprimidas. En la foto superior, la zona convexa sufre tracción. La distribución de color más uniforme de las porciones rectas indica que la distribución de tensiones es más uniforme en ellas que en las porciones curvas.
BIBLIOGRAFIA COMPLEMENTARIA PHOTOELASTICITY: PRINCIPLES & METHODS.
H. T. Jessop y F. C. Harris. Dover Publications, Inc., 1960. POLARIZED L IGHT . William A. Shurcliff y Stanley S. Ballard. D. Van Nostrand Company, Inc., 1964. PHOTO -E LASTIC ANALYSIS. A. W. Hendry. Pergamon Press, 1966. Z
X
45o
EJE RAPIDO
LUZ POLARIZADA CIRCULARMENTE
POLARIZADOR
PLACA DE CUARTO DE ONDA 45o EJE RAPIDO UN RESU LTADO POSIBLE
PLACA DE CUARTO DE ONDA
9. Cómo eliminar las isoclinas para ver las isocromas
LA CIENCIA
DE LA LUZ
ANALIZADOR
99
Interferometría óptica de superficies Glen M. Robinson, David M. Perry y Richard W. Peterson
Basándose en la naturaleza ondulatoria de la luz y en la potencia de los ordenadores modernos, se han diseñado unos dispositivos sensibles capaces de medir la textura de las superficies
L
as cintas de vídeo, las bolas de los rodamientos, las películas fotográficas y las pastillas de los ordenadores funcionan mal si sus superficies son ásperas o presentan irregularidades. Para obtener acabados de gran precisión es necesario disponer de medios especiales capaces de medir la textura de la superficie. Las técnicas utilizables hasta una fecha relativamente reciente tenían muchas limitaciones. Nosotros pusimos a punto en 1980 un método mucho mejor. La interferometría óptica, un fenómeno basado en la naturaleza ondulatoria de la luz que permite acometer medidas precisas de las formas o de las distancias, parecía un candidato muy adecuado para alcanzar dicho objetivo, pues proporciona una resolución extraordinaria y no requiere un contacto físico directo con la superficie sometida a estudio. Pero la interpretación de las imágenes interferométricas, o interferogramas, y su ligazón con las medidas significativas de la textura de las superficies revisten especial dificultad. Los interferogramas tradicionales consisten en un conjunto de instantáneas con zonas claras y oscuras que, en general, apenas se parecen a los contornos del objeto estudiado. Así las cosas, se le ocurrió una solución del problema a uno de los autores (Robinson) mientras estaba viendo un programa de televisión en el que se mostraban unas imágenes tridimensionales, obtenidas por ordenador, de las capas de rocas situadas bajo un pozo de petróleo. Combinando adecuadamente la técnica de la interferometría con potentes ordenadores y programas avanzados de obtención de gráficos, descubrimos la posibilidad de presentar, de manera interesante e intuitiva, la ingente cantidad de información que existe en un interferograma. Por otra parte, una vez que toda la información contenida en un interferograma se ha introducido en el orde-
100
nador, podemos echar mano de técnicas matemáticas para deducir los datos estadísticos útiles que guarden relación con la textura de la superficie. Estos métodos se han incorporado ya en algunos dispositivos comerciales. La interferometría se utiliza en ciertas aplicaciones de control de calidad y ha permitido reducir el coste y mejorar el funcionamiento de productos muy diversos, desde películas fotográficas hasta cintas magnéticas y disquetes. La celeridad con que se ha incorporado la interferometría óptica analizada con ordenadores a los procesos industriales ha dejado al descubierto las limitaciones de los viejos métodos de medición. Por ejemplo, las técnicas tradicionales basadas en la difusión luminosa exponen la textura general de una superficie estudiando la forma en que ésta refleja la luz. Método que no nos dice nada acerca de los rasgos singulares de la superficie en cuestión, ni de su distribución acumulativa por tamaños. La microscopía óptica o la electrónica, que son capaces de resolver pequeños detalles, no pueden medir las alturas de las imperfecciones o protuberancias que existen en las superficies.
O
tro método clásico, conocido con el nombre de rugosimetría, se basa en recorrer con una plumilla o punzón la superficie considerada. Las subidas y bajadas del punzón graban el relieve de la superficie en una cinta fina. Pero hay un inconveniente: la aplicación de la técnica exige aportar una presión bastante elevada sobre la punta del punzón, con el consiguiente riesgo de compresión y alteración de las superficies de las películas y cintas sometidas a examen. En comparación con todos estos métodos, la interferometría óptica presenta importantes ventajas. Por única herramienta utiliza un haz de luz de poca intensidad; se trata, pues,
de un proceso inocuo. En principio la interferometría permite resolver las irregularidades de una superficie hasta un tamaño de varios angstrom. (Un angstrom es igual a la diez milmillonésima parte de un metro, diámetro aproximado de un átomo de hidrógeno.) El fiable trabajo se realiza además en brevísimo tiempo, porque el área observada es muy grande en relación con las dimensiones de los rasgos individuales de la superficie. El principio fundamental de la interferometría consiste en la interacción o interferencia entre dos ondas luminosas que se encuentran una con otra, de forma parecida a lo que sucede cuando se encuentran dos ondas superficiales en el agua. En cualquiera de estos casos, cuando la cresta de una onda coincide con el valle de la otra, la interferencia es destructiva y las ondas se anulan. Cuando coinciden las dos crestas o los dos valles, las ondas se refuerzan mutuamente. Hace unos 100 años, Albert A. Michelson desarrolló las técnicas basadas en la
TEMAS 6
interferometría y posibilitó con ello la medición de distancias con suma precisión. El dispositivo desarrollado por este físico norteamericano, conocido con el nombre de interferómetro de Michelson, todavía se emplea. El funcionamiento del interferómetro de Michelson está basado en el uso de una superficie parcialmente reflectora, o divisor del haz, que descompone un haz de luz monocromática (luz de un color o longitud de onda único) en dos haces, que se mueven en diferentes direcciones a lo largo de los brazos del instrumento. En nuestra
oscuras (allí donde se anulan) en el haz recombinado. Cuando en la diferencia entre los caminos recorridos en los dos brazos del interferómetro se produce un cambio equivalente a una longitud de onda, la onda recombinada recorre un ciclo completo luz-oscuridad-luz, circunstancia en la que se crea una nueva región o franja brillante. Para explicar la relación espacial entre dos ondas apelamos al ángulo de
mente ese patrón de bandas. Por ejemplo, si la muestra presenta una protuberancia cuya altura sea igual a media longitud de onda, las franjas se desplazan en un ciclo (360 grados), debido a que el correspondiente recorrido disminuye en una longitud de onda. Las figuras de franjas reproducen las elevaciones de la superficie de forma parecida a como lo hacen las líneas de nivel de un mapa topográfico. El intervalo entre bandas viene determinado, a la vez, por la pendiente de la superficie de la muestra y por la inclinación del espejo de referencia.
1. ESTA IMAGEN INTERFEROMETRICA del revestimiento de una pieza metálica muestra las irregularidades que presenta la superficie cuando actúa una tensión que origina la rotura por desgaste. Las técnicas de interferometría óptica de gran precisión desarrolladas por los autores permiten conocer las causas de los fallos d e los materiales, para así diseñar productos de mejor calidad y más duraderos.
aplicación, uno de estos haces se refleja sobre la superficie de un espejo plano de referencia; el otro se refleja en la superficie de la muestra sometida a estudio. Ambos haces vuelven a reunirse luego en el divisor. La textura de la superficie de la muestra produce cambios en la distancia recorrida por el segundo haz. Cuando los haces se recombinan, algunas partes del segundo estarán en fase con el primero, mientras que otras estarán fuera de fase. La consecuencia es que la relación espacial entre ambos haces poseerá una información minuciosa de la topografía de la superficie, información que se manifiesta a través de regiones brillantes (allí donde los dos haces se refuerzan) y de regiones
LA CIENCIA DE LA LUZ
fase; si vale cero grados, significa que las dos ondas se mueven en fase y, por tanto, se refuerzan mutuamente. Cuando el ángulo de fase relativo es igual a 360 grados, la diferencia entre los caminos recorridos por uno y otro haz en los respectivos brazos es exactamente igual a una longitud de onda y, en consecuencia, se produce la creación de una nueva franja brillante. Cuando el espejo de referencia se inclina un tanto, la diferencia entre los caminos recorridos a lo largo de la imagen cambia de forma regular y continua. Se genera así una serie regular de franjas de interferencia paralelas. Las irregularidades existentes en la superficie de la muestra alteran manifiesta-
La medición manual de cada uno de los cambios acontecidos en las franjas de un interferograma típico puede producir fácilmente unos 10.000 datos. El procesamiento de semejante avalancha de datos requiere el auxilio de un ordenador. De ahí que antaño las aplicaciones de la interferometría microscópica se limitaran, por lo común, a problemas en dos dimensiones bien definidos: cálculo de espesores, de profundidad de depósitos o de arañazos aislados. Dos avances han hecho posible la realización de estudios interferométricos rápidos y adecuados. El primero consiste en la disponibilidad de ordenadores digitales de velocidad y
101
capacidad grandes. El segundo lo aportó John H. Bruning en 1974, con la creación de un proceso al que denominó interferometría de detección de fase directa. La técnica desarrollada por Bruning exige medir tres o más figuras de interferencia, cada una de las cuales está asociada con una posición vertical,
algo distinta, del espejo de referencia o de la muestra. Todas estas posiciones difieren entre sí a lo sumo en una longitud de onda (360 grados de fase). Bruning observó que el conjunto de estas tres figuras encerraba la información necesaria para determinar la diferencia de fase entre el haz de referencia y el haz de la muestra, para
Así procede la interferometría
S
e produce interferencia de la luz cuando dos ondas o conjuntos de ondas interactúa entre sí. En el interferómetro de Michelson, un haz de láser incide sobre un espejo semiplateado, que lo descompone en dos; uno se refleja en la muestra y el otro se r efleja en un espejo de r eferencia. Cuando ambos haces se recombinan, las ondas presentan cierta diferencia de fase y se cancelan total o parcialmente. Las figuras de interferencia o interferogramas (fila de abajo ) se caracterizan por la repetición de unas imágenes de oscuridad-luz-oscuridad conocidas como bandas de interferencia. Las crestas y valles de la superficie de la muestra observada producen un cambio en el trayecto recorrido por el pr imero de los haces citados, alterando la relación espacial entre ellos y la forma de las franjas. Las bandas se distorsionan con los accidentes de la superficie de la muestra, obteniéndose unas figuras parecidas a las líneas de nivel de los mapas topográficos. El tratamiento de estas figuras de interferometría mediante un ordenador se basa en la obtención de tres interferogramas diferentes de la muestra (en este caso, una cinta de vídeo muy rugosa). Cuando la muestra se mueve, la distancia recorrida por el primer haz varía y las fases del haz recombinado cambian. El brillo variable de cada punto del interferograma se analiza para poner de manifiesto la fase de la onda y, en consecuencia, la altura del punto correspondiente de la superficie. Toda esta información se representa como una imagen tridimensional.
102
todos los puntos de la superficie de ésta. La aplicación de las adecuadas ecuaciones trigonométricas a las tres figuras de luz y oscuridad nos da una lectura precisa de las fases de las ondas por toda la superficie. Partiendo de esta información, podemos deducir cuál es la topografía superficial que ha producido las fases observadas.
L
a medición de las fases relativas de los haces de referencia y de la muestra proporciona una sensibilidad mucho mayor que la del viejo método de medida del desplazamiento de las fran jas de interferencia del haz reconstruido. El método de Bruning aporta, además, una visión uniforme de la superficie de la muestra, facilitando la automatización del proceso de medida. En estos veinte años hemos diseñado, construido y perfeccionado dos tipos de dispositivos para llevar a cabo interferometrías directas con detección de la fase. Uno de estos sistemas, basado en la técnica de Bruning, emplea un interferómetro de Michelson o similar en conexión con un microscopio óptico para obtener imágenes tridimensionales de las superficies. El otro sistema, más inno vador, mide el perfil bidimensional de la superficie de una muestra que se mueve deprisa bajo un haz de láser enfocado. El microscopio óptico del primero de estos aparatos aumenta la figura de interferencia producida por el interferómetro. Una cámara de vídeo registra esta imagen aumentada, la convierte a una forma digitalizada y la almacena en un ordenador. El proceso de digitalización divide la imagen en un reticulado, cada una de cuyas celdas define un elemento de imagen o píxel. Estos píxeles constituyen las partes más pequeñasdelaimagen interferométrica, de modo parecido a lo que sucede con los puntos que forman las fotografías que se reproducen en los periódicos. Moviendo la muestra o el espejo de referencia alteramos la fase de cada uno de los píxeles que constituyen la imagen interferométrica. El método de Bruning ordinario de tres pasos requiere que este proceso se repita otras dos veces para recoger tres imágenes de interferencia. Siempre que la muestra se mueve un octavo de longitud de onda, la longitud recorrida cambia en un cuarto de longitud de onda y la fase se desplaza 90 grados. La fase de cada píxel de la imagen de interferencia dependerá de la distancia recorrida por el haz de luz, distancia que viene condicionada por la textura de la superficie y por el movimiento neto de la muestra.
TEMAS 6
2. EL INTERFEROMETRO DE MICROSCOPIO viene a ser el interferómetro de Michelson dotado con lentes de aumento y con una placa ajustable para colocar la muestra a observar. Una cámara de vídeo recoge la figura de interferencia obtenida en tres posiciones diferentes de la muestra y la convierte en un conjunto de datos digitales, con los que un programa de ordenador reconstruye una imagen tridimensional.
3. EL INTERFEROMETRO DE BARRIDO POR LASER dirige un haz de láser enfocado sobre la muestra en movimiento. Un modulador cambia su frecuencia, originando una figura de interferencia regular cuando se le recombina con el haz emergente. Las irregularidades de la muestra modifican la distancia recorrida por el haz, alterando las condiciones de interferencia.
Los interferómetros de barrido por viesa un modulador óptico-acústico, es láser detectan la fase de las ondas en decir, un dispositivo capaz de alterar función del tiempo. Con algunos pro- la frecuencia de la luz. La frecuencia totipos primitivos se pretendía medir del haz emergente está desplazada 40 los cambios rápidos que experimentan megahertz. Se hace que el haz, agudalos plasmas termonucleares. Los ins- mente enfocado, incida sobre la muestrumentos que hemos construido tra en movimiento. Tras ser reflejado basados en esta técnica dirigen un haz por su superficie, recorre de nuevo su láser hacia un objeto en movimiento: camino original, vuelve a atravesar el la bobina de una cinta magnética o el modulador y sufre otro desplazamiento disquete en rotación de un ordenador. de 40 megahertz. Finalmente se refleja Como sucede en los dispositivos que en el espejo de salida del láser, donde usan microscopios, las medidas de la se recombina con la luz sin desplazar fase se llevan a cabo desdoblando y que emerge de él. recombinando el haz. Los dos pases a través del modulador alteran la frecuencia de la luz de l proceso de interferometría de láser en 80 megahertz respecto a su barrido por láser se inicia con el frecuencia original. Cuando se recomhaz emitido por un láser de helio y bina con el haz primigenio, la luz desneón, cuya luz tiene una longitud de plazada produce un “batido” de franjas onda de 6328 angstrom. En este caso de interferencia a 80 megahertz. Los resulta más conveniente considerar la haces se encuentran en fase y desfase frecuencia de la luz, es decir, el número mutuas 80 millones de veces por de ciclos de ondas que se producen segundo y la intensidad de la luz (bricada segundo. Una longitud de onda llo) de cada punto aumenta y dismide 6328 angstrom corresponde a una nuye 80 millones de veces por segundo frecuencia de 474.100.000 megahertz en el detector. La presencia de irregu(un megahertz es igual a un milló n de laridades en la superficie de la muesciclos por segundo). tra modifica la longitud del recorrido El haz procedente del láser atra- del haz de láser reflejado por ella y, en
E
LA CIENCIA DE LA LUZ
consecuencia, el tiempo invertido en dicho recorrido, lo que se traduce en un cambio constante de la fase, que se superpone al ritmo regular de las interferencias, conforme vamos moviendo la muestra bajo el haz de láser. Un detector electrónico mide rápidamente dicha fase y envía la información correspondiente hacia un microprocesador, donde se analiza y se crea el perfil bidimensional de la superficie en movimiento.
L
as muestras de uno de nuestros interferómetros laséricos, por ejemplo, son cintas de vídeo dispuestas en una suerte de bucles de unos 50 centímetros de longitud; se deslizan luego sobre una guía perfectamente pulimentada que está situada en el foco del haz del láser. Hay o tra versión en la que los disquetes y otros objetos planos se mueven bajo el haz so bre un plato giratorio, que barre una superficie de unos 50 centímetros de longitud y un micrometro de anchura. Las muestras pasan bajo el foco del haz a una velocidad de 15 o 20 centímetros por segundo. Los dos tipos de interferómetros de
103
4. LA SUPERFICIE DE LAS CINTAS MAGNETICAS ha de ser extraordinariamente lisa para que funcionen bien. La interferometría permite medir su textura superficial con facilidad y rapidez. Presentamos los perfiles típicos cuando se mide con un interferómetro de barrido por láser (arriba) y con un dispo-
sitivo basado en un microscopio (abajo). Los primeros proporcionan figuras alargadas de los perfiles bidimensionales, que resultan útiles para conocer el espesor medio del revestimiento magnético de la cinta. Los segundos crean imágenes tridimensionales, que indudablemente son más intuitivas.
detección directa de fase son capaces unos 10 micrometros de diámetro; los de resolver detalles de tamaño inferior dos interferómetros proporcionan a unos 10 angstroms de altura en la resultados comparables y complemensuperficie observada, lo cual repre- tarios. Si el tamaño de los rasgos senta una precisión unas treinta veces supera en mucho ese valor, el interfemayor que la conseguida mediante téc- rómetro de barrido por láser logra una nicas interferométricas clásicas. El medición mejor de la rugosidad, dada interferómetro microscópico, diseñado su capacidad de rastrear una región para aumentar la imagen de la mues- más extensa. tra unas 400 veces, alcanza una resoEn la recogida de los tres interferolución espacial del orden del microme- gramas que se necesitan en el interfetro y obtiene imágenes de 125 por 200 rómetro microscópico se tarda unos micrometros. Cuando la ampliación dos segundos, el mismo tiempo que disminuye, decae el poder de resolu- supone la medida del perfil de una ción y aumenta la superficie ras- superficie con el interferómetro de treada. observación de láser. El ordenador La resolución espacial de un inter- invierte unos dos minutos en analizar ferómetro de barrido por láser depende la superficie estudiada a partir de los de la distancia entre los puntos a que datos recogidos. se toman datos, que, a su vez, depende Una vez procesados los datos, hay de la velocidad con que la muestra que compensar los errores en las fases. pasa bajo el haz y de la velocidad con Estos errores se producen cuando la que se produce la recogida de datos, o topografía de una superficie sube o velo cidad de mues treo . (En últi ma baja con tal pendiente que la longitud instancia, la resolución de ambos tipos de los recorridos de la luz cambia en de interferometría viene limitada por una cuantía mayor que media longiel fenómeno de la difracción, una con- tud de onda (180 grados) entre dos secuencia de la naturaleza ondulato- observaciones. Se producen también ria de la luz.) Un valor típico de la errores cuando la brusquedad de la distancia entre los puntos de los datos protuberancia impide que la luz reflees de 1,6 micrometros. jada incida sobre las lentes del dispoLos detalles de interés que apare- sitivo de barrido. En tales casos, el cen en la superficie de la mayoría de ordenador busca la fase perdida, las muestras observadas (por ejemplo, debido a que dicha fase se repite en las cintas de vídeo) vienen a tener cada ciclo. (Por ejemplo, al ordenador
104
le parece que la cresta de una onda e s exactamente la misma que la cresta siguiente.) El hecho de que la superficie que puede abarcar el interferómetro microscópico sea bastante grande resulta ventajoso para proceder a las correcciones de los errores en la fase. Los algoritmos utilizados por el ordenador permiten detectar automáticamente los datos medidos incorrectamente y examinar las zonas de rastreo adyacentes para proceder a las oportunas comparaciones. Estos dispositivos permiten corregir los errores de la fase sin perder nada de las imágenes. La corrección de estos errores con el interferómetro de barrido por láser resulta mucho más difícil, debido a que el haz examina sólo una zona muy estrecha de la superficie, sin que aporte información sobre el área que la rodea y que podría servir de referencia. Los datos que proporcionan los interferómetros microscópicos deben cribarse también en lo concerniente a la curvatura de las imágenes, circunstancia ésta que podría obedecer a un montaje inadecuado, a una curvatura inherente de la muestra o a la e xistencia de aberraciones en el sistema óptico. El cálculo de dicha curvatura se lleva a cabo aplicando las técnicas estadísticas adecuadas para permitir un redondeo de los datos, de forma tal
TEMAS 6
que la curvatura en cuestión se pueda interpretar que las imágenes gráficas eliminar matemáticamente (por sus- que proporcionan los dispositivos tracción) de modo que aflore sólo la interferométricos basados en microstextura de la superficie que nos inte- copios, que resultan mucho más intuiresa. Para terminar, los datos corre- tivas y estéticamente más atractivas. gidos se representan en una forma Las técnicas estadísticas condensan tridimensional. los perfiles obtenidos y permiten pre Al estar generadas por ordenador, sentarlos de una forma más comprenlas imágenes interferométricas pue- sible y útil. Estos métodos también den doblarse, girarse o invertirse. Con permiten medir el ta maño y la periola ayuda de un programa especial para dicidad de figuras superficiales repegráficos se puede exagerar el relieve tidas. El análisis estadístico revela a vertical de las imágenes obtenidas o veces pautas superficiales allí donde utilizar colores que realcen las carac- las imágenes interferométricas de terísticas topográficas. Este apoyo perfil o tridimensionales se limitaban informático permite también simular a mostrar un orden aleatorio. una visión lateral en ángulo, que También se han desarrollado otros aporte una perspectiva familiar y fácil- tipos de interferómetro. Frank E. mente comprensible. Frente a todas Talke y David B. Bogy han construido estas posibilidades, las fotografías de un interferómetro de láser que examicroscopía óptica y electrónica sólo mina los corrimientos que experipueden regristrarse en dirección ver- menta la frecuencia de la luz lasérica. tical, que suele resultar poco natural. Se centran en el estudio de los moviLos ordenadores calculan la altura, mientos de los cabezales de grabación la profundidad y el volumen de cual- y de reproducción de los ordenadores, quier detalle de la superficie que el que resultan de las irregularidades de interferómetro haya detectado. La las superficies de los discos e n rapidítopografía general de la superficie, sima rotación. James C. Wyant y dentro de la zona captada en la ima- Chris L. Koliopoulos han diseñado gen procesada, se analiza con los otros interferómetros similares al métodos matemáticos tradicionales. nuestro de microscopio. Si, por ejemplo, interesase conocer la Gracias a sus excepcionales prestamedida en que la textura de una ciones, la interferometría directa de muestra influirá en su comporta- detección de fase no ha tardado en miento, un histograma del número de rebasar las paredes de los laboratorios irregularidades en relación con su para situarse en el mercado. Varias tamaño ofrecerá valiosa información. empresas han aprovechado la investiLa altura media de las irregularida- gación universitaria y comercializan des y la desviación típica de sus altu- ya interferómetros de detección de ras son también datos útiles. fase en dos y tres dimensiones; otra vende un interferómetro de barrido os datos proporcionados por el por láser basado en un principio difeinterferómetro de barrido por láser rente al descrito en este artículo. se someten a un proceso parecido. Una La empresa 3M utiliza la técnica de vez eliminados los errores de fase, el fase directa para caracterizar las perfil de la superficie consiste en una superficies de productos de grabación serie de componentes que varían pau- magnéticos, láminas de plástico, cabesadamente (frecuencias bajas) y otra zales de grabación y piezas de maquiserie dotada de variaciones más rápi- naria de precisión. Pero hemos abordas (frecuencias elevadas). En el caso dado un abanico más amplio de de muestras lisas, como son las cintas aplicaciones: películas fotográficas, de vídeo, las componentes de frecuen- cintas adhesivas, ceras sobre losetas cias elevadas encierran la mayor parte de pavimentos cerámicos, cilindros de de la información útil. Las frecuencias calandria industriales (utilizados bajas corresponden sobre todo al ruido para presionar sustancias y obtener propio de la instrumentación, a la pre- láminas delgadas), lentes y espejos e sencia de vibraciones y a los cambios incluso empastes dentales. de espesor de la muestra. Los algoritLa interferometría de detección de mos utilizados por el ordenador filtran fase ha desempeñado un papel espebien las componentes indeseadas. En cialmente destacado en la mejora del el caso de las cintas magnéticas, las proyecto y de la fabricación de cintas componentes de frecuencias bajas sí magnéticas. Está experimentalmen te podrían importar, porque reflejan las comprobado que el funcionamiento de variaciones de espesor de los revesti- una cinta de grabación de vídeo mientos magnéticos. depende íntimamente de la rugosidad Los perfiles lineales de las superfi- de su superficie. Los interferómetros cies creados con los interferómetros de de barrido por láser pueden detectar barrido por láser son más difíciles de variaciones muy pequeñas del espesor
L
LA CIENCIA DE LA LUZ
de los revestimientos magnéticos; al poder registrar los datos con rapidez, sin que exista un contacto físico y de forma no destructiva, es posible controlar automáticamente, con gran facilidad y de forma continua las características de las cintas fabricadas. El coste de fabricación de videocasetes, discos de ordenador y otros artículos similares de grabación se ha reducido sustancialmente gracias a la interferometría, en tanto que mejoraban el funcionamiento y la calidad de los productos. Es preciso averiguar la forma en que el material de revestimiento de los disquetes o el de las bolas de rodamientos se desgastan para poder mejorarlos. Como la magnitud del desgaste suele ser pequeñísima y local, incluso en el caso de que el producto presente fallos de funcionamiento, las técnicas de interferometría han refinado los procesos de medición, amén de acotar con mayor precisión los mecanismos responsables de esas pérdidas. La topografía de la superficie de las películas fotográficas reveladas guarda relación directa con la densidad óptica de la imagen (es decir, con el ennegrecimiento de la emulsión). Las técnicas de interferometría determinan su definición midiendo las pendientes de su topografía superficial, información que resulta muy valiosa para el desarrollo de nuevos tipos de películas.
E
l advenimiento de la interferometría de detección directa de fase ha convertido en tarea rutinaria la medición de la textura superficial de las películas de poliéster, material que se utiliza como sustrato de muchos productos (cintas adhesivas, re vesti mie nto s dec ora tiv os, cin tas magnéticas y películas fotográficas), con las consecuencias positivas que ello acarrea para la calidad de los productos resultantes.
BIBLIOGRAFIA COMPLEMENTARIA D IGITAL WAVEFRONT M EASURING I N TERFEROMETER FOR
TESTING OPTICAL
SURFACES AND LENSES. J. H. Bruning, D.
R. Herriott, J. E. Gallagher, D. P. Rosenfeld, A. D. White y D. J. Brangaccio en Applied Optics, vol. 13, n. o 11, páginas 2693-2703; noviembre de 1974. THREE-DIMENSIONAL S URFACE M ETROLOGY OF MAGNETIC RECORDING MATERIALS
T HROUGH D IRECT-P HASE -D ETECTING MICROSCOPIC INTERFEROMETRY .
D. M. Perry, P. J. Moran y G. M. Robinson en Journal of the Institution of Electronic and Radio Engineers , vol. 55, n.o 4, págs. 145-150; abril de 1985.
105
Conjugación de fase óptica Vladimir V. Shkunov y Boris Ya. Zel’dovich
En la vida cotidiana el tiempo transcurre siempre hacia adelante. Sin embargo, la situación es cualitativamente diferente en el caso del movimiento ondulatorio: las trayectorias de las ondas luminosas pueden ser “invertidas temporalmente”
I
magínese una nadadora en un mecánico-cuánticos de los átomos y frentes de onda de los haces luminosos trampolín, preparándose para electrones que irradian y refractan la reales pueden adquirir formas y topodar un salto. Una carrera rápida, luz no necesitan ser invertidos. En la logías bastante complicadas. un vuelo..., pero debido a un pequeño práctica, basta con invertir el comporEl concepto de frente de onda se error técnico su cuerpo penetra en el tamiento temporal de los parámetros puede utilizar para comprender las agua con un ángulo incorrecto, dán- macroscópicos que describen el movi- propiedades de una onda de fase condose un gran chapuzón y originando miento medio de un gran número de jug ada . Sup ong amo s que hac emo s ondas que avanzan a partir del punto partículas. una fotografía de una onda luminosa de contacto con el agua. ¡Qué maraviLa existencia de haces invertidos en la que el haz se propaga de lloso sería poder invertir el tiempo, tiene consecuencias muy importantes. izquierda a derecha [véase la figura con el fin de corregir el error y obtener Es evidente, por ejemplo, que un haz 3]. En virtud de la reversibilidad de una mayor puntuación! El agua pro- ideal, es decir, libre de distorsión y con la propagación de la onda, al examiyectada volvería a unirse, las ondas una divergencia mínima, se puede nar esta fotografía no seríamos caparegresarían al punto de contacto, la degradar cuando se transmite a tra- ces de decir si el sentido de propagasaltadora sería arrojada fuera del vés de mat eri ale s no hom ogé neo s ción es de izquierda a derecha o de agua y ascendería hasta el trampolín (como es una lámina de vidrio de espey la superficie quedaría tan lisa como sor no uniforme). La propiedad de lo estaba antes del salto. Desgracia- reversibilidad implica que es posible damente, aunque este supuesto se crear un haz “antidistorsionado”, que pueda obtener fácilmente con la ayuda se vuelve ideal tras volver a atravesar de un proyector cinematográfico, el dichos materiales no homogéneos. La proceso de inversión temporal que técnica por la que los haces en cuesrepresenta contradice nuestra expe- tión se crean y se manipulan se conoce riencia cotidiana. Existe una buena con el nombre de conjugación de fase razón para ello: la secuencia de acon- óptica. Las ondas que constituyen tecimientos que acabamos de descri- dicho haz se denominan ondas de fase bir viola el segundo principio de la conjugada. termodinámica (la ley que establece que los sistemas tienden a la máxima ntes de describir las propiedades de una onda de fase conjugada entropía). Sin embargo, dicha secuencia se vamos a expo ner algu nas noci ones puede realizar con éxito si lo que se básicas del movimiento ondulatorio. considera es el movimiento de la luz o A medida que un conjunto de ondas se de cualquier otra radiación electro- mueve por el espacio, sus oscilaciones magnética. Este fenómeno es posible llegan a los diferentes puntos en tiemgracias a una importante propiedad pos diferentes. De los puntos en que de los rayos luminosos, conocida desde las oscilaciones son sincrónicas se dice hace mucho tiempo: el carácter rever- que están en fase. La fase representa sible de su propagación. Para cada haz el valor del período en relación con luminoso, cualquiera que sea su cierta posición inicial. Las superficies estructura de rayos, existe otro posi- que unen a los puntos con una misma ble haz con “tiempo invertido”, cuyos fase se conocen como frentes de onda. rayos siguen las mismas trayectorias, Una propiedad importante de los frenaunque en sentido opuesto, de forma tes de onda consiste en que dichas análoga al movimiento de una pelí- superficies son perpendiculares a la cula hacia atrás. El éxito de la inver- dirección de propagación. Los frentes sión del movimiento ondulatorio de onda de las ondas planas son pladébese a la gran simplificación del nos, y esferas concéntricas, los frentes problema: los movimientos térmicos y de onda de las ondas esféricas. Los
A
106
TEMAS 6
derecha a izquierda. Sin embargo, si el haz se propagara de derecha a izquierda (es decir, si el haz se hubiera invertido), los frentes de onda se habrían invertido respecto a la dirección del haz. Este es el motivo por el cual el proceso de generar una onda invertida se conoce también con el nombre de inversión de los frentes de onda. La relación entre los frentes de onda de dos ondas mutuamente invertidas es análoga a la relación entre las posiciones de dos ejércitos enemigos sobre un mapa militar. El frente de cada ejército coincide con el del otro y las direcciones de los movimientos deseables son opuestas. Podemos decir que las líneas del frente están invertidas entre sí: una parte convexa del frente de uno de los ejércitos corresponde a una parte cóncava del otro. Utilizando un lenguaje distinto, diremos que la diferencia de fase entre dos puntos cualesquiera del haz invertido tiene un signo opuesto al de la diferencia de fase entre esos mismos puntos del haz original. La operación matemática de cambiar el signo de la fase recibe el nombre de conjugación. Por esta razón se acuñó el término “conjugación de fase óptica” y se introdujo posteriormente en la literatura científica. ¿Cómo se conjuga una onda? Es
LA CIENCIA DE LA LUZ
decir, ¿cómo se invierte? Obtener la conjugación de fase de una onda plana es fácil: la utilización de un espejo plano da lugar a la reflexión de la onda hacia atrás. La conjugación de una onda esférica no resulta mucho más difícil. En este caso, se monta un espejo cóncavo con forma de sección esférica de manera que el centro del espejo corresponda a la fuente de la onda. En cada punto del espejo los rayos inciden perpendicularmente y, por tanto, son reflejados exactamente hacia atrás.
breve; por consiguiente, la forma del espejo debería cambiarse de manera continua para que en todo momento se ajustara a la forma de la onda. Finalmente, la precisión requerida para construir y colocar tal espejo sería extraordinariamente grande. Para producir una onda de fase con jugada se requiere la utilización de un medio o de una superficie cuyas propiedades resulten afectadas por las características de las ondas que incidan en él. Esta dependencia permite que dicho medio o superficie se ajuste automáticamente al haz incidente con ara conjugar un haz con un frente tal exactitud que, bajo ciertas condide onda arbitrario se podría uti- ciones, se origine un haz de fase conlizar en principio un espejo cuyo perfil jugada. Afortunadamente tales matecoincidiera con el frente de onda. riales existen y se conocen con el Desgraciadamente resulta difícil nombre de materiales ópticos no poner en práctica este método. En pri- lineales. mer lugar, sería necesario construir La difusión de Brillouin estimulada un espejo diferente para cada haz inci- y la mezcla de cuatro ondas son dos dente. En segundo lugar, la forma del métodos basados en el empleo de estos frente de onda de un haz de láser materiales y se utilizan mucho para puede cambiar durante un impulso la conjugación de fase. La difusión de
P
1. HAZ LUMINOSO con la fase conjugada, es decir, con la fase “invert ida temporalmente”; puede compensar las distorsiones originadas por un medio ópt icamente no homogéneo o irregular (un vidrio deslustrado). Un haz de láser muy coherente (izquierda) resulta distorsionado y se convierte en un haz degradado (centro). El haz degradado se invierte luego por conjugación de fase óptica. La transmisión hacia atrás del haz con la fase conjugada a través del medio irregular o no homogéneo restablece la calidad del haz original (derecha).
107
Brillouin estimulada, uno de los efectos más bellos de la óptica no lineal, fue descubierta en 1964 por Raymond Y. Chiao, Boris P. Stoicheff y Charles H. Townes. Se produce cuando se dirige un haz luminoso sobre cualquier medio transparente, como un cristal, un vidrio, un líquido o un gas comprimido. La luz poco intensa los atraviesa sin atenuación apreciable. Pero el comportamiento de un haz luminoso muy intenso resulta sorprendente. Cuando se alcanza una potencia umbral del orden del millón de watt, el haz se refleja hacia atrás casi por completo. Se trata sin duda de una potencia muy elevada, pero que se puede obtener con facilidad utilizando un láser pulsante de laboratorio. El haz reflejado es la consecuencia del proceso que origina la difusión de Brillouin (denominada así en memoria del físico francés Louis Marcel Brillouin). La difusión de Brillouin se produce cuando una onda sonora incide sobre un sólido, líquido o gas.
La onda sonora origina ciertas alteraciones periódicas en la densidad del material en que se propaga. El resultado es que se forman una serie de zonas alternativas de compresión y de enrarecimiento, que se mueven con la onda a través del material. Dado que las zonas de compresión son más densas que las de enrarecimiento, el comportamiento de una onda luminosa que incida en el material es diferente en ambas. Concretamente, el índice de refracción del primer tipo de zonas es ligeramente diferente del índice de refracción del segundo. (El índice de refracción de un material es el cociente entre la velocidad de la luz en el vacío y la velocidad de la luz en el material.) Si la separación entre las zonas es exactamente igual a la semilongitud de onda de la luz incidente, la luz se reflejará. Este tipo de reflexión resultará familiar a quienes hayan observado una capa delgada de aceite sobre agua y advertido su superficie coloreada con todos los colores del arco iris. En cada punto
2. REVERSIBILIDAD DE LAS ONDAS LUMINOSAS, que tiene consecuencias muy importantes. Un haz direccional ideal (es decir, un haz libre de distorsión y de divergencia) sufre una degradación al atravesar una placa de vidrio de espesor no uniforme (arriba). El haz se puede regenerar si los rayos individuales que lo integran se invierten y se transmiten hacia atrás a través de la misma placa de vidrio (esquema inferior ).
108
de esta capa se refleja un color mejor que los otros: aquel cuya semilongitud de onda equivale al espesor de la capa en cuestión en dicho lugar. Como el espesor de la capa de aceite varía de un punto a otro, se reflejan en cada punto diferentes colores.
E
n la difusión de Brillouin estimulada, la onda sonora, o variación de la presión y la densidad, no se aplica externamente al material, sino que es estimulada internamente por pares de ondas luminosas que se propagan en sentido contrario. De la misma forma que el sonido consiste en una onda de presión y densidad, la luz consiste en un campo eléctrico en movimiento. Un campo eléctrico puede comprimir el material; este fenómeno se conoce con el nombre de electrostricción. En consecuencia, cuando un campo eléctrico se mueve a través de un material con la velocidad del sonido, puede dar lugar a una onda sonora. Dicho campo eléctrico puede generarse por interferencia de dos haces ópticos que avancen en direcciones opuestas, si su diferencia de frecuencias es igual a la frecuencia del sonido. En el caso de una difusión de Brillouin estimulada uno de estos haces es el haz luminoso incidente. El otro haz luminoso procede de la difusión del haz incidente por las pequeñas fluctuaciones de densidad, estocásticamente distribuidas en el medio (es decir, ondas sonoras fluctuantes térmicamente). Cuando la frecuencia y la dirección de una onda difundida son las adecuadas, la onda interfiere con el haz incidente y amplifica las variaciones de presión y de densidad del material. Estas variaciones conducen subsiguientemente a la reflexión de una pequeña parte del haz incidente. La fracción reflejada interfiere a su vez con el haz incidente, dando lugar a nuevas variaciones de presión y de densidad, que conducen a más reflexiones del haz incidente. Las reflexiones aumentan exponencialmente con la distancia, hasta que un haz reflejado emerge del material. Sin embargo, dado que la amplificación depende de la intensidad del haz incidente, un requisito previo para obtener dicho haz reflejado consiste en que la potencia del haz incidente supere cierto valor umbral. La conjugación de fase por difusión de Brillouin estimulada se obtuvo por vez primera en 1972 por Valery V. Ragul’skii, Vladimir I. Popovichev, Fuad S. Faizullov y uno de nosotros (Zel’dovich). El factor principal para su consecución consistió en el uso de una placa de vidrio especial, que había
TEMAS 6
3. ESTA FOTOGRAFIA de un haz de laser sugiere la reversibilidad de las ondas luminosas: si el único dato fuera esta imagen sería imposible afirmar si el haz se mueve de izquierda a derecha o de derecha a izquierda. (La dirección es de izquierda a derecha.) La serie de bandas verticales oscuras aparece como resultado de la interferencia del haz de láser con un haz “de
sido convertida en no uniforme mediante un ataque con ácido fluorhídrico. Un haz de luz roja de un láser pulsante de rubí sufría una distorsión al atravesar dicha placa. El haz distorsionado pasaba a un tubo de un metro de longitud, cuatro milímetros de anchura y cuatro milímetros de altura, lleno de gas metano a una presión de 140 atmósferas. La difusión de Brillouin estimulada tenía lugar en este tubo; cuando el haz reflejado atravesaba la misma placa de vidrio
referencia”; estas bandas corresponden a las superficies de los frentes de onda, es decir, a los lugares donde la oscilación es sincrónica. Los frentes de dos ondas mutuamente conjugadas (en nuestro caso, las que se mueven hacia la izquierda y hacia la derecha) están invertidos en relación con las direcciones de propagación, como ilustra el esquema de la derecha.
atacada químicamente emergía sin distorsión. En otras palabras, su estructura era idéntica a la del haz incidente. La conjugación de fase por difusión estimulada se ha llevado a cabo con posterioridad utilizando numerosos medios de difusión y muchos tipos de láser diferentes. La ventaja principal de esta técnica consiste en que sólo requiere una celda llena con un sólido, líquido o gas adecuado. La simplicidad del método de difusión estimulada
llevó a decir a Robert W. Hellwarth que “a la naturaleza seguramente le gusta el haz de fase con jugada”. Es interesante destacar que el propio Hellwarth propuso en 1977 otra forma de conjugar las fases: la mezcla de cuatro ondas. La mezcla de cuatro ondas es el otro método de conjugación de fase más utilizado en la actualidad. Se basa en la interferencia de cuatro haces luminosos en un medio no lineal. Tres de los haces lo son de entrada: uno de
4. DIFUSION DE BRILLOUIN ESTIMULADA. Se trata de un método para producir haces luminosos con la fase conjugada. Un haz luminoso de gran potencia y muy direccional (azul) sufre una distorsión al atravesar una placa de vidrio de espesor no uniforme. El haz distorsionado penetra luego en un material que pudiera ser cristal, vidrio, o un líquido o un gas comprimido. El haz se difunde debido a las fluctuaciones de densidad estocásticamente distribuidas (ondas sonoras fluctuantes térmicamente) situadas al final del medio en cuestión, dando lugar a una serie de ondas de configuraciones espaciales variables ( fragmentos rojos curvados). Cuando la frecuencia y la dirección de una onda difundida son exactamente las adecuadas, la onda interferirá con el haz incidente y dará lugar a la formación de más variaciones de presión y de densidad en el medio considerado (barras grises en la región aumentada de la derecha). Estas variaciones producen la subsiguiente reflexión de una pequeña porción de haz incidente. La porción reflejada interfiere a su vez con el haz incidente, originando nuevas variaciones de presión y densidad, que reproducen el fenómeno y originan nuevas reflexiones del haz incidente. Estas reflexiones aumentan de manera exponencial, hasta que un haz de fase conjugada muy potente (en color rojo) emerge del material. La gran calidad y direccionalidad del haz original se restablece en la transmisión hacia atrás del haz conjugado a través de la placa de vidrio.
LA CIENCIA DE LA LUZ
109
ellos es el haz objeto cuya fase se desea conjugar y los otros dos son haces de referencia. Los haces de referencia, que se mueven en direcciones opuestas entre sí, suelen ser ondas planas y tienen la misma frecuencia que el haz objeto. El haz objeto puede penetrar en el medio considerado en cualquier dirección. El cuarto haz es un haz de salida; es el conjugado de fase del haz objeto y emerge a lo largo de la misma línea que el haz objeto, aunque su sentido de propagación es contrario al de éste. El haz conjugado se produce como consecuencia de ciertas perturbaciones originadas en el medio material
por la interferencia del haz objeto con uno de los haces de referencia. Cuando los campos eléctricos de la ondas oscilan en fase, los campos se suman y la intensidad local de la luz es elevada. Si oscilan con fases opuestas, los campos se restan y la intensidad local de la luz es baja. Las zonas de alta intensidad están intercaladas entre las zonas de baja intensidad. El tamaño, forma y orientación de todas las zonas vienen determinados por las características de los campos que interfieren. En consecuencia, toda la información sobre la fase del haz objeto está almacenada en lo que se conoce como
5. LA MEZCLA DE CUATRO ONDAS constituye otro método para producir haces con la fase conjugada. Se basa en la interferencia de cuatro haces luminosos en un cristal, vidrio, líquido o gas comprimido. Tres de los haces son haces de entrada: uno de ellos es el haz objeto (representado aquí como una onda esférica), cuya conjugación de fase se desea, y los otros dos son haces de referencia. El cuarto es el haz de salida; su fase es la conjugada del haz objeto. La interacción del haz objeto con uno de l os haces de referencia (azul) produce una figura de interferencia en el medio material considerado. El segundo haz de referencia (rojo) se refleja en la figura de interferencia. Dado que el segundo haz de referencia proviene de una dirección opuesta a la del primero, el haz refle jado es el conjugado de fase del haz objeto. En realidad, todos estos procesos tienen lugar simultáneamente. Más aún, en el medio material se forman dos figuras de interferencia: cada uno de los haces de referencia da lugar a una figura en la que se refleja el otro haz.
figura de interferencia, que se manifiesta en el medio en cuestión como una serie de zonas con índices de refracción diferentes. El segundo haz de referencia se refleja en las zonas de la figura de interferencia, es decir, el haz lee la información que sobre la estructura de la fase almacena dicha figura. Dado que la dirección del segundo haz de referencia es opuesta a la del primero, el haz reflejado es el conjugado de fase
6. DIRECCIONALIDAD DE LOS HACES de láser: se mejora utilizando la conjugación de fase óptica. La mayoría de los láseres diseñados para producir haces potentes se construyen de acuerdo con el esquema representado en la parte superior de esta figura. Un “oscilador local” o generador primario produce un haz muy direccional a expensas de la potencia de salida. La potencia aumenta cuando el haz pasa a través de un amplificador. Sin embargo, la existencia de irregularidades (inhomogeneidades) en el medio de amplificación produce ciertas distorsiones en el haz. La figura de la parte inferior muestra la forma en que se pueden compensar dichas distorsiones. La luz procedente de un generador primario se refleja con un espe j o s e m i t r a n s p a r e n t e h a c i a u n amplificador. El haz distorsionado que sale del amplificador sufre una conjugación de fase y se devuelve al amplificador. El haz con la fase conjugada se propaga hacia atrás respecto al haz original a través de las mismas irregularidades del medio considerado y, como consecuencia, su movimiento se invierte . El haz de “doble pasada” resultante tiene gran potencia y se encuentra libre de distorsiones.
110
TEMAS 6
7. EN LA RADIACION AUTODIRIGIDA tenemos otra de las aplicaciones de la conjugación de fase óptica. Esta técnica proporciona una forma de calentar un objeto pequeño sin necesidad de recurrir a un sistema complicado de lentes y de espejos; podría utilizarse quizá para calentar un plasma denso e iniciar una fusión termonuclear. Un haz luminoso de poca potencia se dirige hacia las proximidades del objeto a
del haz objeto. Aunque la reflexión producida en cada zona de la figura sea débil, la suma de todas ellas adquiere su importancia y puede transferirse una cantidad considerable de energía desde el haz de referencia hacia el conjugado.
L
a simetría en la disposición de los haces de referencia sugiere que la figura de interferencia podría crearse también con el segundo haz de referencia y el haz objeto y leerse con el primer haz de referencia. En realidad se forman dos figuras de interferencia en el medio no lineal: cada haz de referencia origina una figura en la que se refleja el otro haz de referencia. Lo que acabamos de describir en realidad es el registro y la reproducción de un holograma “dinámico”. Un holograma es una figura de interferencia formada con haces láser y almacenada en una película fotográfica, lo cual permite producir una imagen tridimensional. La holografía tradicional “estática” requiere tres etapas diferenciadas: en primer lugar, se procede a registrar el holograma iluminando una transparencia fotográfica con la figura de interferencia
LA CIENCIA DE LA LUZ
calentar, que difunde la radiación en todas direcciones. Parte de esta radiación atraviesa una lente e incide sobre un amplificador situado cerca del objeto. La radiación aumenta su potencia al atravesar el amplificador. Un conjugador de fase sito al final del amplificador crea un haz “antidistorsionado” y lo refleja a través del amplificador, dirigiendo un potente haz de láser sobre el objeto.
resultante de dos ondas, un haz objeto fía dinámica utilizando haces de refey un haz de referencia; a continuación, rencia que se propagaban en direcciose revela la película y finalmente se nes opuestas. Hellwarth inició lee el holograma con el mismo u otro posteriormente el estudio exhaustivo haz de referencia. La mezcla de cuatro de la mezcla de cuatro ondas y tamondas es un ejemplo de holografía bién describió adecuadamente el fenódinámica, debido a que los tres proce- meno en términos de óptica no lineal. sos citados —registro, revelado y lec- Entre los investigadores que han detura— tienen lugar simultáneamente. sempeñado un papel relevante en el Las variaciones causadas en el índice desarrollo de la conjugación con cuade refracción desaparecen cuando lo tro ondas podemos citar a Ammon hace la radiación de iluminación, y el Yariv, David M. Pepper, David M. holograma está cambiando continua- Bloom y Paul F. Liao. mente en respuesta a las variaciones del haz objeto. uchos laboratorios de todo el mundo han utilizado con éxito A la vista de lo que antecede, no resulta sorprendente que la idea de la la conjugación con cuatro ondas. Uno conjugación con cuatro ondas se de los atractivos de este método conencontrara ya en los trabajos de los siste en que, al contrario de lo que pioneros de la holografía, tales como sucede en la conjugación de fase por Dennis Gabor, Yury N. Denisyuk, difusión de Brillouin estimulada, no Emmett N. Leith y Juris Upatnieks. se requiere una potencia mínima de Herwig W. Kogelnik propuso en 1965 la onda objeto para que se produzca la que las tres etapas de la holografía conjugación. Las posibles aplicaciones de la conestática se podrían combinar para dar lugar a un holograma dinámico y, por jugación de fase óptica son múltiples. tanto, producir una conjugación de La producción de haces de láser muy fase. En 1971 Boris I. Stepanov, direccionales y de radiación autodiriEvgeny I. Ivakin, Alexander S. gida son dos de las primeras. Rubanov y J. P. Woerdman llevaron a Esta última aplicación proporciona cabo los primeros ensayos de hologra- una forma de calentar un objeto
M
111
pequeño, cuya superficie puede ser fenómeno radica en el hecho de que mínima (la millonésima parte de la el haz de fase conjugada se propaga sección transversal del haz de láser hacia atrás con respecto al haz origiutilizado), sin necesidad de recurrir a nal, a través de las mismas irreguun sistema complicado de lentes, laridades que el láser y, por tanto, espejos y otros elementos ópticos. Esta “invierte” su movimiento. El haz de técnica tal vez sirva en el futuro para fase conjugada compensa no sólo las calentar un plasma denso e iniciar así irregularidades estáticas debidas a un proceso de fusión termonuclear. los elementos ópticos, sino también Casi todos los dispositivos diseña- las irregularidades dinámicas. La dos para proporcionar haces de láser explicación de este fenómeno se basa potentes se construyen de acuerdo con en el hecho de que el tiempo que la el esquema que detallamos a conti- luz invierte en recorrer algunos nuación. En primer lugar se construye metros a través del amplificador es lo que se llama un generador primario del orden de una cienmillonésima de (“oscilador local”), capaz de producir segundo, un valor mucho menor que un haz muy direccional a expensas de el tiempo necesario para la excitación la potencia de salida. A continuación y relajación de las irregularidades se hace pasar el haz a través de un ópticas en un láser. amplificador para obtener la potencia La conjugación de fase óptica ha deseada. El amplificador consiste en demostrado también su utilidad para un sólido o un gas de moléculas muy conseguir radiación autodirigida, idea excitadas. Cuando el haz primario lo que fue propuesta inicialmente por atraviesa, estimula las moléculas y da Kogelnik. Existen varias formas posilugar a la liberación de energía en bles de llevar a cabo esta técnica. Nos forma de radiación. limitaremos a describir sólo un ejemUn amplificador homogéneo ideal plo. Se empieza por dirigir un haz no distorsionaría la direccionalidad amplio de un láser de potencia relatidel haz, para lo que se reque riría una vamente baja hacia las proximidades constancia de su índice de refracción del objeto que se desea calentar. El superior a una parte por millón. objeto difunde la radiación en todas Difícilmente se puede esperar la las direcciones; una parte de esta obtención de un grado de homogenei- radiación, después de atravesar algudad tan elevado, sobre todo teniendo nas lentes ópticas, llega a un amplifien cuenta las condiciones de excita- cador colocado cerca del objeto. A ción intensa del medio amplificador. medida que la radiación avanza a traEl índice de refracción del vidrio, por vés del amp lif ica dor , su pot encia ejemplo, cambia en una parte por aumenta. Un conjugador de fase millón cuando la temperatura varía situado al final del amplificador crea unas tres centésimas de grado centí- un haz “antidistorsionado” y lo refleja grado. sobre dicho amplificador. Como resultado de todo este proceso se obtiene un as distorsiones en la direccionali- haz direccional de elevada potencia dad del haz introducidas por un focalizado sobre el objeto. La focalizaamplificador pueden corregirse afortu- ción del haz sobre el blanco está liminadamente mediante un montaje de tada solamente por la naturaleza “doble paso”, que hace uso de la conju- ondulatoria de la luz (es decir, por los gación de fase óptica. Esta idea fue efectos de difracción) y es indepenpropuesta y comprobada experimen- diente de la orientación del sistema talmente en 1972 por Oleg Yu, Nosatch, focalizador. El blanco parece “atraer” Ragul’skii y sus colaboradores, gene- a la radiación amplificada. Nikolay G. rando un haz idealmente dirigido con Basov y sus colegas han estudiado la un láser pulsante de rubí. Este haz se posibilidad de producir la fusión hacía pasar por un amplificador de nuclear con láser utilizando la técnica rubí; el haz resultante, potente aun- de autodirección de la radiación. que distorsionado, se sometía a una conjugación de fase óptica. Finalmente, el haz conjugado de fase se devolvía de nuevo al amplificador. BIBLIOGRAFIA COMPLEMENTARIA Descubrieron que, durante el segundo paso por el amplificador, el haz consuOPTICAL PHASE CONJUGATION. Dirigido por mía casi toda la energía almacenada R. A. Fischer. Academic Press, 1983. PTICAL PHASE CONJUGATION. Número esO en las moléculas excitadas del rubí. pecial del Journal of the Optical Society Se ha descubierto además algo ver, vol. 73, n. o 5; mayo, 1983. of America daderamente importante: cuando el PRINCIPLES OF PHASE CONJUGATION . B. Ya. haz de fase conjugada atraviesa el Zel’dovich, N. F. Pilipetsky y V. V. Shkuamplificador se hace idealmente nov. Springer-Verlag, 1985. direccional. La explicación de este
L
112
TEMAS 6