RESISTENCIA CONTRA LOS ANTIBIOTICOS LASERES DE SEMICONDUCTORES INFORME ESPECIAL: EL FUTURO INCIERTO DEL PETROLEO
00260
9 770210 136004
EL HOMBRE VIRTUAL MAYO 1998 800 PTAS.
Mayo de 1998
6
Número 260
El condensado de Bose-Einstein Eric A. Cornell y Carl E. Wieman Albert Einstein y Satyendra Nath Bose predijeron hace más de 70 años que justo por encima del cero absoluto la mecánica cuántica haría que los átomos de un grupo resultasen indistinguibles, que se fundieran en un solo átomo gigante. En 1995 los autores crearon por fin esta nueva forma de la materia, que permite la aproximación de lo cuántico a lo cotidiano.
14
La resistencia contra los antibióticos Stuart B. Levy Las bacterias han desarrollado invulnerabilidad frente a estas drogas milagrosas que un día las domaron. Resurge la posibilidad de plagas para las que no exista tratamiento, cuando aún no se atisban los fármacos que podrían suceder a los actuales antibióticos. Si queremos preservar su efectividad, debemos poner coto a su mala utilización y frívolo abuso.
22
Nanoláseres Paul L. Gourley Moviéndose en la frontera entre la física y la ingeniería, los investigadores en semiconductores han construido recientemente láseres con dimensiones más pequeñas que las longitudes de onda de la luz que ellos mismos emiten. Estos dispositivos podrían revolucionar las comunicaciones por fibra óptica, la computación y la detección precoz de enfermedades.
40
La animación del movimiento humano Jessica K. Hodgins En reposo, los personajes de animación informática de las películas y los videojuegos dan la impresión de ser reales; sus movimientos, en cambio, no suelen parecer naturales. La simulación, una técnica que incorpora las leyes de la física, está resolviendo ese problema: se han creado humanos virtuales que corren, montan en bicicleta o saltan desde un trampolín.
48
El comercio del caimán Peter Brazaitis, Myrna E. Watanabe y George Amato ¿Puede el lector distinguir un bolso de “cocodrilo genuino” de otro fabricado con piel de caimán de contrabando? Pocos pueden. Semejante confusión está colocando en peligro de extinción a estos reptiles de un notabilísimo interés ecológico. Los esfuerzos empeñados en lograr una gestión racional de los caimanes quizá sólo sirvan para empeorar las cosas.
Edición española de
Antígenos específicos del sexo
56
Antonio Sánchez, Rafael Jiménez, Miguel Burgos y Rafael Díaz de la Guardia Hasta una determinada fase de su desarrollo, los embriones mantienen el potencial para diferenciarse en macho o hembra. Considerados antaño responsables de promover la diferenciación testicular embrionaria, están aún por dilucidar la verdadera función y modo de actuación de los antígenos específicos del sexo.
65
INFORME ESPECIAL
¿Se está agotando el petróleo? Según los sondeos más rigurosos, parece que las fuentes tradicionales de producción mundial de petróleo van a experimentar constantes fluctuaciones durante los próximos diez años. En estos artículos, geoquímicos y expertos de la industria explican los motivos y apuntan las técnicas que podrían amortiguar el golpe de una nueva crisis energética.
Fin de la era del petróleo barato Colin J. Campbell y Jean H. Laherrère
Minería del petróleo Richard L. George
Producción de petróleo en el siglo XXI Roger N. Anderson
Combustibles líquidos a partir del gas natural Safaa A. Fouda
SECCIONES 4 HACE... 86
28 PERFILES
JUEGOS MATEMÁTICOS
30
CIENCIA Y SOCIEDAD Botellas de Klein en vidrio.
El alcázar omeya de Amman.
88 NEXOS
38 DE CERCA
90 LIBROS
84 TALLER Y LABORATORIO
96 IDEAS APLICADAS 3
COLABORADORES DE ESTE NUMERO Asesoramiento y traducción: Juan Pedro Campos: El condensado de Bose-Einstein; José Mª Valderas Martínez: La resistencia contra los antibióticos y Nexos; Julio A. Alonso: Nanoláseres; Luis Bou: La animación del movimiento humano, De cerca y Juegos matemáticos; Ana Mª Rubio: El comercio del caimán; Carmina Fuster: Fin de la era del petróleo barato; Manuel Puigcerver: Combustibles líquidos a partir del gas natural; J. Vilardell: Hace..., Taller y laboratorio e Ideas aplicadas
Portada: Imagen de Lamb & Co. Composición fotográfica: Slim Films
PROCEDENCIA DE LAS ILUSTRACIONES Página
Fuente
6-10 11 12 14-15
Michael Goodman Mark Gerber
16-17
18-20 22-23 24 25 26 40-41 42-43
44-45
48-49 50-52 53 54 56-63 65 66 67
68-69
70-71
72-73 74-75 76-77 78-79 81 82-83 84 85 86-87 88 96
JILA
Oliver Meckes; CNRI/SPL/PHOTO RESEARCHERS, INC.; Oliver Meckes; A. B. Dowsett SPL; NIBSC/SPL; CAMR/ A. B. Dowsett; E. Gray SPL; Oliver Meckes; CNRI/SPL (de izquierda a derecha) Tomo Narashima (arriba); Dan Wagner (fotografía), Laurie Grace (manipulación digital) (abajo, izquierda); Laurie Grace, fuente: Christopher G. Dowson, Tracey J. Coffey y Brian G. Spratt (abajo, derecha) Tomo Narashima David Scharf; Sam McCal (inserto) Seng-Tiong Ho Laboratorio Nacional Sandia (izquierda y centro); K.-Y.Lim, G. Petrich y L. Kolodziejski (derecha) Lab. Nac. Sandia; Johnny Johnson (gráfica) Jessica K. Hodgins Everett Collection (izquierda); Cortesía de Microsoft Motion Capture Group (centro); James O´Brien y Victor Zordan (derecha); Jessica K. Hodgins (abajo) Nancy Pollard (abajo izquierda); Sam Odgen, en el Museo de Bellas Artes (fotografías); Lamb & Co. (Alan digital); Wayne Wooten (abajo derecha) Frans Lanting, Minden Pictures Roberto Osti Don Ashby, Sygma Bryan Christie Antonio Sánchez, Rafael Jiménez, Miguel Burgos y Rafael Díaz de la Guardia Bill Ross, Tony Stone Images Corbis-Bettmann UPI/Corbis-Bettmann (izquierda y centro); Bruno Barbey, Magnum Photos (derecha); Jennifer C. Christiansen, fuente: Jean H. Laherrère (gráficas) Cortesía de la Sociedad de Exploración Geofísica (arriba izquierda); Jennifer C. Christiansen y Laurie Grace (gráficas); Laurie Grace (abajo) L. Grace, fuente: J. H. Laherrère (arriba); L. Grace, fuente: Petroconsultants, Oil and Gas Journal y Servicio Geológico de EE.UU. (abajo, izquierda); L. Grace, fuente: Oil and Gas Journal (derecha) Cortesía de Syncrude (arriba); Daniels & Daniels, fuente: Suncor (abajo) Daniels & Daniels; Laurie Grace (gráfica) Daniels & Daniels (fondo); Laurie Grace, fuente: Schlumberger (abajo Izquierda); L. Grace (gráficas) Daniels & Daniels; Bevil Knapp (fotografía) Larry Mayer (Liaison International) Laurie Grace Richard Jones Richard Jones (arriba); Johnny Johnson (abajo) Cortesía de Alan Bennett; Laurie Grace (dibujos) Dusan Petricic Jared Schneidman Design
INVESTIGACION Y CIENCIA
Francisco Gracia Guillén José María Valderas, director ADMINISTRACIÓN Pilar Bronchal, directora a PRODUCCIÓN M. Cruz Iglesias Capón Bernat Peso Infante SECRETARÍA Purificación Mayoral Martínez a EDITA Prensa Científica, S. A. Muntaner, 339 pral. 1. – 08021 Barcelona (España) Teléfono (93) 414 33 44 Telefax (93) 414 54 13 DIRECTOR GENERAL EDICIONES
SCIENTIFIC AMERICAN
John Rennie Michelle Press, Managing Editor; Philip M. Yam, News Editor; Ricki L. Rusting, Timothy M. Beardsley y Gary Stix, Associate Editors; W. Wayt Gibbs; Alden M. Hayashi; Kristin Leutwyler; Madhusree Mukerjee; Sasha Nemecek; David A. Schneider; y Glenn Zorpette Marguerite Holloway, Steve Mirsky y Paul Wallich, Contributing Editors PRODUCTION Richard Sasso PUBLISHER Joachim P. Rosler CHAIRMAN AND CHIEF EXECUTIVE OFFICER John J. Hanley EDITOR IN CHIEF
BOARD OF EDITORS
SUSCRIPCIONES
DISTRIBUCION
Prensa Científica S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España) Teléfono (93) 414 33 44 Fax (93) 414 54 13
MIDESA Carretera de Irún, km. 13,350 (Variante de Fuencarral) 28049 Madrid Tel. (91) 662 10 00
para España:
para los restantes países: Precios de suscripción, en pesetas:
España Extranjero
Un año
Dos años
8.800 11.150
16.000 20.700
Ejemplares sueltos: Ordinario: 800 pesetas Extraordinario: 1.000 pesetas —El precio de los ejemplares atrasados es el mismo que el de los actuales.
Prensa Científica, S. A. Muntaner, 339 pral. 1.a – 08021 Barcelona Teléfono (93) 414 33 44 PUBLICIDAD GM Publicidad Francisca Martínez Soriano Menorca, 8, semisótano, centro, izquierda. 28009 Madrid Tel. (91) 409 70 45 – Fax (91) 409 70 46 Cataluña y Baleares: Miguel Munill Muntaner, 339 pral. 1.a 08021 Barcelona Tel. (93) 321 21 14 Fax (93) 414 54 13
Difusión controlada
Copyright
©
1998 Scientific American Inc., 415 Madison Av., New York N. Y. 10017.
Copyright
©
1998 Prensa Científica S. A. Muntaner, 339 pral. 1.a 08021 Barcelona (España)
Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorización escrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente, son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí. ISSN 0210136X
Dep. legal: B. 38.999 – 76
Filmación y fotocromos reproducidos por Dos Digital, Zamora, 46-48, 6ª planta, 3ª puerta - 08005 Barcelona Imprime Rotocayfo, S.A. Ctra. de Caldes, km 3 - Santa Perpètua de Mogoda (Barcelona) Printed in Spain - Impreso en España
H ACE ... ...cincuenta años EL FUTURO DEL AMAZONAS. «El Instituto Hileano (del griego “hyle”, madera) del Amazonas es una organización para una iniciativa asombrosa. (Hilea es el nombre dado a la región boscosa del Amazonas y el Orinoco.) Su objetivo no es expoliar los bosques vírgenes para arrancarles materias primas o alimentos, sino que se propone algo más sutil y medido. Quiere estudiar la fisiografía, la historia natural y la ecología de la región y desarrollar un proceso merced al cual el hombre aprenda a vivir con armonía y plenitud en su entorno sin luchar contra él. Por sí mismo, civilizar la salvaje y rica Amazonía sería ya un logro gigantesco.» O RIGEN CÓSMICO . «La Hipótesis de la Nube de Polvo, tal como se llama, sugiere que los planetas y las estrellas se formaron a partir de inmensas agrupaciones de partículas submicroscópicas que flotaban en el espacio. El espacio interestelar, que antes se suponía vacío, aloja una asombrosa cantidad de materia microscópica. Jan Oort, de los Países Bajos, presidente de la Unión Astronómica Internacional, ha calculado que la masa total de ese polvo y gas interestelar es tan grande como toda la de la materia de las mismas estrellas, incluidos todos los sistemas planetarios posibles. —Fred L. Whipple.»
de mangas muy cortas, un cinturón de algodón (‘maxlatl’), polainas y sandalias. La hipótesis de que se trata de la estatua de un jefe o guerrero está reforzada por la armadura de algodón, que Torquemada llama ‘icheauhuitl’. Esta ofrecía una protección tan eficaz, que los españoles se apresuraron a adoptarla para defenderse ellos del formidable sable de madera y obsidiana (‘maquahutil’) de los mexicas.» P ESTE AFRICANA . «En Argelia, los médicos franceses han descubierto una enfermedad que, si los exiguos informes recibidos se prueban ciertos, es tan letal como la peste bubónica que ahora se extiende por la India. Comienza manifestándose porque el paciente muestra unas desmesuradas ganas de dormir. Sus síntomas evocan los provocados en el envenenamiento con láudano. Si al paciente no se le despierta en el acto, no tarda en caer en un estupor al que sigue la muerte. Por sus síntomas los corresponsales de las revistas médicas en Argelia la llaman ‘Maladie du Sommeil’ (enfermedad del sueño). Dos médicos de la Universidad de Coimbe sostienen que es una patología microbiana.»
...cien años UN TECA .
GUERRERO AZ «Nuestra ilustración muestra una estatua de terracota. De un metro y sesenta de altura, fue hallada por un indio en una cueva cercana a la ciudad de Tezcoco. Desde luego, es anterior a la conquista española. La vestimenta se compone de una guerrera (‘uipilli’)
4
Estatua de la antigüedad mexicana
GRASA SECA. «Como lubricante, el grafito lo recomienda incluso la sociedad prusiana de inspección de calderas. Pero no sólo debe estar libre de cualquier cuerpo extraño duro, tal como el cuarzo, sino que además debe hallarse en forma de copos; éstos se adhieren a la superficie rugosa del metal y rellenan todas las irregularidades debidas a la manufactura. Según experimentos recientes, la eficacia de ese tipo de grafito triplica la alcanzada por el aceite mineral mejor refinado. Actualmente en el mercado se ofrece sólo el procedente de Ceilán y Ticonderoga (Nueva York).»
PLACAS DE IDENTIFICACIÓN. «El Departamento de Guerra ha preparado un sistema para identificar a los componentes de los ejércitos estadounidenses que puedan entrar en acción. Los soldados llevarán en torno al cuello una etiqueta de aluminio, que permitirá identificarlos en el campo de batalla. En la última guerra era casi imposible identificar correctamente a las bajas y miles de soldados fueron enterrados en tumbas sin más referencia que el ‘no identificado’.»
...ciento cincuenta años VALLAS DE ALAMBRE. «Esta clase de valla se está empleando mucho en el norte de Illinois. Tenemos noticias de muchos lugares en que se instala cerca de Rock River, uno de ellos con una longitud de más de tres kilómetros. Su precio, por lo que sabemos, es del orden de siete centavos el metro. Se dice que es muy efectiva para el ganado de todo tipo salvo el porcino. Las reses y los caballos en especial, cuando ya han sentido una vez su corte en los morros, rara vez volverán a acercarse a ellas.» SALVAR EL TRABAJO. «Una manifestación de peones ladrilleros fue dispersada por la policía de Baltimore el jueves, durante un intento de destruir varias máquinas automáticas introducidas en algunos ladrillares, bajo la insensata pretensión de que con esas máquinas los patrones prescindirán de la mano de obra.» BOLA DE FUEGO. «Numerosos filósofos han creído firmemente que el centro de la tierra era una hoguera muy grande y que los habitantes del globo vivían, se movían y dormían sobre la corteza de un horno inmenso, del que el Vesubio, el Estrómboli y otros volcanes no son sino las chimeneas. Estas opiniones, o la teoría ígnea como se llamó, están cediendo ante otras más racionales. Todos los fenómenos atribuidos al fuego podrían deberse a corrientes electromagnéticas. Terremotos y actividad volcánica podrían resultar de fluctuaciones en corrientes eléctricas de signos opuestos.»
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
El condensado de Bose-Einstein En un laboratorio de Colorado se hizo real hace tres años un viejo sueño. Gracias a ello, el mundo cuántico se acercó más al cotidiano Eric A. Cornell y Carl E. Wieman
N
uestro grupo de investigación del Instituto Conjunto de la Astrofísica de Laboratorio (o JILA ahora), en Boulder, creó en junio de 1995 una gota, aunque minúscula, maravillosa. Al enfriar 2000 átomos de rubidio hasta una temperatura de menos de 100 milmillonésimas de grado sobre el cero absoluto (100 milmillonésimas de grado kelvin) hicimos que los átomos perdiesen durante 10 segundos su identidad individual y se comportaran como si fuesen un solo “superátomo”. Las propiedades físicas de todos ellos, sus movimientos, por ejemplo, se volvieron idénticas. Este condensado de Bose-Einstein (CBE), el primero observado en un gas, viene a ser el análogo material del láser, con la diferencia de que en el condensado son átomos, no fotones, los que danzan al unísono. Nuestra gélida y efímera muestra era la realización experimental de una noción teórica que ha llamado la atención desde que hace unos 73 años predijeran su existencia Albert Einstein y Satyendra Nath Bose. A las temperaturas corrientes, los átomos de los gases se dispersan por el contenedor que los guarde. Algunos tienen energías grandes (son veloces); otros, pequeñas. Llevando más allá un trabajo de Bose, Einstein demostró que, si se enfriaba lo bastante una muestra de átomos, una gran parte pasaría al estado de energía más bajo en ese contenedor; matemáticamente: sus ecuaciones de onda individuales —que describen la posición y velocidad de un átomo—se funden en una y los átomos se vuelven indistinguibles entre sí. El progreso en la creación de condensados de Bose-Einstein ha despertado el interés entre los físicos. Si al principio se comentaba el largo camino recorrido hasta la demostra-
6
ción de la teoría de Einstein, ahora fascina la ventana que el condensado abre al extraño mundo de la mecánica cuántica, la teoría de la materia basada en el conocimiento de que las partículas elementales, los electrones por ejemplo, tienen propiedades ondulatorias. La mecánica cuántica, que engloba el famoso principio de incertidumbre de Heisenberg, se vale de ellas para describir la estructura y las interacciones de la materia. Raras veces vemos los efectos de la mecánica cuántica reflejados en la conducta de una cantidad macroscópica de materia. Las contribuciones incoherentes del inmenso número de partículas de cualquier porción de materia oscurecen la naturaleza ondulatoria de la mecánica cuántica; sólo podemos inferir sus efectos. Pero en la condensación de Bose la naturaleza ondulatoria de cada átomo está en fase con la de los demás; y lo está de manera precisa. Las ondas mecanocuánticas atraviesan la muestra entera y se observan a simple vista. Lo submicroscópico deviene macroscópico.
1. LA TRAMPA ATOMICA enfría a través de dos mecanismos diferentes. Primero seis haces de láser (rojos) enfrían los átomos, que al principio están a la temperatura del laboratorio; los acorralan en torno al centro de una caja de cristal donde se ha hecho el vacío. A continuación se apagan los haces de láser y se encienden las bobinas magnéticas (cobre). La corriente que fluye por las bobinas genera un campo magnético que encierra aún más a la mayoría de los átomos y deja escapar los que tengan una energía más elevada. La energía media de los átomos restantes decrece; con ello, la muestra se enfría y queda encerrada todavía más estrechamente alrededor del centro de la trampa. Por último, muchos de los átomos adquieren la energía más baja posible según las reglas de la mecánica cuántica y se convierten en una sola entidad: un condensado de Bose-Einstein.
L
a creación de condensados de Bose-Einstein ha arrojado luz sobre viejas paradojas de la mecánica cuántica. Por ejemplo, si dos o más átomos están en un solo estado mecánico-cuántico, y eso es lo que pasa en un condensado, será imposible distinguirlos, se haga la medición que se haga. Los dos átomos ocuparán el mismo volumen de espacio, se moverán a la misma velocidad, dispersarán luz del mismo color, etc. En nuestra experiencia, basada en el trato constante de la materia a temperaturas normales, no hay nada que nos ayude a entender esta paradoja. Por un motivo: a las temperaturas normales y a las escalas de magnitud en que nos desenvolvemos,
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
es posible describir la posición y el movimiento de todos y cada uno de los objetos de un conjunto. Las bolas numeradas que suben y bajan en el bombo de la lotería son un modelo del movimiento que la mecánica clásica describe. A temperaturas bajísimas o a escalas de magnitud pequeñas, la mecánica clásica va perdiendo vigor. La metáfora de los átomos y las bolas de lotería se difumina. No podemos saber la posición exacta de cada átomo, y es mejor imaginarlos como manchas imprecisas. La mancha es
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
un paquete de ondas, la región del espacio donde cabe esperar que esté el átomo. Conforme un conjunto de átomos se enfría, crece el tamaño de los paquetes de ondas. Mientras cada uno esté espacialmente separado de los demás será posible, al menos en principio, distinguir los átomos entre sí. Pero cuando la temperatura llega a ser lo bastante baja los paquetes de ondas de los átomos vecinos se solaparán. Entonces, los átomos “se Bose-condensarán” en el menor estado de energía que sea posible, y los paquetes de ondas se fundirán en
un solo paquete macroscópico. Los átomos sufrirán una crisis cuántica de identidad: ya no podremos distinguir unos de los otros. La pasión que han despertado los condensados contrasta con la reacción que suscitó en 1925 el descubrimiento de Einstein de su posible existencia. Quizá porque entonces no se podían obtener las temperaturas necesarias —menos de una millonésima de grado kelvin—, se consideró que el hipotético condensado gaseoso no pasaba de ser una mera curiosidad sin trascendencia. Para hacernos una
7
idea: hasta las profundidades más frías del espacio intergaláctico son millones de veces más calientes que un condensado de Bose. Pero con los años la condensación de Bose fue ganándose el interés. Se comprendió que podía explicar la superfluidez del helio líquido, que se produce a temperaturas mucho
mayores que la condensación gaseosa de Bose. Por debajo de los 2,2 kelvin la viscosidad del helio líquido desaparece; la fluidez se gana el “super”. Hasta finales de los años setenta la técnica de la refrigeración no permitió pensar en realizar en un gas la idea einsteiniana de un CBE. Investigadores del MIT y de las universidades de Amsterdam, Columbia Británica y Cornell hubieron de enfrentarse a una dificultad fundamental. Para obtener ese CBE tenían que enfriar el gas muy por debajo de la temperatura a la que los átomos se congelarían formando un sólido. Tenían que crear, pues, un gas sobresaturado. Se esperaba que el hidrógeno se sobresaturase porque se sabía que se resistía a la agrupación átomo a átomo que precede a la congelación en masa. Aunque no lograron un condensado de Bose-Einstein con hidrógeno, sí ampliaron nuestro conocimiento de las dificultades y abrieron sendas que aprovechamos nosotros. Empezamos a sospechar en 1989, inspirados por esos trabajos con el hidrógeno y alentados por los nuestros sobre el uso del láser para atrapar y enfriar átomos alcalinos, que éstos —el cesio, el rubidio, el sodio— eran unos candidatos mucho mejores que el hidrógeno para la producción de un condensado de Bose. Aunque las propiedades de agrupación del cesio, el rubidio y el sodio no son superiores a las del hidrógeno, se transforman antes que éste en un condensado. Como sus átomos son mucho mayores que los del hidrógeno y rebotan unos
en otros con una frecuencia también mucho mayor, se reparten la energía más deprisa y el condensado puede formarse antes de que se produzca el agrupamiento. Parecía además que sería hasta cierto punto fácil y barato enfriar muchísimo esos átomos conjugando técnicas disponibles: por un lado, las que enfrían y atrapan átomos de álcalis mediante el láser; por otro, las que elaboraron para atraparlos magnéticamente los que investigaban con el hidrógeno. Comentamos estas ideas con Daniel Kleppner, amigo hoy, maestro ayer, codirector de un grupo del MIT empeñado en obtener condensados con hidrógeno.
N
uestra hipótesis sobre los átomos alcalinos dio resultado. Sólo unos meses después de que lo lográsemos con el rubidio, el grupo de Wolfgang Ketterle, del MIT, produjo un condensado de Bose con átomos de sodio; ha conseguido después crear uno de 10 millones de átomos. Mientras escribimos esto, hay al menos siete equipos en el tajo. Además del nuestro trabajan con rubidio los de Daniel J. Heinzen, de la Universidad de Texas en Austin, Gerhard Rempe, de la de Constanza, y Mark Kasevich, de Yale; con sodio, además de Ketterle en el MIT, está el grupo de Lene Vestergaard Hau, del Instituto Rowland de Ciencias de Cambridge. En la Universidad Rice, Randall G. Hulet ha creado un condensado con litio. Todos se sirven de pareja infraestructura. Igual que en cualquier refri-
2. EL ENFRIAMIENTO POR EVAPORACION se efectúa en una trampa magnética, una suerte de cuenco profundo (en azul). Los átomos de mayor energía, dibujados con las flechas verdes más largas, escapan del cuenco (arriba, a la izquierda). Los que se quedan chocan entre sí con frecuencia y la energía restante se reparte (a la izquierda). Al final los átomos se mueven tan despacio y se aglomeran tan apretadamente en el fondo del cuenco, que su naturaleza cuántica se acentúa. Unos paquetes de ondas —región donde es probable que se encuentre cada átomo— se van confundiendo y solapando con los otros (abajo, a la izquierda). Por último, chocan dos átomos y uno se queda tan estacionario como permite el principio de incertidumbre de Heisenberg. Se desencadena así una avalancha de átomos que se acumulan en el estado de energía más bajo de la trampa, donde se fusionan creando el condensado de Bose-Einstein (abajo, en el centro y a la derecha).
8
FUERZA VELOCIDAD
FUERZA VELOCIDAD
geración, la de los átomos requiere una forma de retirar el calor y otra de aislar de su entorno la muestra a enfriar. Ambas cosas se hacen en dos pasos: primero la fuerza de la luz del láser sobre los átomos los enfría y aísla; luego, se los aísla con campos magnéticos y se los enfría por evaporación. El corazón de nuestro aparato es una cajita de cristal, rodeada por bobinas de cable. Se crea un vacío perfecto en el recipiente; lo que producimos en realidad es un termo magnífico. E introducimos una mínima cantidad de gas de rubidio. En el centro de la caja se cortan seis haces de luz de láser que convergen en el gas. Esa luz no tiene por qué ser intensa; nos basta así con los láseres de diodo, parecidos a los que hay en los lectores de discos compactos. Ajustamos la frecuencia de la radiación láser de forma que los átomos la absorban y radien de nuevo fotones. Un átomo puede por segundo absorber y a continuación radiar muchos millones de fotones; cada vez recibe un minúsculo empujón en la dirección por la que se movía el fotón absorbido. Estos empujones son la “presión de la radiación”. El truco para enfriar con el láser es conseguir
ERIC A. CORNELL y CARL E. WIEMAN dirigieron el equipo que produjo el primer condensado de Bose-Einstein en un gas. Cornell está agregado al Instituto Nacional de Pesos y Medidas. Wieman enseña física en la Universidad de Colorado.
10
que el átomo absorba fotones que viajen en sentido opuesto al de su movimiento, porque así será frenado (enfriado, en otras palabras). Lo logramos ajustando con mucho cuidado la frecuencia de la luz de láser con respecto a la frecuencia de la luz que absorben los átomos. Nos valemos también de este montaje de luz de láser para “atrapar” los átomos y tenerlos alejados de las paredes del recipiente, que está a la temperatura ambiente del laboratorio. En realidad, atrapar viene a ser parecido a enfriar. En la fase de atrapar átomos nos valemos de la presión de la radiación para oponernos a la tendencia que tienen a irse separando del centro de la celda. Un campo magnético débil sintoniza la resonancia del átomo para que absorba los fotones del haz de láser que apunta hacia el centro del recipiente (recuérdese que se cortan en él seis haces de láser). El efecto final es que la mera fuerza de la luz de láser empuja los átomos hacia una sola zona y los retiene en ella.
E
stas técnicas llenan en un minuto nuestra trampa láser con 10 millones de átomos capturados del vapor de rubidio a temperatura ambiente que se introdujo en la caja. Los átomos atrapados están a una temperatura de unas 40 millonésimas de grado sobre el cero absoluto, una temperatura aún 100 veces demasiado caliente para formar un CBE. En presencia de la luz de láser el inevitable golpeteo aleatorio que los átomos reciben de los fotones sueltos impide que se enfríen y adensen más.
3. EL ENFRIAMIENTO POR LASER de un átomo se basa en la presión, o fuerza, de los impactos de los fotones. Los átomos que se mueven contra un haz de láser encuentran una frecuencia de la luz mayor que los que se mueven con él. En el enfriamiento la frecuencia del haz se ajusta de manera que un átomo que se mueva hacia el haz disperse muchos más fotones que otro que se aleje del mismo. En razón de ese proceder lo que resulta es una reducción de la velocidad y, por ende, el enfriamiento de los átomos.
Para superar las limitaciones impuestas por esos impactos aleatorios de fotones apagamos en ese punto los láseres y activamos la segunda etapa del proceso de enfriamiento, la que se basa en la técnica de atrapar magnéticamente y enfriar por evaporación que se desarrolló mientras se perseguía la creación de un condensado con hidrógeno. La trampa magnética aprovecha el hecho de que cada átomo sea un imán minúsculo, sometido por ende a una fuerza cuando se lo pone en un campo magnético. Mediante un control meticuloso de la forma de éste y procurando que sea intenso podemos retener con él los átomos, que se mueven por el campo a manera de bolas en un cuenco profundo. En el enfriamiento por evaporación los átomos de mayor energía escapan del cuenco magnético, y con ello se llevan más que su parte de energía y dejan más fríos a los que se quedan. Pensemos en un café que se va enfriando. Las moléculas de agua que porten mayor energía saltarán de la taza a la habitación (en forma de vapor), con lo que se reducirá la energía media del líquido sin evaporar. Mientras tanto, incontables colisiones entre las moléculas que siguen en la taza reparten la energía que quede en ésta entre todas ellas. Nuestra nube de átomos magnéticamente atrapados es mucho menos densa que el agua de la taza. El principal problema experimental con el que hubimos de vérnoslas durante cinco años fue, pues, conseguir que los átomos chocasen entre sí las suficientes veces para que compartieran su energía antes de que los liberara de la trampa un choque accidental con uno de los átomos sin atrapar y a temperatura ambiente que quedan en la cajita de cristal. No hubo un salto espectacular, pero sí pequeños retoques que resolvieron el problema. Así, antes de montar el recipiente y su bomba de
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
vacío pusimos un extremo cuidado en limpiar cada parte, porque el menor residuo que nuestras manos dejaban en la superficie interior emitía vapores que degradaban el vacío. Nos aseguramos de que la cantidad de vapor de rubidio que hubiese en el recipiente, considerando que había de proporcionar un número de átomos suficiente para llenar la trampa óptica, fuera la menor posible. Pese a estos progresos graduales seguíamos lejos de la densidad necesaria para que funcionase el enfriamiento por evaporación. El problema residía en la eficacia de la trampa magnética. Podían ser intensos los campos magnéticos que crean el “cuenco” magnético donde se encierran los átomos, pero los “imanes” de cada uno de éstos son débiles; resulta, pues, difícil empujarlos con un campo magnético aunque se muevan (como los que habíamos enfriado ya con los láseres) muy despacio.
E
n 1994 afrontamos por fin la construcción de una trampa magnética con un “cuenco” más hondo y estrecho. Era la pieza final que nos faltaba para enfriar mediante evaporación los átomos de rubidio hasta formar un condensado. El diseño de trampa que ideamos no es el único posible. Hay casi tantas configuraciones de trampas magnéticas como grupos que estudian condensados.
¿Por qué sabemos que hemos producido un condensado de Bose-Einstein? La nube de átomos enfriados se observa tomando una “foto de sombras” mediante un destello de luz de láser. Al ir enfriándose, los átomos se hunden hasta el fondo del cuenco magnético; la nube fría resulta, pues, muy tenue para dejarse ver. La aumentamos apagando los campos magnéticos que la tienen encerrada y dejando que los átomos vuelen libres. Transcurridos 0,1 segundos iluminamos la nube recién expandida con un destello de luz de láser. Los átomos dispersan esa luz fuera del haz y arrojan una sombra que observamos con una cámara de vídeo. Con esa sombra podemos determinar la distribución de velocidades de los átomos en la nube atrapada original. La medición de la velocidad nos da, a su vez, la temperatura de la muestra. En la representación gráfica de la distribución de velocidades, el condensado aparece como un pico con forma de aleta dorsal. Los átomos del condensado tienen la menor velocidad posible y permanecen por eso, una vez se ha expandido la nube, en un denso cúmulo situado en el centro de ésta. La fotografía del condensado corrobora que algo va mal en la mecánica clásica. El condensado se forma con la menor energía posible. Según la mecánica
4. ESTE TERMOMETRO CONTINENTAL, que mide 4100 kilómetros de largo, da la temperatura a la que se forma un condensado. Con cero grados kelvin en la neoyorquina Times Square y 300 en el ayuntamiento de Los Angeles, la temperatura del laboratorio está en San Bernardino, California, y la de congelación del aire en Terre Haute, Indiana. La temperatura de un condensado casi puro está a sólo 0,683 milímetros del punto cero del termómetro.
293 KELVIN: TEMPERATURA DEL LABORATORIO
LOS ANGELES SAN BERNARDINO
50 NANOKELVIN: TEMPERATURA APROXIMADA DE UN CONDENSADO CASI PURO
216 KELVIN: EL POLO SUR EN INVIERNO
LIMITE DE ARIZONA TAOS CON CALIFORNIA
77 KELVIN: SE CONGELA EL AIRE
0,7
0,683
400 NANOKELVIN: APARECE EL CONDENSADO DE BOSE-EINSTEIN EN EL RUBIDIO
0,02 KELVIN: LA TEMPERATURA MENOR DE LA REFRIGERACION CON HELIO
300 KELVIN
273 KELVIN: CONGELACION DEL AGUA
clásica, la “menor energía posible” querría decir que los átomos tendrían que estar en el centro de la trampa, inmóviles, lo que en nuestra imagen se vería como un pico infinitamente estrecho y alto. El pico se aparta de esa descripción clásica debido a fenómenos cuánticos que se resumen en seis palabras: el principio de incertidumbre de Heisenberg. El principio de incertidumbre pone límites a nuestro conocimiento de la realidad, átomos incluidos. Cuanto mayor sea la precisión con que se conoce la posición de un átomo, peor se sabrá cuál es su velocidad, y viceversa. Por eso no es infinitamente estrecho el pico del condensado. Si lo fuera, sabríamos que los átomos estaban en el centro de la trampa con una energía nula. Según el principio de incertidumbre, no podemos saber ambas cosas a la vez. La teoría de Einstein requiere que los átomos del condensado tengan la menor energía posible, mientras que el principio de Heisenberg prohíbe que estén en el mismo fondo de la trampa. La mecánica cuántica resuelve el conflicto al exigir que la energía de un átomo en cualquier celda, nuestra trampa también, tendrá un conjunto de valores permitidos, y el menor de ellos no es cero. A esa energía mínima permitida se la llama energía del punto cero, porque será la que tengan los átomos cuya temperatura
3 KELVIN: ESPACIO INTERGALACTICO
0,6
0,5 mm 5,4
6 5 4 3 2 1 0 MILIMETROS
4 KELVIN: LICUACION DEL HIELO TIMES SQUARE BUILDING CALLE 42 Y BROADWAY NUEVA YORK
TERRE HAUTE
RARITAN PLAINFIELD
CALLE 41 Y OCTAVA AVENIDA, NUEVA YORK
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
11
sea cero exactamente; éstos se moverán despacio alrededor del centro de la trampa, pero no estarán justo en él. El principio de incertidumbre y las demás leyes de la mecánica cuántica suelen percibirse sólo en el comportamiento de los objetos submicroscópicos, del mundo de las partículas y átomos. El condensado de Bose-Einstein es, pues, un raro ejemplo donde el principio de incertidumbre actúa en el mundo macroscópico. Resulta prematuro todavía saber si la condensación atómica de Bose-Einstein encerrará alguna aplicación más allá de su valor de ejemplo cuántico para ilustrar clases y disertaciones. Todo lo que digamos de su aplicación práctica será mera conjetura. Pero tenemos un precedente: los átomos de un condensado de Bose-Einstein recuerdan, en muchos aspectos, los fotones de un haz de láser.
5. LAS IMAGENES DE LAS SOMBRAS de un condensado de Bose-Einstein en formación se procesaron para que se viese con más claridad la distribución de velocidades de los átomos de la nube fría. Las de arriba y las de abajo muestran los mismos datos pero desde ángulos diferentes. En el grupo de arriba las alturas mayores de la superficie indican dónde es más apretada la aglomeración de los átomos y más escaso su movimiento. Antes de que aparezca el condensado (izquierda) la nube, a unas 200 milmillonésimas de grado kelvin, ofrece una distribución de velocidades suave. Cuando el enfriamiento llega a las 100 milmillonésimas aparece el condensado, en forma de una región de átomos casi estacionarios en el centro de la distribución (centro). Si se sigue enfriando, sólo queda condensado (derecha).
T
odos los fotones de un haz de láser viajan exactamente en la misma dirección y tienen la misma frecuencia y fase de oscilación. Esta propiedad facilita el control de la luz de láser; por eso se utiliza en los lectores de discos compactos, en las impresoras láser y en otros aparatos. De manera similar la condensación de Bose es la última palabra en control de precisión, sólo que con átomos en vez de con fotones. Las ondas de materia de un condensado de Bose se reflejan, se concentran y se difractan; su frecuencia se modula en frecuencia y amplitud. Es muy probable que este tipo de control conduzca a avances cronométricos; los mejores relojes del mundo se basan ya en las oscilaciones de átomos enfriados con láser. Puede que haya aplicaciones también en otros campos. Si se deja volar la fantasía es posible imaginar un haz de átomos concentrado en una zona de no más de una millonésima de metro que “aerografíe” directamente un transistor en un circuito integrado. Mas, por ahora, ignoramos muchas propiedades del condensado de BoseEinstein. Particular interés reviste su viscosidad. Se la supone despreciablemente pequeña: el condensado sería una especie de “supergás” en el que ondulaciones y remolinos, una vez creados, nunca se amortiguarían. La curiosidad se centra también en una diferencia básica entre la luz de láser y un condensado. Los haces de láser no interaccionan; se cortan sin que los unos afecten a los otros. El condensado, por contra, opone resistencia a la compresión y muestra cierta elasticidad: es un fluido. Un material
12
que es a la vez un fluido y una onda coherente ha de exhibir un comportamiento interesante. Muchos grupos han emprendido una serie de mediciones de los condensados. El de Ketterle ha demostrado con un hermoso experimento que, cuando se solapan dos nubes distintas de condensado de Bose, se produce un patrón de franjas debido a una interferencia alternadamente constructiva y destructiva, tal y como ocurre cuando se cruzan las radiaciones de láser. En la nube atómica esas regiones aparecen respectivamente como bandas de alta y
baja densidad. Nuestro grupo ha observado que las interacciones entre los átomos distorsionan la forma de la nube atómica, que tiembla después de “agitarla” con unos campos magnéticos. Otros equipos están ideando sus propios experimentos para sumarse a la tarea. A medida que los resultados de estos y otros experimentos se vayan acumulando a lo largo de los próximos años nos iremos haciendo una idea mejor de este singular estado de la materia, y el extraño y apasionante mundo de la mecánica cuántica se acercará un poco más al nuestro.
BIBLIOGRAFIA COMPLEMENTARIA NEW MECHANISMS FOR LASER COOLING. William D. Philips y Claude Cohen-Tannoudji en Physics Today, vol. 43, págs. 33-40; octubre de 1990. OBSERVATION OF BOSE-EINSTEIN CONDENSATION IN A DILUTE ATOMIC VAPOR. M. H. Anderson, J. R. Ensher, M. R. Matthews, C. E. Wieman y E. A. Cornell en Science, vol. 269, págs. 198-201; 14 de julio de 1995. BOSE-EINSTEIN CONDENSATION. Dirigido por A. Griffin, D. W. Snoke y S. Stringari. Cambridge University Press, 1995. OBSERVATION OF INTERFERENCE BETWEEN TWO BOSE CONDENSATES. M. R. Andrews, C. G. Townsend, H.-J. Miesner, D. S. Durfee, D. M. Kurn y W. Ketterle en Science, vol. 275, págs. 637-641; 31 de enero de 1997. BOSE-EINSTEIN CONDENSATION. Se encuentra en la World Wide Web en http://www. colorado.edu/physics/2000/bec.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
La resistencia contra los antibióticos Ciertas infecciones bacterianas resultan ya indemnes ante cualquier antibiótico. El problema de la resistencia podría revertir si la sociedad tomara en consideración que los fármacos afectan por igual a las bacterias “buenas” y a las “malas” Stuart B. Levy
E
l año pasado sucedió algo que los médicos hace tiempo que temían. En tres pacientes geográficamente distantes, una bacteria a menudo letal, Staphylococcus aureus, mostró una tenue respuesta a un antídoto en el que hasta ahora se podía confiar: la vancomicina, un antibiótico. Afortunadamente, en esos pacientes el microorganismo sí era sensible a otros fármacos y se logró su erradicación. Pero la aparición de S. aureus que no sean susceptibles de un tratamiento óptimo con vancomicina presagia problemas. Existen en todo el mundo muchas cepas de S. aureus resistentes frente
a cualquier antibiótico menos frente a vancomicina. La aparición de formas insensibles a la vancomicina significa que se está abriendo el camino a variantes que no se podrán tratar con ninguno de los antibióticos conocidos. S. aureus, uno de los principales agentes etiológicos de infecciones hospitalarias, ha dado un paso en dirección a su transformación en asesino imparable. La preocupante amenaza de Staphylococcus aureus es el último episodio de una pesadilla sanitaria internacional: el aumento de las resistencias bacterianas contra muchos antibióticos que hasta ahora controla-
ban las infecciones bacterianas. Desde los años cuarenta, cuando se empezó a disponer de ellos, se ha venerado su carácter de fármacos milagrosos: proyectiles mágicos capaces de eliminar las bacterias sin dañar en exceso a las células de los pacientes tratados. Cada nueva década ha traído un aumento de la frecuencia de bacterias que plantan cara no sólo a uno sino a varios antibióticos y cuyo control resulta extremadamente complicado. Aún más, existen cepas de al menos tres especies bacterianas (Enterococcus faecalis, Mycobacterium tuberculosis y Pseudomona aeruginosa) capaces de producir enfermedades
Staphylococcus aureus
Acinetobacter
Enterococcus faecalis
Nisseria gonorrhoeae
Causa septicemia, infección de heridas y neumonía; en algunos hospitales más del sesenta por ciento de las cepas son resistentes a meticilina; algunas amenazan con presentar resistencia a todos los antibióticos (H/C; 1950)
Causa septicemia en pacientes con afectación del sistema inmunitario (H; 1990)
Causa septicemia e infecciones del tracto urinario y de heridas en pacientes con el sistema inmunitario resentido; no existe tratamiento para ciertas cepas polirresistentes (H; 1980)
Causa gonorrea; la presencia de resistencia a varios fármacos limita el tratamiento esencialmente a cefalosporinas (C; 1970)
14
INVESTIGACIÓN
Y
Haemophilus influenzae Causa neumonía, otitis y meningitis, sobre todo en niños; se pueden prevenir mediante vacunas (C; 1970)
CIENCIA, mayo, 1998
STUART B. LEVY, profesor de biología molecular y microbiología, dirige el centro de genética de la adaptación y resistencia farmacológica de la facultad de medicina de la Universidad Tufts. Es presidente electo de la Sociedad Americana de Microbiología.
potencialmente letales, que escapan ya a la acción de todos los antibióticos del arsenal del que dispone el clínico, un lote de más de cien fármacos. En parte debido a este aumento de las resistencias frente a los antibióticos, los índices de mortalidad de algunas enfermedades contagiosas (como la tuberculosis) han empezado a aumentar de nuevo tras haber entrado en retroceso en los países industrializados.
¿C
ómo hemos llegado a situación tan alarmante con tendencia a agravarse? Varios procesos interrelacionados son los responsables. Su análisis descubre una serie de actuaciones encaminadas a revertir la tendencia si individuos, empresas y gobiernos de todo el mundo ponen interés en ejecutarlas.
Un componente de la solución es la aceptación de que las bacterias son una parte natural y necesaria de la vida. Las bacterias, seres unicelulares microscópicos, abundan en las superficies inanimadas y en las partes del cuerpo en contacto con el exterior, la piel y las mucosas, como la que tapiza el tracto digestivo. La mayoría viven sin producir perjuicio. De hecho, a menudo nos protegen de la enfermedad porque compiten con las bacterias patógenas —una minoría de especies que se multiplican de forma agresiva (en términos de millones de individuos) y dañan los tejidos o producen enfermedad por otros mecanismos— y limitan su proliferación. Estos competidores benignos son importantes aliados en la lucha contra los patógenos resistentes a antibióticos. Los antibióticos, si bien necesarios para el control de las infecciones bacterianas, pueden tener efectos indeseables sobre la ecología microbiana. Pueden producir cambios duraderos en el tipo de bacterias y las proporciones de éstas, así como en la mezcla de tipos resistentes y sensibles a antibióticos. Estas modificaciones operan no sólo en el individuo sometido a tratamiento, sino también
1. ESTA GALERIA DE BACTERIAS muestra algunos tipos que presentan resistencia a varios antibióticos; el tratamiento de tales bacterias es difícil y caro. Ciertas cepas de las especies descritas en rojo no responden a ningún antibiótico y causan infecciones incurables. Algunas bacterias producen infección sobre todo en los hospitales (H) o en la comunidad (C),
Mycobacterium tuberculosis
Escherichia coli
Causa tuberculosis; no existe tratamiento para ciertas cepas polirresistentes (H/C; 1970)
INVESTIGACIÓN
Y
Causa infecciones del tracto urinario, septicemia, diarrea e insuficiencia renal aguda; algunas cepas productoras de infecciones urinarias presentan resistencia a varios antibióticos (H/C; 1960)
CIENCIA, mayo, 1998
en el ambiente y en la sociedad en general. Los antibióticos son un recurso al que se debería acudir sólo cuando fueran realmente necesarios. Se evitaría así su administración en infecciones víricas, sobre las que carecen de efectos. En la pérdida de la sensibilidad a un antibiótico intervienen varios factores. Las dos fuerzas principales son la prevalencia de genes de resistencia (que determinan proteínas que protegen a las bacterias de los efectos de los fármacos) y la difusión del uso de antibióticos. Si la flora bacteriana de una comunidad carece de genes que confieran resistencia contra un antibiótico, éste podrá eliminar con éxito toda infección, cualquiera que sea la especie que la ha producido. Pero si en la flora existen genes de resistencia y la comunidad hace un uso persistente del fármaco, las bacterias que escapen a la erradicación por ese fármaco harán acto de presencia y proliferarán. Los patógenos resistentes a los antibióticos no son más virulentos que los sensibles: se requiere idéntico número de unos y otros para producir la enfermedad. Pero resulta más difícil destruir a los resistentes. Si la insensibilidad frente al antibiótico
otras en ambos medios. El número que cierra el paréntesis corresponde a la década en que la resistencia antibiótica de cada especie en concreto se convirtió en un problema serio en el manejo de los pacientes. Las bacterias, de dimensiones microscópicas, se ven muy aumentadas de tamaño y coloreadas de forma artificial.
Pseudomonas aeruginosa Causa septicemia y neumonía, sobre todo en pacientes afectos de fibrosis quística o con el sistema inmunitario debilitado; no existe tratamiento para ciertas cepas polirresistentes (H/C; 1960)
Shigella dysenteriae Causa disentería (diarrea hemorrágica); se han descrito epidemias por cepas resistentes y algunas sólo se pueden tratar con fluoroquinolonas, caras y no disponibles, con frecuencia, en los países en desarrollo (C; 1960)
Streptococcus pneumoniae Causa septicemia, infección del oído medio, neumonía y meningitis (C; 1970)
15
2. LAS BACTERIAS RESISTENTES A ANTIBIOTICOS portan genes específicos. Unos dirigirán la síntesis de bombas de “flujo hacia fuera” que expulsen al antibiótico del interior de la célula (a), otros darán lugar a enzimas que degraden el antibiótico (b) o que alteren —o inactiven— químicamente los fármacos (c). Algunos genes de resistencia se encuentran en el cromosoma bacteriano o en los plásmidos, anillos de ADN. De estos genes, unos se heredan, otros aparecen por mutaciones aleatorias del ADN bacteriano y aún otros provienen de otras bacterias.
GENES DE RESISTENCIA AL ANTIBIOTICO ENZIMA DEGRADADORA DEL ANTIBIOTICO
BOMBA DE EXPULSION DEL ANTIBIOTICO
a b
ANTIBIOTICO
es muy leve, a menudo basta con aumentar la dosis, pero si se trata de bacterias muy resistentes, habrá que recurrir a otras terapias. Para comprender los mecanismos por los que los genes capacitan a las bacterias para resistir el ataque de un antibiótico, puede ser útil conocer la naturaleza de los antibióticos y los daños que ocasionan en estos microorganismos. En sentido estricto, se definen como substancias naturales (esto es, producidas por organismos) que inhiben el crecimiento o la proliferación de las bacterias o que, directamente, las matan. En la práctica, se altera químicamente
muchos antibióticos comerc ciales para mejorar su poPLASMIDO tencia o ampliar el espectro de las especies a las que ANTIBIOTICO afectan. En lo sucesivo, el término servirá para designar también medicamentos ENZIMA MODIFICADORA CELULA sintéticos, como las quinoANTIBIOTICO DEL ANTIBIOTICO BACTERIANA lonas o las sulfonamidas, que técnicamente pertenecen al más amplio grupo CROMOSOMA de los antimicrobianos. Con independencia de su actividad específica, los antibióticos quedan. Penetran en las bacterias y inhiben el crecimiento bacteriano y frenan su proliferación al interferir dan la oportunidad al sistema inmu- en la producción de componentes nitario de destruir los gérmenes que necesarios para la formación de nue-
La moda antibacteriana: una nueva amenaza
L
os antibióticos no son las únicas sustancias antimicrobianas empleadas de forma abusiva. El uso de agentes antibacterianos —compuestos que, si bien matan o inhiben a las bacterias, resultan demasiado tóxicos para utilizarse en nuestro organismo— también se ha disparado. Estas substancias, los famosos desinfectantes y antisépticos, se aplican a objetos inanimados o a la piel. Históricamente, la mayoría de los antibacterianos se utilizaron en los hospitales para impregnar gasas y jabones. Más recientemente, estos compuestos (entre los que se encuentran el triclocarbono, triclosano, cloruro de benzalconio y otros compuestos de amonio cuaternario) han entrado en la fabricación de jabones, lociones y detergentes lavavajillas. También se han empleado para impregnar juguetes, sillas para niños, colchones y tablas para cortar alimentos. No existen pruebas de que la adición de productos con actividad antibacteriana a estos utensilios del hogar mantenga a raya las infecciones. Lo que sí está claro es que la proliferación de objetos que los lleven incorporados interesa a las autoridades de salud pública. Al igual que los antibióticos, los antibacterianos pueden modificar la proporción de las distintas bacterias y promover el crecimiento de cepas resistentes. Los microorganismos resistentes también pueden ser bacterias que estaban presentes desde un primer momento. Pero también se puede tratar de microorganismos que antes eran incapaces de proliferar y que ahora sí pueden gracias a la eliminación de las bacterias competidoras. Me preocupa especialmente el segundo grupo, el de los intrusos, porque una vez
16
empiezan a proliferar pueden transformarse en nuevos agentes etiológicos de enfermedad. El abuso potencial de los antibacterianos en el hogar resulta inquietante desde otros puntos de vista. Los genes bacterianos que confieren resistencia a antibacterianos a veces los transportan plásmidos que también llevan genes de resistencia a antibióticos. Así, al promover el crecimiento de bacterias portadoras de tales plásmidos los antibacterianos estarían estimulando la propagación de resistencias dobles: contra antibacterianos y contra antibióticos. Nadie duda de la necesidad de limpiar la casa, pero los jabones y detergentes ordinarios (esto es, los que no llevan productos antibacterianos) están capacitados para reducir en muy buen grado el número de bacterias potencialmente peligrosas. De forma parecida, los productos químicos que se evaporan con rapidez —lejías, alcohol, amoníaco y peróxido de hidrógeno— se pueden utilizar de forma beneficiosa. Eliminan las bacterias potencialmente lesivas de termómetros o de utensilios para preparar la carne cruda para ser cocinada, pero no dejan residuos duraderos que eliminen también las bacterias benignas e incrementen el crecimiento de las cepas resistentes largo tiempo después de haber desaparecido los patógenos. Si nos excedemos e intentamos establecer un medio ambiente estéril, nos encontraremos con que conviviremos con bacterias muy resistentes a los antibacterianos y, posiblemente, a los antibióticos. Si entonces nos es necesario desinfectar nuestras casas y manos —como cuando un miembro de la familia viene del hospital y aún es vulnerable a la infección— nos encontraremos sobre todo con bacterias resistentes. No es inconcebible que con nuestro abuso de los antibióticos y los antibacterianos hagamos de nuestras casas paraísos para inerradicables bacterias causantes de enfermedad, como ya son nuestros hospitales. —S.B.L.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
DONANTE DEL PLASMIDO
PLASMIDO
GEN DE RESISTENCIA GEN DE RESISTENCIA TRANSFERENCIA POR PLASMIDO
a
c
TRANSFERENCIA DE ADN LIBRE
El gen se integra en un plásmido o en el cromosoma
3. LAS BACTERIAS ADQUIEREN LOS GENES de resistencia por tres mecanismos principales. A menudo, reciben de una célula donante plásmidos enteros que contienen uno o más genes de este tipo (a). En otras ocasiones, un virus toma un gen de resistencia de una bacteria y lo inyecta en otra célula bacteriana distinta (b). Por último, las bacterias a veces hurgan en los restos de ADN de las células muertas del medio en busca de fragmentos que contengan genes (c). Los genes obtenidos de las células muertas o inyectados por virus sólo persisten en su nuevo huésped si se integran de forma estable en el cromosoma de la bacteria receptora o en un plásmido.
genes está tan difundido en el mundo bacteriano, que BACTERIA TRANSFEpodríamos considerarlo un MUERTA RENCIA gigantesco organismo mulPOR VIRUS ticelular, único, en el que las células intercambiasen GEN DE BACTERIA con facilidad su material RESISTENCIA RECEPTORA genético. DE GENES BACTERIA Las bacterias han deDE RESISTENCIA INFECTADA sarrollado diferentes mePOR VIRUS canismos para compartir sus características de revas bacterias. La tetraciclina, por sistencia. Es común que los genes ejemplo, se une a los ribosomas de resistencia se integren en plás(estructuras internas encargadas de midos, minúsculos anillos de ADN la síntesis de proteínas) y se deja que permiten a las bacterias superar a la bacteria sin posibilidad de fa- los contratiempos que les depara el bricar proteínas. La penicilina y la medio. Los genes también pueden vancomicina impiden la síntesis de estar situados en el cromosoma, la la pared celular bacteriana. gran molécula de ADN que almaAlgunos genes de resistencia preser- cena la información necesaria para van a los gérmenes de la destrucción la reproducción y el mantenimiento mediada por los antibióticos gracias de rutina de la bacteria. a la inducción de la síntesis de A menudo una bacteria transfiere enzimas. Estas moléculas degradan sus características de resistencia a o modifican el fármaco, que queda otras mediante la donación de un así inactivo. Cabe también que el plásmido. Los virus movilizan, a su gen altere o elimine las moléculas vez, genes de resistencia en las ocaa las que se une el antibiótico; tras siones en que extraen un gen de una estos cambios, la diana bacteriana del bacteria y lo inyectan en otra. Por antibiótico desaparece. Es factible, último, cuando una bacteria muere, incluso, que se eliminen las vías libera su contenido de entrada del fármaco o que, lo al medio externo y que resulta más eficaz, se sinteticen otra bacteria cualbombas que expulsen el antibiótico al quiera puede aproexterior, antes de que tenga tiempo piarse de algún gen liberado. de encontrar su diana intracelular. En las dos últias bacterias disponen de varios mas circunstancias, mecanismos por los que ad- el gen sólo estará en quieren genes de resistencia. Muchas condiciones de perheredan los genes de sus predece- durar y proporcionar sores. Otras veces son mutaciones protección frente a genéticas, muy frecuentes en bac- un antibiótico si se terias, las que producirán de forma integra de forma esespontánea un gen de resistencia o table en un plásmido perfeccionarán uno existente. No en o en el cromosoma. pocas ocasiones reciben los genes Esta integración es de resistencia de otras bacterias ve- frecuente, porque cinas. De hecho, el intercambio de los genes de resisVIRUS
b
tencia acostumbran ir al lado de transposones, prestos a saltar a otras moléculas de ADN. Una mala pasada del destino para los seres humanos, si se tiene en cuenta que muchas bacterias cuentan con transposones especializados llamados integrones que tienen gran propensión por cazar nuevos genes. Estos integrones pueden contener varios genes de resistencia, que quizá reciba luego otra bacteria, como si de un tráfico de armamento contra antibióticos se tratara. Muchas bacterias portaban genes de resistencia antes de que se comercializaran los antibióticos. Desconocemos los procesos implicados en la aparición de estos genes y las razones por las que se han conservado. Un argumento lógico se basa en que, en un principio, se habrían elaborado antibióticos naturales en virtud de mutaciones genéticas casuales. Los productos que consiguieron eliminar a los competidores capacitaron a sus productores para sobrevivir y proliferar, siempre y cuando hubieran tenido la suerte de disponer de genes que los protegiera de sus propias armas químicas. Más tarde, otras especies recibieron estos genes protectores y
L
4. DISEMINACION de la resistencia bacteriana. Procede sin dificultad y puede llegar muy lejos. En un ejemplo, los investigadores siguieron la pista de una cepa de Streptococcus pneumoniae desde España hasta Portugal, Francia, Polonia, Gran Bretaña, Sudáfrica, EE.UU. y México.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
17
tencia desde el principio o que la han desarrollado luego (mediante mutación o intercambio genético) pueden sobrevivir, sobre todo si se administran cantidades insuficientes de medicamento. La reducción de la competencia por bacterias susceptibles facilita la proliferación de las otras. Cuando un grupo de bacterias se enfrenta a un antibiótico, las más resistentes desplazan sin remisión al resto.
algunas de ellas resultaron ser patógenas. Al margen de cómo aparezcan hoy los genes de resistencia, los antibióticos comerciales pueden seleccionar cepas resistentes a esos antibióticos; es decir, pueden estimular su supervivencia y su propagación. Así, al estimular el crecimiento de patógenos resistentes, un antibiótico puede, en realidad, contribuir a su propia ruina. El proceso de selección es bastante directo. Cuando un antibiótico ataca a un grupo de bacterias, destruye a las que son muy sensibles. Pero las células que presentaban resis-
L
a promoción de la resistencia en patógenos conocidos no es la única actividad negativa de los antibióticos. Cuando un medicamento ataca a las bacterias que producen la enfermedad, también afecta a las bacterias benignas, espectadoras inocentes. Se eliminan bacterias espectadoras sensibles cuya presencia podría haber limitado la expansión de las patógenas y a la vez se estimula el crecimiento de bacterias espectadoras resistentes. La propagación de estas bacterias resistentes no patógenas incrementa los focos de resistencia en el conjunto de la población bacteriana y aumenta la probabilidad de que bacterias patógenas puedan presentar dichos rasgos. Aún más, a veces una población creciente de bacterias espectadoras puede llegar a transformarse en productora de enfermedad. El uso generalizado de cefalosporinas, por ejemplo, ha estimulado el crecimiento de una bacteria intestinal, E. faecalis, que presenta resistencia natural a estos fármacos. En la mayoría de las personas, el sistema inmunitario controla el crecimiento de E. faecalis, incluidas sus cepas polirresistentes; no se produce, pues, enfermedad. Pero en pacientes hospitalizados que presentan una in-
ANTIBIOTICO
a BACTERIA SENSIBLE A ANTIBIOTICOS
BACTERIA PARCIALMENTE INSENSIBLE
b
BACTERIAS SUPERVIVIENTES
c
munidad resentida, E. faecalis puede diseminarse y llegar a las válvulas cardíacas y a otros órganos y provocar una afección sistémica mortal. Aún más, la administración de vancomicina a lo largo de los años ha transformado a esta bacteria en un peligroso reservorio de resistencia a este antibiótico. Recuérdese que algunas cepas del patógeno S. aureus presentan polirresistencia y sólo responden a vancomicina. E. faecalis es ya tan común, que los expertos en salud pública temen que pronto traspase su alta resistencia a vancomicina a esas cepas de S. aureus y las transforme en bacterias para las que no exista tratamiento. Este efecto de colaboración ha favorecido la aparición de cepas poliresistentes de Acinetobacter y de Xanthomonas, productoras de sepsis potencialmente letales en pacientes hospitalizados. Hace sólo cinco años, nadie había oído hablar de estos microorganismos antes inocuos. Ya sabemos que los antibióticos afectan tanto a las bacterias resistentes como a las sensibles, lo mismo en el individuo objeto de tratamiento que en el ambiente. Cuando en un paciente en tratamiento proliferan bacterias resistentes, estos microorganismos, a semejanza de otras bacterias, se diseminan por los rincones y en nuevos huéspedes. Se ha demostrado que, si un miembro de una familia utiliza de forma crónica un antibiótico para combatir el acné, la concentración de bacterias resistentes al tratamiento en la piel aumenta para todos los miembros de la familia. De forma similar, un empleo muy elevado de antibióticos en hospitales, guarderías y granjas (donde con frecuencia se administran fármacos a los animales con propósitos ajenos a la medicina) incrementa los niveles de bacterias resistentes en personas y otros organismos que no reciben el tratamiento; entre ellos debe contarse a quienes vivan en las proximidades de estos epicentros de
d e BACTERIAS MUERTAS
BACTERIA CON RESISTENCIA INCREMENTADA
18
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
BACTERIAS SUSCEPTIBLES DEL MEDIO consumo elevado o siquiera pasen por ellos. a b c d Puesto que antibióticos y otros antimicrobianos, así los fungicidas, afectan las clases de bacterias del entorno y del individuo sujeto a tratamiento, se les denomina fármacos societarios. Los fármacos anticáncer, por contra, POBLACION afectan sólo a las personas RESISTENTE que toman la medicina. CESA POBLACION A mayor escala, la resis- LA ADMINISTRACION SUSCEPTIBLE CELULAS MUERTAS tencia contra antibióticos que DE ANTIBIOTICOS aparece en un lugar puede propagarse hasta puntos re- 5. LA POBLACION de bacterias resistentes sólo desaparece de forma natural si en el medio motos. La intensificación de hay bacterias susceptibles. Una vez cesa la administración de antibiótico (a), las bacterias los viajes internacionales ha resistentes pueden persistir cierto tiempo. Las bacterias sensibles de la vecindad pueden recolonizar al individuo (b). En ausencia de antibiótico, los microorganismos susceptibles supuesto la importación en disfrutan de una ligera ventaja de supervivencia porque no tienen que gastar energía en Estados Unidos de tuberculo- el mantenimiento de los genes de resistencia. Tras un tiempo, puede que eliminen por sis poliresistentes. Está docu- competencia a todas las bacterias resistentes (c y d). Por este motivo la protección de las mentada también la migración bacterias susceptibles debe ser una prioridad de salud pública. de una cepa polirresistente de Streptococcus pneumoniae En el mundo industrializado, sólo ganadería y la agricultura. Más del desde España hasta Gran Bretaña, Estados Unidos, Sudáfrica y otros países. se puede acceder a la mayoría de cuarenta por ciento de los antibióticos Esta bacteria, también conocida como los antibióticos mediante prescrip- producidos en los Estados Unidos pneumococo, produce neumonía, me- ción médica, pero esta restricción no son destinados a animales. Una parte garantiza un empleo correcto. Con se emplea en la prevención de inningitis y otras enfermedades. Para quienes entienden que la admi- frecuencia los pacientes no termi- fecciones, pero la parte del león se nistración de antibióticos induce una nan el tratamiento y almacenan las mezcla con el pienso para estimular selección basada en la resistencia no dosis sobrantes para automedicarse, el crecimiento. En esta última aplidebe constituir una sorpresa que la o medicar a familiares y amigos, en cación, se usan durante semanas o comunidad internacional se enfrente cantidades menores a las terapéu- meses cantidades demasiado pequeñas a una importante crisis de salud ticas. En ambas circunstancias, la como para combatir la infección. pública. El uso (y abuso) de los incorrecta dosificación no será capaz Nadie está muy seguro de cómo antibióticos se ha disparado desde la de eliminar por completo al agente estos fármacos pueden estimular el aparición de las primeras versiones infeccioso y estimulará el crecimiento crecimiento. Lo que sí está claro comerciales y estos medicamentos de las cepas más resistentes, que es que la exposición prolongada a encuentran, en la actualidad, muchas luego podrán producir trastornos de dosis bajas es la fórmula perfecta difícil tratamiento. aplicaciones no médicas. de seleccionar una cantidad creciente de bacterias resistentes en los aniResulta sorprendente que muchos n los países en vías de desarro- males tratados, que luego pasarán a médicos satisfagan la petición de antibióticos de pacientes desinformados llo existe un control aún menor los cuidadores y, más ampliamente, en lo que se refiere al tratamiento de sobre el empleo de los antibióticos. a los que preparen o consuman la resfriados y otras infecciones víricas Se pueden comprar sin prescripción carne sin cocinar. En agricultura los antibióticos se que los antibióticos no pueden curar. médica muchos de los fármacos a Se ha estimado que alrededor de la venta en los países industrializa- aplican en forma de aerosoles en cincuenta millones de prescripciones dos. Por desgracia, cuando aparecen hectáreas de árboles frutales para anuales (de un total de ciento cin- problemas clínicos de resistencia en controlar o prevenir infecciones baccuenta millones) son innecesarias. En estos países, que normalmente no terianas. Las concentraciones elevadas un seminario que yo mismo dirigí, tienen acceso a medicamentos ca- pueden matar a todas las bacterias más del ochenta por ciento de los ros, pueden faltar las alternativas en el momento de su administración, médicos presentes admitieron haber terapéuticas. pero los restos de los antibióticos recetado antibióticos a petición del Los mismos medicamentos que pueden estimular el crecimiento de paciente y en contra de su propia se prescriben para terapia humana bacterias resistentes que luego coloniopinión. encuentran amplia aplicación en la cen la fruta durante su conservación
E
f
g
POBLACION MUY RESISTENTE
6. EL EMPLEO DE ANTIBIOTICOS SELECCIONA —esto es, estimula la evolución y el crecimiento— bacterias insensibles al fármaco. Cuando se expone a bacterias a un antibiótico (a), las bacterias sensibles al fármaco mueren (b). Pero si la cantidad de antibiótico administrada es demasiado pequeña como para destruir hasta la última bacteria, las que muestran cierta insensibilidad sobreviven y crecen (c). Conforme prosigue el tratamiento, algunos supervivientes adquirirán verosímilmente una resistencia incluso mayor (d), ya sea por una mutación genética que produzca una nueva característica de resistencia o por intercambio de genes con alguna bacteria recién llegada. Las células resistentes eludirán el efecto del fármaco con mayor éxito (e) y llegará un momento en que predominen sobre las otras (f y g). 19
y transporte. Los aerosoles tampoco afectan de forma exclusiva a los árboles diana. Pueden salvar distancias considerables y alcanzar otros árboles y plantas comestibles en cantidades demasiado diluidas para hacer frente a infecciones activas pero todavía con actividad suficiente para eliminar bacterias sensibles y favorecer así a las versiones resistentes. De nuevo, las bacterias llegarán al hombre a través de la cadena trófica y pueden colonizar el tracto digestivo una vez digerido el alimento. La cantidad de bacterias resistentes que el hombre adquiere a través de su alimentación no es desdeñable. Denis E. Corpet, del Instituto Nacional de Investigación Agrícola de Toulouse, demostró en una serie de voluntarios que siguieron una dieta con alimentos sin bacterias una reducción a la milésima parte de la cantidad de bacterias resistentes en las heces. Este dato indica que, cuando comemos alimentos crudos o deficientemente cocinados, ingerimos cepas de bacterias resistentes. Lo más frecuente es que estas bacterias no sean nocivas, pero podrían serlo si bacterias productoras de enfermedad contaminasen por azar los alimentos. El empleo extensivo a escala mundial de antibióticos en medicina, ganadería y agricultura produce la selección de cepas de bacterias resistentes a esos fármacos. ¿Cabe deducir que hay que abstenerse de utilizar antibióticos y así detener el a
ANTIBIOTICO
avance de bacterias para las que no existiría tratamiento? Ciertamente no. Pero si se quiere que estos fármacos conserven su eficacia contra los patógenos, se deberá hacer un uso más responsable. La sociedad puede aceptar un aumento de la proporción de bacterias resistentes cuando sea necesario tratar una enfermedad, pero este mismo aumento es inaceptable si el recurso a los antibióticos es prescindible. Desde ahora mismo se pueden tomar medidas correctoras. De entrada, se debería ayudar a ganaderos y agricultores a encontrar alternativas baratas y útiles para la estimulación del crecimiento del ganado y la protección de los árboles frutales. La mejora de las medidas higiénicas, por ejemplo, podría ser de gran ayuda en la estimulación del desarrollo del ganado.
S
e pueden lavar las frutas y verduras crudas para eliminar tanto los restos de antibióticos como las bacterias resistentes. Los pacientes deberían completar de forma correcta el tratamiento (para garantizar la eliminación de todas las bacterias patógenas) y no deberían conservar las pastillas restantes para uso posterior. También deberían abstenerse de solicitar antibióticos para resfriados y otras infecciones víricas y deberían tomar en consideración tratamientos no antibióticos para ciertas afecciones menores, como el acné. Se MEMBRANA BACTERIANA EXTERNA
b
pueden utilizar antibióticos tópicos para heridas pequeñas, pero uno se lo debería pensar dos veces antes de utilizar lociones para manos y otros productos que ahora incluyen agentes antibacterianos en su composición. Nuevos descubrimientos de laboratorio apuntan que ciertos productos químicos colaboran en la selección de bacterias resistentes contra preparados antibacterianos y antibióticos. Los médicos, por su parte, pueden tomar algunas medidas inmediatas para minimizar las resistencias derivadas del empleo necesario de antibióticos. Cuando sea posible, se debe intentar identificar el patógeno causante antes de iniciar el tratamiento. Se podrá de esta manera prescribir un medicamento específico en lugar de tener que escoger uno de amplio espectro. Lavarse las manos es una precaución principal y obvia que a menudo se descuida. Para evitar la diseminación de infecciones resistentes a varios fármacos entre los pacientes hospitalizados, se ubica a los pacientes afectados en habitaciones separadas, donde les atienden sanitarios y visitantes provistos de guantes y bata. Debería mantenerse esta práctica. Antibióticos nuevos posibilitarían opciones adicionales de tratamiento. En la década de los ochenta, los laboratorios farmacéuticos, convencidos de que las enfermedades infecciosas estaban prácticamente controladas, descuidaron la búsqueda de BLOQUEANTE DE LA BOMBA
BOMBA DE EXPULSION DEL ANTIBIOTICO
PROTEINA BACTERIANA EN FORMACION
EL FARMACO BLOQUEA LA SINTESIS DE PROTEINAS
RIBOSOMA
7. UNA ESTRATEGIA FARMACEUTICA para vencer las resistencias se funda en el descubrimiento de que algunas bacterias escapan a la acción de ciertos antibióticos, como la tetraciclina, bombeándolos fuera de la célula (a). Para combatir esta artimaña, los investigadores de la Universidad
20
de Tufts, dirigidos por el autor del artículo, se proponen diseñar compuestos que bloqueen las bombas (b) y permitan al antibiótico funcionar. La tetraciclina es un fármaco que interacciona con los ribosomas e interfiere en su producción de proteínas.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
nuevos antibióticos. Antes, cuando un fármaco del arsenal antibiótico se revelaba ineficaz, otro solía demostrar actividad (al menos en los países industrializados, donde hay un gran abastecimiento). Toda vez que este feliz estado de las cosas ha llegado a su fin, los investigadores vuelven la mirada en pos de nuevos fármacos. Pero son pocos los que se hallan en disposición de superar en poco tiempo las trabas técnicas y reguladoras que organizan su acceso al mercado. Además, los que tienen mayores probabilidades de conseguirlo son estructuralmente similares a los ya existentes; es fácil que se tengan que enfrentar a bacterias que dispongan de defensas contra ellos.
P
artiendo de estas premisas, se trabaja en estrategias que puedan dar nueva vida a los antibióticos existentes. Muchas bacterias escapan a la acción de la penicilina y de fármacos relacionados mediante la activación de una enzima, la penicilinasa, que degrada estos compuestos. Ya se dispone en las farmacias de un antídoto que contiene un inhibidor de penicilinasa que impide la destrucción de la penicilina y permite que el antibiótico actúe con normalidad. En una de las estrategias en estudio, mi laboratorio de la Universidad de Tufts trabaja en el desarrollo de un compuesto que bloquea una bomba microbiana encargada de expulsar la tetraciclina fuera de la célula. Una vez inactivada la bomba, la tetraciclina penetra en las células. Para revertir el problema de la resistencia bacteriana se necesita la colaboración de las instituciones, de los médicos, de los granjeros y de otros que permitan abordar los efectos de los antibióticos desde nuevos puntos de vista. Cada vez que se administra un antibiótico, la fracción de bacterias resistentes en el individuo tratado y, potencialmente, en otros, aumenta. Las cepas resistentes perduran cierto tiempo, a menudo semanas, desde que se deja de administrar el fármaco. Desaparecen las cepas resistentes, sobre todo, cuando compiten con versiones susceptibles que persisten, o se incorporan a la persona tratada cuando finaliza el uso del antibiótico. En ausencia de antibiótico, las cepas susceptibles tienen una ligera ventaja de sobrevivir porque las bacterias resistentes dedican parte de la valiosa energía necesaria para la reproducción al mantenimiento de características
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
de resistencia a antibióticos. En última instancia, los microorganismos sensibles salen vencedores, siempre y cuando estén presentes y si no son atacadas por más antibiótico antes de que puedan prevalecer. La corrección del problema de la resistencia precisa, por tanto, de un mejor manejo de los antibióticos y de la restitución de la flora bacteriana sensible a esos fármacos. De eliminarse todos los reservorios de bacterias sensibles, las formas resistentes se verían libres en la competencia por la supervivencia y persistirían de forma indefinida. En un mundo ideal, las autoridades de salud pública conocerían el grado de extensión de las resistencias a antibióticos en las bacterias patógenas y en las benignas de la comunidad. A la hora de tratar un patógeno específico, los médicos preferirían un antibiótico con poca probabilidad de encontrarse con resistencia por alguna bacteria en la comunidad. Los médicos administrarían una cantidad de antibiótico suficiente para eliminar de forma completa la infección, pero no prolongarían la terapia tanto como para acabar con las bacterias acompañantes del cuerpo. Deberían tenerse también en cuenta el número de otros individuos que hayan recibido el mismo tratamiento. Si se administra el antibiótico a muchos pacientes en una planta de un hospital, la alta densidad de su empleo favorecerá la selección de cepas bacterianas resistentes a ese fármaco. El efecto ecológico en la planta sería más extenso que si se repartiera la misma dosis de antibiótico entre unas pocas personas. Si los médicos consideraran los efectos más allá de sus pacientes individuales, podrían prescribir antibióticos distintos a pacientes diferentes o en plantas diferentes. Así se minimizaría la fuerza de selección en favor de la resistencia a una medicación única. En otras palabras, habría que fijar un “umbral antibiótico”: un nivel de uso de antibióticos capaz de corregir las infecciones en un hospital o una comunidad, pero inferior al nivel que estimulara la propagación de cepas resistentes o la eliminación de un gran número de microorganismos sensibles que compitieran con los resistentes. Nos aseguraríamos de que la flora microbiana original de una persona se recuperase con rapidez por bacterias sensibles de las proximidades una vez cesara el tratamiento si éste se mantuviera por
debajo del umbral. El problema reside en que nadie conoce por ahora cuál es ese umbral; en muchos hospitales y muchas comunidades se carece de información sobre la naturaleza de las poblaciones microbianas. El control de la resistencia a antibióticos a escala internacional exige la cooperación entre países y la concertación de esfuerzos para educar a la población sobre la resistencia a antibióticos y el impacto de un uso inapropiado de los fármacos. Como primer paso en esta dirección, varios grupos intentan seguir la huella de la emergencia de cepas de bacterias resistentes. Así, la Alianza para el Uso Prudente de los Antibióticos, con sede en Boston, que registra desde 1981 la aparición de tales cepas en todo el mundo. Este grupo comparte información con miembros de más de noventa países.
E
s hora de que se acepte a las bacterias como componentes normales de nuestro mundo, generalmente beneficiosos, para que no se persiga su eliminación, excepto en los casos en que producen enfermedad. Para revertir la resistencia, se necesita una nueva conciencia de las consecuencias que tiene el uso de antibióticos, una perspectiva que no sólo se refiere al tratamiento de las enfermedades bacterianas sino también a la preservación de las comunidades microbianas a largo plazo, para que siempre existan bacterias sensibles a los antibióticos en disposición de desplazar por competencia a las cepas resistentes. Consideraciones similares deberían influir en el empleo de fármacos para combatir parásitos, hongos y virus. Ahora que el consumo de estas medicinas ha empezado a crecer, se han disparado las preocupantes resistencias de estos microorganismos.
BIBLIOGRAFIA COMPLEMENTARIA THE ANTIBIOTIC PARADOX: HOW MIRACLE DRUGS ARE DESTROYING THE MIRACLE, S. B. Levy. Plenum Publishers, 1992. DRUG RESISTANCE: THE NEW APOCALYPSE. Número especial de Trends in Microorganismology, vol. 2, n.o 10, pág. 341-425, octubre 1994. ANTIBIOTIC RESISTANCE: ORIGINS, EVOLUTION, SELECTION AND SPREAD. Dirigido por D. J. Chadwick y J. Goode. John Wiley & Sons, 1997.
21
Nanoláseres Los láseres de semiconductor han reducido sus dimensiones hasta hacerse menores que la longitud de onda de la luz que emiten. En ellos se manifiesta un comportamiento cuántico Paul L. Gourley
1. LOS LASERES DE MICRODISCO miden un par de micras, o millonésimas de metro, de diámetro y sólo una fracción de micra de espesor. Los discos, que descansan sobre pedestales, son de un material semiconductor. La luz, generada en el interior del disco, pasa rasando alrededor de su circunferencia antes de escapar radialmente, como muestra el patrón de la onda roja en la simulación por ordenador (recuadro de la derecha). Las depresiones del centro de los discos y las partículas que se ven dispersas al azar son artefactos del proceso de grabado químico usado para fabricar las estructuras.
22
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
C
on los años, los transistores de silicio han ido encogiendo su tamaño, hasta permitir la fabricación de micropastillas (chips) mínimas, aunque muy potentes. Se ha llegado, hace poco, a reducir las dimensiones de tales dispositivos hasta la escala de los nanómetros (milmillonésimas de metro); por debajo, pues, de la longitud de onda de la luz que los mismos producen. A tales tamaños, menores que una centésima de la anchura de un cabello humano, empiezan a manifestarse curiosas propiedades de la física cuántica. Explotando este comportamiento cuántico, podremos modelar a medida las características básicas de los dispositivos para obtener mayores rendimientos y velocidades. Los nanoláseres podrían tener numerosas aplicaciones; pensemos en ordenadores ópticos, donde la luz podría reemplazar a la electricidad para el transporte, procesado y almacenamiento de la información. Aun cuando la computación basada en la luz tardara en llegar, las comunicaciones por fibra óptica y otros usos son ya una realidad práctica. Igual que a otros, a mí me interesan
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
los nuevos láseres para aplicaciones novedosas, tales como la detección precoz de enfermedades. Aunque los nanoláseres están en la frontera de la física moderna, los dispositivos trabajan de un modo muy parecido a su antepasado de hace más de 35 años, un utensilio moldeado a partir de una varilla de rubí oscuro. A grandes rasgos, un material láser (así un gas —helio o neón— o un semiconductor cristalino) queda emparedado entre dos espejos. A la sustancia se le “bombea” luz o electricidad. El proceso excita los electrones del material, que saltan desde niveles de baja energía hasta otros de energías más altas. Cuando los electrones retornan a los estados bajos producen luz, que se refleja entre los espejos. Los fotones que rebotan inducen a otros electrones “excitados”, es decir, que se hallan en estados de energía altos, a emitir fotones idénticos, a la manera de un castillo pirotécnico donde la explosión de unos petardos provoca el encendido de otros. A esta reacción en cadena se la denomina emisión estimulada (de ahí el nombre
23
2. EL LASER DE MICROANILLO está rodeado por una estructura vítrea con forma de U que guía la luz fuera del dispositivo en dos haces paralelos que discurren por los brazos de la horquilla. El láser consiste en una espira finísima de material semiconductor, con una sección rectangular de 400 por 200 nanómetros doblada en forma de rosquilla ultradelgada.
“láser” cuyas siglas significan “light amplification by stimulated emission of radiation”, o sea, amplificación de luz por emisión estimulada de radiación). Conforme el número de fotones crece, se integran en una onda comunitaria que se va intensificando, para acabar prorrumpiendo a través de uno de los espejos en un haz concentrado y focalizado. Pero no todos los fotones se integran en la onda. Muchos se emiten de forma espontánea, fuera de la reacción en cadena. Para una partícula subatómica, el tamaño típico de una cavidad láser es inmenso, por lo que en gran parte del espacio los fotones son relativamente libres. Por tanto, muchos de los fotones que van a su aire están en una longitud de onda diferente y pueden dispersarse en cualquier dirección; a menudo chocan contra las paredes del láser, produciendo un calentamiento no deseado, en vez de rebotar entre los espejos. En algunos láseres sólo un fotón en 10.000 sirve de algo. Ante semejante derroche, se necesita cierto umbral de energía para asegurar que el número de electrones excitados sea el suficiente para inducir
PAUL L. GOURLEY está adscrito al Laboratorio Nacional de Sandia, donde ha trabajado sobre láseres de emisión por superficie basados en cavidades verticales en semiconductores. Miembro distinguido de diversas sociedades científicas, Gourley ha recibido numerosos galardones por su invención del láser de biocavidad.
24
y mantener la emisión estimulada. Esta condición recuerda la cantidad mínima de calor necesaria para poner un cazo de agua a hervir. Si el obstáculo no se vence, el láser fracasará y no alcanzará la reacción en cadena autosostenida que es crucial para su operación. En ese obstáculo yace el motivo de que los láseres de semiconductor requieran corrientes altas para trabajar, a diferencia de los transistores de silicio, más frugales. Pero si se consiguiera que los láseres de semiconductor dejasen de despilfarrar energía, podrían tornarse competitivos con sus homólogos electrónicos para un sinfín de aplicaciones, incluido su uso en computadoras. El concepto de operación “sin umbral” goza de aceptación creciente entre muchos físicos. Propuesta por Yoshihisa Yamamoto y Takeshi Kobayashi, la operación sin umbral exige que todos los fotones, también los nacidos de forma espontánea, participen en el mecanismo láser. En teoría, el dispositivo sólo requeriría una cantidad minúscula de energía, algo así como una olla capaz de hervir agua con el calor de una cerilla. Aunque se discrepa acerca del diseño óptimo de tal láser, se está de acuerdo en que las dimensiones han de ser mínimas, del orden de la longitud de onda de la luz emitida, al objeto de que los dispositivos saquen partido del comportamiento cuántico.
E
l trabajo preparatorio para el funcionamiento sin umbral se llevó a cabo a finales de los setenta, cuando el grupo de Kenichi Iga demostró la operación de un tipo de láser de semiconductor radicalmente diferente. Los microláseres, así se les conoce por sus dimensiones micrométricas, son dispositivos primos de los láseres diodo de semiconductor, de amplio uso en reproductores de discos compactos. (La palabra “diodo” se refiere a una corriente eléctrica en un único sentido durante la operación.) Pero los microláseres difieren de sus parientes, los láseres diodo comunes, en aspectos fundamentales. Estos tienen forma de cajas rectangulares que deben trocearse en cubitos partiendo de una oblea y emiten luz longitudinalmente a través de los bordes cortados. Los microláseres son estructuras menores, de aspecto cilíndrico, producidas por grabado químico, y pueden emitir luz a través de la parte superior, perpendicular a las láminas circulares de material semiconductor que forman el dispositivo. En consecuencia, los
microláseres producen rayos circulares más perfectos. Además, pueden construirse y ensayar muchos a la vez, apilándolos ordenadamente sobre una oblea. A diferencia de los láseres diodo, deben ensayarse uno a uno tras haberlos recortado en unidades discretas. Quizá revista mayor interés el hecho de que los microláseres se aprovechen del comportamiento cuántico de electrones y fotones. Los dispositivos están construidos con un “pozo”, una finísima lámina de semiconductor de átomos de espesor. En un espacio tan minúsculo, los electrones sólo pueden ocupar ciertos niveles de energía discretos, o cuantizados, separados por una zona prohibida, el intervalo de banda del semiconductor. Al emparedar el pozo cuántico con otro material, se pueden atrapar electrones y forzarles a saltar a través del intervalo para emitir el tipo adecuado de luz. También los microláseres, para funcionar, deben aprisionar fotones. Con ese fin, los ingenieros utilizan el mismo efecto que explica el débil reflejo de la ventana transparente. Este fenómeno aparece porque el vidrio tiene un índice de refracción mayor que el aire, esto es, los fotones se mueven con lentitud mayor a través del vidrio. Cuando la luz atraviesa materiales con índices de refracción diferentes, algunos fotones se reflejan en la frontera. Los espejos de los microláseres están formados por capas alternantes de semiconductores con distinto índice de refracción (tales como arseniuro de galio y arseniuro de aluminio). Si las láminas tienen un espesor igual a la cuarta parte de una longitud de onda, la geometría de la estructura permitirá que las débiles reflexiones se refuercen entre sí. Cuando se acoplan el arseniuro de galio y el arseniuro de aluminio, una docena de pares de láminas hará que el 99 por ciento de la luz rebote, un rendimiento superior al de los espejos metálicos pulidos de uso común en los cuartos de baño. La primera hornada de microláseres ya ha encontrado aplicaciones comerciales en las comunicaciones por fibra óptica. Mientras se investiga en otros usos, buscamos refinar las estructuras. En un dispositivo reciente, algunas láminas se oxidan selectivamente, lo que ayuda a aumentar la población de electrones excitados y fotones que rebotan en el área del pozo; gracias a ello, se obtiene un rendimiento por encima del 50 por ciento. En otras
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
cuántico. Para ello, hubo que encoger algunas de las dimensiones de los dispositivos hasta tamaños menores que la longitud de onda de la luz emitida. En ese mundo microscópico, los fotones se ven obligados a ocupar ciertos estados discretos, de una manera similar a las restricciones impuestas a los electrones atrapados en pozos cuánticos. Los láseres grandes emiten varios tipos de fotones. Nos vale la imagen de la guitarra. Cuando una cuerda larga se rasguea, produce un sonido que consta de una frecuencia fundamental (tono) y muchos armónicos. Pero a medida que la cuerda se acorta, el tono se hace más agudo y el número de armónicos disminuye hasta que el proceso alcanza un límite determinado por el espesor y el tipo del material de la cuerda. Los expertos han ido disminuyendo el tamaño de los láseres para restringir el número de estados, o modos, que los fotones pueden ocupar. Hay un límite a esta miniaturización: la mitad de la longitud de onda de la luz emitida; esta dimensión es la mínima con que la luz es capaz de rebotar entre los espejos. En esa frontera mínima, los fotones tendrían un único estado posible, correspondiente al modo óptico fundamental del dispositivo. Debido a esta única opción, cada fotón se verá forzado a contribuir a la onda comunitaria (el
palabras, el láser convierte más de la mitad de la energía de entrada en luz láser de salida. Semejante eficacia supera, en mucho, la alcanzada por los láseres diodo de semiconductor, cuyo rendimiento no alcanza siquiera el 30 por ciento. Los microláseres nos han llevado a una nueva generación de dispositivos que se aprovechan del comportamiento cuántico de los electrones. Se han construido puntos y filamentos cuánticos, estructuras que confinan los electrones en cero y una dimensiones, respectivamente. (Los pozos las restringen a dos.) Además, en el láser de cascada cuántica, un dispositivo novedoso, investigadores de los laboratorios Bell han ensartado pozos cuánticos a la manera de cascadas en serie. En dicho láser, un electrón que retorna a un estado de energía más bajo no dará un salto tan grande como el intervalo de banda de energía, sino varios pequeños, emitiendo un fotón en cada saltito sucesivo e incrementando, por tanto, la reacción en cadena del láser. Gracias a semejante láser innovador, se puede diseñar a medida el tipo de luz producido ajustando la anchura de los pozos; por tanto, el intervalo de banda electrónico del material, una propiedad impuesta por la naturaleza, no dicta ya el tipo de fotones producido. En otra línea de investigación, afín aunque independiente, se ha venido explorando el comportamiento óptico-
modo fundamental) que, al intensificarse, engendra el haz de luz que termina por escapar a través de uno de los espejos. En otras palabras, ningún fotón se perderá en la basura: el láser actuará sin umbral.
E
n colaboración con mis colegas de Sandia, observé tales estados fotónicos cuantizados, hace más de diez años. Acercando los espejos extremos de un microláser, logramos estrujar el espectro de los fotones emitidos hasta contener unos pocos modos ópticos. Demostramos que estos modos ocurrían a longitudes de onda cuyos múltiplos enteros eran iguales a la distancia de ida y vuelta entre los espejos. (Una cuerda de guitarra puede vibrar con cuatro o cinco longitudes de onda entre sus extremos fijos, pero no con cuatro y un sexto de longitud de onda.) Además, podíamos intensificar estos efectos acercando los espejos, aproximándonos al límite de media longitud de onda (cientos de nanómetros). Pero no se trataba todavía de dispositivos sin umbral. Incluso los microláseres más avanzados, legítimamente calificados de nanoláseres, permiten alrededor de 100 estados fotónicos, un gran avance con respecto a las decenas de miles de opciones permitidas para fotones en láseres diodo, aunque insuficiente para entrar en el nirvana sin umbral.
Redes fotónicas que bloquean la luz
P
ostes diminutos de arseniuro de galio bloquearán la luz infrarroja cuando las columnas se dispongan en red hexagonal y a intervalos correctos (a). La periodicidad de la estructura, combinada con la diferencia de velocidad de la luz a través de los postes semiconductores y del aire que los rodea, engendra múltiples refracciones y reflexiones que bloquean la luz en un rango de longitudes de onda, como se muestra en una micrografía de dispersión de luz (b) de una red similar (recuadro en b). El modelo descrito se da también en una dimensión. Se puede apreciar si nos servimos de un puente semiconductor perforado con agujeros a lo largo de toda
a
b
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
su longitud (c). La luz que viaja cruzando el puente queda bloqueada por la disposición unidimensional de agujeros, que vienen a ser la contrapartida de los postes de la red hexagonal. Introduciendo de intento un “defecto” (el espaciado ligeramente mayor entre los dos huecos del centro del puente) podemos modificar el patrón de reflexiones y refracciones que se producen en el interior de la estructura. El espaciado irregular delimita una “caja” minúscula, con un volumen de la vigésima parte de una micra cúbica, que podría convertirse en un láser. —P.L.G.
c
25
Láseres de biocavidad para detección de enfermedades
E
INTENSIDAD
patentar una versión portátil del lán la medida en que los lásea res de semiconductor progresen ser de biocavidad que los médicos en su miniaturización, celeridad y puedan usar para analizar sangre sin eficiencia, se irá ensanchando el necesidad de enviar las muestras a círculo de aplicaciones novedosas. un laboratorio. En el dispositivo, la Ocurrirá con la detección de enfersangre fluye a través de diminutos surcos, cada uno con una anchura medades. En el Laboratorio Nacional de sólo la décima parte de la de de Sandia, hemos desarrollado un un cabello humano, que han sido “láser de biocavidad” (a), al que puede acudirse, en principio, para horadados en uno de los espejos. distinguir de las normales las células Analizando el rayo láser resultante, cancerosas. el dispositivo detecta en seguida la El dispositivo en cuestión consiste presencia de eritrocitos con aspecto en un microláser, una diminuta pieza de media luna, un indicador de b de arseniuro de galio emparedada la anemia falciforme. Los médicos ERITROCITOS NORMALES entre dos espejos. La luz infrarroja también usan el láser para estudiar ERITROCITOS que emite el compuesto semiconduccambios a escala nanométrica en FALCIFORMES tor rebotará repetidamente entre los la estructura celular de la sangre espejos, amplificándose hasta que que pudieran estar causados por termine por salir de la estructura el virus del sida. formando un concentrado rayo láser. En otros experimentos, los lásePara construir un láser de biocavires de biocavidad discriminan entre LONGITUD DE ONDA células normales y cancerosas del dad, colocamos una fina capa de cuello uterino, como en las manchas tejido entre el arseniuro de galio de Pap. Avances ulteriores podrían y uno de los espejos. El mismo material orgánico forma parte del dispositivo y actúa de incluso llevar a un dispositivo para analizar el ADN. La nueva técnica goza de varias ventajas sobre los lente interna para focalizar la luz. Por tanto, el tamaño, forma y composición de las células alteran el rayo láser métodos tradicionales de análisis de tejidos, que requieren introduciendo armónicos que dan lugar a una signatura tinción química para hacer visibles las estructuras celulares espectral característica. Los médicos pueden servirse de que han de observarse al microscopio. Tales técnicas se esa información para distinguir el tejido enfermo del sano, cimientan en la capacidad cualitativa de la visión humana pues originan diferentes espectros de luz (b). (Un flautín y y son, por tanto, propensas a errores. Por contra, los láseuna flauta que tocan la misma nota difieren por el distinto res de biocavidad producen espectros sencillos y directos espectro de armónicos producidos por dos instrumentos que un dispositivo manual puede analizar de inmediato en que, aunque similares, son únicos.) clínicas, consultorios y laboratorios de investigación, así Anthony McDonald, Guild Copeland y yo mismo hemos como en el campo. trabajado con mi hermano Mark Gourley, inmunólogo, para —P.L.G.
Para alcanzar este ideal se ha empezado a investigar otras geometrías a escala nanométrica. Tenemos, por ejemplo, el láser de microdisco, desarrollado por el grupo de Richart E. Slusher, de los Laboratorios Bell. Con técnicas avanzadas de grabado parecidas a las que se usan para fabricar las micropastillas de las computadoras, Slusher ha esculpido un disco ultrafino de un par de micras de diámetro y sólo 100 nanómetros de espesor. El disco semiconductor está rodeado por aire y descansa sobre un diminuto pedestal, que hace que la estructura se parezca a una mesa microscópica. Puesto que semiconductor y aire tienen índices de refracción muy diferentes, la luz generada en el interior del disco se refleja dentro de la estructura, moviéndose de manera rasante a lo largo de su circunferencia. El efecto es similar a las ondas de sonido de la “galería de los susu-
26
rros” que Lord Rayleigh describió hace más de cien años. Expuso que las conversaciones mantenidas en un extremo de la bóveda de la catedral londinense de San Pablo podían oírse en el otro porque las vibraciones sonoras se reflejaban en las paredes y se reforzaban mutuamente. El tamaño diminuto de un microdisco obliga a que los fotones ocupen un número limitado de estados, incluido el modo óptico fundamental, mientras que el efecto de la galería de los susurros confina a los fotones hasta que la onda de luz generada ha concentrado energía suficiente para escapar de la estructura. El resultado es una operación sumamente eficiente con un bajo umbral. De hecho, estos láseres de microdisco han trabajado con sólo unos 100 microampère. Una variación del microdisco nos la ofrece el láser de microanillo, que viene a ser un cable fotónico enrollado en forma de rosquilla ul-
trafina. El grupo de Seng-Tiong Ho ha recurrido a la microlitografía para grabar una de tales estructuras de semiconductor con un diámetro de 4,5 micras y una sección rectangular de 400 por 200 nanómetros. Para mejorar la calidad de la luz emitida, rodearon el microanillo con una estructura vítrea en U, que guía los fotones en dos haces paralelos a lo largo de las patas de la horquilla. Estos novedosos dispositivos han mostrado que el tamaño y la forma de un nanoláser pueden afectar a su operación controlando el comportamiento cuántico de los fotones emitidos. Los investigadores han dado un nuevo impulso a la técnica, acortando el tamaño de los cables fotónicos hasta la quinta parte de una micra cúbica. Para un volumen tan asombroso, la estructura tiene menos de 10 estados fotónicos, lo que se acerca bastante a las condiciones necesarias para la operación sin umbral.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Aunque estos nuevos nanoláseres han reducido los tipos de fotones a niveles mecanocuánticos, no han disminuido el número de fotones a tales límites. Con una población pequeña, podemos modificar a voluntad el comportamiento de la luz. En un notabilísimo trabajo reciente, investigadores del Instituto de Tecnología de Massachusetts (MIT) han mostrado que se puede alimentar un láser con átomos de bario excitados introducidos uno a uno, de suerte que cada átomo emita un fotón utilizable. Este dispositivo trabaja incluso con 11 fotones rebotando entre los espejos. Los físicos investigan ahora esta óptica cuántica novedosa para nanoláseres de semiconductores. En el diseño de nanoláseres se sigue también otra vía diferente: construir una estructura con materiales que se alternan a mínimos intervalos regulares. Con una geometría acertada la modulación periódica aprisionará la luz al reflejarse ésta repetidamente dentro de la estructura. Así lo adelantaron quienes diseñaban los espejos estratificados de los microláseres, que concentran luz en una dimensión. Eli Yablonovitch, de la Universidad de California en Los Angeles, e investigadores del Laboratorio Ames extendieron ese principio a dos y tres dimensiones proponiendo nuevas estructuras, las redes fotónicas. La idea general se basa en un fenómeno observado a principios de siglo por William Henry Bragg y su hijo William Lawrence. Los Bragg, que compartieron el Nobel en 1915, estudiaron la retrodispersión de los rayos X que incidían sobre un cristal producida de una manera que dependía de la estructura periódica de la red cristalina. Propusieron lo que hoy se conoce por ley de Bragg: la intensidad de la radiación reflejada dependía de tres factores, a saber, la longitud de onda de los rayos X, el espaciado entre átomos del cristal y el ángulo con que los rayos X incidían contra la red cristalina. Al aplicar estos conocimientos al caso de las frecuencias ópticas, Thomas F. Krauss y Richard M. De la Rue han demostrado que una red formada por dos materiales diferentes que se alternan retrodispersará la luz de una manera similar. Además, usando materiales con índices de difracción distintos y seleccionando el espaciado periódico apropiado entre dichos materiales, han puesto de manifiesto que pueden conformar y extender el rango de longitudes
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
de onda que el dispositivo refleje, creando de hecho un “intervalo de banda fotónico” similar a la zona de energías prohibidas para electrones en los semiconductores.
E
n Sandia, Joel Wendt, Allen Vawter y el autor han fabricado una estructura de esas características construyendo un enrejado hexagonal de postes de arseniuro de galio, un diseño desarrollado por John D. Joannopoulos y otros en el MIT. Teniendo en cuenta los diferentes índices de refracción del arseniuro de galio y el aire que lo rodea, determinamos el espaciado entre los postes necesario para atrapar luz infrarroja. Aunque hemos demostrado la viabilidad de confinar la luz en esta ordenación bidimensional, no hemos conseguido que la estructura funcione como un láser. Quizá se logre por bombeo de uno de los postes, haciéndole emitir luz, que otros postes de la formación reflejarían repetidamente (y guardarían bien). La red vendría a operar como los espejos paralelos de un láser tradicional. Con un diseño inverso, en el que los “postes” son de aire y el material que los rodea es el semiconductor, los investigadores del MIT han fabricado un diminuto puente de silicio (de 470 nanómetros de anchura y 200 nanómetros de grosor) en el que se ha vaciado a lo largo de su longitud una hilera de huecos microscópicos. La luz se ve confinada a moverse a través de la estructura debido a la diferencia de índice de refracción entre el semiconductor y el aire que lo rodea. Joannopoulos, Pierre R. Villeneuve y Shanhui Fan, entre otros del MIT, realizaron simulaciones por ordenador para determinar el espaciado periódico preciso entre las huecos al objeto de definir una disposición unidimensional que posibilitara el confinamiento de la luz infrarroja. Además, introdujeron un “defecto” en la red, provocando que la distancia entre huecos consecutivos cerca del centro de la cinta fuese ligeramente mayor. Esa irregularidad crea un modo óptico fundamental dentro del minúsculo volumen limitado por el espaciado no uniforme. Quizás un día esta “caja” pudiera llegar a ser una cavidad láser, con los huecos contiguos en el papel de espejos. Asombrosamente, la caja mide la vigésima parte de micra cúbica. El grupo del MIT ha continuado refinando la estructura, construyéndola sobre una base de vidrio, y ha cotejado las
simulaciones por ordenador con los resultados experimentales. Otros trabajos han investigado redes fotónicas que varían periódicamente en tres dimensiones. Pero se trata de estructuras difíciles de construir, toda vez que las técnicas de microfabricación (así la litografía por rayo de electrones) operan mejor con los patrones bidimensionales de la fabricación de micropastillas. Pero está claro que en teoría las redes fotónicas tridimensionales podrían confinar la luz en todas las direcciones, una característica ideal para un láser sin umbral.
L
a operación sin umbral, además de su mayor rendimiento, podría desembocar en dispositivos ultrarrápidos, que se conectaran y desconectaran instantáneamente, habida cuenta de la mínima energía que demandan para que se produzca el efecto láser. Algunos láseres ya pueden conectarse y desconectarse más de veinte mil millones de veces en un segundo. Esas deslumbrantes velocidades son naturales en las comunicaciones por fibra óptica. Más aplicaciones aparecerán a medida que estos dispositivos sigan ganando en celeridad y rendimiento, al par que menguan de talla. Los láseres sin umbral, que se divisan en el horizonte merced a los avances en la fabricación de nanoestructuras, ofrecen grandes posibilidades como componentes en la transmisión, almacenamiento y manipulación de información, esto es, como bloques modulares del computador óptico. Por ironía de las cosas, los avances en la miniaturización de los transistores de silicio han instado mejoras sustanciales en los láseres de semiconductor, que un día podrían alimentar los ordenadores y reemplazar circuitos electrónicos por ópticos.
BIBLIOGRAFIA COMPLEMENTARIA M ICROSTRUCTURED S EMICONDUCTOR LASERS FOR HIGH-SPEED INFORMATION PROCESSING. Paul L. Gourley en Nature, vol. 371, páginas 571-577; 13 de octubre, 1994. PHOTONIC CRYSTALS: MOLDING THE FLOW OF LIGHT. John D. Joannopoulos, Robert D. Meade y Joshua N. Winn. Princeton University Press, 1995. MICROCAVITIES AND PHOTONIC BANDGAPS: PHYSICS AND APPLICATIONS. Dirigido por John Rarity y Claude Weisbuch. Kluwer Academic Publishers, 1996.
27
P ERFILES Alina Quevedo
MANUEL LORA-TAMAYO: Ciencia en tiempos de penuria
H
ablar con el químico orgánico Manuel Lora-Tamayo, hubiera sido un suceso sin precedentes, de resultar cierta la noticia publicada en 1996 por un periódico madrileño. Afortunadamente, el diario erraba. Y cuando llamo a su casa no tarda en responder su esposa, Amelia D’Ocón, doctora en química, que fuera alumna suya. Explico que quiero entrevistar al profesor Manuel LoraTamayo. —Un momento por favor, que se pone ahora mismo, dice. Es más de lo que esperaba de una primera llamada a un personaje que tanto representó para la ciencia española en un período de penuria y dignidad investigadora. Hoy, sin embargo, pasa sus días en absoluto
28
retiro, desconocido por la juventud de su país, pese a ser Lora presidente de honor de la Real Academia de Ciencias Exactas, Físicas y Naturales. Nada le saca de su discreción; a lo más, algún recuerdo escrito en memoria del químico alumno que acaba de fallecer. Se cumple en éste treinta años desde que dejó el Ministerio de Educación y Ciencia, que había aceptado en 1962. Mientras espero al teléfono, oigo que indaga con Amelia el nombre de la revista. Con un, “sí, sí, ya, ya”, se da por enterado. Por fin escucho la voz de una persona mayor. A mi envarada presentación responde con un restallante, “así que usted me quiere interrogar”, entre guasón y divertido,
que entierra la fúnebre hipótesis del ABC. — “Y, ¿de dónde es usted señorita, que ha dicho que se llama ....?”. Me examina un inquisidor jovial. Con él, nada de cuentos chinos. Habla con la precisión que se descubre en sus publicaciones de los años cuarenta sobre el uso de sales de nitrilo para la síntesis de heterociclos, que en los noventa se estudian como síntesis de Lora-Tamayo. A sus 93 años reconoce encontrarse “delicado”, pero alegra comprobar que mantiene vivo el ánimo, lúcido el pensamiento y, sobre todo, cultiva un agudo sentido del humor. Quedamos en que me recibirá en su casa. Por la mañana le viene mal. Pese a los achaques de la edad, cumple las obligaciones de su cargo en la Academia y otros compromisos profesionales. Parte de la mañana la dedica a oír misa. La fe cristiana, es católico sin adscripción a un carisma particular, es vital en un científico cuya andadura comenzó con un fracaso, cuando opositaba a una plaza de auxiliar de química general en Madrid. Vuelve a opositar y en un año gana tres oposiciones en Sevilla: farmacéutico militar, químico de aduanas y farmacéutico del Hospital Provincial. Completa su tesis junto a un genuino maestro, “recibí el influjo de Pascual Vila, catedrático en Sevilla, y luego en Barcelona, que para mí fue el iniciador de la química orgánica en España”. La ansiada cátedra universitaria la obtiene en 1933 por Cádiz. Al año siguiente pasa a Sevilla en donde trabaja nueve años. En 1934 estuvo a punto de morir, junto a su primera mujer, bajo el desplome de un suelo durante un congreso científico en La Coruña. El accidente dejó a ambos mal heridos y fue origen de gran sufrimiento. A él le amputarían una pierna. La discapacidad física le confinó a la retaguardia durante la atroz guerra civil española. Su trabajo, vinculado a la economía de guerra, buscaba controlar las importaciones de esencias naturales, como las de anís e hinojo. “El hinojo tenía anetol, y pusimos en marcha un mé-
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
todo conocido para valorarlo. Así fue como tropezamos con que allí ocurría una reacción distinta de la esperada.” Alguien con vocación funcionarial hubiera dejado escapar la oportunidad que se le presentaba, pero él estaba bien dispuesto al asombro. “En química orgánica hay que contar siempre con los imprevistos. Entre ellos, las transposiciones que influenciadas por temperaturas elevadas o catalizadores, pueden dar resultados distintos de los concebidos. Sin olvidar que los factores estéricos son suficientes para dirigir las reacciones en sentido distinto de que hicieran previsible otras exigencias teóricas”, advierte Lora, para quien la síntesis orgánica, los no siempre firmes pasos que conducen a una cierta estructura, “es un camino lleno de belleza y sorpresas”. Con la esencia de hinojo como material de estudio, analiza la síntesis diénica en conjugaciones etileno aromáticas. Nota que la valoración dienométrica del felandreno de la esencia del hinojo no es correcta, porque la conjugación del anetol, presente en ella, adicionaba anhídrido maleico. “Se formaban productos de adición o aductos. Los interpreté como aductos del tipo de la reacción Diels-Alder, una de las más importantes en síntesis orgánicas, que conduce a la formación de anillos hexagonales, de carbono o de carbono con nitrógeno u oxígeno.” En 1942, el mismo año en que se creó el Consejo Superior de Investigaciones Científicas, pasó a ocupar la cátedra de química en la Universidad Central de Madrid. Un logro amargado por la muerte de su esposa, cuando el menor de sus cuatro hijos no ha cumplido dos años. Un segundo matrimonio con Amelia D’Ocón consolida la familia, que junto al trabajo científico, es para él fuente de satisfacción. Viajero curioso, al terminar la segunda guerra mundial inicia contactos con estudiosos y grupos activos en química orgánica de Suiza, Suecia, Alemania, y Gran Bretaña. “A los expertos que no pudo visitar personalmente les escribía. Rompía así, por lo menos en el campo de la química orgánica, el aislamiento de España”, señala su hija Concha Lora, especialista en química, adscrita al Instituto Nacional de Toxicología en Madrid. Su gestión catalizará poco a poco la incorporación española a la comunidad científica internacional. Los resultados se notaron ya en 1947, cuando España ocupó el puesto 12 según el número de trabajos publicados en química or-
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
gánica, en la compilación de Science. Había escalado diez lugares respecto a la década anterior. Siempre interesado por los procesos de síntesis, desarrolla su actividad investigadora unida a la docencia. Quienes, como el químico Rafael Pérez Alvarez-Osorio, siguieron su magisterio, sus nietos y bisnietos orgánicos, describen “un gran maestro, humano y profundamente interesado por sus discípulos”.
Los resultados se notaron ya en 1947, cuando España ocupó el puesto 12 según el número de trabajos publicados en química orgánica, en la compilación de Science. Había escalado diez lugares respecto a la década anterior
Pero Manuel Lora-Tamayo, es también, gústele o no, un político. Tal vez, gracias a que el catedrático quiso relegar al estadista que llevaba dentro, fue un raro y, posiblemente irrepetible, ministro de Educación y Ciencia español. Mantuvo en el rectorado a uno de los universitarios más críticos del régimen, Antonio González, quien en esta misma sección reconocía la honradez intelectual y moral de su maestro en química y discrepante en lo político. Investigadores que desde posiciones ideológicas opuestas siguieron su gestión ministerial, señalan al organizador que promovió el despegue de la ciencia española a través del Fondo Nacional para el Desarrollo de la Investigación. “Un jefe excepcional de los escasos que alientan y estimulan de verdad el progreso de sus subordinados”, según Natividad Palacios de la Vega, su secretaria durante más de cuarenta años. A propuesta de la Facultad de Farmacia, la Universidad de la Sorbona le otorgó un doctorado Honoris causa en 1969, a quien desde la exploración de la química de productos naturales previó su desarrollo futuro. “La genética clásica fundada por Mendel, como estudio de los factores hereditarios que se localizan como genes en los cromosomas del núcleo celular, se empieza a abordar con sentido químico, tratando de investigar qué es el gen y cómo funciona, en
primera aproximación al establecimiento de los mecanismos químicos que ligan a aquél con el carácter unido a la herencia”, señaló en la sesión de clausura del IX pleno del Consejo Superior de Investigaciones Científicas, en 1951. Anticipa aplicaciones de técnicas genéticas a vegetales de importancia económica. “Voy a referirme, como un caso de sencilla aplicación de los métodos orgánicos, al aislamiento de la demisina, de las hojas de Solanum demissum realizada por Khun y Low en 1947. Se trata una especie de patata de poca altura. Lo interesante es que dicha especie no resulta atacada por el escarabajo de la patata. El motivo hay que buscarlo en que la solanina de la patata ordinaria S. tuberosum y la de la patata enana se desdoblan por hidrólisis en compuestos diferentes. En la patata ordinaria se produce solanidina (C 27H 43ON), mientras que en S. demissum se produce demisina. Este compuesto las hace inatacables por las larvas del escarabajo. Resultarían superfluos el empleo de pesticidas y anticriptogámicos, si lográramos asegurar el incremento de la producción de cultivos de especies resistentes a enfermedades. En el caso considerado, la base química de la mutación conveniente está en la existencia de genes específicos en los cromosomas de S. demissum capaces de producir el cambio de ramnosa a xilosa y la hidrogenación del enlace etilénico de la solanina. El problema de descubrir la naturaleza del gen ha de ocupar un primer plano. La relación de los genes con las enzimas y el posible carácter que se les atribuye, dan mucho que pensar en relación con los resultados que se van consiguiendo”. Al frecuentar su obra sorprende un estilo transparente. Salta a la vista que Lora redactó con fruición La investigación química española, una historia del desarrollo de esta disciplina. Se le escucha muy cercano en una autobiografía presentada en Jerez de la Frontera, su ciudad natal, “Lo que yo he conocido. Recuerdos de un viejo catedrático que fue ministro”. El libro muestra tanto la índole de un andaluz, “que no entiende de toros y caballos y poco de vinos”, empeñado, contra todo pronóstico favorable, en abrir caminos moleculares en campos de olivos. Tienta lucubrar a dónde hubiera llegado Manuel Lora-Tamayo de haberle tocado un tiempo más propicio a las ciencias de la vida que a los ejercicios marciales.
29
C IENCIA El Alcázar omeya de Amman Restaurado
E
n el mismo corazón de la ciudad de Amman, sobre los restos de lo que fuera la bíblica capital de los amonitas, se levantó en el primer tercio del s. viii d. C., en época omeya, un gran complejo palatino que constituye posiblemente el más antiguo ejemplo de las ciudades y recintos áulicos del mundo islámico, entre los que cabe incluir a Medina Azahra y a la Alhambra. Este gran conjunto palatino se está investigando y restaurando con la ayuda financiera del Ministerio de Educación y Cultura y de la Agencia Española de Cooperación Internacional en colaboración con el Ministerio de Turismo y Antigüedades de Jordania y bajo la dirección de un equipo de técnicos españoles. En la zona más exterior de este conjunto se levanta un gran vestíbulo o sala de ingreso con un baño anejo, junto al que se excavó una enorme alberca para asegurar el abastecimiento de agua. Una plaza exterior con disposición de zoco constituye el nexo de unión entre el conjunto áulico
Y SOCIEDAD
y el resto de las construcciones que se asentaban en la ciudadela, entre las que se encuentra una mezquita. El vestíbulo presenta una planta de cruz por la preexistencia de un edificio bizantino sobre el que los omeyas levantaron una construcción con rica decoración esculpida de tradición persa sasánida, constituyendo un buen ejemplo de las diversas influencias que configuran el primer arte islámico. El espacio central de este edificio estuvo cubierto con una gran cúpula, hoy desaparecida, pero cuya recreación actual, con técnicas modernas respetuosas con el edificio, ha permitido la recuperación del espacio original y la utilización del monumento para usos culturales. La magnificencia de esta parte del palacio, sin duda la más monumental, estaba destinada a impresionar a los visitantes que esperarían aquí a ser recibidos o atendidos por quien habitaba en él, siendo también posible que se utilizara como sala de audiencias públicas. Junto a este gran vestíbulo existe un baño de estructura muy semejante a la de otros contemporáneos, casi siempre ligados a la arquitectura palatina omeya. Sin duda, estos edificios debieron constituir expresiones de distinción y de poder a la vez que
Reconstrucción infográfica de la sala de audiencias (según A. Almagro y J. A. Fernández)
30
servían a necesidades higiénicas y rituales. El baño del Alcázar de Amman tenía una sala principal que serviría como lugar de reposo y quizá también para audiencias, dada su disposición con un estrado presidiendo el espacio y bancos perimetrales. Una puerta da paso a la sala fría que dispone de una bañera. Las salas templada y caliente, que estuvieron construidas sobre una infraestructura hueca de ladrillo (hipocausto) para permitir el calentamiento del suelo y las paredes, han desaparecido. Junto a ellas estaría el lugar donde se encendía el fuego y se calentaba el agua, en disposición muy semejante a como aún puede verse en Qusayr ‘Amra, otra construcción omeya en Jordania, también restaurada por técnicos españoles. La ubicación del baño en los palacios suele ser periférica, y en el caso de Amman estuvo sin duda condicionada por la proximidad a la gran alberca circular con capacidad para 1368 m3 que aseguraba el abastecimiento de agua y cuya restauración se ha realizado también recientemente. El alcázar incluía 13 edificios residenciales. La zona central del palacio está ocupada por nueve de estos edificios que llenan el área de una gran plaza o recinto de época romana, quizá perteneciente a un templo, cuyos muros perimetrales fueron aprovechados como cierre del conjunto palatino. A los edificios se accede a través de una auténtica estructura viaria con plazas y calles. Sólo cuatro de estos edificios han sido totalmente excavados, comprobándose que todos ellos obedecen al mismo esquema. Las pruebas halladas durante la excavación de uno de estos edificios por el equipo de arqueólogos españoles han permitido conocer en detalle su estructura. Constaba de un patio central, porticado, en torno al cual se distribuyen las diferentes habitaciones. En el lado sur se dispusieron dos estancias principales (iwanes), que se abrían al patio mediante un triple vano. También contaba con una escalera para el acceso a la terraza, una letrina y varias cisternas que aseguraban el abastecimiento de agua. El edificio, como la mayor parte del palacio, lo destruyó poco después de su construcción un violento terremoto que tuvo lugar el año 748 d. C.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
En el extremo norte del área palatina se encontraban las salas de audiencias y del trono, en forma de iwan y sala cruciforme respectivamente. Cuatro edificios residenciales, de características análogas a los de la zona anterior, acompañan a estas salas de aparato. Esta parte del alcázar era sin duda la residencia del príncipe o emir que en él habitaba. La actuación española en este monumento no sólo ha incluido su excavación y restauración, sino que abarca la puesta en valor para disfrute del mismo mediante la ordenación de su visita, con explicaciones por medio de paneles y folletos divulgativos y la realización de una reconstrucción infográfica mediante ordenador que permite al visitante conocer todo el esplendor de este singular monumento. Trabajos de restauración en el gran vestíbulo
ANTONIO ALMAGRO Escuela de Estudios Arabes, CSIC, Granada
Colesterol infantil Dieta mediterránea
E
Planta del alcázar omeya de Amman
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
l progreso socio-económico experimentado en España durante las últimas décadas ha comportado una mejor nutrición infantil y la casi desaparición de las enfermedades carenciales. Pero ha supuesto también un aumento de los factores de riesgo cardiovasculares. Consideremos la cardiopatía isquémica. En España, la tasa de mortalidad por cardiopatía isquémica es inferior a la de la mayoría de los países industrializados. Sólo Japón, Francia y Portugal están por debajo. Sin embargo, esa enfermedad sigue siendo una de las causas más frecuentes de muerte entre la población española, con tendencia al alza. El riesgo de padecer cardiopatía isquémica está íntimamente relacionado con la presencia de placas ateroscleróticas en las arterias. Puesto que el proceso de formación de las placas es muy lento, probablemente la situación española actual, todavía privilegiada, sea la consecuencia de las costumbres y forma de vida de hace varias décadas. Pero ignoramos si seguiremos favorecidos en este aspecto o si los cambios recientes del modo de vida, que nos acercan a las pautas de los demás países industrializados, nos igualará en la
31
250 95
200 75 50 150
25 5
100
50
0
COLESTEROL (MILIGRAMOS/DECILITRO)
COLESTEROL (MILIGRAMOS/DECILITRO)
250
95 200
75 50 25
150
5 100
50
0 0-5
6-11
12-19
0-5
6-11
12-19
EDAD (AÑOS)
EDAD (AÑOS)
Percentiles de colesterol en niñas (izquierda) y en niños (derecha) de una región mediterránea
incidencia de enfermedades cardiovasculares. Uno de los principales factores de riesgo de la arteriosclerosis es el nivel plasmático de colesterol, según ha quedado puesto de manifiesto en los estudios clínico-patológicos que revelan una estrecha relación entre la gravedad de la lesión arteriosclerótica y los niveles previos de este parámetro. Ahora bien, la concentración de colesterol en la sangre del niño es el factor con mayor valor predictivo de su concentración en la edad adulta. Se ha observado, en efecto, que un alto porcentaje de quienes presentaban colesterol alto durante la niñez seguían mostrando cifras altas en la edad adulta-joven. Advertido, pues, que el nivel sérico de colesterol en el niño constituye un marcador temprano de riesgo de arteriosclerosis y, por tanto, de cardiopatía isquémica, resultan de obvio interés los estudios encaminados a conocer los niveles lipídicos de la población pediátrica española. Importancia que se ha realzado con un doble descubrimiento: por un lado, se ha demostrado que las incipientes lesiones arterioscleróticas que se observan en la edad pediátrica (estría lipídica, cúmulo gelatinoso y microtrombo) pueden revertir si se actúa precozmente sobre los factores de riesgo que inducen a su formación; por otro, se ha visto que en la mayoría de los casos la elevación de la colesterolemia no se debe a un trastorno endógeno del metabolismo lipídico, sino a la exposición a facto-
32
res ambientales adversos. Se ha confirmado en investigaciones realizadas en sangre de cordón umbilical: que niños de diferentes razas y culturas poseen similares niveles de lípidos y lipoproteínas. En realidad, es la interacción entre influencias genéticas y ambientales la que determina los niveles séricos de colesterol. Un factor ambiental fundamental es la dieta. A pesar de encontrarnos en una zona de dieta mediterránea, la mayoría de los trabajos muestran que más de un tercio de los niños españoles presentan cifras de colesterol superiores al valor considerado como idóneo. Entre otros factores ello obedece a un paulatino desplazamiento de la cocina tradicional por productos precocinados y elaborados industrialmente, con mayor contenido, en general, de grasas saturadas y colesterol. Sin embargo debe tenerse en cuenta que, si bien la prevención de la arteriosclerosis comienza por realizar variaciones en la dieta, en los niños la intervención dietética es más delicada, pues deben respetarse las necesidades de crecimiento y desarrollo. Al respecto, algunos autores han indicado que la reducción de la grasa dietética hasta un 30 % de las calorías totales diarias no tiene efectos adversos sobre el crecimiento y desarrollo, siempre que se aporten las cantidades adecuadas de calorías, proteínas, vitaminas y minerales. Para la población infantil, se recomienda una dieta en que las grasas, las proteínas y los hidratos
de carbono aporten respectivamente el 32-35 %, el 10-18 % y el 50-55 % de la energía total ingerida. El aporte de colesterol no debe superar los 275-300 mg/día. La alimentación del niño debe ser variada. La dieta tradicional mediterránea basada en cereales, pan, pastas, arroz, patatas, legumbres, frutas, verduras, carnes magras y pescados es un sistema de alimentación idóneo. El aceite de oliva, componente fundamental de esta dieta, parece mantener los niveles lipídicos dentro de un rango bastante deseable para la prevención de las enfermedades cardiovasculares. MARÍA VICENTA ALMENAR BONET Y M ARÍA S ALINAS L A C ASTA Servicio de Análisis Clínicos del Hospital Marina Baixa. Villajoyosa. Alicante
Microscopio de fuerzas atómicas Aplicaciones en biología
L
a estructura y la función de los sistemas biológicos están íntimamente relacionadas. Por ello, el conocimiento detallado de la estructura tridimensional de las proteínas es esencial para comprender en toda su complejidad esta relación. La importancia que tuvo el desentrañamiento de la estructura del ADN
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
para el entendimiento de su función es un claro ejemplo. La información que se poseía sobre su composición química cobró un nuevo significado, una vez que pudieron situarse dichos componentes en el espacio tridimensional. El avance registrado en biología molecular y el progreso coetáneo de técnicas de caracterización estructural permiten abordar de modo fructífero el estudio de un mayor número de sistemas biológicos. Las técnicas físicas más empleadas hasta ahora en la caracterización estructural de proteínas son la cristalografía de rayos X y la resonancia magnética nuclear. A ellas hemos de sumar la microscopía electrónica, que, gracias a mejoras en la preparación de muestras, desarrollo en los procesos de tratamiento de imágenes y en los sistemas de detección, está ampliando su contribución al conocimiento de estructuras biológicas con alta resolución. La cristalografía de rayos X y la resonancia magnética nuclear aportan información sobre la posición de los electrones o núcleos que forman parte de la átomos que constituyen el esqueleto interno de las proteínas. En este panorama de técnicas de caracterización estructural establecidas y consolidadas, irrumpe, en los años ochenta, una nueva variedad de microscopios de prometedora aplicación en el campo de la biología. En 1981 G. Binning y H. Rohrer desarrollan el microscopio de efecto túnel. Tras su diseño inicial ha surgido toda una familia de instrumentos que recibe el nombre genérico de microscopios de campo cercano. Esta clase de microscopios comparten un mismo mecanismo de operación: hacen pasear una punta por encima de la superficie del sistema sometido a estudio. Según sea el tipo de microscopio en concreto, registran una interacción u otra entre la punta y la muestra: corriente eléctrica, fuerzas interatómicas, fuerzas magnéticas y otras. Así, por ejemplo, el microscopio de fuerzas atómicas (AFM) —miembro de esta familia— detecta la fuerza entre los átomos de la superficie estudiada y la punta; es muy apropiado para el estudio de superficies no conductoras, como lo son las muestras biológicas (véase “Aplicaciones biológicas del microscopio de fuerzas”, por Carlos Bustamente y Ricardo García, en INVESTIGACIÓN Y CIENCIA, marzo de 1997). Además, es posible, e incluso conveniente para disminuir las fuerzas
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
de interacción entre punta y muestra, trabajar con ambas sumergidas en solución. Ello significa que se puede investigar el material biológico en su ambiente nativo y en estado funcional. El AFM, una técnica de caracterización de superficies, no aporta información sobre el interior de las proteínas. En nuestros laboratorios de la Universidad Autónoma de Madrid, del Centro Nacional de Biotecnología y de la Universidad de Basilea nos hemos ocupado de la caracterización estructural de los conectores del bacteriófago Φ 29 con el AFM en solución. Del trabajo realizado se desprende que la información topográfica de alta resolución aportada por estas nuevas microscopías enriquece y complementa la información disponible a través de las más actualizadas técnicas de microscopía electrónica. Los conectores son estructuras situadas entre la cabeza y la cola del virus bacteriano Φ 29 y cumplen una importante función en el reconocimiento y empaquetamiento del ADN en el interior de la cápside. Los conectores tienden a interaccionar entre sí. Bajo determinadas condiciones, se ordenan en una disposición cristalina en la que cada conector se rodea de otros 4; éstos se solapan con él parcialmente y presentan orientación opuesta a la suya con respecto al plano del cristal (uno orientado hacia
arriba y otro hacia abajo). La existencia de estos cristales bidimensionales ha facilitado enormemente su estudio por microscopía electrónica. Las imágenes topográficas de la superficie de los cristales obtenidas con el AFM han aportado datos sobre las dimensiones verticales del conector y han determinado que la forma cilíndrica apreciada en las imágenes de proyección obtenidas por microscopía electrónica corresponde en realidad a una forma cónica. Los detalles estructurales de la superficie y la posibilidad que ofrece el AFM de localizar sobre ella los sitios de unión de las moléculas que intervienen en la modulación de su función contribuirán a profundizar en el conocimiento de la relación entre la estructura y la función de este importante componente del virus. El estudio topográfico de la superficie de proteínas, de membranas o de células mientras permanecen inmersas en su medio nativo y con la resolución que se puede alcanzar con el AFM es un información inalcanzable por otras técnicas. Además, la punta permite interaccionar directamente con moléculas individuales, ya sea para estudiar sus características físicas o para manipularlas si fuera necesario. Una ilustración espectacular de este potencial la ha presentado el grupo de H. Gaub. Se apoyaron en el AFM para
a b
c
Virus bacteriano Φ29. a) Vista en perspectiva de la imagen promediada y simetrizada de la topografía del cristal del conector del bacteriófago. La celda unidad (señalada por las cuatro esquinas blancas) mide 16,5 nm × 16,5 nm. b) Vista lateral de la reconstrucción tridimensional del conector obtenida por microscopía electrónica c) Vista lateral del modelo tridimensional obtenidos de los datos en b después de combinar con la información obtenida mediante el microscopio de fuerzas atómicas
33
modificar las propiedades mecánicas de una proteína mediante el estiramiento de la misma y la medición simultánea de la fuerza aplicada. La madurez que con tanta velocidad está alcanzando esta técnica le augura en un futuro próximo una plena incorporación a la batería de herramientas con las que abordamos el estudio de los sistemas biológicos.
DISCOS
MEMBRANA PLASMATICA
MARISELA VÉLEZ Dpto. de la Materia Condensada, Universidad Autónoma de Madrid SEGMENTO EXTERNO
Trastornos degenerativos hereditarios
ESPACIO CITOPLASMATICO
ESPACIO INTRADISCAL
La retinosis pigmentaria
L
34
MITOCONDRIA
APARATO DE GOLGI
SEGMENTO INTERNO
a retinosis pigmentaria agrupa a diversos trastornos degenerativos de la retina causados por la afectación primaria de los fotorreceptores. Tiene carácter hereditario y progresivo y no existe tratamiento curativo eficaz por el momento. Este trastorno afecta a 1 de cada 5000 a 7000 personas de todos los grupos raciales. Los fotorreceptores (conos y bastones) forman una monocapa externa en la neurorretina por debajo mismo del epitelio pigmentario. Establecen sinapsis con las neuronas subyacentes (neuronas bipolares). Los bastones, más numerosos en la retina periférica, son responsables de la percepción visual en situaciones de baja iluminación y de la visión periférica. Los síntomas de la retinosis pigmentaria resultan de la disfunción y pérdida progresiva de los bastones, los principales fotorreceptores afectados. Los dos síntomas principales consisten en una mala adaptación a la oscuridad (“ceguera nocturna”) y en la constricción progresiva del campo visual que termina por reducirse a una visión en “túnel”. Con el avance de la enfermedad puede afectarse la agudeza visual y aparecer alteraciones inespecíficas en la percepción cromática o fotosensibilidad. En la exploración oftalmológica de los pacientes se observa la típica presencia de pigmento en el fondo de ojo, debido a la movilización de la capa celular del epitelio pigmentario, adyacente a la capa de fotorreceptores. Además de las alteraciones en el campo visual, existe alteración o
RETICULO ENDOPLASMATICO
NUCLEO
abolición de la respuesta eléctrica de los bastones y conos, recogida en el electrorretinograma. Los síntomas de la retinosis pigmentaria mencionados pueden empezar a cualquier edad, desde la infancia hasta la madurez. Alrededor del 15 % de los que la padecen muestran, además, otros síntomas. (Se habla entonces de retinosis pigmentaria sindrómica.) Destacan los diferentes tipos de síndromes de Usher, donde existe sordera neurosensorial. En la percepción visual intervienen numerosas proteínas. Algunas son componentes constitutivos de los fotorreceptores (proteínas estructurales). Otras ejercen un papel funcional y participan en reacciones químicas durante la cascada visual, transformando la energía luminosa en cambios iónicos en el interior de la célula. El resultado final es una alteración de la polaridad de la membrana celular, que inicia la señal nerviosa, transmitida a la corteza visual cerebral. La rodopsina, proteína estructural y funcional, constituye el 90 % de los discos de los bastones. Además, al absorber los fotones, la rodopsina transforma el cromóforo 11-cis-retinol en todo-trans-retinal y se une a la transducina, lo que pone en marcha la cascada visual en los bastones. La manifestación de la retinosis pigmentaria se debe a la mutación experimentada en alguno de los numerosos genes que codifican la síntesis de las proteínas involucradas en la fototransducción. Estas mutaciones se trasmiten según un patrón hereditario autosómico dominante (ADRP), recesivo (ARRP) o ligado al sexo (XLRP). En nuestro país, un 13 % de las familias son ADRP, un 5 % XLRP y un 47 % ARRP. Un 35 % son casos no familiares o casos únicos en los que es muy difícil establecer el patrón hereditario. Se conocen más de 25 genes diferentes, responsables de aproximadamente el 10 % de los casos familiares. Tamaña heterogeneidad genética dificulta en grado sumo la investigación sobre la enfermedad así como su clasificación clínica y genética. Algunos de estos genes sólo se expresan en los bastones (rodopsina, ROM-1, subunidades de la fosfodiesterasa del GMP cíclico) y son responsables de formas no sindrómicas de la retinosis pigmentaria.
TERMINAL SINAPTICO
Esquema de un bastoncillo con especial detalle de los discos del segmento externo
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Otros genes se expresan en conos y bastones (RDS/periferina); pueden producir diferentes formas de distrofias retinianas, además de la retinosis clásica. Por fin, otras proteínas se expresan en diferentes órganos, como la miosina VIIa (epitelio pigmentario de la retina y epitelio ciliar del oído interno) causante del síndrome de Usher tipo IB. El estudio genético de la retinosis pigmentaria se puede abordar mediante el análisis directo de los genes responsables o de los genes candidatos que determinan proteínas implicadas en la fototrasducción. Este análisis tiene por objeto la identificación de cambios en su secuencia normal. En los casos en que se ha establecido el patrón hereditario de la enfermedad es posible la prevención a través del consejo genético a las personas con “riesgo” de transmitir la enfermedad a su descendencia. Cuando se ha identificado el gen responsable se puede realizar un diagnóstico presintomático, incluso prenatal de la enfermedad y el diagnóstico a los portadores sanos. Además de evitar la aparición de nuevos casos, el objetivo final es el tratamiento curativo o paliativo de la retinosis pigmentaria. Con ese propósito se está investigando en el trasplante de fotorreceptores y células del epitelio pigmentario y en los diferentes tipos de terapia génica. CARMEN AYUSO, M.a JOSÉ TRUJILLO, RAÚL SANZ Y B LANCA G ARCÍA -S ANDOVAL Servicio de Genética y Oftalmología de la Fundación Jiménez Díaz, Madrid
Medición
un dispositivo pequeño, manejable, robusto y de bajo coste. Este dispositivo permite adquirir de un modo fiable e inmediato la información en el punto donde se genera, en la propia muestra. Un biosensor consta en general de dos partes: un receptor y un transductor. El receptor lleva a cabo un reconocimiento selectivo del analito de interés, produciendo una señal primaria cuya naturaleza puede ser térmica, másica, óptica o electroquímica. El transductor se encarga de convertir esta señal primaria en una señal secundaria de naturaleza eléctrica, que contiene la información química de la muestra. Mediante diversos elementos y circuitos electrónicos, podemos amplificar la señal eléctrica, filtrarla y almacenarla para su inmediata o posterior interpretación. En un biosensor, el componente de reconocimiento selectivo puede ser una enzima, una especie inmunitaria, un quimiorreceptor, un segmento de ADN, un orgánulo celular o incluso un organismo vivo completo. Todos estos componentes poseen una gran especificidad frente a un determinado analito. Los receptores deben ser inmovilizados adecuadamente en el transductor, de suerte que no se altere su capacidad de reconocimiento. La detección simultánea de varios analitos puede realizarse por medio de una matriz de sensores, donde cada uno de éstos sea específico de un analito dado. Mayor interés reviste, sin embargo, emplear una matriz de sensores no muy selectivos y con sensibilidades entrecruzadas entre ellos (sensor multidimensional). Con técnicas de procesamiento de señales es posible reducir los entrecruzamientos de sensibilidades y, con la utilización de reconocimiento de modelos, identificar cualitativa y cuantitativamente, de manera simultánea, un número de analitos superior
al número de sensores que forman la matriz. El sistema multidimensional mimetiza el desarrollado por los sentidos del olfato y del gusto. En efecto, estos sentidos no presentan una selectividad especial hacia unos estímulos determinados. La identificación de los diferentes gustos u olores se hace en el cerebro, probablemente a partir del reconocimiento de un espectro o un modelo de señales procedente de las diversas clases de células sensibles que presentan sensibilidades cruzadas. Si los biosensores han de contarse entre los componentes de sistemas de medición de bajo costo, es necesario que se adapten bien a los métodos de fabricación industrial. En nuestro grupo, y en el área de los biosensores basados en transductores electroquímicos, hemos seguido dos caminos complementarios hacia esa meta. Por un lado, hemos desarrollado biosensores microelectrónicos que hacen uso de las técnicas de microfabricación propias de la electrónica del silicio. Por otro lado, hemos desarrollado biocompuestos, biosensores basados en pastas de materiales compuestos (“composite”) que resultan de la mezcla cooperativa de polímeros, grafito, aditivos y receptores biológicos tales como enzimas o anticuerpos. Por fin, hemos adaptado nuestros biocompuestos (“biocomposites”) a las técnicas serigráficas que permiten la fabricación masiva de biosensores. A modo de botón de muestra, citaremos que hemos creado biosensores de urea basados en transistores de efecto de campo con membranas enzimáticas y biosensores basados en biocompuestos sensibles a la glucosa y a los pesticidas organofosforados. Estos dispositivos se han aplicado al estudio de muestras reales muy diversas, desde aguas superficiales
Biosensores electroquímicos
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
MUESTRA
A = AMPLIFICADOR
TRANSDUCTOR
radicionalmente, la medición en química analítica se ha realizado con instrumentos complejos cuyo adecuado funcionamiento exige su utilización por expertos que trabajan en laboratorios centrales. La estructura centralizada, que requiere cuantiosas inversiones iniciales y elevados gastos de mantenimiento, resta flexibilidad y agilidad al proceso global de obtención de información. El término biosensor nos remite a la integración de las diferentes etapas del proceso de análisis químico en
RECEPTOR
T
A
P
SEÑAL
P = PROCESAMIENTO
Diagrama esquemático del funcionamiento de un biosensor
35
hasta eluyentes de equipos de hemodiálisis. La aplicación de biosensores permite obtener resultados de manera rápida, sin los típicos tiempos muertos del funcionamiento de un laboratorio central. Así, en clínica, permite optimizar los procesos de hemodiálisis mejorando la calidad de vida de los pacientes o detectar el daño del miocardio durante una operación a corazón abierto. En gestión de contaminantes, la obtención de la información en tiempo real puede ayudar a determinar de manera instantánea y precisa el lugar y el tiempo en que se ha realizado un vertido ilegal. Otra ventaja de los biosensores, sobre todo de los realizados en silicio, es la posibilidad de miniaturizarlos. Estos dispositivos se integran en microsistemas analíticos, de tamaño no superior a unos milímetros cuadrados, que incorporan actuadores microelectrónicos (motores, válvulas, etcétera), microestructuras para la gestión de fluidos (canales, columnas cromatográficas, etcétera) y circuitos integrados de procesamiento (amplificadores, filtros, microprocesadores, etcétera). Estos microsistemas analíticos integrados, derivados de las nuevas técnicas de microfabricación, abren indudables, y en ocasiones insospechadas, posibilidades en el campo de la instrumentación analítica y sus aplicaciones. La aparición de dispositivos más pequeños, baratos y robustos que sus análogos tradicionales permite también acceder a nuevos espacios donde realizar la medición. La realización de análisis clínicos no tiene por qué circunscribirse al ámbito del laboratorio central, hasta donde deben transportarse las muestras para su análisis. El biosensor permite que el laboratorio esté situado en la cabecera del enfermo, suministrando la información que señala, de forma continua e inmediata, la evolución del paciente en quirófano o en unidades de cuidados intensivos. En resumen, el uso de los biosensores electroquímicos vuelve ágil y flexible al proceso analítico, reduce costos y abre nuevos territorios de medición. Su impacto se nota ya en campos como la medicina, la vigilancia ambiental y el control de procesos industriales. Es previsible que en el futuro este impacto se vaya profundizando y ampliando hasta abarcar aplicaciones en el hogar como la vigilancia clínica de pacientes cró-
36
nicos y el control de la calidad de los alimentos. JORDI BARTROLÍ Universidad Autónoma de Barcelona FRANCISCO VALDÉS PEREZGASGA Instituto Tecnológico de La Laguna, México
Oncoterapia Sustitutos del taxolTM
E
n la carrera contra el cáncer, la investigación abarca muchas líneas de trabajo. En una de ellas se hace especial hincapié en el refinamiento o sustitución de los medios ya empleados en terapia. En ese orden acaba de saltar a la palestra un posible sustituto químico del taxol TM, de conocida eficacia antitumoral. Según parece, las sustancias en cuestión, las epotilonas, mimetizan el modo de acción de éste y podrían evitar, además, algunos de sus efectos secundarios indeseables. Las epotilonas son una familia de productos de origen natural, aislados de la bacteria Sorangium cellulosum. Presentan propiedades y características que revisten particular interés en química, biología y medicina. La historia de esta familia de moléculas comenzó en 1993 con su aislamiento, por parte del equipo dirigido por Gerald Hoefle en Alemania, a partir de fermentación de dicha bacteria. Este equipo estaba interesado en los productos de fermentación para evaluar su capacidad antifúngica, algo lógico si se tiene en cuenta que estas bacterias compiten con hongos para sobrevivir. Las epotilonas mostraron unas buenas propiedades antifúngicas. Pero no se las relacionó en su actividad citotóxica con el taxol TM. Esa era la situación hasta que, en 1995, un grupo de investigadores de la empresa farmacéutica Merck publicó los resultados obtenidos de actividad antitumoral de las epotilonas en un ensayo diseñado para analizar sustancias cuyo modo de acción resultara análogo al mostrado por el taxol TM. Dicho con otras palabras, se buscaban sustancias capaces de promover la polimerización de la tubulina y la estabilización posterior de los microtúbulos; con ello quedaría bloqueada la división celular y, con el tiempo, se provocaría la apoptosis, o muerte programada de la célula.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
R
AcO
O S
HO
N
PhCONH
O
O Me
O
Ph
OH
O
OH
O
OH R = H, R = CH3,
OH
O Epotilona A Epotilona B
O
H
OBz
AcO
TAXOL™
Estructuras químicas de las moléculas de epotilona y taxol TM
Los resultados de Merck despertaron el interés de la comunidad científica. Tras dos décadas desde el descubrimiento del taxol TM, se comprobaba que las epotilonas desarrollaban actividades antitumorales no sólo cercanas al taxol, sino que incluso le superaban. Para calibrar en sus justas proporciones el descubrimiento, recuérdese que el taxolTM se emplea en diversos tipos de cáncer con resultados aceptables. Pero su aplicación terapéutica viene limitada por numerosos factores. En primer lugar, los efectos secundarios que comporta: neutropenia, neuropatía periférica y caída del cabello o alopecia. En segundo lugar, aunque no menos importante, presenta una baja solubilidad en agua, lo que se traduce en el uso de sustancias que ayudan a su administración, causantes, a su vez, de arritmias cardiacas y severas respuestas de hipersensitividad, entre otros efectos. Además, el taxol TM carece de eficacia en un número notable de líneas celulares, por ejemplo, en las denominadas células resistentes a fármacos múltiples (MDR). Podríamos agregar a ello que la estructura molecular del taxol TM no se presta a una fácil manipulación química, lo que constituye un verdadero obstáculo para el diseño de derivados con mejores propiedades. Las epotilonas podrían resolver en buena medida los problemas que presenta la terapia con taxol TM. De hecho, los resultados obtenidos en ensayos en cultivos celulares revelan que muestran una excelente actividad y selectividad frente a líneas tumorales de mama, ovario y colon. Más aún, son activas frente a líneas celulares que son resistentes al taxol TM e incluso frente a líneas MDR.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Por otro lado, al ser las epotilonas bastante más solubles en medios acuosos que el taxol TM, se facilitaría su administración a los pacientes. Agréguese que su mayor potencia permitiría administrar dosis menores con lo que se podrían reducir algunos efectos secundarios observados con el taxol TM. Gracias a la obtención de las epotilonas mediante fermentación, podrían fabricarse en masa y a menos coste. Cuando se obtienen unos productos naturales de tales características, los laboratorios farmacéuticos se esfuerzan por hallar otras sustancias análogas o derivadas con una mayor actividad o potencia, selectividad y menos toxicidad. Para avanzar en esa dirección, se parte de la síntesis total del producto en cuestión, de suerte que la estrategia sintética utilizada sea versátil y flexible para producir cuantos más derivados mejor. A este respecto, hemos asistido a una auténtica competición por alcanzar tal propósito entre varios grupos, fundamentalmente, el liderado por el Profesor K. C. Nicolaou, del Instituto Scripps en La Jolla, y el dirigido por el Profesor S. Danishefsky, del Instituto Sloan-Kettering de Nueva York. El grupo de Nicolaou publicó la primera construcción de un modelo de la epotilona A en diciembre de 1996. Más tarde, el grupo de Danishefsky daba a conocer la síntesis total de la molécula. Luego, Nicolaou y sus colaboradores informaron de la síntesis de la misma por dos diferentes vías. La carrera prosiguió. Por fin, en mayo de 1997, el grupo del Instituto Scripps publicaba en Nature la síntesis en fase sólida de la epotilona A. El trabajo del grupo de Nicolaou supuso un punto de inflexión en
esta particular carrera. Para obtener productos análogos que ejerzan un efecto mejor, debe estudiarse la forma en que las distintas partes de la estructura de una molécula influyen en la actividad biológica. A ese estudio se le llama SAR (del inglés “Structure-Activity Relationship”). Para llevarlo a la práctica, hay que contar con los productos análogos, que se someterán a evaluación biológica, y comparar sus actividades. Con tal propósito se recurre a los procesos de química combinatoria conjuntamente con la síntesis en fase sólida. Gracias a ello se dispondrá de un gran número de productos para su análisis, de forma más rápida y eficaz que por los métodos tradicionales. Ahora se trabaja ya en lo que podríamos llamar el establecimiento del mapa de estructura-actividad de las epotilonas. Los resultados conseguidos darán paso a la síntesis de una segunda generación de nuevos productos derivados, diseñados a partir de los datos obtenidos en la primera generación. En la segunda generación, lo deseable sería la obtención de algún producto con mejores propiedades que los productos naturales. Los resultados alcanzados son todavía provisionales desde el punto de vista de su posible aplicación en terapia antitumoral. Quedan todavía muchos ensayos en animales de experimentación y para diferentes tipos de cáncer. El tiempo dirá si las esperanzas depositadas en esas moléculas están plenamente justificadas. JOAQUÍN PASTOR FERNÁNDEZ Departamento de química, Instituto Scripps de Investigación, La Jolla
37
DE
CERCA
Giulio Cuccodoro
Insectos aguadores
E
ste insecto, como el titán Atlas, parece cargar el mundo en sus espaldas. Su fardo es en realidad una diminuta gotita de agua, pues el propio insecto no mide más de unos pocos milímetros. Y como Sísifo, en cuanto haya perdido la gota, cargará con otra nueva. Para observar a este curioso mozo de cuerda no hace falta emprender viaje a los trópicos: este estafilín medra en los bosques y los jardines de Europa. Sin embargo, fue en una especie de Nueva Guinea, la Megarthrus auricola donde descubrí el comportamiento “aguador”. Fue un golpe de suerte. Deseoso de fotografiar un individuo de esta especie, lo introduje unos momentos en el refrigerador, para ralentizar su actividad. Me percaté entonces de que el insecto iba recogiendo agua condensada y formaba con ella una gota ante su cuerpo. Por la acción combinada del labro y los maxilares empujaba el agua hacia la cara externa de las mandíbulas, hasta unas “goteras” situadas a cada lado de la cabeza, entre el ojo y la inserción de la antena. Estos surcos, bordeados de cerdas,
Estas dos fotografías de Proteinus brachypterus (Fabricius), tomadas a intervalos de un minuto, indican el aumento de volumen de la gotita de agua
le permiten transferir el agua desde la base de las mandíbulas hasta lo alto de la cabeza. Formóse allí una gotita, que no tardó en cubrir el tórax, los élitros y parte del abdomen. A los pocos minutos, la gota había duplicado en volumen al insecto. El agua fue entonces proyectada hacia el centro del cuerpo, operación que puede reclamar la intervención de las patas posteriores. La operación total rara vez dura más de diez minutos. He vuelto a observar el mismo comportamiento en otras ocho especies de estafilinos —también llamados asnillos— muchas de las cuales son comunes en Europa. Los cargadores de agua, cuyo tamaño, de dos a cuatro milímetros, es modesto, viven sobre setas viejas, en la hojarasca del bosque, en los abonos orgánicos, en los excrementos y en los cadáveres de animales. El comportamiento “aguador” hace intervenir estructuras morfológicas complejas, y cumple alguna función importante. El bombeo y almacenamiento de agua podrían facilitar la hidratación o la regulación térmica del cuerpo del insecto, o servir, también, para mejorar la dispersión de las secreciones glandulares que le protegen de los depredadores, las bacterias y los hongos. Podría también tratarse de una forma de nutrición muy refinada, que permitiría al insecto filtrar una gran cantidad de agua sin tener que desplazarse. El almacenamiento de la gotita le ahorraría tener que filtrar dos veces la misma agua. El que haya sido necesario ir hasta una de la regiones más recónditas del planeta para descubrir un fenómeno observable en nuestros jardines pone de relieve la marginalización actual de la investigación en biología de los organismos.
Individuos de la especie de Nueva Guinea Megarthrus auricola Cuccodoro forman gotitas hemisféricas (tamaño del individuo: tres milímetros)
El Proteinus brachypterus, que es frecuente en Europa sobre las setas viejas (aquí, fotografiado sobre musgo), forma gotitas esféricas
La animación del movimiento humano Las animaciones por ordenador adquieren cada vez mayor verismo. Partiendo de técnicas de simulación, basadas en las leyes de la física, se han creado humanos virtuales Jessica K. Hodgins
E
l hombre goza de una notable capacidad para percibir los detalles más sutiles del movimiento. Por su forma de andar reconocemos incluso de lejos a las personas de nuestro círculo. Esta facultad nos hace muy exigentes con las animaciones donde intervengan humanos. Para que el movimiento generado por ordenador dé la impresión de verismo y resulte convincente, los actores virtuales han de desenvolverse con naturalidad. En animación, creación de ambientes virtuales y videojuegos se requiere la síntesis del movimiento humano. A los animadores les gustaría lograr una Toy Story en la que los niños aparecieran en la pantalla no menos tiempo que sus juguetes. Los entrenadores deportivos sueñan con poder recurrir a contendientes virtuales para motivar y enseñar a sus pupilos. Los diseñadores de videojuegos podrían crear productos con personajes interactivos y con mucho “gancho”. La posibilidad de simular el movimiento de los humanos posee,
JESSICA K. HODGINS enseña en el Instituto de Tecnología de Georgia. Tras doctorarse por la Universidad Carnegie-Mellon, culminó su especialización en el laboratorio de inteligencia artificial del Instituto de Tecnología de Massachusetts y en el Centro de Investigación Thomas J. Watson de IBM.
40
asimismo, importantes aplicaciones científicas, en ergonomía, en el análisis del estilo de los atletas y en rehabilitación física. Por numerosas que puedan ser las aplicaciones de la síntesis del movimiento humano, la especificación de tal movimiento a un ordenador resulta harto difícil. Cosas en apariencia elementales —el rebote de un balón— cuesta recrearlas a plena satisfacción: el espectador detecta enseguida acciones implausibles o poco naturales, aun sin saber muy bien en dónde se encuentra el fallo. La animación del movimiento de personajes humanos entraña suma dificultad, porque debe aprehender las sutilezas del movimiento para expresar la personalidad del aludido y su estado de ánimo.
L
as técnicas de la animación informatizada se encuadran en tres grandes categorías: la de “cuadros clave” (keyframing), la de captación del movimiento y la de simulación. En las tres se llega a una transacción entre el grado de control disponible sobre los detalles finos del movimiento y la cantidad de trabajo que el ordenador puede realizar por sí mismo. La técnica de cuadros clave permite al animador un control fino del movimiento, pero exige que sea éste quien garantice la naturalidad del resultado. La técnica de captación y la de simulación generan el movimiento de forma bastante automática, pero dan escasa oportunidad para ajustes finos.
La técnica de los cuadros clave, que ha tomado su nombre de la tradicional animación a mano, exige que el animador especifique una serie de posiciones críticas —posiciones clave— de los objetos. El ordenador va insertando entonces los fotogramas intermedios, interpolándolos sin discontinuidades entre esas posiciones. Así fueron animados los personajes de Toy Story, una película de 1995 en la que los protagonistas contaban, cada uno, con más de 700 elementos de control; por dar un dato, el movimiento de las diferentes partes de las cejas de los personajes estaba gobernado por controles independientes. La especificación de cuadros clave puede automatizarse hasta cierto punto mediante técnicas que ayudan a situar ciertas articulaciones del cuerpo. Si la mano de un personaje se ha de encontrar en determinada posición, el ordenador podría calcular los ángulos adecuados del codo y el hombro. Cierto es que tales técnicas simplifican el proceso, pero también lo es que la técnica de cuadros clave exige que el animador posea una comprensión minuciosa de la forma en que han de evolucionar con el
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
tiempo los objetos en movimiento, amén del talento para plasmar esa información mediante configuraciones individuales en cuadros clave. La duradera popularidad de esta técnica se debe al grado de control que proporciona sobre los detalles más sutiles del movimiento. La captación del movimiento constituye una segunda técnica. En ella, se van registrando mediante una serie de sensores magnéticos u ópticos las acciones del “personaje”, animal o humano, en tres dimensiones. El ordenador utiliza después estos datos para dar animación al personaje. Gracias a esta técnica, atletas famosos pueden aportar las acciones de los personajes de los videojuegos deportivos. La captación del movimiento está adquiriendo una popularidad creciente merced a la facilidad con que se registran las acciones humanas rutinarias; no obstante, cierto número de dificultades impiden que constituya la solución ideal para todas las aplicaciones. En primer lugar, una medición precisa de los movimientos del cuerpo humano resulta complicada, porque los marcadores situados sobre la piel y las ropas se
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
desplazan al moverse el personaje, introduciendo errores en los datos. En segundo lugar, las discrepancias en las formas y dimensiones entre el sujeto humano y el personaje gráfico plantean problemas. Si, por ejemplo, el sujeto fue grabado tocando una mesa, puede suceder que las manos de un personaje gráfico de menor estatura aparezcan hundidas en ella.
P
or último, con el estado actual de la técnica se resisten todavía ciertos movimientos. Los sistemas magnéticos obligan a que el sujeto sea conectado por cables al ordenador, lo que limita la gama de sus movimientos. Además, los datos que generan estos sistemas suelen ir contaminados por “ruido” cuando se encuentran cerca de objetos metálicos o de los equipos utilizados para captar el movimiento del sujeto mientras corre, como las cintas sin fin. Los sistemas ópticos plantean problemas de oclusión, cuando una parte del cuerpo impide la visión de otra. Pese a tales inconvenientes, el movimiento registrado en la animación comercial procede, en buena
1. PARA SIMULAR LA CARRERA se aplican las leyes de la física relativas al movimiento. Para crear la secuencia anterior (segunda serie), un ordenador determina los pares de fuerzas necesarios para llevar hacia delante la pierna derecha antes de hacerla tocar el suelo, evitando que el corredor tropiece y caiga. Mediante un gran número de cálculos de este tipo, los ordenadores sintetizan la mecánica de la carrera (serie superior). Lo mismo en el metraje simulado que en el real, los fotogramas están separados 0,066 segundos.
medida, de la modificación de datos captados, adaptados al tamaño y el comportamiento deseados en un personaje virtual. A diferencia de las técnicas de cuadros clave y de captación del movimiento, la simulación se vale de las leyes de la física para generar el movimiento de figuras y de otros objetos. De ordinario, los humanos virtuales aparecen representados mediante una colección de partes corporales rígidas. La mitad inferior del cuerpo, por ejemplo, podría constar de torso, piernas —divididas en muslo y pantorrillas— y pies, conectados mediante
41
Tres técnicas de animación Cuadros clave
Toy Story utilizó con profusión el método de cuadros clave, técnica en la que el animador especifica posiciones decisivas de los objetos. El ordenador inserta luego los fotogramas que faltan, con una interpolación automática entre dichas posiciones.
articulaciones correspondientes a las caderas, las rodillas y los tobillos. Con mis alumnos he vaciado datos biomecánicos de diversos estudios, incluida la medición de cadáveres, para construir modelos ajustados a la realidad. El antebrazo de nuestro varón virtual adulto, por ejemplo, tiene una masa de 1,1 kilogramos, una longitud de 0,24 metros y un perímetro medio de unos 0,25 metros. Aunque los modelos sean físicamente plausibles, constituyen, tan sólo, una aproximación del cuerpo humano. Una colección de partes corporales rígidas no tiene en cuenta el movimiento de la masa muscular con respecto al hueso; aunque es frecuente que los modelos del hombro se traduzcan en una simple articulación con tres grados de libertad, la clavícula y la escápula humanas permiten movimientos más complejos, como el encogimiento de hombros. Se están pergeñando modelos más complejos; sus correspondientes simulaciones se irán haciendo cada vez más verosímiles en la medida en que incorporen ese tipo de detalles. En el caso de modelos de objetos inanimados, como la ropa o el agua, el ordenador puede determinar sus movimientos haciéndolos obedecer las ecuaciones pertinentes de las leyes de la física. En el caso de una pelota que rueda cuesta abajo, la simulación podría calcular el movimiento tomando en cuenta la acción de la gravedad y la fuerza de rozamiento de la pelota sobre la superficie. Pero los humanos poseen fuentes internas de energía. No son meros objetos pasivos e inanimados. Los humanos virtuales, por consiguiente, exigen una fuente de comandos musculares o motores, un “sistema de control”. Estos programas computan y aplican pares de fuerzas en cada articulación de la simulación del cuerpo con el
42
fin de que el personaje desempeñe la acción deseada. Un sistema de control para la marcha a la carrera, por ejemplo, ha de determinar los pares de fuerzas necesarios para que la pierna se eleve y oscile hacia adelante, evitando que el corredor tropiece y caiga. En mi laboratorio hemos desarrollado sistemas de control para actividades atléticas como la carrera, el salto de trampolín, el ciclismo y piruetas gimnásticas. Aunque estos comportamientos son de muy diferente carácter, los sistemas que hemos confeccionado funcionan todos, en esencia, de igual modo y están construidos a partir de una serie de componentes comunes. Nuestro sistema de control utiliza una máquina de estado: un algoritmo plasmado en programas, que determina lo que debe hacer cada articulación en cada momento, y después, lo mismo que el director de una orquesta, se asegura de que las articulaciones realicen esas funciones en el instante adecuado. La carrera, por ejemplo, es una actividad cíclica que alterna entre una fase de apoyo en el suelo, en la que una pierna proporciona sostén, y una fase de salto o vuelo, en la cual ninguno de los pies toca el suelo. Durante la fase de apoyo, el tobillo, la rodilla y la cadera de la pierna en contacto con el suelo tienen que proporcionar sustentación y equilibrio. Sin embargo, cuando esa pierna está en el aire, la cadera cumple otra función, a saber, la de llevar su extremidad hacia adelante, en preparación para el próximo contacto. La máquina de estado selecciona entre las diversas funciones de la cadera y escoge la acción correcta para la fase actual de la carrera. A cada fase están asociadas leyes de control que computan los ángulos
deseados para cada una de las 30 articulaciones de esta simulación del cuerpo humano. Las leyes de control son las ecuaciones que expresan cómo debe comportarse cada elemento para cumplir la función prevista en cada fase del movimiento. Para desplazar las articulaciones a sus posiciones deseadas, el sistema de control calcula los pares de fuerzas mediante las ecuaciones, que actúan a modo de resortes, y portan las articulaciones hacia los ángulos deseados. En esencia, las ecuaciones son “músculos virtuales” que mueven las distintas partes del cuerpo y las sitúan en las posiciones correctas.
P
ara simplificar el problema de especificación de las leyes de control, suelen utilizarse varias extremidades en sinergia. Sea la simulación del corredor. Aquí, articulaciones del tobillo y rodilla trabajan conjuntamente para empujar contra el suelo durante la fase de apoyo. Siempre que resulta posible, las leyes de control se valen de los comportamientos pasivos del sistema para conseguir un efecto deseado. Cuanto más eficientes sean los humanos y, por tanto, economizadores de energía, los comportamientos pasivos mejor remedarán la forma en que se mueven. Por ejemplo, durante la fase de apoyo, la rodilla del corredor actúa como un resorte, que se comprime primero para almacenar energía, y la libera después en la extensión. El movimiento simulado adquiere también mayor naturalidad usando extremidades inertes en cada fase particular, para reducir las perturbaciones provocadas por el movimiento de otras partes del cuerpo. Para la simulación de la carrera, las leyes de control hacen que los brazos del atleta oscilen en oposición a las piernas, con el fin de reducir el cabeceo del cuerpo.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Captación del movimiento
Simulación
Gran parte del movimiento de la animación comercial está generado a partir de datos “captados” de los movimientos de una persona. Un ordenador puede “reproducir” esa información registrada con el fin de animar un personaje sintético.
La simulación, en cuanto técnica de síntesis del movimiento humano, cuenta con dos ventajas potenciales sobre la captación de movimientos y sobre la técnica de cuadros clave. En primer lugar, con las simulaciones es fácil producir secuencias ligeramente diferentes sin pérdida de realismo físico; verbigracia, que un personaje corra a cuatro metros por segundo en vez de hacerlo a cinco. En las animaciones de otros tipos, la aceleración o ralentización pura y simple puede echar a perder la naturalidad del movimiento. En segundo lugar, las simulaciones en tiempo real permiten la interactividad, aspecto de interés en los ambientes virtuales y los videojuegos donde los personajes artificiales han de responder a las acciones de una persona real. Las aplicaciones basadas en cuadros clave o en la captación del movimiento, lo que hacen, en cambio, es seleccionar y modificar movimientos tomados de un repertorio de movimientos precomputados. La simulación presenta, sin embargo, un grave inconveniente. Me refiero a la pericia y el tiempo necesarios para la confección de los sistemas de control. En mi grupo hemos abordado la cuestión. Para darle respuesta hemos puesto a punto una biblioteca de programas modulares, que, debidamente combinados, pueden producir nuevos movimientos. Hemos construido, en particular, un conjunto de cuatro sistemas de control básicos para saltar, caer de bruces, posarse en el suelo y mantener el equilibrio. El ordenador combina estos sistemas y crea maniobras más
En la simulación, se utilizan las leyes de la física para sintetizar el movimiento de las personas y los objetos virtuales.
complejas, como volteretas y zambullidas. Hemos empezado también a explorar la adaptación de conductas existentes a nuevos personajes. Se trata de un proceso difícil, porque los sistemas de control están sintonizados para las propiedades dinámicas de cada modelización. Un sistema ideado para un adulto no va bien con un niño. Para modificar conductas ya existentes y adaptarlas a nuevos personajes con propiedades físicas distintas, hemos desarrollado técnicas de optimización para el ajuste del sistema de control. Por ejemplo, hemos tomado nuestro sistema de control para un corredor masculino y lo hemos adaptado con éxito para una mujer y para un niño de cuatro
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
E
n los últimos años, se ha trabajado en métodos basados en simulaciones, que generan movimientos sin necesidad de construir un sistema de control a la medida. Varios investigadores han tratado la síntesis de movimientos como un problema de optimización de una trayectoria. En esta formulación, las ecuaciones del movimiento y las características importantes de la acción requerida reciben la consideración de restricciones; lo que se busca
CUELLO 3 GRADOS (X,Y,Z) HOMBRO 3 GRADOS (X,Y,Z)
CODO 1 GRADO (Y) CINTURA 3 GRADOS (X,Y,Z) MUÑECA 2 GRADOS (X,Z) CADERA 3 GRADOS (X,Y,Z) RODILLA 1 GRADO (Y)
TOBILLO 1 GRADO (Y)
Z
2. LOS MODELOS COMPUTARIZADOS del cuerpo humano constan de partes rígidas conectadas por articulaciones giratorias, a las que se asignan uno, dos o tres grados de libertad con respecto a los ejes de coordenadas x, y, z.
años, tomando en consideración las distintas masas de las partes del cuerpo de los tres modelos, amén de otros parámetros.
Y
Z
DEDO DEL PIE 1 GRADO (Y) X
VISTA LATERAL
Y X VISTA FRONTAL
43
Alan Alda conoce a Alan Alda 2.0
M
uy grandes han sido las dificultades para sintetizar las sutiles expresiones y movimientos del rostro, que pueden comunicar megaoctetos de información sobre el estado de ánimo de un sujeto, sobre sus sentimientos y su personalidad. Pero animaciones recientes de personas “virtuales”, que hablan y exhiben emociones básicas, sí dan indicios de las ricas posibilidades que ofrece la técnica. El otoño pasado, a petición del programa Frontiers de Scientific American, la compañía de animación Lamb & Company, con sede en Minneapolis, comenzó la construcción de un “gemelo” digital de Alan Alda, actor que ha ganado recientemente el premio Emmy. El Alda sintético habría de saludar a su equivalente biológico en televisión, y pronunciar frases que el verdadero Alda jamás ha pronunciado. Para este ambicioso proyecto, Lamb construyó un modelo computarizado de la cabeza de Alda valiéndose de medidas obtenidas por escaneados por láser del actor. El modelo digital consiste en una “tela metálica” formada por 12.000 diminutos polígonos contiguos, que representa la geometría tridimensional básica de la cabeza del Alda de carne y hueso. Sobre esta escultura informática se tiende un mapa de texturas que contiene informaciones tales como la coloración y la lisura de la piel de Alda. Los escaneados por láser correspondían a cuatro poses: una toma básica de Alda, en la que no expresaba ninguna emoción, y fotografías fijas sonriendo abiertamente, gesticulando y sonriendo a medias. A partir de esta información, Lamb creó otras expresiones combinando y afinando diferentes combinaciones de las cuatro poses. Los animadores desarrollaron también vistas estáticas del Alda virtual pronunciando diversos fonemas, esto es, unidades básicas del lenguaje, como el sonido “b” de “beso”. Este trabajo se realizó a mano,
es el movimiento que consume mínima energía para satisfacer estas condiciones. Para simular el salto, las restricciones podrían establecer que el personaje comience y termine en el suelo e ir por el aire durante la fase media del movimiento. Los programas de optimización determinarían entonces, automáticamente, que, para conseguir la altura máxima con mínimo consumo de energía, el personaje ha de flexionar las rodillas
ALAN ALDA y su “gemelo” virtual. El Alda digital (inserto de la derecha) consiste en un modelo computarizado de la cabeza del actor, incluida la síntesis de voz. En el estudio (arriba), se utilizó un aparato de fijación. Durante la filmación del programa de televisión, el Alda auténtico conversó con el aparato (a la derecha), que será sustituido por el Alda virtual al componer el metraje real y el sintético. aunque las herramientas informáticas proporcionaron una ayuda rudimentaria en la modificación de los modelos recogidos en programas. En total, los animadores de Lamb crearon una biblioteca de unas 60 vistas, que podían combinarse para crear variaciones adicionales. Para introducir movimiento y “vida” en el modelo informático, Lamb trabajó con habla de la voz del actor, que un laboratorio japonés había sintetizado al separar y reorganizar fonemas de una grabación del verdadero Alda mientras hablaba. Una de las tareas más laboriosas fue la de conseguir que los labios virtuales de Alda se movieran en sincronismo con la simulación de su voz.
antes de saltar. Otra técnica trata de determinar el sistema óptimo de control mediante el rastreo sistemático entre todas las posibilidades. En el caso más general, esta técnica ha de determinar cómo podría moverse un personaje para pasar desde cada posible estado hasta cualquier otro. Dado que este método resuelve un problema más general que el de hallar una única trayectoria óptima desde un punto de partida hasta una meta particular, sus mejores éxitos se han cosechado en simulaciones sencillas y en problemas que admiten muchas soluciones, aumentando con ello la probabilidad de que el ordenador logre hallar alguna. Las técnicas automáticas son preferibles a las que requieren control manual, pero no se conoce todavía ninguno capaz de generar conductas para sistemas de la complejidad de los humanos sin un importante conocimiento previo del movimiento.
MARCHA A LA CARRERA de un hombre, una mujer y un niño. Ese movimiento exige modificar la simulación, para tener en cuenta las distintas masas de las partes del cuerpo de los tres modelos y otros muchos parámetros. 44
Aunque difíciles de construir, los sistemas de control se utilizan con bastante comodidad. Para ejecutar una simulación de movimiento, el animador no necesita poseer una comprensión detallada del comportamiento de las ecuaciones implícitas en ella. Pero la simulación sólo permite el control de la acción general, no de los detalles finos. El animador puede dictar la trayectoria de una bicicleta, pero no puede especificar fácilmente que el ciclista haya de pedalear con aire alegre y aspecto bienhumorado. Esta limitación puede superarse, en parte, utilizando la simulación para generar de un modo automático los movimientos generales, “en bruto”, y recurrir después al método de cuadros clave o de captación del cambio para los movimientos sutiles, como las expresiones del rostro. La simulación del movimiento puede adquirir mayor verismo por adición de elementos pasivos secun-
LA VOLTERETA con apoyo en el potro es una acción más sencilla de simular que la carrera, ya que la gimnasta permanece en el aire durante gran parte de la pirueta; a lo largo de la misma, su cuerpo ha de obedecer a la ley física de conservación del momento angular.
El trabajo exigió un meticuloso escrutinio de cintas de vídeo del verdadero Alda en acción. “Observamos la forma en que mueve la boca al emitir un sonido ‘oh’ o ‘uh’. Tratamos de captar la forma en que se debería mover su rostro”, dice Jim Russell, director técnico del proyecto. No menor fue la ayuda prestada por los espejos de que se valieron los animadores para estudiar el movimiento de sus propios rostros al pronunciar ciertas palabras. El proceso de creación de cada fotograma del metraje sintetizado hubiera sido de una lentitud exasperante sin la ayuda de la técnica de cuadros clave, técnica en la que el animador especifica las posiciones clave de un objeto. Un ordenador interpola entonces entre esas localizaciones para introducir la información que falta. Para sintetizar un personaje que pronuncie la palabra “ser”, pongamos por caso, el animador podría utilizar tomas estáticas de la persona diciendo “ess”, “eh” y “er”, y el ordenador se encargaría de crear automáticamente la secuencia de
darios, que se mueven en respuesta al personaje principal. Un trampolín ha de deformarse cuando la gimnasta bota sobre él. La arena ha de quedar hollada para mostrar los pasos de un atleta por la playa. La ropa —que puede modelizarse mediante una colección de puntos conectados por elásticos— ha de moverse en reacción a la persona que la viste. La simulación consiente al animador un alto grado de control sobre escenas en las que hay muchas personas. Una capa de programas insertos por encima del sistema de control permite a los personajes moverse en grupo, sin tropezar unos contra otros. Esta capa computa la velocidad deseada para cada individuo basándose en la proximidad de otros miembros del grupo y de los obstáculos del ambiente. En esa información de velocidad se apoyará luego el sistema de control correspondiente a la locomoción.
fotogramas intermedios. Lamb utilizó esta técnica también para otros movimientos del rostro, como cuando el Alda virtual guiña los ojos. Gracias al sistema de cuadros clave, Russell estima que sólo fue necesario realizar a mano el 20 por ciento del trabajo de generación de los fotogramas. Pero las anteriores técnicas de automatización no podrían garantizar que el Alda virtual se moviese con naturalidad. Lograr que así fuera exigió semanas de ajuste fino manual. “Las irregularidades de movimiento facial y del habla de los humanos son muchísimas”, dice Russell, quien cuenta con más de 10 años de experiencia en la animación informática. “Los retoques exigen un esfuerzo unas 10 veces mayor que la plasmación del movimiento básico.” La síntesis del metraje final, que consta de unos 2500 fotogramas, le llevó a Lamb varios meses de trabajo. —Alden M. Hayashi
Mi grupo estudia la carrera y el ciclismo, actividades atléticas cuya dinámica condiciona el movimiento, limitando así la búsqueda de leyes de control. Esta propiedad se muestra con toda nitidez en nuestra simulación de la voltereta sobre el potro. La gimnasta permanece en el aire durante gran parte de la pirueta, y las leyes de control pueden influir el movimiento interno de las articulaciones, pero no en el momento angular de la gimnasta, que ha de obedecer a la ley física que impone su conservación. La acción de correr es más complicada, porque el atleta sintético se encuentra en contacto con el suelo gran parte del tiempo, y los pares de fuerzas conjuntos computados por las leyes de control afectan directamente a muchos de los detalles del movimiento. Hubo, pues, que dedicar más esfuerzo al ajuste del movimiento del corredor que al de la gimnasta. Esta observación tiene
consecuencias para la simulación de sencillos movimientos humanos, en los cuales importa el estilo, como hacer gestos o moverse inquieto. Cuando la física implicada no restringe las líneas generales del movimiento, el computador puede sintetizarlo. Tales conductas exigirán leyes de control que incorporen reglas adicionales basadas en observaciones y medidas de los movimientos de las personas.
L
os criterios para evaluar la calidad de la simulación del movimiento humano dependen de la aplicación. Los ambientes virtuales de carácter formativo, para la colaboración o el entretenimiento, exigirán un movimiento de suficiente variedad, expresividad y realismo como para crear en el usuario una impresión de inmersión. Algunos ambientes virtuales serán más convincentes si el movimiento parece real. Para tales aplicaciones, el gran reto es un test
de Turing: ¿Es el movimiento simulado tan natural como el de la gente de verdad, al menos cuando ambos tipos de movimiento se reproducen a través del mismo modelo gráfico? Los ensayos provisionales apuntan hacia una respuesta negativa. Pero algunos observadores sí consideraron más natural el movimiento simulado al contemplar ambos tipos sin el cuerpo humano, de suerte que el movimiento sólo apareciera mediante puntos situados en las articulaciones. A diferencia de los ambientes virtuales, de carácter visual, los problemas científicos y de la ingeniería exigen simulaciones validadas por una comparación rigurosa con datos humanos. Una evaluación sencilla consiste en comparar secuencias videográficas reales y sintetizadas. Con el fin de medir hasta qué punto se parece la simulación a la realidad, se utilizan también datos biomecánicos para las fuerzas de reacción del suelo, los tiempos de vuelo, la velocidad y la longitud del paso.
C
onforme se va profundizando en la comprensión de los sistemas de control, se le descubren sus posibilidades en importantes cuestiones de ciencia e ingeniería. Los fisioterapeutas podrían hacerse una idea más completa de las irregularidades de la marcha provocadas por determinadas lesiones. Los entrenadores de saltos querrían saber si un individuo posee la fuerza necesaria para ejecutar determinada pirueta. Aunque la complejidad inherente de los sistemas de control hace dificultoso su diseño, la sólida fundamentación científica de esta técnica la convierte en potencialmente adecuada para estas y para otras aplicaciones.
BIBLIOGRAFIA COMPLEMENTARIA DIGITAL CHARACTER ANIMATION. G. Maestri. New Riders Publishing, 1996. A DAPTING S IMULATED B EHAVIORS FOR NEW CHARACTERS. Jessica K. Hodgins y Nancy S. Pollard, en Proceedings of SIGGRAPH 97. ACM, 1997. Se pueden ver ejemplos de simulación de movimiento humano en http: //www.cc.gatech.edu/gvu/animation/. Este nodo contiene trabajos de la autora y sus estudiantes, así como de los investigadores posdoctorales David Brogan, Wayne Wooten, James O’Brien, Deborah Carlson, Victor Zordan, Ronald Metoyer, Nancy Pollard y Robert Sumner.
46
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
El comercio del caimán Peter Brazaitis, Myrna E. Watanabe y George Amato
A
venida Madison de Nueva York. Tienda lujosa de carísimos complementos. En un lugar destacado del escaparate se exhibe un bolso pequeño. Su precio, 3700 dólares. El precio indica ya la materia de que está fabricado: piel de cocodrilo auténtica, nada de cuero bovino estampado. Sólo un puñado de expertos en todo el mundo sabrá, con sólo mirarlo, que, si bien el frente brillante es de piel legal de cocodrilo americano de alta calidad, los laterales son de cuero de caimán obtenido a bajo precio, de contrabando quizá. Según un cálculo harto prudente de la Traffic-USA, una división de la Fundación para la Conservación de la Vida Salvaje (“World Wildlife Fund), encargada de seguir la pista al comercio ilegal de productos procedentes de la fauna salvaje, el mercado mundial de pieles de crocodilios mueve entre 1,5 y 2 millones de unidades al año. Sin embargo, según Don Ashley, consejero comercial en Tallahassee, sólo alrededor de un millón de esas pieles presentaban, en 1993, aval de legalidad de sus países de origen. Así pues, la mitad de las pieles utilizadas para fabricar los bolsos, carteras y cinturones de precios subidísimos proceden de animales salvajes, en flagrante violación de las leyes nacionales o internacionales. La mayoría
48
de esas pieles de contrabando pertenecen a individuos del género Caiman. El “estilo cocodrilo” evoca, desde siempre, una imagen de lujo y riqueza. Aunque nunca envejece, la industria de la moda lo reclama en ciclos de tres a cinco años. Esas oleadas periódicas aumentan la demanda de productos de piel de crocodilios. Hasta 1993 no se dispuso de cifras relativas al mercado internacional, legal o ilegal, de piel de caimán. (Las únicas confeccionadas hasta hoy.) Mientras que los países “usuarios”, como Estados Unidos, reconocieron la importación de 648.847 pieles, la Unión de Conservación Mundial (IUCN) descubrió que sólo 556.132 pieles se habían exportado con los papeles en regla. Algunas de las que entraron presentarían, sin duda, documentación falsa. La IUCN calculó, además, que el comercio real de pieles de caimán ronda, por lo menos, el millón al año, casi un 50 por ciento por encima de la producción legal. La expansión del comercio ilegal de caimanes se explica por las ganancias que produce. Los crocodilios pueden criarse en ranchos o granjas. El bolso de la tienda de la Avenida Madison estaba fabricado con la piel de la panza de un aligátor americano, en cuya venta el criador o el cazador legal obtuvo más de
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
El contrabando de las pieles de caimán pone de manifiesto que la pretendida explotación controlada de las especies amenazadas no ahuyenta el peligro de su extinción
1. EL CAIMAN YACARE, dotado de un complejo patrón de escamas en sus costados, se ha convertido en blanco favorito de cazadores. Los animales son presa fácil en la estación seca, cuando se congregan en charcas someras.
50.000 pesetas. La piel de caimán (ya se haya adquirido por vías legales en una de las explotaciones que ahora crecen por doquier en América del Sur o Central o cazada furtivamente) puede haber costado entre ochocientas y ocho mil pesetas. Pero los productos fabricados con piel de caimán se venden a los mismos precios que los de aligátor. Los crocodilios pertenecen al grupo de los arcosaurios, reptiles que dominaron la Tierra hace 200 millones de años. Hay unas 23 especies de crocodilios, en su mayoría amenazadas o en grave peligro de extinción, por pérdida de su medio natural y sobrecaza. Los crocodilios modernos configuran tres familias: cocodrilos (Crocodylidae), gaviales (Gaviallidae) y aligátores (Alligatoridae). Abarcan estos últimos el aligátor americano, el aligátor chino (su pariente próximo) y el caimán. Viven los caimanes en ríos, arroyos, lagos y lagunas de agua dulce, estanques y humedales de América Central y del Sur e islas del Caribe. Tres géneros constituyen la familia de los caimanes. El primero comprende una sola especie, el caimán negro, Melanosuchus niger, de talla gigante y ahora en peligro de extinción. El segundo, Paleosuchus,
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
consta de dos especies con placas óseas tan pesadas en el interior de sus escamas que su librea carece de interés comercial. Por fin el género Caiman agrupa varias especies, de tamaño en su mayoría discreto con una longitud que oscila entre 1,2 y 2,8 metros. La clasificación de los caimanes ha sido objeto de debate. Hasta la revisión reciente acometida por Brazaitis y su equipo, a nadie se le ocurrió relacionar la distribución de los caimanes en los sistemas fluviales de América del Sur con su patrón de escamas, morfología y características del ADN. Robert Madden, del Colegio Marymount en Tarrytown, ha analizado estadísticamente los nuevos datos sobre la estructura, las escamas y pautas cromáticas; en un estudio complementario, el grupo de Amato, de la Sociedad para la Conservación de la Fauna Salvaje, ha examinado el ADN de los tejidos y la sangre de los caimanes. En oposición a la opinión hasta entonces predominante, según la cual el género Caiman contenía sólo dos especies distintas, sus resultados apoyan la existencia de cuatro. Además, los investigadores proporcionaron los criterios distintivos para separar unas especies de otras, claves que resultaron de gran ayuda para los policías confundidos por la gran diversidad intraespecífica.
49
LOS CAIMANES OSCUROS alcanzan los dos metros de largo. Ocupan entornos muy diversos. Hasta hace poco se encontraban a salvo de las presiones del comercio por la escasa calidad de su piel. Pero, conforme van disminuyendo las especies deseadas, aumenta la demanda de las pieles de caimán oscuro. Las poblaciones salvajes de Colombia, de donde proceden la mayoría de las pieles, se han quedado en cuadro.
LOS CAIMANES COMUNES, astutos y oportunistas, se adaptan a entornos y dietas muy dispares. Pese a ello, en un trabajo de revisión reciente realizado en Brasil no se encontró caimán alguno en regiones donde, tiempo atrás, vivieron en paz. Los animales crecen hasta alcanzar 2,5 metros de longitud. La mayoría de las pieles legales pertenecientes a los caimanes comunes proceden de Venezuela; las ilegales, del Brasil. Algunas pieles muestran niveles elevados de plomo. El hábitat está contaminado también con mercurio.
El caimán común, Caiman crocodilus, habita en las cuencas hidrográficas de los ríos Amazonas y Orinoco. El área de distribución del caimán oscuro o marrón, Caiman fuscus, se extiende desde México hasta el Perú; entre esta especie y el caimán común se interponen los Andes. Una y otra especies están también separadas del caimán yacaré, Caiman yacare, por mesetas dispersas y por el escudo brasileño. El cuarto miembro del grupo, el caimán de hocico ancho, o Caiman latirostris, vaga por los sistemas fluviales que discurren a lo largo de las altiplanicies orientales y las regiones costeras y sudtropicales de América meridional. Hace un centenar de años los exploradores que se introducían en el interior de Brasil hablaban de filas de caimanes tendidos unos junto a otros tapizando las orillas del Amazonas. Abundaban sobre todo caimanes negros, con sus siete metros de longitud, que en ocasiones acababan con los humanos que se acercaban demasiado a su reino fluvial. En la actualidad, son numerosos en ciertas regiones aisladas, pero han desaparecido por entero de otras.
La estación de las lluvias señala cada año el momento de la reproducción. Los machos emiten sonidos y delimitan el territorio en cuyo interior una o más hembras construirán sus nidos. A veces de una anchura superior a los dos metros y una altura de medio metro, los nidos se encuentran en tierra elevada por encima del nivel de inundación, pero no muy lejos del agua. Los fabrican con hierbas, ramitas y barro, normalmente entre matorrales o maleza densos.
PETER BRAZAITIS, MYRNA E. WATANABE y GEORGE AMATO abordan el estudio conjunto de los caimanes desde especialidades complementarias. Brazaitis, herpetólogo, ha trabajado con la Sociedad para la Conservación de la Fauna Salvaje de Nueva York durante 43 años. Watanabe, etóloga, ha investigado el comportamiento de los aligátores americanos y chinos en su medio natural. Amato es director de investigación genética de la Sociedad para la Conservación de la Fauna Salvaje.
50
L
a materia orgánica en descomposición de los nidos proporciona temperaturas de 28 a 32 grados Celsius durante el período de incubación, que se prolonga de ocho a diez semanas. Las hembras ponen de 20 a 30 huevos en el punto culminante de la estación de las lluvias, vigilándolos alertas, mientras los machos patrullan por la zona. Cuando se aproxima la época de la eclosión y los pequeños avisan desde el interior de los huevos, la hembra excava en el nido para liberar a las crías recién salidas del cascarón, transportándolas a veces con suavidad en la boca hasta la soledad de un charco próximo donde cuidarlos. Las crías permanecen bajo la protección de los padres durante la mayor parte de su primer año. Es frecuente verlos montados sobre sus espaldas. Los juveniles y los adultos jóvenes se alimentan de invertebrados terrestres y, según van creciendo, de caracoles (un alimento común para muchas especies de crocodilios jóvenes de todas partes). Los caracoles hospedan el parásito Schistosoma; algunos informes parecen sugerir que la depredación de los caimanes sobre los caracoles puede contribuir al control de la esquistosomiasis, una importante enfermedad tropical que afecta a los seres humanos y a los animales domésticos.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
LOS CAIMANES NEGROS, que alcanzan los seis metros, pueden matar a un hombre. Pero no se muestran agresivos, razón por la cual son de fácil caza. Viven en ambientes muy característicos: ríos abiertos o lagos en forma de herradura bordeados de espesa vegetación. Empiezan a procrear a los doce años, una edad bastante avanzada. Por consiguiente, una vez extirpados, las poblaciones no se recuperan.
CAIMAN COMUN
LOS CAIMANES DE HOCICO ANCHO están a punto de extinguirse por culpa de la devastación del medio donde viven y la contaminación; también porque sus pieles proporcionan un cuero suave, con tacto de “malvavisco”. Alcanzan los 2,3 metros. No sabemos mucho de su desenvolvimiento en la naturaleza, pues se han podido localizar pocos para su estudio. Aunque está prohibida su comercialización, en Argentina se crían en granjas.
CAIMAN OSCURO CAIMAN NEGRO CAIMAN YACARE CAIMAN DE HOCICO ANCHO
Pese a la atención de sus progenitores, las crías recién eclosionadas pueden convertirse en el alimento deseado por otras especies. Tortugas, pirañas, aves acuáticas y serpientes cazan juveniles. Si tomamos por modelo las estadísticas de las poblaciones naturales de aligátores americanos, se estima que el 50 por ciento o más de todas las crías que eclosionan mueren a manos de los depredadores durante su primer año de vida. Los caimanes que llegan al estado adulto se alimentan de peces cuya participación en la dieta humana es bastante improbable, como los barbos armados y algunas anguilas, así como especies potencialmente peligrosas, como las pirañas. Sin el control de la población ejercida por esos depredadores, muchas especies de tales peces entrarían en competición con las que sirven de alimento para el hombre. Además, los caimanes adaptan su dieta con gran versatilidad. Es decir, se desenvuelven con holgura en un entorno donde los recursos acuáticos varían notablemente a lo largo del año.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
LOS CAIMANES YACARE alcanzan una longitud máxima de 2,5 metros. Constituyen la fuente principal de la industria peletera de cocodrilo. Su comercio está prohibido en Estados Unidos, pero su importación puede legalizarse pronto. Aunque goza de una amplia distribución, las poblaciones salvajes están menguando.
51
CAIMAN OSCURO
CAIMAN COMUN
CAIMAN NEGRO
CAIMAN DE HOCICO ANCHO
CAIMAN YACARE
En la estación de las lluvias, los caimanes se adentran en zonas pantanosas y boscosas. En la estación seca, excavan en las pocas charcas que quedan y se congregan allí. De ese modo no sólo crean su hogar, sino que proporcionan también un refugio para peces, anfibios, invertebrados acuáticos y plantas. A menudo, las únicas fuentes de alimento acuático, las charcas, atraen a las aves migratorias, que se dan un festín de peces e invertebrados. Los caimanes pueden vivir hasta 65 años. Muy pocos, sin embargo, cumplen realmente esa edad. No es raro que un adulto sea devorado por la anaconda. Con
52
2. PATRONES EXCLUSIVOS de las escamas de los flancos. Constituyen un criterio de identificación de las pieles de los caimanes. Los oscuros tienen filas uniformes de escamas ovales que alternan con filas de escamas pequeñas semejantes a perlas. Los caimanes comunes presentan flancos estrechos con grandes escamas, fuertemente volcadas (es decir, elevadas), dispuestas en filas, separadas por piel blanda y plegada, y por diminutas escamas. Los caimanes negros se caracterizan por sus flancos anchos con numerosas filas de escamas ligeramente alargadas y poco volcadas. La piel más suave de estos animales es la procedente del vientre blanco (no mostrado). Los caimanes de hocico ancho muestran unas pocas filas de grandes escamas óseas que se alternan con pequeñas escamas óseas. Los caimanes yacaré tienen flancos anchos con escamas redondas, fundamentalmente lisas, que se sitúan en filas próximas separadas por un patrón en forma de cadena de piel plisada. Para todas las pieles de los animales ilustrados, la cabeza está orientada hacia la izquierda.
todo, su enemigo principal es el hombre. Los nativos matan los ejemplares de tamaño medio a grande para alimentarse; los cazadores cobran las piezas mayores por sus pieles. En un informe de la IUCN se pone de manifiesto que las poblaciones naturales de caimán común están cayendo a la mitad en los 16 países donde son endémicos. El número de caimanes yacaré, de hocico ancho y negros ha mermado, en el caso de los dos últimos de una manera alarmante, en su zona de distribución. Esta situación es consecuencia de la invasión humana de su ambiente y de casi medio siglo de furtivismo.
E
l comercio internacional de fauna salvaje de todo tipo, caimanes incluidos (ya se trate de ejemplares vivos destinados a servir de mascotas o de animales cazados para comida, pieles u otros productos), está regulado por la Convención sobre Comercio Internacional de Especies de Fauna y Flora Silvestre en Peligro de Extinción (CITES). Existen, además, normas dictadas por los países de origen y las naciones importadoras. Por lo que concierne al comercio internacional, la CITES agrupa las especies en una triple categoría acorde con los datos disponibles. Conforman el primer bloque las especies cuyo comercio internacional está severamente prohibido. En el segundo bloque hallan cabida los animales cuya comercialización debe contar con el aval CITES, sellado por las autoridades gubernamentales del país de origen (o, si el animal tiene su origen en un país diferente, con permisos apropiados para reexportación). Por fin, la comercialización de los animales del tercer bloque no requiere tanto rigor. El caimán de hocico ancho, el caimán del río Apaporis (una subespecie del caimán común) y el caimán negro pertenecen al primer bloque (apéndice I) de la CITES. El resto de los caimanes se incluyen en el apéndice II de la CITES. Ahora bien, resulta a veces muy confusa la línea divisoria entre lo legal y lo ilegal. Muchos países exportan pieles que jamás pudieron originarse allí, con documentación legal en la que se afirma lo contrario. Una piel expedida en Colombia y declarada de caimán común será en realidad de yacaré, que no habita en este país. Podría haber incluso un floreciente comercio negro de documentación ilegal. Se pierden a menudo formularios de exportación de la CITES. Cuando el norteamericano Servicio de Peces y Fauna Salvaje se incauta de pieles o de productos de caimán
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
que estudiamos los animales en bajo la sospecha de su ilegalidad, la estación de lluvias, cuando los reclama la asesoría de quienes, caimanes están dispersos en las como Brazaitis, son especialistas abundantes vías fluviales, y en la en esos reptiles. Para encausar a estación seca, cuando se reúnen en los propietarios, el servicio debe grandes densidades en las pocas identificar la especie a la que charcas disponibles, empezamos pertenece cada elemento, y puede a darnos cuenta de la escasez de haber millares. No es tarea fácil. caimanes llegados a la madurez. El yacaré y las subespecies del La falta de adultos significa que caimán común tienen pieles de quedan pocos animales en edad una semejanza estrechísima. Una reproductora para propagar la esvez curtidas y secadas, ya no conservan los patrones cromáticos que pecie; además, sin la protección caracterizan a cada especie. Para de los progenitores, los juveniles hacer las cosas más difíciles, es difícilmente sobrevivirán. También muy posible que las tiras sueltas supone una seria amenaza contra de piel reunidas en los artículos el ecosistema de la región. Los que luego se comercializan no charcos excavados por los caimaincluyan características definitivas nes vienen a constituir la única fuente de alimento no sólo para para su identificación. ellos, sino también para aves y En 1969 Brazaitis y F. Wayne King, de la Universidad de Flomamíferos de paso. Por otro lado, Elizabeth rida en Gainesville, coincidiendo en el Zoo del Bronx, empezaron 3. LA INDUSTRIA DE LA MODA promueve Odierna, que estudiaba entonces a desarrollar técnicas para distin- las pieles de cocodrilo en ciclos de unos cuatro en la Facultad de Manhattan, guir las especies. En 1984 habían años, incrementando las presiones sobre las descubrió que algunos tejidos de resuelto parte del problema. Los poblaciones salvajes de caimanes. los caimanes estaban contaminados con niveles peligrosos de plomo. caimanes portan gruesas placas Si sorprendente fue la observación óseas, llamadas osteodermos, en el interior de las escamas del anterior, no menos lo era ésta. vientre, que distinguen al grupo ante el resto de los Odierna se había encargado de comprobar la concencrocodilios. Los flancos, comprendidos entre las patas tración de mercurio, utilizado en muchas zonas donde delanteras y las traseras, junto con los laterales de la medraba el caimán para extraer oro. Los biólogos cola, son menos óseos y proporcionan una piel flexible. brasileños habían descubierto con anterioridad niveles Estas piezas, utilizadas más a menudo en los productos, elevados de mercurio en las especies de peces que sirven resultan decisivas para distinguir los caimanes en peligro. de alimento a los caimanes y a los seres humanos por todo el Amazonas; nuestras pruebas de campo confirPero se necesitaba más información. maron la contaminación por mercurio de las zonas de mediados de los años ochenta, el Programa Am- caimanes. Aunque se desconoce el efecto del mercurio biental desarrollado por las Naciones Unidas, al- y del plomo en estos reptiles, cabe al menos presumir gunos gobiernos y la CITES, financió un ambicioso que no les debe ir mejor que a los humanos. proyecto de catalogación y recuento de las poblaciones La consigna por la que se mueven muchos biólogos de caimán del Brasil, Bolivia y Paraguay. En el grupo especialistas en crocodilios es la de “aprovechamiento de Brazaitis iban enrolados, entre otros, George Rebêlo, viable”, entendido como explotación de la especie, de del Instituto Nacional para la Investigación del Amazo- suerte tal que mantenga un valor económico para la nas (INPA), y Carlos Yamashita, del Instituto Brasileño población local y, por tanto, asegure y promueva la para el Ambiente y los Recursos Naturales y Renovables conservación. Ese enfoque se aplica ya a los árboles (IBAMA). El equipo cartografió las poblaciones de cai- de madera preciosa, los elefantes (por su marfil) o las manes y recogió sangre, músculo, piel y otros tejidos ballenas (por la carne), es decir, a especies amenazade especímenes en su medio salvaje, así como de los das y en peligro de extinción. Casi todo el esfuerzo destinados a la mesa de los nativos, los intoxicados empeñado en la protección de los crocodilios gira en por la contaminación y los heridos de muerte por los torno a la fabricación de lujosos productos de piel y cazadores. (Los animales salvajes fueron capturados y la obtención de carne. liberados después del estudio. Si estaban muy enfermos, se les sacrificó sin dolor.) os inversores y criadores sudamericanos encabezan Las muestras de tejido no sólo sirven para clasiun movimiento a favor de la construcción de ficar a los caimanes, sino también para proporcionar cercados y explotaciones de caimanes que permitan un medio exacto de identificar pieles sin curtir. En el la exportación legal de sus pieles. La explotación en futuro próximo, es muy probable que los servicios de cercados implica aprehender adultos de su lugar natural aduanas cuenten con pruebas de ADN como la obtenida para su nutrición y reproducción en cautividad. De la por Amato para identificar la piel curtida procedente de prole, unos se destinan a pieles y carne, otros a la reproducción. Si se gestiona bien, una explotación debe las especies amenazadas. En el transcurso de cinco años nuestro equipo descubrió constituir un sistema cerrado, sin entrada de individuos que algunas poblaciones de caimanes de las que se tenía externos tras la población fundacional. En los ranchos, noticia habían desaparecido. Del resto, la mayoría de se recogen los huevos de los nidos salvajes y se inculos animales que había en los lugares estudiados eran ban o se roban de la naturaleza las crías recién salidas muy jóvenes: se vieron pocos caimanes adultos. Dado del cascarón. Los jóvenes se crían hasta alcanzar un
A
L
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
53
4. ARBOL GENEALOGICO de los caimanes, aclarado en una reciente revisión acometida en Brasil por los autores y sus colaboradores. Una subespecie descrita a partir de cráneos y pieles descubiertas a principios de los años cincuenta, Caiman c. apaporiensis, resulta ser un caimán común. El caimán enano y el caimán de frente lisa pertenecen a un género separado dentro de la familia de los caimanes.
Caiman fuscus (CAIMAN OSCURO) Caiman c. chiapasius (CAIMAN DE AMERICA CENTRAL) Caiman crocodilus (CAIMAN COMUN) Caiman yacare (CAIMAN YACARE) Caiman latirostris (CAIMAN DE HOCICO ANCHO) Melanosuchus niger (CAIMAN NEGRO)
Paleosuchus palpebrosus (CAIMAN ENANO) Paleosuchus trigonatus (CAIMAN DE FRENTE LISA) Alligator mississippiensis (ALIGATOR AMERICANO) Alligator sinensis (ALIGATOR CHINO) TODOS LOS DEMAS COCODRILOS
tamaño en el cual las pieles tendrían alrededor de un metro de longitud. La reserva de un rancho es la propia naturaleza. El argumento y su solidez parecen servidos: los ranchos de caimanes constituyen un incentivo para preservar sus hábitat. Pero de la teoría a la realidad media una distancia trágica. Según Ashley, Brasil tiene registrados ya 75 ranchos. Aunque algunas explotaciones gozan de una gestión responsable, con instalaciones idóneas para el alojamiento de los caimanes, otras veces se toma por “explotación” o “rancho” un área salvaje acotada por unos propietarios privados. Los caimanes que han tenido la desgracia de vivir allí entran en la red comercial. A veces se aprehenden adultos de poblaciones salvajes diezmadas. Donde se pueden cobrar piezas con sólo saltar la cerca, el supuesto rancho no es más que una “lavandería” donde se legitima la caza furtiva. Hay pruebas de que algunos presentados como animales de rancho son, en realidad, capturas salvajes. Brazaitis examinó recientemente ciertas remesas de piel de caimán cuya documentación atestiguaba su origen en explotaciones colombianas. Las pieles, de hasta 1,6 metros de longitud (procedentes de animales mucho más largos), mostraban una peculiaridad interesante: en una cuarta parte de los animales, las puntas de las colas se habían perdido y regenerado. En la naturaleza, hasta el 50 por ciento de los caimanes jóvenes pueden perder la punta de la cola en su lucha con los depredadores. Pero se trata de un fenómeno insólito en los ranchos, que tienen por función producir pieles intachables. Además, los animales de explotación se sacrifican bastante antes de alcanzar siquiera el metro y medio de longitud. Muchos ecologistas consideran la cría de crocodilios un negocio que a la postre revertirá en provecho de la protección. Prestan fe, tal parece, a unos países que no se han distinguido por su respeto al cumplimiento de las leyes sobre conservación del medio. De esos convertidos de la noche a la mañana a la causa proteccionista esperan que proporcionen alimento, medicinas y cuidados a una cría recién salida del cascarón durante unos tres años, hasta alcanzar el tamaño del mercado, sin más beneficio que venderlos luego por sólo 800 pesetas. Para Ted Joanen, se trata de expectativas poco realistas incluso para la empobrecida economía sudamericana. Ni que decir tiene que la mayoría de los ingresos procedentes de la venta de pieles no se destina a hacer más eficaz la protección de la naturaleza, ni a preservar el medio y la demografía de las poblaciones salvajes. El lucro va a parar a otros fines más rentables, de los particulares o de los gobiernos.
54
Una vez colocada en la red comercial, una especie protegida genera de inmediato un nuevo mercado. Sin suficientes controles internacionales y sin poder separar lo que es legal de lo que no lo es, la legalización sirve simplemente para sanear lo que sigue siendo en gran medida puro contrabando. Lo más probable es que pronto se permita la comercialización internacional del caimán negro (en grave peligro de extinción) criado en ranchos del Ecuador. Pero controlar la ruta de las pieles ilegales de caimán negro desde sus zonas naturales y baratas hasta su transformación en productos de fina peletería es, lisa y llanamente, imposible. Los animales tienen ciclos reproductores bastante lentos, pueden cazarse con facilidad y moran en lugares muy determinados. Pero una vez erradicados, rara vez se les retornan. Por consiguiente, cuando empiece el comercio, teme Ashley que sea necesario desplegar una severa vigilancia protectora de las poblaciones salvajes de la especie. Pero de entrada no existe ningún programa de control de las reservas naturales.
C
uando un país decide invertir en explotación viable coloca la etiqueta de “recursos” a los animales salvajes. Los fondos asignados se concentran en la adquisición de la técnica precisa para el establecimiento de granjas, a menudo sin pensar en qué hacer por mantener y resguardar el entorno natural. Los animales de valor comercial se cuidan selectivamente cual si fueran cabezas de ganado, no como pilares biológicos de un ecosistema. En ningún otro lugar lo apreciamos con la claridad que evidencia el ejemplo de China. En 1979 se empezó a criar el aligátor chino en granjas. El funcionamiento de las granjas ha adquirido un nivel satisfactorio, pero el aligátor salvaje se está extinguiendo: no llega al millar el número de los que viven en estado libre. Peor aún, la población salvaje no puede regenerarse a partir de la cría en granjas: ya no hay entorno natural donde puedan medrar. Nada impide que, en línea de principio, una granja sirva para cuidar el desarrollo y reproducción de una especie amenazada con el propósito de devolverla luego a la naturaleza. Lo hemos visto en la India. El gobierno indio y el Banco de cocodrilos de Madrás han repoblado el cocodrilo marino, el cocodrilo común de India y los gaviales. Cierto es que la India, donde no está permitido el comercio con crocodilios, protege legalmente a las poblaciones salvajes y los refugios naturales. No es tan fuerte el incentivo de seguro lucro que conlleva el sacrificio de animales salvajes. La investigación en biología de los crocodilios recibe una importante subvención de las industrias peletera y de explotación en ranchos. Casi todos los fundadores del Grupo de Especialistas en Cocodrilos que aconsejan
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
a la IUCN (que a su vez asesora a la CITES y a los gobiernos) pertenecen al gremio del comercio. Ante semejante dependencia del patrocinio de la industria, corren el riesgo los biólogos de olvidarse por completo de la conservación de la especie cuando se les apremia con una explotación viable. Los asesores industriales sostienen que el incremento del comercio de las especies incentivará su protección. Sobre la base de este razonamiento, la CITES ha asignado una cuota de exportación para Colombia de 600.000 pieles de caimán al año, en una nación que produce hasta 450.000 (sobre todo C. fuscus) al año. La razón es que Colombia podrá aumentar pronto sus exportaciones de caimán por medio de la cría en granjas y ranchos.
E
n 1973, cuando se firmó el Acta de especies en peligro, el Servicio estadounidense de Pesca y Fauna Salvaje clasificó al yacaré entre las amenazadas de extinción y prohibió su comercio en Estados Unidos. Se carecía de datos fiables sobre la densidad de la especie. La industria peletera ha hecho esfuerzos denodados, desde mediados de los años ochenta, por levantar la prohibición sobre el yacaré. Cuando sus escaramuzas iniciales fracasaron, la industria peletera patrocinó un estudio cuyos resultados abogaban por dividir la especie del caimán yacaré en tres subespecies en función de la tenería de pieles de origen desconocido. A continuación sostuvo que esas denominadas subespecies debían ser comercializadas, un argumento que por fortuna no suscribió el Servicio de Pesca y Fauna Salvaje de Estados Unidos. (Pero los manuales de la CITES enumeran las tres subespecies de yacaré, sin ofrecer
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
medios eficaces para que los policías, que tienen que hacer cumplir la ley, las distingan.) Los datos de nuestro trabajo de revisión prueban que la existencia de multiplicidad de razas de yacaré carece de fundamento alguno. Continúan los asaltos por quitar de la lista al yacaré, aun cuando se sabe que las poblaciones naturales de esta especie (y las de todas las demás especies de caimán) menguan en todas sus zonas de distribución. Pese al aumento de la presión por liberalizar el comercio de todas las especies de crocodilios, seguimos sin disponer de medios para comprobar si un trozo de piel procede de un animal criado legalmente en un rancho o pertenece a una criatura salvaje “protegida” que murió de un tiro en la cabeza mientras se asoleaba en el borde de su charca. Exceptuados los que viven en explotaciones rancheras, los caimanes salvajes de América Central y del Sur van camino de convertirse en una reliquia: los bordes de un bolso exhibido en un museo. BIBLIOGRAFIA COMPLEMENTARIA REPTILE LEATHER TRADE: THE FORENSIC SCIENCE EXAMINER’S ROLE IN LITIGATION AND WILDLIFE LAW ENFORCEMENT. Peter Brazaitis en Journal of Forensic Science, vol. 31, páginas 621-629; 1986. CROCODILES AND ALLIGATORES. Dirigido por Charles A. Ross. Facts on File, 1989. THREATS TO BRAZILIAN CROCODILIAN POPULATIONS. Peter Brazaitis, George H. Rebêlo, Carlos Yamashita, Elizabeth A. Odierna y Myrna E. Watanabe en Oryx, vol. 30, n.o 4, páginas 275-284; 1996.
55
Antígenos específicos del sexo Considerados antaño responsables de promover la diferenciación testicular embrionaria, su verdadera función y modo de actuación están aún por dilucidar Antonio Sánchez, Rafael Jiménez, Miguel Burgos y Rafael Díaz de la Guardia
E
n 1955, E. J. Eichwald y C. R. Silmser, de la Universidad de Utah en Salt Lake, realizaban trasplantes de piel dentro de una línea consanguínea de ratón. A pesar de que todos los individuos, donantes y receptores, compartían, pues, una misma constitución genética, algunos trasplantes se rechazaban. Eichwald y Silmser atribuyeron las excepciones a defectos de la técnica. Más tarde, advirtieron que los rechazos se producían siempre en hembras que habían recibido injertos de piel de macho. Habían descubierto la existencia de un antígeno específico de macho, es decir, poseído en exclusividad por él. Y lo llamaron “antígeno de histocompatibilidad del Y”, o H-Y. En mamíferos el sexo heterogamético, el que presenta cromosomas sexuales diferentes entre sí (X e Y), es el sexo masculino, mientras
que el sexo femenino es llamado homogamético, ya que sus células presentan dos cromosomas sexuales iguales (XX). En aves, reptiles y anfibios, aparece el fenómeno inverso: las hembras son el sexo heterogamético, con cromosomas sexuales denominados Z y W, mientras que los machos son el sexo homogamético con dos cromosomas sexuales iguales (ZZ). Por tanto, en estos taxones, el cromosoma W sería el equivalente al cromosoma Y de los mamíferos y el Z al X. La aplicación de la técnica de trasplantes de piel, a la que antes hacíamos referencia, demostró la existencia del antígeno H-Y en numerosas especies de mamíferos. Cuando esta técnica se aplicaba en aves, reptiles o anfibios, eran las hembras, sexo heterogamético, las que tienen el antígeno, denominado
CELULAS PROBLEMA
CONTROL
TRASPLANTES DE PIEL
TMS
TMS CONTROL
+
BAJO
ALTO
–
ALTO
ALTO
H-Yt H-Yt
56
en este caso antígeno anti H-W, y los machos los que rechazaban el trasplante. La presencia de este antígeno siempre en el sexo heterogamético, así como su prolongada permanencia a lo largo de la evolución, indujeron a pensar en su posible papel en la diferenciación sexual. Con las técnicas de trasplante iniciales sólo podía determinarse si un individuo era portador del antígeno H-Y (H-Y positivo), o no, cuando pertenecía a una línea consanguínea. Pasando el tiempo, se desarrollaron técnicas más potentes. Dos en particular: pruebas in vitro de citotoxicidad mediada por células y pruebas serológicas. Las pruebas de citotoxicidad mediada por células se basaban en la obtención de ciertas células del sistema inmunitario, denominadas linfocitos T, encargadas específicamente de destruir las células que poseían antígeno H-Y. Estos linfocitos T se consiguen a partir de ratones hembra trasplantadas con piel de macho. Si
1. TECNICA DE TRASPLANTES para determinar si las células de un individuo son o no H-Y positivas. Se toman dos grupos de hembras de una línea de ratón. Se sensibiliza un grupo con inyecciones intraperitoneales de células del individuo problema. Luego, se trasplanta, a ambos grupos, piel de machos singénicos. Y se calcula el tiempo medio de supervivencia (TMS) del trasplante en cada grupo. Si el TMS no varía significativamente entre el grupo control y el sensibilizado de antemano, diremos que el individuo será H-Yt negativo. Por el contrario, si el tiempo medio de supervivencia se ve acortado con respecto al grupo control, tendremos que las células del individuo problema han sensibilizado a las hembras frente al H-Yt, acelerando así la reacción de rechazo; nos hallaremos ante un individuo H-Yt positivo.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
TRASPLANTE DE PIEL
2. PRUEBA DE CITOTOXICIDAD mediada por células del antígeno H-Yc. Se empieza por inmunizar las hembras mediante trasplantes de piel o mediante inyecciones intraperitoneales de células esplénicas de macho. Luego, se extraen los linfocitos T de estas hembras y se vuelven a estimular contra el antígeno H-Yc, cultivándolos conjuntamente con esplenocitos de macho que previamente se han irradiado para evitar su crecimiento. Así se estimula in vitro el crecimiento de los linfocitos T que reconocen el antígeno H-Yc y que, por tanto, presentan capacidad citotóxica específica frente a células que porten en su superficie dicho antígeno. Estos linfocitos T poseen, pues, un receptor específico capaz de reconocer el antígeno sobre las células HYc positivas; interactúan con él y provocan la muerte de dichas células (izquierda arriba). Por contra, si las células son H-Yc negativas, el linfocito T no causa su muerte (izquierda abajo).
ESPLENOCITO IRRADIADO
LINFOCITO T
CELULA DIANA H-Yc+
CELULA LISADA
ESPLENOCITO DE
+
+
LINFOCITO T CITOTOXICO ANTI H-Yc CELULA DIANA H-Yc –
CELULA VIVA
+ estos linfocitos T eran capaces de destruir una muestra de células de un determinado individuo, debíase a que éste era H-Y positivo. Si no podían destruirlas, nos hallábamos ante un individuo H-Y negativo. Por su parte, las pruebas serológicas consisten en la obtención de suero con anticuerpos anti H-Y capaces de destruir las células que poseían antígeno H-Y. Estos anticuerpos se consiguieron en 1971, año en el que el grupo encabezado por E. H. Goldberg, de la Universidad de Cornell y del Instituto SloanKettering, puso de manifiesto que el suero de las hembras de ratón que habían rechazado varios trasplantes de piel de machos de su misma constitución génica era letal para los espermatozoides y otros tipos celulares masculinos. Ese mismo suero, sin embargo, no atacaba las células de hembra. Dicho de otro modo, el suero poseía anticuerpos que reconocían el antígeno H-Y. El poder citotóxico o letal del suero viene dado por el porcentaje de espermatozoides muertos en presencia de complemento. (Llámase complemento a cierto sistema de proteínas que interviene en reacciones de antígeno
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
CULTIVO
+ y anticuerpo.) El objetivo de las pruebas serológicas estriba, por tanto, en determinar si un individuo tiene o no antígeno H-Y. Para averiguarlo hay que contar qué proporción de una muestra de células (espermatozoides u otros tipos celulares) de este individuos es capaz de matar un suero con anticuerpos anti H-Y.
E
n
nuestro laboratorio de la Universidad de Granada hemos investigado los diferentes reactivos biológicos implicados en la detección del antígeno H-Y a través de pruebas de citotoxicidad mediada por anticuerpos (pruebas serológicas), y hemos demostrado que la inmunización de las hembras con esplenocitos de macho produce los mayores títulos, es decir, la mayor concentración de anticuerpos anti H-Y en los sueros. El tipo de células para las que estos sueros resultan más citotóxicos son los esplenocitos de macho; o lo que es lo mismo, esas células constituyen el tipo idóneo para determinar el grado de toxicidad de estos sueros. En las primeras investigaciones sobre el antígeno H-Y se daba por supuesto que las tres técnicas —trasplantes, mediadas por linfocitos T y
serológicas— detectaban el mismo antígeno H-Y. Supuesto que se cuestionó al observar ratones que respondían de forma negativa a la técnica de trasplantes y positiva a las técnicas serológicas. ¿Existirían en realidad distintos tipos de antígeno H-Y? También en humanos comenzaron a aparecer idénticas contradicciones. Las pruebas de toxicidad mediada por células habían mostrado que algunos individuos no parecían portar el antígeno H-Y. Pero las pruebas serológicas sí revelaban su presencia. La razón estribaba, hoy lo sabemos, en que, lo mismo que acontecía en ratones, el antígeno de histocompatibilidad del macho detectado por las pruebas serológicas difería del antígeno H-Y detectado por las pruebas de citotoxicidad mediada por células, y, posiblemente, también del determinado mediante trasplantes. Cada una de las tres técnicas podría estar detectando un antígeno diferente. En 1987, el grupo liderado por U. Wiberg, de la Universidad alemana de Friburgo, propuso que el antígeno de histocompatibilidad del macho detectado en ratones mediante trasplantes se llamara H-Yt; H-Yc, el descubierto por pruebas de citotoxicidad mediada
57
C'
TRASPLANTE DE PIEL
+ CELULA PROBLEMA (Sxs +) SUERO ANTI Sxs
CELULA LISADA
SUERO SIN Ac
C'
ESPLENOCITOS
+ CELULA VIVA
CELULA PROBLEMA (Sxs –) SUERO ANTI Sxs
SUERO CON Ac
SUERO ANTI Sxs
C'
+
+
CELULA PROBLEMA (Sxs +)
CELULAS DIANA Sxs + SUERO ANTI Sxs
SUERO SIN Ac
+
C'
+
CELULA PROBLEMA (Sxs –) SUERO ANTI Sxs
58
CELULA LISADA
CELULAS DIANA Sxs +
SUERO CON Ac
3. PRUEBA SEROLOGICA de detección de antígenos. Las hembras pertenecientes a una línea consanguínea se inmunizan mediante trasplantes de piel o mediante inyecciones intraperitoneales de esplenocitos de machos singénicos. Una vez que han rechazado los trasplantes o se han aplicado varias dosis de esplenocitos, se extrae el suero de las hembras, que presentará anticuerpos anti-Sxs (Ac). Estos sueros se utilizan en pruebas de citotoxicidad mediadas por anticuerpos directas o indirectas para determinar si un individuo o tejido son Sxs positivos o no. En las pruebas directas de citotoxicidad mediada por anticuerpos (derecha arriba) las células problema se exponen al suero anti-Sxs. Se agrega luego el complemento. Si las células son Sxs positivas, la unión antígeno-anticuerpo activará el complemento (C’) y provocará la lisis celular. Si las
por células (linfocitos T), y Sxs el detectado por pruebas serológicas. Se vio, además, que el antígeno de histocompatibilidad detectado por pruebas serológicas, el Sxs, era específico del sexo heterogamético en todos los vertebrados; el antígeno lo producían las células de Sertoli, células somáticas del interior de los
CELULA VIVA
células son Sxs negativas, no se formarán los complejos antígeno-anticuerpo, ni se activará el complemento: las células permanecerán vivas. En las pruebas indirectas de citotoxicidad mediadas por anticuerpos (derecha abajo) las células problema se exponen al suero anti-Sxs en ausencia de complemento. Si las células eran Sxs positivas, se habrá producido la unión antígeno-anticuerpo quedando el suero sin anticuerpos, lo que se pone de manifiesto por la incapacidad de éste para lisar las células diana Sxs positivas en presencia de complemento en una prueba de citotoxicidad directa. Por el contrario, si las células problema son Sxs negativas, no retirarán los anticuerpos del suero, con lo que éste conservará la capacidad de lisar células diana Sxs positivas en presencia de complemento en una prueba de citotoxicidad directa.
túbulos seminíferos de los testículos. Este antígeno Sxs se fija en la membrana de todas las células de los machos adultos, salvo en las células germinales inmaduras y en los glóbulos rojos. En las células somáticas extragonadales, sin embargo, el antígeno Sxs no constituye ningún componente
integrante de la membrana. Aunque se desconoce su mecanismo de unión a la membrana, sabemos que dicha unión depende de la β2-microglobulina, un polipéptido implicado en los procesos de citotoxicidad mediada por células. Así se explica que la línea de células Daudi, que carece de β2microglobulina, libere al medio gran
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
cantidad de Sxs, al no poder retener dicho antígeno en la membrana. De cualquier modo, la unión del antígeno Sxs a las células extragonadales es más débil que su fijación en las células de Sertoli. Sólo éstas poseen un receptor específico para el antígeno. Al igual que el antígeno Sxs, el receptor específico al que éste se ancla evidencia también un alto grado de conservación a lo largo del curso evolutivo.
E
n el brazo corto del cromosoma Y de ratón se halla el factor Sxr. Por tal se entiende un segmento cromosómico que porta el gen determinante de testículo, o Tdy. Existe una estirpe de ratones —denominada cepa Sxr— en la que el factor Sxr pasa a encontrarse en el cromosoma X. En virtud de dicha translocación, los individuos con dos cromosomas X, que en condiciones normales serían hembras, se desarrollan como machos si uno de sus cromosomas X porta el factor Sxr. De esa cepa Sxr de ratones procede otra que, si bien posee el factor Sxr en el cromosoma X, ha perdido parte del mismo. Al nuevo factor se le denomina Sxr′. Los machos con dos cromosomas XX, en uno de los cuales portan el nuevo factor Sxr′, a diferencia de los anteriores, carecen del antígeno H-Yt. Si los ratones Sxr producen este antígeno y los Sxr′ no, habiendo perdido estos últimos un pequeño segmento del factor Sxr, dicho segmento perdido deberá contener un gen del que depende la producción del antigeno H-Yt. Dado que el factor Sxr se asienta en el brazo corto del cromosoma Y de los ratones normales, ese gen deberá alojarse en dicha posición. En humanos la situación es muy distinta de lo observado en ratones. Los individuos que sólo tienen un cromosoma X y carecen de otro cromosoma sexual —individuos X0—se desarrollan como mujeres. Curiosamente, si bien esas mujeres carecen del cromosoma Y, algunas presentan el antígeno H-Yt. Todo indica, pues, que el gen de ese antígeno no se aloja en el cromosoma Y humano. Por lo que respecta a la localización del antígeno H-Yc de ratón, los datos coinciden con los obtenidos para el antígeno H-Yt en esta especie. Ello abona la hipótesis de que el gen del H-Yc se aloja también en el brazo corto del cromosoma Y de ratón. Los casos analizados sugieren que en humanos, al igual que en ratón,
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
4. EN LAS PRUEBAS DE CITOTOXICIDAD mediada por anticuerpos, las células diana (en este caso esplenocitos), expuestas al suero anti-Sxs en presencia de complemento, se tiñen con azul tripan. Ello permite distinguir entre las células que permanecen vivas, que aparecen blancas y muy refringentes, y las que se han lisado, de mayor tamaño y con coloración azulada.
el gen del antígeno H-Yc se localiza en el brazo corto del cromosoma Y o, si es en el largo, su localización será muy próxima al centrómero. Con el fin de obtener una información más precisa sobre los genes que codifican los antígenos H-Yt y H-Yc, se desarrollaron diversos
experimentos de reconocimiento de estos antígenos por los linfocitos T. Los resultados demostraron que no hay un único tipo de linfocitos T que reconozca a estos antígenos, sino que existen distintos clones de linfocitos que reconocen a distintos fragmentos o regiones de éstos. Cada
5. EN MAMIFEROS sólo las células de Sertoli de los testículos de los machos producen el antígeno Sxs. Estas células liberan al medio gran cantidad de antígeno, aunque parte del mismo queda retenido en su membrana. La presencia de antígeno en la superficie de las células de Sertoli queda puesta de manifiesto mediante tinción inmunohistoquímica usando anticuerpos anti-Sxs y marcaje con peroxidasa, enzima que, en presencia del sustrato adecuado, dará una coloración marrón intensa en las células portadoras del antígeno (izquierda). Esta coloración no aparecerá en las células carentes de Sxs (derecha).
59
MACHO (XY) CROMOSOMA Y
HEMBRA (XX)
CROMOSOMA X
CROMOSOMA X
CROMOSOMA X
ACTIVADOR
– RECEPTOR ESPECIFICO
–
REPRESOR REPRESOR
+ CELULA SOMATICA GONADAL
Sxs
CROMOSOMA 6
–
RECEPTOR ESPECIFICO
CELULA SOMATICA GONADAL
CROMOSOMA 6
6. GENES IMPLICADOS en el control del antígeno Sxs. Son tres: gen estructural para el antígeno (alojado en un autosoma), gen regulador represor (situado en el cromosoma X) y gen regulador activador (inserto en el brazo corto o en el largo próximo al centrómero del cromosoma Y). El producto del gen activador ejerce su función impidiendo la transcripción del gen represor, inactivando el producto de este gen o activando la transcripción del gen estructural del antígeno. Para que el antígeno realice su misión, se requiere la presencia de su receptor específico en las células somáticas gonadales; el gen para este receptor se halla en el cromosoma X. Los individuos XX presentan el receptor específico, pero no el antígeno, por encontrarse su gen bajo la acción del represor producido por ambos X.
una de estas regiones, reconocida por un particular clon de linfocitos, constituye lo que se denomina un determinante antigénico o epitopo, y se define como cada una de las partes de la molécula del antígeno que de suyo puede inducir la respuesta inmunitaria. Como consecuencia de estos resultados, se ha sugerido la posibilidad de que cada epitopo sea cifrado por un gen diferente. Ello supondría, que habría varios genes responsables de la codificación del antígeno completo. En este contexto, se sabe
ANTONIO SANCHEZ, RAFAEL JIMENEZ, MIGUEL BURGOS y RAFAEL DIAZ DE LA GUARDIA forman un grupo de investigación sobre citogenética evolutiva y molecular de mamíferos en la Universidad de Granada. Sánchez enseña genética en la Universidad de Jaén; Jiménez, Burgos y Díaz de la Guardia, en la de Granada.
60
que en humanos el gen SMCY determina la proteína SMCY, en la que un fragmento de ocho aminoácidos constituye el epitopo de los antígeno H-Yt y H-Yc. En el ratón, el gen Smcy se aloja en el brazo corto del cromosoma Y. (Adviértase que un mismo gen se representa con todas sus letras en mayúscula si es humano y con sólo la primera en mayúscula y el resto en minúscula si es de ratón.) Para ser más precisos, dicho gen se aloja en el segmento de cromosoma Y delecionado en los ratones Sxr′ ; esta estirpe ha perdido con el segmento el gen en cuestión. Un fragmento de 11 aminoácidos de la proteína codificada por dicho gen constituye un epitopo del antígeno. También se ha clonado el gen Uty de ratón, localizado en el cromosoma Y. Cifra la proteína Uty. Lo mismo que en los casos anteriores, un fragmento de nueve aminoácidos de esta proteína constituye otro epitopo del antígeno H-Yt y H-Yc. Parece, pues, probado que los distintos epitopos
del H-Yt y H-Yc están codificados por genes diferentes que tienen su asiento en el cromosoma Y. Pero la cuestión reviste cierta complejidad, ya que tanto los genes Smcy y Uty de ratón, como el SMCY humano tienen genes homólogos en el cromosoma X, llamados Smcx, Utx y SMCX respectivamente. Sin embargo, estos genes del cromosoma X no determinan los correspondientes fragmentos proteicos epitopos del H-Yt y H-Yc; por tanto, la homología entre estos genes del Y y del X no es completa. En consecuencia, pese al estrecho parecido entre estos genes del cromosoma X y los del cromosoma Y, no intervienen en la formación del antígeno H-Yt y H-Yc. Una vez relatado el descubrimiento de los genes que cifraban los antígenos H-Yt y H-Yc, pasemos al gen que cifraba el Sxs.
A
ños atrás, se creía que la producción del antígeno Sxs dependía de un gen alojado en el cromosoma Y. Varias razones avalaban este supuesto. En primer lugar, la presencia del antígeno estaba vinculada al sexo heterogamético; es decir, el que produce dos tipos de gametos por tener dos cromosomas sexuales diferentes (XY en mamíferos). En segundo lugar, el antígeno Sxs faltaba en los individuos con un solo cromosoma X (mujeres X0), pero aparecía en individuos con dos cromosomas X y un cromosoma Y: varones XXY. Esos y otros datos apoyaban la tesis según la cual el gen del antígeno Sxs se alojaba en el cromosoma Y. Sin embargo, la presencia del antígeno Sxs en hombres cuya constitución genética era XX y en ciertas mujeres X0, carentes por tanto de cromosoma Y, revelaban que el gen determinante del antígeno en cuestión debía hallarse en otro cromosoma. A su vez, el gen identificado en el cromosoma Y estaría implicado en la regulación de la expresión del antígeno Sxs. Para mayor dificultad, se observó más tarde el antígeno Sxs en mujeres que parecían absolutamente normales. Un análisis más detenido mostró que estas mujeres habían perdido un pequeño fragmento de uno de sus cromosomas X, el segmento Xp223. ¿Por qué la pérdida de un segmento del cromosoma X conducía a la producción de antígeno Sxs? La razón podría esconderse en la existencia de un gen implicado en la producción del antígeno Sxs y que se alojara en el segmento Xp223.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
A este gen podría corresponderle la función de impedir la activación del gen determinante del antígeno Sxs. Estos resultados dieron lugar a un modelo para la expresión del antígeno Sxs. En esa explicación intervenían, por lo menos, tres genes, uno estructural y dos reguladores. El gen estructural, que no se alojaba en el cromosoma Y, podría ser autosómico. De los dos genes reguladores, uno ejercería un efecto represor y se hallaría en el cromosoma X, mientras que el otro sería activador y se ubicaría en el cromosoma Y.
serva la capacidad de absorber los anticuerpos anti-Sxs del suero. De ello se desprende que el determinante antigénico del Sxs es una parte de la molécula, diferente de la porción que interacciona con el receptor específico. Ya que todos estos antígenos: H-Yt, H-Yc y Sxs son específicos del sexo heterogamético, se planteó la cuestión de si alguno de ellos es reponsable de la determinación de este sexo.
El alto grado de conservadurismo evolutivo del Sxs, que se ha estimado se extiende a lo largo de 300 millones de años, sugiere que este antígeno debe desempeñar alguna función asociada con el sexo heterogamético. Basándose en esta idea, el grupo de S. S. Wachtel, del Instituto Memorial Sloan-Kettering de Oncología, propusieron en 1975 que el antígeno Sxs era el producto del gen Tdy, determinante de testículo
PRIMORDIO GONADAL INDIFERENCIADO
MESONEFROS
H
ace unos años se clonó el gen MEA (“antígeno reforzado del macho”). Se vio que este gen pertenecía al cromosoma 6 humano. Hay razones para pensar que este gen MEA es el gen estructural del antígeno Sxs. A pesar de que el antígeno Sxs se encuentra en la membrana de todas las células de individuos de sexo heterogamético, su escasa presencia en la superficie celular ha dificultado el aislamiento de dicho factor. Sin aislarlo no podemos definir las características moleculares del antígeno Sxs. Los datos disponibles se han extraído de experimentos en los que se empleó medio de cultivo donde habían crecido líneas celulares que liberaban el antígeno al medio. En particular se emplearon células Daudi o de Sertoli. Se admite que el antígeno Sxs es un polipéptido hidrofóbico, constituido por unos 160 aminoácidos. Se unen al polipéptido no más de 5 residuos glucosaminos, que forman su determinante antigénico. Y se ha demostrado que el factor Sxs liberado al medio por las células es una proteína de vida media alta, con un peso molecular de 18.000 dalton y con capacidad para formar grandes polímeros por medio de puentes disulfuro, sumamente hidrofóbicos. Sólo los polímeros con un peso molecular comprendido entre 36.000 y 86.000 dalton pueden unirse al receptor específico de las células gonadales. Una vez unidos al receptor, los polímeros se descomponen de inmediato en su forma monomérica de 18.000 dalton; quizás ésta sea la forma funcional del antígeno Sxs. Se ha descrito un Sxs mutado que ha perdido la capacidad de formar polímeros a través de puentes disulfuro, así como la capacidad de unirse al receptor específico de las células gonadales. Sin embargo, con-
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
CONDUCTO DE M LLER
OVARIO
CONDUCTO DE WOLFF
TDF /Tdy
TESTICULO
TDF/TDY
EPIDIDIMO OVIDUCTO
CONDUCTO DEFERENTE
UTERO
VAGINA
HEMBRA (XX)
VESICULA SEMINAL
MACHO (XY)
7. PROCESO DE DIFERENCIACION SEXUAL PRIMARIA. Hasta una determinada fase de su desarrollo, los embriones mantienen el potencial para diferenciarse en macho o hembra. Así, poseen un primordio gonadal con capacidad para convertirse en testículo u ovario. Además, contienen dos pares de conductos; por un lado, los conductos de Wolff, precursores de epidídimos, conductos deferentes y vesículas seminales (típicamente masculinos), y, por otro, los conductos de Müller, precursores de oviductos, útero y vagina (típicamente femeninos). En los individuos XY la presencia del gen determinante de testículo (Tdy/TDF) hace que el primordio gonadal se diferencie hacia testículo. En estos estadios las células de Sertoli comienzan la producción de hormona antimülleriana, responsable de la regresión de los conductos de Müller, a la vez que los de Wolff, gracias a la secreción de testosterona por las células de Leydig, se van diferenciando en epidídimos, conductos deferentes y las vesículas semanales. En los individuos XX en ausencia del gen determinante de testículo el primordio gonadal se diferencia en ovario y se produce una regresión de los conductos de Wolff y un desarrollo de los de Müller, inducido por la secreción de estradiol, dando lugar a oviductos, útero y vagina.
61
8. TRAS CULTIVAR in vitro los primordios gonadales de embriones de pollo en presencia, y ausencia, de Sxs, podemos observar que los pertenecientes a individuos genéticamente hembras (ZW) no ven alterado su proceso de diferenciación sexual; se desarrollan normalmente la mé-
en ratón, conocido por gen TDF, o factor determinante del testículo en humanos. En mamíferos, la diferenciación testicular comienza por la inducción del gen Tdy/TDF de las células somáticas del primordio gonadal bipotencial del embrión (con capacidad para diferenciarse en testículo o en ovario). Estas células se agregan en cordones testiculares, en cuyo interior quedan englobadas las células germinales. Estas células de Sertoli inician una actividad hormonal, que promueve la diferenciación de las células del mesénquima gonadal en células de Leydig. Dicha actividad hormonal es responsable también de la formación del sistema vascular y conectivo del testículo, en el que se incluiría su envuelta, denominada túnica albugínea. Por su parte, la testosterona y dihidrotestosterona fabricadas por las células de Leydig determinarían la diferenciación del resto de estructuras y órganos típicos del aparato urogenital masculino. Por carecer del cromosoma Y, las hembras no poseen el gen Tdy/TDF. En ellas el primordio gonadal permanece invariable en el momento del desarrollo en el que se produciría la diferenciación testicular. Días más tarde, el primordio gonadal empieza a diferenciarse en un ovario, con la formación de folículos primordiales constituidos por una célula germinal rodeada de células somáticas foliculares. Según la hipótesis de Wachtel y colaboradores, en este proceso de desarrollo gonadal, el Sxs se uniría a las células somáticas del primordio
62
dula y el córtex del ovario (izquierda). Por su parte, los primordios gonadales de individuos genéticamente machos (ZZ), en ausencia de Sxs, se diferencian en testículos, en cuya médula puede observarse la aparición de túbulos seminíferos normales (centro), mientras que en presencia de
gonadal indiferenciado, induciéndoles a organizar los túbulos seminíferos, con lo que comenzaría la diferenciación testicular y, consecuentemente, el desarrollo posterior del fenotipo masculino. La vinculación del desarrollo testicular con la presencia de Sxs viene respaldada por numerosas pruebas. Los experimentos de disociación y reagregación celular demostraron que, si se dejaban reasociar células ováricas o testiculares disociadas, éstas se reorganizaban en sus estructuras histológicas típicas. Sin embargo, células testiculares cultivadas en presencia de suero anti-Sxs se organizaban en estructuras semejantes a folículos ováricos, mientras que en presencia de suero normal no se producía este fenómeno. De la misma forma se ha demostrado que células ováricas disociadas se reorganizaban en estructuras semejantes a túbulos seminíferos en presencia de Sxs procedente del cultivo de células testiculares. Se atribuyó al antígeno Sxs este cambio histomorfológico que, además, iba acompañado de un cambio funcional, ya que estas células presentaron receptores para la hormona luteinizante y para la gonadotropina coriónica humana, características que son típicas de células testiculares de recién nacidos, pero no de células ováricas de recién nacidos. La hipótesis de Wachtel también encontró apoyo en cuatro hechos. Primero, sólo las células de Sertoli son productoras de Sxs; segundo, la persistente conservación, en el curso evolutivo, del receptor espe-
cífico, presente exclusivamente en las células somáticas gonadales de ambos sexos; tercero, se describieron ovotestes (gónadas mixtas con tejido testicular y ovárico) en los que la parte testicular era Sxs positiva y la ovárica Sxs negativa, y, por fin, la exposición prolongada de ovarios fetales al antígeno Sxs procedente del cultivo de células Daudi inducía en éstos la formación de túnica albugínea y túbulos seminíferos. El hecho de que en aves y otros vertebrados el sexo heterogamético sea el femenino (ZW) y además el que expresara el antígeno Sxs, movió a suponer que este antígeno sería en esos grupos el responsable de la diferenciación ovárica. Ello planteaba la cuestión sobre la posibilidad de que una misma molécula fuera inductora de testículo en mamíferos y de ovario en aves. Tal hipótesis encontró apoyo en experimentos en los que se demostró que, cuando se cultivaban conjuntamente testículos embrionarios de mamífero y de ave, se producía la feminización de estos últimos; de esa feminización se responsabilizó al antígeno Sxs producido por las células de Sertoli de los testículos de mamífero. Además, los cultivos rotatorios de células testiculares de pollo disociadas se reorganizaban en estructuras ováricas en presencia de Sxs procedente de cultivos de células testiculares de rata o de cultivos de células Daudi. En experimentos de cultivo in vitro de primordios gonadales de aves en presencia, o ausencia, de
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Sxs su proceso de diferenciación sexual se invierte en el sentido femenino y, por tanto, la médula y el córtex de estas gónadas muestra un desarrollo típicamente ovárico (derecha).
antígeno Sxs procedente del cultivos de células de Sertoli de rata, nuestro grupo demostró que los primordios de los individuos genéticamente hembras (ZW) no ven alterado su proceso de diferenciación sexual normal ni en presencia ni en ausencia de Sxs: se desarrollaban en ovarios. Los primordios pertenecientes a individuos genéticamente machos (ZZ) en ausencia de Sxs continúan su desarrollo hacia testículos, mientras que, en presencia de Sxs, sufren un proceso de feminización con falta de diferenciación de la médula y desarrollo del córtex, características típicamente ováricas. Estos primordios gonadales de macho se habrían
diferenciado como testículos en ausencia del antígeno Sxs. Al poco de realizar nosotros los experimentos mencionados empezaron a aparecer casos de individuos en donde no se cumplía la esperada correspondencia entre la presencia de tejido testicular y la del antígeno. Se informó de hembras de ratón Sxs positivas e individuos con tejido testicular que eran Sxs negativos. Resultaba manifiesto que este antígeno no podía considerarse responsable directo de la diferenciación testicular. Se describieron, además, diversos casos de mamíferos que mostraban niveles de antígeno Sxs inferiores a los de los machos normales XY. Algunos de ellos eran estériles, como hombres XX, mujeres X0 y hermafroditas XX portadores de ovotestes. Otros, sin embargo, eran fértiles, como mujeres XX, yeguas XY y perras XX. Para explicar el desarrollo ovárico en estos casos, se postuló la existencia de un rango de variación continua en los niveles de Sxs entre machos y hembras. El desarrollo testicular dependería de que se alcanzase o no determinado umbral de concentración del antígeno. Por encima de dicho umbral se produciría la diferenciación testicular y por debajo del mismo tendría lugar la diferenciación ovárica. Más raramente, se producirían ovotestes en individuos hermafroditas con niveles intermedios de Sxs. Un caso especialmente llamativo es el del topo ibérico (Talpa occidentalis) investigado en nuestro laboratorio. En esta especie, todos los individuos XX se desarrollan en hermafroditas verdaderos, portadores de ovotestes;
9. EL TOPO IBERICO (Talpa occidentalis) constituye un caso sorprendente de reversión sexual parcial. En esta especie, los individuos XX se desarrollan para formar hembras fértiles, pero sus gónadas no son ovarios normales, sino ovotestes (derecha). Se desarrolla en éstos una porción ovárica normal
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
sin embargo, se comportan como hembras funcionales fértiles. Estas hembras presentan niveles muy variables de antígeno Sxs, aunque siempre inferiores a los de los machos XY. La constancia en la formación de ovotestes en los individuos XX de esta especie con niveles variables de Sxs, junto con la descripción de machos XX de rata con niveles bajos de antígeno y de mujeres X0 con niveles muy altos del mismo, contradicen la hipótesis del gradiente. Por su lado, la acumulación de ejemplos en los que no existe correspondencia entre la presencia de antígeno y la de tejido testicular hizo que finalmente se abandonase la hipótesis de identidad entre Sxs y Tdy/TDF.) Se descartó asimismo que los antígenos H-Yc y H-Yt promovieran la diferenciación testicular: había ratones fenotípicamente machos que carecían de estos antígenos.
D
iez años después de que Wachtel y colaboradores propusieron la identificación del gen del antígeno H-Y con el gen determinante del sexo heterogamético, se rechazaba definitivamente tal hipótesis. Pero no se conocía ningún gen concreto que pudiese identificarse con el hipotético gen determinante de testículo (Tdy/ TDF). Las técnicas moleculares permitirían aislar el Tdy/TDF. El problema se abordó mediante el estudio molecular de mapas de deleción. Se trataba de buscar asociación entre la presencia o ausencia de determinados caracteres sexuales en individuos con reversión sexual, ya sea total (hombres XX o mujeres XY) o parcial (hermafroditas), y la
(región izquierda) con numerosos folículos en distintos estadios de maduración, junto a una porción de tejido testicular anormal y de tamaño variable (región derecha). Se trata, por tanto, del único caso de intersexualidad específica descrito hasta el momento.
63
presencia o ausencia en los mismos de ciertos segmentos de ADN pertenecientes al cromosoma Y. Se consiguió así clonar primeramente un gen localizado en el brazo corto del cromosoma Y humano, cuya secuencia permitió deducir que debería cifrar una proteína reguladora de la expresión génica del tipo “dedos de zinc”, por lo que el gen recibió el nombre de ZFY. Si a tales propiedades sumábamos su larga persistencia a lo largo de la evolución, era evidente que constituía un excelente candidato para erigirse en el gen TDF humano. Pero esta hipótesis quedó desmentida. Se comprobó su localización autosómica en marsupiales, su inapropiado patrón de expresión en ratón y la existencia de hombres XX carentes del gen. Hubo, pues, que descartarlo como el determinante primario del desarrollo testicular. Así las cosas, en 1990 Andrew Sinclair y colaboradores, de la Fundación Imperial de Investigaciones Oncológicas de Londres, clonaron un gen de la región masculinizante del cromosoma Y humano al que denominaron SRY (región determinante del sexo del cromosoma Y). Cumplía con todos los requisitos necesarios para identificarlo con el gen TDF, determinante del testículo humano. En el embrión de ratón, el correspondiente homólogo del SRY humano, denominado Sry, se expresaba justo en el momento de la diferenciación testicular en los machos. Con todo, las pruebas definitivas fueron la existencia de mujeres XY que poseían el gen SRY mutado y la obtención de ratones XX transgénicos para Sry que se desarrollaban como machos. (Un animal transgénico es aquel en el que se ha introducido de forma artificial un gen que no le es propio.) Debido a la falta de otros genes del cromosoma Y, estos machos transgénicos eran estériles, pues estaban imposibilitados para realizar la espermatogénesis. Estos experimentos demuestran que basta el gen Sry para inducir la diferenciación testicular del primordio gonadal indiferenciado y, por tanto, debe identificársela con el determinante testicular Tdy/TDF. Una vez descartada la implicación de los antígenos H-Y en el determinismo genético del sexo, queda en el aire una pregunta: ¿Cuál es el papel real de estos antígenos? Desafortunadamente, aún no se dispone de una respuesta. Sin embargo, el volumen de datos acumulados sobre los antígenos H-Y indica que éstos
64
deben tener algún tipo de relación con diversos aspectos de la diferenciación sexual y la reproducción. Las últimas investigaciones sugieren una posible implicación de los antígenos H-Yt y H-Yc en el proceso de la espermatogénesis. Se sabe de ratones carentes de estos antígenos que han desarrollado testículos prácticamente normales, pero en los cuales la población de células germinales se va reduciendo desde el nacimiento, terminando por desaparecer. Se ha postulado también que el gen Spy de la espermatogénesis podría ser el mismo del antígeno H-Yt. Igualmente, se ha tratado de identificar al gen H-Yt con el gen Gdy, presumible responsable de acelerar el crecimiento de la gónada embrionaria, característica típica de los testículos en desarrollo, y de todo el embrión masculino en su conjunto. Dado que H-Yt, Spy y Gdy se alojan en el pequeño fragmento cromosómico en que difieren los ratones de las cepas Sxr y Sxr′, se ha sugerido que estos tres genes podrían ser uno solo.
L
os problemas metodológicos que plantea el estudio inmunitario de los antígenos del sexo reforzaron los intentos por abordar el tema desde un enfoque genético. Ese esfuerzo dio sus frutos con la clonación de los genes MEA, SMCY y Uty, lo que confirmó que estos antígenos estaban cifrados por genes diferentes. Se admite ahora que el antígeno H-Y, lo mismo que cualquiera de sus variantes, no intervendría de forma directa en la diferenciación sexual, sino que sería resultado de la expresión de varios genes que se han conservado en el cromosoma Y durante cientos de millones de años. BIBLIOGRAFIA COMPLEMENTARIA FACT AND CONSIDERATIONS ABOUT SEXSPECIFIC ANTIGENS. Ulf H. Wiberg en Human Genetics, vol. 76, págs. 207-219; 1987. SEMINARS IN DEVELOPMENTAL BIOLOGY. SEX DETERMINATION AND THE MAMMALIAN Y CHROMOSOME. Dirigido por P. Goodfellow y R. Lovell-Badge, Saunders Scientific Publications, vol. 2, n.o 4; Philadelphia. Agosto de 1991. PUZZLING OUT THE GENETICS OF MAMMALIAN SEX DETERMINATION. R. Jiménez, A. Sánchez, M. Burgos y R. Díaz de la Guardia en Trends in Genetics, vol. 12, n.o 5, páginas. 164-166; 1996.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
¿Se está agotando el petróleo?
L
a pregunta que da título al informe tiene, aunque con matices expuestos en los artículos, una respuesta breve: sí. Debido a que en los últimos diez años las naciones han pisado el acelerador de la economía no es de extrañar que también haya subido de forma espectacular la producción del petróleo, alcanzando un récord de 65 millones de barriles diarios el año pasado. La cuantía disponible ha contribuido a mantener el petróleo barato y la inflación baja. Pero, ¿no podría tratarse de la eclosión que precede al derrumbe? Antes del 2010, se dice en el informe, el flujo de petróleo alcanzará su apogeo para iniciar luego su declive imparable. Los analistas basan sus proyecciones de futuro en un impresionante volumen estadístico. Si están en lo cierto, el mundo habrá de reaccionar con rapidez a
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
fin de evitar bruscas subidas de precios, recesiones y las convulsiones políticas que a lo largo de la historia han provocado las mermas de petróleo, o sus amagos. Sin embargo, y se explica en el informe, existen opciones alternativas. La industria es capaz de alargar la vida de los yacimientos petrolíferos senescentes y puede perforar nuevos pozos escondidos bajo profundas aguas oceánicas. Además, la técnica ha llegado en su progreso al punto de poder transformar el gas natural y las arenas petrolíferas, ambos todavía abundantes, en combustibles líquidos tan baratos como los derivados del petróleo refinado. La humanidad dispone de los medios para llevar a cabo una transición metódica hacia las nuevas fuentes; todo lo que se requiere es voluntad, tiempo y dinero.
65
Fin de la era del petróleo barato El declive de la producción global de crudo empezará antes de lo que se cree; con toda probabilidad, sin que pasen 10 años Colin J. Campbell y Jean H. Laherrère
L
as repentinas subidas de precio de 1973 y 1979 abrieron los ojos al mundo industrializado sobre su dependencia de un crudo barato. Primero los precios se triplicaron en respuesta al embargo árabe y luego volvieron a duplicarse cuando Irán destronó a su Shah. Las economías más poderosas se vieron así abocadas a una recesión. Varios analistas vieron en esas crisis un mundo a punto de quedarse sin petróleo. Se equivocaron. Sus predicciones apocalípticas fueron reacciones emocionales y políticas. Los expertos sabían, ya entonces, que tales pronósticos carecían de base. Unos años antes se habían descubierto enormes campos en la vertiente norte de Alaska y bajo las aguas del mar del Norte, cerca de la costa europea. Hacia 1973 el mundo había consumido, de acuerdo con las 1859
mejores estimaciones, alrededor de un octavo de su riqueza en crudo accesible. Dentro de la Organización de Países Exportadores de Petróleo (OPEP) los cinco miembros de Oriente Medio convinieron en subir los precios, no porque hubiera peligro de escasez, sino porque habían decidido hacerse con el 36 % del mercado. Más tarde, cuando la demanda cayó y el flujo de petróleo fresco procedente de Alaska y del mar del Norte debilitó la presión ejercida por la OPEP, los precios se desplomaron. La próxima quiebra no será tan efímera. Nuestro análisis del descubrimiento y la producción de los yacimientos apunta que durante la próxima década el suministro no podrá satisfacer la demanda. Esta conclusión contradice el cuadro que se desprende de los informes de
una industria que se vanagloria de los 1,02 billones de barriles en reservas “probadas” a comienzos de 1998. La división de esta cifra por la tasa de producción actual, correspondiente a unos 23.600 millones de barriles (Gbo) anuales, sugiere que el petróleo podría persistir en abundancia y a buen precio durante 43 años, probablemente más, puesto que las tasaciones oficiales muestran un aumento en las reservas. Pero ese panorama rosa esconde tres errores de bulto. Primero: el cuadro se funda en estimaciones distorsionadas de las reservas; segundo: piensa en una producción que permanece constante; por último, y más importante, supone que la última gota de petróleo puede bombearse con el ritmo con que se extraen ahora los barriles de los pozos. De hecho, el ritmo al que cualquier pozo
1. PRODUCCION PETROLIFERA norteamericana desde el primer pozo comercial de Titusville (izquierda) a los castilletes alzados de Los Angeles (abajo). Mantuvo un crecimiento continuo. Sin embargo, la producción doméstica empezó su declive después de 1970. Las restricciones sobre el crudo de Oriente Medio trajeron, en 1973 y 1979, inflación y escasez. Durante la guerra del golfo Pérsico, los yacimientos en llamas recordaron al mundo industrializado su dependencia de la producción petrolífera de Oriente Medio (línea gris).
1920
66
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
COLIN J. CAMPBELL y JEAN H. LAHERRERE han trabajado en la industria petroquímica durante más de 40 años. Forman ahora asociación con Petroconsultants de Ginebra.
—o cualquier país— puede producir petróleo siempre alcanza un máximo, y entonces, una vez se ha agotado la mitad de las reservas, empieza a bajar de forma gradual hasta llegar al vaciamiento.
D
esde el punto de vista económico, no importa tanto en qué momento se agotará el petróleo cuanto el día en que empiece a declinar la producción. Llegado éste, los precios subirán, a menos que se restrinja la demanda en pareja proporción. Sirviéndonos de diversas técnicas para calcular las reservas actuales y la cuantía por descubrir, hemos llegado a la conclusión de que el declive empezará antes del 2010. Nos hemos concentrado en la búsqueda de petróleo, en el estudio de las cifras sobre reservas y en estimaciones sobre la cantidad de petróleo por descubrir. Consideremos tres datos esenciales que se requieren para planificar la producción futura. El primero corresponde al cálculo de la cuantía de crudo extraída hasta la fecha, es decir, la producción acumulada. El segundo se basa en una estimación de las reservas, la cantidad que las compañías pueden bombear de los yacimientos conocidos antes
de abandonarlos. Por último, debe los ingenieros aplican una regla de hacerse una estimación realista sobre probabilidad a sus tasaciones. Por la cantidad de crudo que queda por ejemplo, si existe el 90 % de posidescubrir. La suma total equivale bilidades de que el campo noruego a la extracción máxima, el número de Oseberg contenga 700 millones de absoluto de barriles extraíbles cuando barriles de petróleo recuperable, pero la producción cese dentro de algunas sólo un 10 % de que su rendimiento décadas. aumente en 2500 millones de barriles Para obtener dichos datos podemos más, entonces el porcentaje más bajo hojear las publicaciones del sector, debería citarse como estimación P90 proceder que resulta bastante eficaz (P90 entendido como “probabilidad si buscamos estadísticas de produc- del 90 %”) y el más alto como el ción acumulada, porque las compañías de reservas P10. calculan el petróleo según mana de Empresas y países acostumbran sus pozos. El récord de producción ofrecer datos deliberadamente vano es perfecto (así, por ejemplo, los gos acerca de las posibilidades de 2000 millones de barriles quemados las reservas de las que informan y por Irak en 1991 no suelen recogerse prefieren publicar cualquier porcenen las estadísticas oficiales), pero los taje, en la gama de P10 a P90, que errores son de fácil reconocimiento mejor les convenga. Sin embargo, la y corrección. La mayoría de los exageración de las predicciones puede expertos coinciden en señalar que, aumentar el precio de las provisiones hasta 1997, la industria extrajo más de una petroquímica. Los miembros de la OPEP han de 800 Gbo. Más complicado se hace el obtener sufrido una tentación aún mayor, la estimaciones fundadas de las reservas. de hinchar sus informes. Cuanto más Casi todas las estadísticas asequibles altas son sus reservas, más petróleo se extraen de estudios dirigidos por se les permite exportar. Las emprelas revistas Oil and Gas Journal y sas nacionalizadas de los principales World Oil, que cada año pasan un países de la OPEP no necesitan (y cuestionario a las petroquímicas y tampoco lo hacen) divulgar las estadísticas de cada yacimiento, a los gobiernos. Publican luego los las cuales se podrían datos recibidos acerca de la proutilizar para comproductividad y de las reservas, sin posibilidad de corroborarlos. bar las reservas totaLos resultados, que a menudo les de un país. Hay, pues, razones de peso se aceptan sin un espíritu crípara sospechar que, tico, contienen errores sistemáticos. De entrada, la ciencia de cuando a finales de la valoración de las reservas los ochenta, seis 1973 1979 es inexacta, por cuya razón
1973 1991
PRODUCCION PETROLIFERA EN EE.UU. Y CANADA
PRODUCCION PETROLIFERA EN EL GOLFO PERSICO
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
1979 1991
67
de las once naciones pertenecientes a la OPEP incrementaron sus cifras de reservas hasta cantidades desorbitadas, lo hicieron para elevar sus cuotas de exportación.
L
as estimaciones de la OPEP anteriores a la nacionalización respondían con toda probabilidad a las conservadoras cifras de un P90. No cabía entonces ninguna duda: una revisión al alza estaba garantizada. Pero ni los descubrimientos ulteriores, ni los avances técnicos justificaron la suma de un tambaleante 287 Gbo. Obviamente, los países que no pertenecen a la OPEP tampoco se quedan cortos a la hora de alterar sus resultados: 59 naciones afirmaron en 1997 que sus reservas continuaban inalteradas desde 1996. No son plausibles las cifras que año tras año mantienen una perfecta estabilidad, pues las reservas se agotan con la explotación y suben bruscamente cuando se descubren campos nuevos. Otra fuente de error sistemático en las estadísticas aceptadas estriba en la definición de reservas, que varía de una región a otra. En los EE.UU. se permite a las empresas atribuir a una reserva el calificativo de “probada” únicamente si el petróleo yace cerca de un pozo productivo y si existe una “certeza razonable” de que su extracción con las técnicas habituales puede ser rentable, de acuerdo con los actuales precios del petróleo. Dicho de otro modo, allí una reserva probada
viene a equivaler a la estimación de P90. En la mayoría de los restantes países las ordenanzas no exigen unas definiciones específicas de las reservas. Durante muchos años, los países de la antigua Unión Soviética emitieron cifras de un optimismo exacerbado, sobre todo relativas a las reservas de P10. Los propios analistas han malinterpretado con frecuencia dichas cifras por considerarlas representativas de reservas “probadas”. La revista World Oil situaba en 190 Gbo el monto de las reservas de la ex Unión Soviética en 1996, mientras que la revista Oil and Gas Journal fijó el número en 57 Gbo. Esta amplia discrepancia demuestra la elasticidad de las cifras. No conviene limitarse a estimaciones de P90. La suma de lo que resulta probable en un 90 % para cada yacimiento no equivale a lo que se corresponde con el 90 % de un país o de todo el planeta. Al contrario, la suma de muchas estimaciones de reservas de porcentaje P90 siempre da lugar a una visión infravalorada de las existencias confirmadas en un país. El único modo correcto de verificar el total del número de reservas consiste en sumar el promedio de las estimaciones de cada pozo. En la práctica se utiliza la estimación media, a menudo calificada como “probada y probable”, o reservas de P50. (Esa media es un estadístico fiable.) El valor P50 equivale al número de barriles potenciales de un pozo, suponiendo
3. CASI LA MITAD del crudo de la Tierra se ha consumido. Las reservas (es decir, la cantidad potencial, se extraiga o no, POR DESCUBRIR: 150.000 MILL. DE BARRILES
68
TOTAL DEL CONJUNTO DE UNA REGION
PRODUCCION ANUAL (RENDIMIENTO CRECIENTE)
2. EL FLUJO DE PETROLEO empieza a caer en cualquier región extensa donde se haya extraído la mitad del crudo. Si se suma el rendimiento de los yacimientos de diversas dimensiones y edades (curvas verdes, a la derecha) se perfila una curva acampanada de producción en la región. M. King Hubbert (izquierda), geólogo de Shell, se valió de este hecho en 1956 para predecir que el petróleo de los 48 estados norteamericanos meridionales alcanzaría sus máximos hacia 1969.
POZOS INDIVIDUALES
0
0
AÑOS
que los precios se mantengan dentro de cierto intervalo. Los errores de las estimaciones de P50 tienden a compensarse entre sí. El tener a disposición en nuestro gabinete ginebrino de Petroconsultants un gran volumen estadístico nos permitió profundizar en los problemas que infestaban las estimaciones de reservas. Dicha información, recogida de innumerables fuentes durante más de 40 años, abarca unos 18.000 yacimientos de todo el mundo. De acuerdo con nuestros cálculos, a finales de 1996 el mundo contaba con unos 850 Gbo de crudo en reservas de estimación P50, una cifra bastante menor que los 1019 y los 1160 Gbo señalados en Oil and Gas Journal y World Oil, respectivamente. En realidad la diferencia es mayor de lo que parece, porque si bien nuestra valoración representa la cantidad más plausible respecto del petróleo que se puede extraer de los yacimientos conocidos, se supone que los guarismos mayores reflejan una estimación conservadora de las reservas probadas.
A
efectos de pronóstico sobre el momento álgido de la producción, más crítica que la situación de las reservas es la magnitud de la extracción máxima: debe considerarse todo el petróleo barato. A fin de llevar a cabo la debida estimación, necesitamos saber si oscilan al alza o a la baja las reservas y con qué presteza lo
encerrada en yacimientos conocidos) y los futuros descubrimientos aportarán poco más de lo que ya se ha quemado.
RESERVAS: 850.000 MILL. DE BARRILES
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
40
hacen. En este punto, las estadísticas oficiales inducen a engaño. Según la mayoría de los informes, las reservas mundiales han mantenido una tendencia alcista durante los últimos 20 años. En caso de persistir este rumbo en el futuro, se podría llegar a la rápida conclusión de que la producción continuará creciendo durante las próximas décadas, con un aumento de casi 2/3 en el año 2020. Este crecimiento es puro espejismo. Alrededor del 80 % del petróleo extraído hoy sale de yacimientos anteriores a 1973; en su mayoría han iniciado la curva descendente. En los noventa las petroquímicas descubrieron un promedio de 7 Gbo anuales; el año pasado agotaron más del triple de dicha cantidad. Incluso las cifras oficiales, contrariamente a lo que cabía esperar, indicaban que las reservas confirmadas no sufrían caída alguna con 16 Gbo, sino que aludían a una expansión con 11 Gbo. Es posible que la necesidad de realzar su prestigio político y su astucia para obtener préstamos motivaran que varios gobiernos ocultaran la caída de sus reservas. Las revisiones constituyen una causa aún más importante de la expansión: las empresas sustituían con cifras infladas los resultados de estimaciones previas de las reservas de varios pozos. Para juzgar cuánto petróleo descubrirán en el futuro los expertos, hay que retrotraer cada revisión hasta el año en que se encontró el campo, no hasta el año en que una empresa o un país rectificaron una estimación anterior. Al operar así se observa que
PRODUCCION ANUAL (MILES DE MILL. DE BARRILES)
4. LA PRODUCCION GLOBAL del petróleo, crudo y demás tipos (rojo), se recuperó tras los desplomes de 1973 y 1979. Pero, según el gráfico desarrollado por los autores a partir de varias curvas de Hubbert (líneas finas), el próximo declive será menos efímero. El petróleo procedente de EE.UU. y de Canadá (marrón) tocó techo en 1972; la producción en la antigua Unión Soviética (amarillo) ha caído un 45 % desde 1987. Todo el petróleo producido fuera de la región del Golfo Pérsico alcanzará su cenit en un momento que parece inminente.
30 25 20
MUNDO MUNDO SIN GOLFO PERSICO GOLFO PERSICO EE.UU. Y CANADA EX UNION SOVIETICA G.B. Y NORUEGA
15 10 5 0 1930
1940
1950 1960
1970 1980
los descubrimientos alcanzaron su cúspide a principios de los sesenta; desde entonces se ha entrado en un declive progresivo. Si prolongamos esta tendencia hasta alcanzar el nivel cero, nos haremos una buena idea de la cantidad de petróleo por descubrir. Hemos empleado otros métodos para valorar la extracción máxima de crudo en cada país, y calculamos que la industria sólo podrá recuperar otro billón de barriles. Esta cifra, aunque magnífica, supera sólo en poco los 800.000 millones de barriles ya extraídos. Importa caer en la cuenta de que la situación no cambiará por muchas inversiones que se destinen a la búsqueda. Tras el máximo histórico alcanzado por el precio del petróleo a comienzos de los ochenta, los exploradores aplicaron nuevas técnicas de descubrimiento y extracción; rastrearon palmo a palmo el mundo en busca de nuevos yacimientos. Hallaron pocos: el ritmo de los hallazgos continuó su declive ininterrumpido. Sólo hay una cantidad finita de crudo y se ha descubierto el 90 %. Cuando uno se ha hecho una clara idea de la cantidad de crudo que queda por explotar, resulta bastante obvio predecir el instante del cese de la producción. Nosotros nos limitamos a perfeccionar una técnica de M. King Hubbert, aparecida en 1956.
1990 2000 2010 2020 2030 2040 2050
Hubbert observó que la extracción desenfrenada de recursos limitados en cualquier región extensa dibuja una curva acampanada, que llega a la cúspide cuando se han retirado alrededor del 50 % de los recursos. Para demostrar su teoría, trazó la curva de campana correspondiente a las estadísticas de producción y señaló que la producción de petróleo en los 48 estados meridionales de EE.UU. aumentaría durante 13 años más, y a continuación alcanzaría la cumbre en 1969, año más año menos. Estaba en lo cierto: la producción culminó en 1970 y secundó los pronósticos de Hubbert con desviaciones mínimas. Las tendencias del petróleo de otras muchas regiones, como las de la antigua Unión Soviética y las de todos los productores, descontado Oriente Medio, también siguen las curvas de Hubbert.
M
ayor complejidad reviste configurar un esquema universal. En los años setenta, los miembros de la OPEP de Oriente Medio acotaban sus exportaciones de petróleo, mientras otras naciones seguían con sus producciones a pleno rendimiento. Nuestro examen revela que algunos de los productores más prolíficos, entre ellos Noruega y el Reino Unido, alcanzarán sus máximos hacia el cambio de milenio, salvo que procedan a un drástico
EXTRAIDOS: 800.000 MILL. DE BARRILES
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
69
¿Cuánto petróleo queda por encontrar?
T
ras combinar diversas técnicas, llegamos a la conclusión de que quedan por extraer alrededor de un billón de barriles de crudo. Comenzamos por extrapolar las cifras publicadas relativas a la producción de los yacimientos que han iniciado su declive. Por ejemplo,
el yacimiento de Thistle, junto a la costa de Gran Bretaña, donde se prevé un rendimiento de unos 420 millones de barriles (a). Señalamos luego el contraste entre la cantidad de petróleo descubierto hasta ahora en algunas regiones y el número acumulado de pozos de exploración allí perforados. Debido a que son los grandes yacimientos los que se encuentran primero,
Podemos predecir el monto de petróleo restante a partir del declive de los yacimientos viejos...
50 40 30 20 10 0
0
50 100 150 200 250 300 350 400 450 500
ACUMULACION DEL PETROLEO DESCUBIERTO (MILES DE MILL. DE BARRILES)
PRODUCCION ANUAL (MILES DE MILL. DE BARRILES)
a
...a partir de los resultados decrecientes obtenidos de las exploraciones llevadas a cabo en vastas regiones...
b 300
70
MAXIMO TEORICO
200 100 0
AFRICA
0
5000
LIMITE CONVENIENTE
10.000
15.000
20.000
NUMERO ACUMULADO DE POZOS DE EXPLORACION
PETROLEO EXTRAIDO HASTA LA FECHA (MILL. DE BARRILES)
de cátedra a desechar con ingenuo factor de recuperación. En los años optimismo las preocupaciones en torno sesenta, las petroquímicas cifraban en un 30 % el petróleo recuperable de al futuro de la producción. Aducen algunos que el planeta po- un yacimiento y hoy cuentan con un dría encerrar, sin que lo supiésemos, promedio del 40 o 50 por ciento. Duenormes depósitos. Pero eso es impro- rante años, prosigue el razonamiento, bable. La exploración se ha extendido este progreso continuará para mayor hasta el límite de las fronteras imagina- vida de las reservas. bles, y sólo quedan por corroborar las Nadie niega que el refinamiento de fosas marinas y las regiones polares, la técnica retrasará el comienzo del cuyas posibilidades ya se conocen. descenso de la producción. Pero la Los avances teóricos en geoquímica mayoría de los supuestos avances en y geofísica han permitido cartografiar los factores de recuperación es puro con precisión los yacimientos produc- humo. A medida que los campos van tivos y los prometedores. Grandes ex- envejeciendo, más se esfuerzan sus protensiones podrían permanecer vedadas; pietarios en desplegar nuevas técnicas a modo de muestra, el reino de las para frenar su declive. Su decadencia profundidades resulta absolutamente también permite a los ingenieros aforar inviable por razones geológicas. las dimensiones de un yacimiento con ¿Qué hay de los sedimentos del mar mayor precisión y corregir errores de Caspio? Prevemos el crecimiento de la anteriores estimaciones. En realidad, es producción hasta los albores del 2010. Coincidimos con los analistas del 1200 RESERVAS DE TIEMPOS PASADOS programa de Evaluación 1000 del Petróleo Mundial de la USGS y con otros que 800 RESERVAS igualan los recursos de REFERIDAS 600 esa zona con los del mar del Norte, esto es, unos 400 50 Gbo, nunca las cifras DESCUBRIMIENTOS 200 desorbitadas publicadas en ciertos medios. Se esgrime, asimismo, 1980 1940 1950 1990 2000 1960 1970 que las nuevas técni5. EL CRECIMIENTO de las reservas petrolíferas cas aumentan sin cesar desde 1980 responde a una ilusión provocada por las la cuantía de petróleo tardías correcciones en las estimaciones de los pozos. que puede extraerse de El repaso de las revisiones realizadas el año de deslos yacimientos de una cubrimiento revela el descenso de las reservas debido cuenca, el denominado a un continuo declive de nuevos campos (azul). MILES DE MILL. DE BARRILES
recorte. Se calcula que hacia el 2002 el mundo dependerá de los países de Oriente Medio para colmar las lagunas entre el abastecimiento menguante y la creciente demanda. Se trata, en particular, de cinco países situados cerca del golfo Pérsico: Irán, Irak, Kuwait, Arabia Saudí y la Unión de Emiratos Arabes. Pero, tras el agotamiento de unos 900 Gbo, a la producción sólo le cabe esperar el crepúsculo. El máximo en la producción mundial de crudo se alcanzará durante el primer decenio del siglo XXI. Tal predicción no se desvía demasiado de la realidad, aunque nuestras estimaciones cuenten con un margen de error positivo o negativo de unos miles de millones de barriles. Craig Bond Hatfield ha llevado a cabo su propio estudio basado en una estimación de 1991 realizada por el Servicio de Inspección Geológica de Estados Unidos. Según la misma, existe un remanente de 1550 Gbo, lo cual supera en un 55 % nuestros resultados. De todos modos, él también llega a una conclusión similar: durante los próximos 15 años el mundo alcanzará el pico máximo de extracción. El pasado agosto, John D. Edwards publicó una de las estimaciones más optimistas sobre crudo remanente: 2036 Gbo. Aún así, sus cálculos dan a entender que el crudo se agotará en el 2020. Otros factores, no derivados de los grandes cambios económicos, podrían acelerar o retrasar el comienzo de la caída. En concreto son tres los que han llevado a economistas y geólogos
EX UNION SOVIETICA
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
...a través de la extrapolación del tamaño de los nuevos yacimientos en el futuro...
CUANTIA ORIGINAL IN SITU (MILLONES DE BARRILES)
c 1000 100 PROYECTADO
10
1959
1
1969 1979
0,1 YACIMIENTO MAYOR
10O MAYOR
100O MAYOR
nimia la aportación que pueden ofrecer las técnicas avanzadas en el drenaje de las grandes bolsas, sobre todo en Oriente Medio, donde el petróleo mana espontáneamente del suelo.
P
RESERVAS DE PETROLEO REFERIDAS (MILES DE MILLONES DE BARRILES)
or último, los economistas se complacen en señalar que el mundo está repleto de ingentes reservas ocultas de otros tipos de petróleo dispuestas para sustituir el crudo en cuanto los precios los reclamen. No se cuestiona la amplitud de los recursos: en el cinturón petrolífero de Orinoco, en Venezuela, se especula con la existencia de una asombrosa reserva de 1,2 billones de barriles de lodo de perforación o petróleo pesado. En Canadá y en la 800 700 600
ARABIA SAUDI
500 400
IRAN
300
U.E.A.
200
IRAK KUWAIT
100 0 1980
VENEZUELA
1985
1990
1995
6. UN SALTO SOSPECHOSO, el relativo a las reservas alegadas por seis de los países miembros de la OPEP. Añadieron 300.000 millones de barriles a las estadísticas oficiales, sin haber descubierto, además, ningún yacimiento nuevo.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
1993 1000O MAYOR
YACIMIENTO MENOR
campos tienden a caer a lo largo de una parábola que crece con el tiempo, tal como se preveía (c). Por último, comprobamos nuestras estimaciones: equiparamos las proyecciones gráficas relativas a la producción petrolífera de grandes áreas, como las del mundo entero sin el golfo Pérsico, con el aumento y el descenso de los descubrimientos de crudo realizados en estas regiones décadas antes (d ). ...y equiparando la producción con las anteriores tendencias en los descubrimientos. PETROLEO HALLADO O PRODUCIDO FUERA DE ORIENTE MEDIO (MILES DE MILL. DE BARRILES)
la curva experimenta una rápida ascensión para luego estabilizarse; puede alcanzar un máximo teórico: para Africa, 192 Gbo. Sin embargo, el tiempo y el coste de la exploración imponen un límite más conveniente de unos 165 Gbo (b). A continuación, analizamos la distribución de las dimensiones de los yacimientos del golfo de México y otras zonas. Dispuestos según su tamaño y representados en una escala logarítmica, los
d AÑO DEL DESCUBRIMIENTO
1935
40 30
1955
1975
1995
DESCUBRIMIENTO
20 10
MODELO HUBBERT
PRODUCCION
0 1930
1950
antigua Unión Soviética los bancos de brea y los depósitos de esquisto bituminoso pueden contener el equivalente a 300.000 millones de barriles de crudo. En teoría estas reservas de otros tipos de petróleo pueden saciar la sed mundial de carburantes líquidos en cuanto el crudo comience a decaer. Sin embargo, las necesidades en tiempo y dinero requeridas para encauzar la extracción de estos petróleos en un tiempo breve se traducirán en fuertes presiones para la industria. Estos sustitutos del crudo podrían representar un coste ambiental muy alto. Los bancos de brea tienen sus fuentes habituales en minas a cielo abierto. La extracción del petróleo de estos bancos de brea y esquistos bituminosos contamina el entorno. Hay que eliminar metales pesados y azufre de los lodos del Orinoco. Por ese motivo, los gobiernos deberían vigilar que estas industrias no desarrollen todo su potencial. En vista de tales inconvenientes, nuestras estimaciones, más escépticas, cifran en 700 Gbo el rendimiento de tales reservas para los próximos 60 años. Mientras tanto, la demanda global del petróleo aumenta más de un 2 % al año. Desde 1985 el consumo energético se ha incrementado alrededor de un 30 % en Iberoamérica, un 40 % en Africa y un 50 % en Asia. Se prevé que la demanda mundial crecerá un 60 % hacia el año 2020 (esto es, unos 40 Gbo anuales). Por tanto, el tránsito del crecimiento al declive en la producción provocará
1970
1990
2010
2030
AÑO PRODUCTIVO
tensiones económicas y políticas. Salvo que las opciones alternativas al crudo se ejecuten sin más dilación, la cuota de mercado de los estados miembros de la OPEP de Oriente Medio subirá en picado. De aquí a dos años la porción del conjunto de los negocios de petróleo de estos países sobrepasará el 30 %, acercándose al nivel alcanzado durante el crack de precios de los años setenta. En los aledaños del 2010 sus cuotas alcanzarán el 50 %. De este modo, el mundo podría ser testigo de un incremento radical en los precios del petróleo. Debería bastar con ese dato para invertir la curva de la demanda, manteniendo invariable la producción durante unos 10 años. (La demanda cayó más de un 10 % tras el revés de 1979 y tardó 17 años en recuperarse.) Pero en los confines del 2010 muchas naciones de Oriente Medio habrán sobrepasado ya el punto de inflexión. BIBLIOGRAFIA COMPLEMENTARIA UPDATED HUBBERT CURVES ANALYZE WORLD OIL SUPPLY. L. F. Ivanhoe en World Oil, vol. 217, n.o 11, páginas 91-94; noviembre 1996. THE COMING OIL CRISIS. Colin J. Campbell. Publicaciones Multi-Science y Petroconsultants, Brentwood, Inglaterra, 1997. OIL BACK ON THE GLOBAL AGENDA. Craig Bond Hatfield en Nature, vol. 387, página 121; 8 de mayo de 1997.
71
Minería del petróleo Esconden más petróleo las arenas del Canadá que todas las reservas de Arabia Saudí. Hoy contamos con técnicas para sacarle partido a tan inmenso recurso Richard L. George
E
l término “petróleo” ha venido siendo sinónimo de crudo, mezcla líquida de hidrocarburos que se filtra a través de los estratos porosos y brota de pozos perforados en el subsuelo. Pero una gran parte de la riqueza mundial de petróleo se halla en forma menos cómoda: una sustancia negra y alquitranosa llamada asfalto, tenazmente adherido a los huecos porosos que dejan entre sí los granos de ciertas arenas y esquistos bituminosos (lodos solidificados). El asfalto no brota a través de esta clase de formaciones. No queda, pues, otro remedio que excavar y sacarlo al exterior en minas a cielo abierto.
Aunque es más incómodo excavar en busca de petróleo que perforar y bombear como de costumbre, no podemos despreciar un recurso de tan enorme magnitud. Por los métodos de tratamiento actuales se podrían obtener unos 300.000 millones de barriles de petróleo de las arenas bituminosas de la provincia de Alberta, más de las reservas de petróleo de Arabia Saudí. Los esquistos bituminosos no prometen tan prodigiosa riqueza en petróleo, pero se estima que Australia contiene por lo menos 28.000 millones de barriles de petróleo así retenido, por no citar los yacimientos de Estonia, Brasil, Suecia, Estados Unidos y China. En total, contando arenas y esquistos bituminosos de todo el mundo, las reservas podrían
Tratamiento de las arenas petrolíferas
alcanzar varios billones de barriles de petróleo. No es fácil, sin embargo, predecir en qué proporción puede aprovecharse este potencial de un modo rentable, dado que se necesita un tratamiento bastante complicado para convertir las arenas o pizarras en petróleo útil. Mi compañía, Suncor Energy, es una de las dos que en todo el mundo han logrado explotar las arenas petrolíferas por procedimientos de minería. Nuestra empresa se estableció en el norte de Alberta hace muchos años. Siglos atrás, los naturales de la región utilizaban el asfalto pegajoso que rezuma de las riberas del río Athabasca para calafatear sus canoas. Y ya en 1893 el Gobierno canadiense patrocinó investigaciones de las “arenas alqui6
EL AGUA CON ARENA Y YESO SE LLEVA A DEPOSITOS DONDE SEDIMENTAN LAS PARTICULAS SOLIDAS (SE REUTILIZA EL AGUA)
2
LA MENA SE TRITURA
5
LA ARENA SE POSA EN EL FONDO Y EL ASFALTO FLOTA ENCIMA DE LA CAMARA DE SEPARACION
1
SE EXTRAEN ARENAS PETROLIFERAS CON PALAS EXCAVADORAS Y VOLQUETES
4
3
DESDE LA MINA, UNA CINTA SIN FIN (O TUBERIA) ACARREA LA MENA
72
EN LA PLANTA DE EXTRACCION, LA MENA PASA DE LOS RECIPIENTES A ENORMES TAMBORES GIRATORIOS, DONDE SE MEZCLA CON AGUA CALIENTE Y VAPOR
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
LAS ARENAS BITUMINOSAS ofrecen un aspecto semejante a los posos del café.
tranadas” del Athabasca como fuente potencial de petróleo. Más tarde, en 1920, Karl A. Clark, del Consejo de Investigaciones de Alberta, encontró una manera práctica de separar el asfalto de la arena. Recogía unas paletadas y las echaba en la máquina lavadora, añadiendo agua caliente y sosa cáustica, tras lo cual el asfalto se quedaba flotando en la superficie como una ligera espuma, fácil de separar. El método de Clark era claramente factible. Pese a ello la idea languideció durante varios decenios hasta que Great Canadian Oil Sands Ltd., precursora de Suncor Energy, comenzó la explotación minera de arenas petrolíferas en 1967. El alza en los precios del petróleo en los años setenta ayudó a mantener la costosa operación. Pero los fallos del equipo excavador trajeron graves problemas hasta que, en 1992, Suncor modernizó la instalación, con la idea de reducir costes de extracción.
En los últimos cinco años, Suncor ha producido petróleo en condiciones rentables. Durante ese período nuestra producción creció un 38 por ciento, y hoy vendemos 28 millones de barriles al año. Es muy probable que en el futuro se acelere este crecimiento, en parte limitado por la necesidad de asegurar que se dañe lo menos posible el entorno local. El tratamiento de los residuos o desechos despierta una preocupación especial. Los granos más gruesos se posan rápidamente en el fondo de una suspensión de agua y arena, y estos materiales se devuelven a la tierra. Quedan todavía muchas partículas finas en el agua, lo que obliga a almacenarla en grandes estanques para evitar la contaminación de cursos fluviales. Dejados a su aire los desechos finos tardarían siglos en hundirse hasta el fondo, pero ese tiempo se reduce a unos diez años si al agua de los estanques se le agrega yeso (subproducto del azufre que se elimina del crudo). Esperamos que el terreno alterado pueda luego restituirse a un estado parecido al natural. Suncor gasta uno de cada seis dólares de su presupuesto de capital en frenar la perturbación medioambiental. Hay otro procedimiento de extracción de asfalto que salva estos problemas y que, en principio, permitiría explotar enormes depósitos demasiado profundos para las técnicas 9
LOS VAPORES DE HIDROCARBUROS SE SEPARAN DEL COQUE EN TANQUES CILINDRICOS
10
LOS VAPORES DE HIDROCARBUROS SE CONDENSAN EN NAFTA, QUEROSENO Y GASOLEO
NAFTA QUEROSENO
7
EL BITUMEN DILUIDO CON NAFTA SE CENTRIFUGA PARA ELIMINAR AGUA Y MINERALES
GASOLEO
11
EL COQUE SE ALMACENA, SE VENDE O SE QUEMA PARA PRODUCIR CALOR Y ENERGIA PARA LA PLANTA
BITUMEN DILUIDO
8
ELIMINADA LA NAFTA, EL BITUMEN CALENTADO PRODUCE VAPORES DE HIDROCARBUROS Y RESIDUOS SOLIDOS (COQUE DE PETROLEO)
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
mineras. En resumen, puede darse fluidez al petróleo contenido en la arena inyectando vapor en el suelo. Una vez calentado, el petróleo pierde densidad y se acumula por debajo del lugar de la inyección, desde donde la maquinaria petrolífera lo sacaría a la superficie. El proceso se denomina drenaje por gravedad con ayuda de vapor, y lo está ensayando la Alberta Energy Company, una petroquímica. También Suncor podrá, en el futuro, utilizar este sistema. Los técnicos de Suncor están examinando otro sistema para extraer petróleo de rocas trituradas que se calcinan en un horno gigante en forma de tambor. Aunque este método (inventado por William Taciuk, en colaboración con el Departamento de Energía de Alberta) no sirve para arenas petrolíferas, parece que da buen resultado en el tratamiento de los esquistos bituminosos. Si la planta de demostración que construye Suncor junto con sus socios australianos —Southern Pacific Petroleum y Central Pacific Minerals— logra éxito, podría desarrollarse en Australia durante la próxima década una nueva industria petrolera de tratamiento de pizarras. Así, al tiempo que mengua la producción de los campos petrolíferos, las reservas de pizarras y arenas bituminosas pueden muy bien convertirse en una fuente principal de energía en el siglo que va a comenzar.
RICHARD L. GEORGE preside Suncor Energy, que explota las minas de arenas bituminosas de Fort McMurray, en la provincia canadiense de Alberta.
BIBLIOGRAFIA COMPLEMENTARIA CANADA’S OIL SANDS: THE UNCONVENTIONAL ALTERNATIVES. Richard L. George en Hart’s Petroleum Engineer International, págs. 33-36, mayo de 1997. Dirección Internet de Suncor Energy: http://www.suncor.com. Dirección Internet de Syncrude: http:// www.syncrude.com.
73
Producción de petróleo en el siglo XXI Las innovaciones en obtención de imágenes subterráneas, perforación direccional y producción de petróleo bajo grandes profundidades podrían permitir recuperar una mayor proporción de nuestras riquezas ocultas Roger N. Anderson
E
l horizonte del petróleo al uso —crudo barato y de fácil extracción que ha proporcionado más del 95 % de todo el petróleo hasta la fecha— parece sombrío. En el 2010, la economía mundial pedirá 10.000 millones de barriles más de lo que podrá entregar la industria. Un recorte tan drástico, casi la mitad de todo el petróleo extraído en 1997, podría llevar a convulsiones en los precios, recesión económica e incluso a conflictos bélicos. Para nuestra fortuna, contamos con cuatro grandes adelantos técnicos para salvar ese hiato, al acelerar el descubrimiento de nuevas bolsas y aumentar la proporción de petróleo susceptible de extraerse con buen rendimiento económico de los campos existentes, lo que se llama factor de recuperación. Estas técnicas podrían elevar en más del 20 % las tasas de producción de petróleo mundiales para el 2010, si se aplicaran en los próximos tres a cinco años. Una implantación tan rápida
podría parecer ambiciosa para una industria que tarda de 10 a 20 años en incorporar las innovaciones. Pero en este caso el cambio estará acuciado por formidables presiones económicas. En los dos últimos años, la compañía Elf ha descubierto yacimientos gigantescos ante la costa de Africa occidental. En el mismo período, su capital se duplicó, al predecir los analistas que la producción de Elf aumentaría el 8 % en el 2001. Si las demás petroquímicas siguieran este ritmo, para el año 2010 podrían lanzar al mercado 5000 millones de barriles suplementarios al año, salvando quizá la mitad del foso abierto entre suministro y demanda mundiales. Este artículo abordará uno tras otro los cuatro adelantos técnicos mencionados, empezando por un nuevo método para localizar petróleo subterráneo.
1. LA INSPECCION SISMICA crea una imagen tridimensional de los estratos subterráneos, a través de cortes sucesivos. Las ondas sonoras generadas en la superficie rebotan en la frontera entre capas de roca ordinaria y las que contienen petróleo (marrón oscuro), agua (azul) o gas (amarillo). Una cadena de micrófonos capta los sonidos devueltos. Los ordenadores traducen luego estos patrones a imágenes, para conformar un modelo que guía la perforación de los pozos.
74
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
L
a detección de petróleo aumentó mucho su eficacia a partir de 1927, cuando se logró traducir las reflexiones acústicas en secciones transversales de la corteza terrestre. Los sismólogos aprendieron después a acoplar entre sí varias de estas instantáneas para crear modelos tridimensionales del crudo encerrado entre capas de roca porosa. Aunque esta técnica de análisis sísmico tridimensional haya tardado más de diez años en aplicarse, se le atribuye el haber aumentado en un 20 % los índices de detección y recuperación de petróleo. En los últimos años se han desarrollado técnicas todavía más eficaces que siguen el movimiento del crudo, el gas y el agua conforme los pozos perforados van drenando las capas subterráneas, verdadero sistema en cuatro dimensiones por haber añadido la dimensión del tiempo. Esta información puede luego utilizarse para aplicar al campo petrolífero un análisis del tipo “qué ocurriría si”, con miras a idear modos de extracción que rindan al máximo en economía y tiempo. El enfoque tetradimensional arraiga con rapidez. El número de campos de petróleo que lo han implantado se ha venido duplicando en cada uno de los cuatro últimos años, y ahora ronda los 60. Este sistema de observación puede mejorar los factores de recuperación en 10 a 15 puntos por ciento. Por desgracia, la técnica sólo podrá utilizarse en la mitad de los grandes campos petrolíferos del mundo, los que contienen rocas relativamente blandas impregnadas de crudos y gas natural.
PRODUCCION ANUAL DE CRUDO (MILLONES DE BARRILES)
Búsqueda tetradimensional de petróleo
3,0 2,5 2,0
COMIENZA LA OBSERVACION SISMICA TETRADIMENSIONAL
1,5 1,0 0,5 0 1970
1980
1990
2000
2. EXTRACCION de crudo de las costas de Louisiana. Resurgió en 1992, aprovechando el empleo de la inspección sísmica tetradimensional para localizar bolsas ocultas.
3. INYECCION DE DIOXIDO DE CARBONO líquido para rejuvenecer campos petrolíferos agonizantes. Bombeado a presión desde los depósitos a pozos que han cesado de producir crudo, el CO2 fluye por el embolsamiento y empuja el petróleo remanente hacia pozos activos. A veces se recurre también al vapor y al gas natural. Otro sistema es la inyección de agua debajo de una bolsa de crudo no explotada con el fin de guiar el petróleo hacia un pozo. En el futuro los pozos “inteligentes” permitirán extraer petróleo simultáneamente de algunas ramificaciones del yacimiento, a la vez que por otras ramificaciones se bombea agua de la corriente de crudo para devolverla a la formación de origen.
Bombeo por gases
A
4. LOS POZOS de producción extraen agua de abajo y gas de arriba hacia huecos porosos antaño llenos de petróleo. Y se dispersan bolsas de crudo lejos de los pozos; la perforación tradicional desperdicia dos terceras partes. Ahora pueden ensamblarse los rastreos sísmicos en un modelo tetradimensional, que no sólo detecta dónde está el petróleo, los gases y el agua sino que también predice dónde van a ir después. La observación sísmica anticipada es eficaz en casi la mitad de los pozos, pero falla en el petróleo enterrado en roca muy dura o bajo lechos salinos (capa blanca gruesa).
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
l ocuparse de las nuevas mediciones en relación con el tiempo, los expertos descubrieron que una de las ideas básicas sobre el movimiento del petróleo —la de que naturalmente se asienta bajo el gas, más ligero, y sobre el agua, más pesada— simplifica en exceso el comportamiento de los campos petrolíferos. De hecho, la mayoría de los pozos adoptan patrones de drenado fractales que hacen que el crudo se mezcle con gas y agua. No hay duda de que la técnica tradicional de bombear un pozo hasta que sólo salga un hilo de petróleo deja sin aprovechar al menos un 60 por ciento del crudo. Es mejor bombear gas natural, vapor o dióxido de carbono líquido en pozos muertos. La infusión se extiende hacia abajo a través de los poros de la roca y, si se ha planeado cuidadosamente, empuja hacia un pozo vecino el petróleo, quizá abandonado. Cabe también bombear agua bajo el petróleo para elevar su presión. Las inyecciones de vapor y CO2 potencian en 10 a 15 puntos por ciento los factores de recuperación. Pero incrementan el coste de la producción en un 50 por ciento; a lo que hay que añadir un recargo del 10 al 25 por ciento por la observación sísmica en cuatro dimensiones. Por eso, y a menos que el CO2 descienda mucho de precio, estas técnicas seguirán sirviendo de último recurso.
75
En dirección al petróleo perdido
E
l tercer avance, denominado perforación direccional, permite drenar embolsamientos de petróleo inexplotados, a costes menores que por el sistema de inyección. Se dispone de nuevos equipos para modificar la dirección de perforación desde la vertical hasta la enteramente horizontal dentro de un embolsamiento a varios kilómetros de profundidad. Tradicionalmente, los operarios giraban el largo tubo de acero, o “cadena”, que conecta la torre de perforación en la superficie con la broca situada en el fondo del pozo. El método falla cuando el tubo ha de doblar un ángulo, pues la curva rompería la cadena giratoria. Las cadenas de perforación direccionales no giran; tienen en cambio un motor accionado por lodo cerca de la broca el cual solamente hace girar los dientes con punta de diamante que realizan la perforación. Un trozo acodado de tubo colocado entre el motor de lodos y la broca controla la dirección del taladro. Perforar un pozo a través de kilómetros de roca hasta una zona petrolífera de 30 metros de espesor exige suma precisión. Varias compañías han desarrollado sensores ingeniosos que mejoran la precisión del taladro. Estos dispositivos, que trabajan a profundidades de hasta 6000
metros y a temperaturas que alcanzan los 2000 oC, están unidos al tubo de perforación justamente por encima o por debajo del motor de lodos. Unos miden la resistencia eléctrica de la roca circundante; otros envían neutrones y rayos gamma contando luego en qué número son dispersados por la roca y los fluidos de los poros. Estas mediciones y la posición actual de la broca (calculada por un sistema de guía inercial) se envían a la superficie a través de impulsos en la propia corriente de lodo utilizada para hacer girar el motor y lubricar el taladro del pozo. De acuerdo con tales datos, se ajusta la trayectoria de la perforación hacia la parte más rica en petróleo del yacimiento. Terminado el taladro, se instala el equipo de producción en la boca del pozo. Ciertas compañías, sin embargo, desarrollan unos sensores que detectan la mezcla de petróleo, gas y agua cerca de su punto de entrada, a bastante profundidad dentro del pozo. Merced a este equipo, los pozos “inteligentes” podrán separar el agua de la corriente que fluye por el pozo, para que nunca llegue a la superficie. Una bomba, controlada por un ordenador situado en el tubo perforador, inyectará el agua sobrante bajo el nivel en que yace el crudo.
5. LA PERFORACION HORIZONTAL era inviable cuando desde la torre de extracción se tenía que hacer girar la cadena de perforación entera —hasta 5800 metros tal vez— para que girase la broca taladradora del extremo. Hoy abundan los pozos que doblan en ángulo recto en un espacio de sólo 100 metros, gracias al desarrollo de motores capaces de funcionar a gran profundidad. El árbol propulsor del motor se conecta a la broca a través de una transmisión en el codo del tubo. Según sea el radio de curvatura la broca excavará siguiendo un ángulo más o menos pronunciado; desde el exterior podrá torcerse la cadena para controlar la dirección del giro.
SENSORES FOTOELECTRICOS
NEUTRONES
76
RAYOS GAMMA
6. CONSOLA de perforación para observar desde la superficie los sensores cercanos a la broca taladradora que indican si ésta ha tocado petróleo o agua. La broca podrá entonces orientarse en la posición preferida.
ELECTRODOS
7. SENSORES próximos a la broca para detectar petróleo, agua y gas. Un dispositivo mide la porosidad de la roca emitiendo neutrones, que dispersan átomos de hidrógeno. Otro toma una lectura de la densidad mediante la emisión de rayos gamma, que interactúan con los electrones. El petróleo y el agua modifican la resistencia eléctrica, la cual se mide por una corriente que atraviesa la broca, la roca y los electrodos cercanos.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
DENSIDAD
BAJA
ALTA
RESISTENCIA ELECTRICA
BAJA
a
ALTA
METANO
BAJA
8. MEDICIONES GEOLOGICAS recogidas por sensores cercanos al extremo del tubo de perforación. Se analizan en la cabecera del pozo o se transmiten vía satélite a los técnicos. Varias características de la roca que rodea el taladro revelan la presencia de crudo o de gas (izquierda). El petróleo tiende a acumularse en rocas porosas, relativamente ligeras, y por eso algunos sistemas geodireccionales calculan la densidad global de los estratos cercanos. Otros miden la resistencia eléctrica del terreno en torno del taladro, pues las capas impregnadas de agua salobre tienen una resistencia mucho menor que las ricas en petróleo. Unos cromatógrafos de gas en la superficie analizan el flujo de retorno de lodo lubricante para registrar el gas capturado durante su recorrido.
ALTA
9. POZOS “INTELIGENTES” del futuro. Utilizarán ordenadores y monitores cerca del fondo del pozo para detectar la dilución de agua en la corriente de crudo. Los separadores hidrociclónicos desviarán el agua a una rama derivada del pozo que desagua por debajo del embolsamiento de petróleo.
b
10. LOS TALADROS avanzados utilizan el lodo bombeado por el interior de la cadena para hacer girar la broca, transmitir movimiento a los sensores y transportar fragmentos de roca al exterior. En su camino descendente, el lodo entra en una válvula giratoria (a) que convierte los datos transmitidos a la herramienta desde los sensores en impulsos que circulan por la corriente de lodo. (En la superficie los impulsos se convierten en una señal digital de hasta 10 bits por segundo.) El lodo pasa a un motor. Un rotor en espiral encaja dentro de la cubierta del motor helicoidal de tal manera que crea unas cavidades (b), que, cuando se llenan, hacen girar el árbol para descargar la presión hidráulica. El lodo sale a través de la broca giratoria y vuelve a la superficie, arrastrando los fragmentos de piedra.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
11. POZOS RAMIFICADOS para extraer petróleo de varios estratos a la vez. Unos reguladores controlados por ordenador insertados en la tubería mantienen la circulación óptima hacia la superficie.
77
HIBERNIA
ILUSTRACION NO A ESCALA
RAM-POWELL
12. TRES NUEVAS MANERAS de extraer petróleo de yacimientos submarinos. La plataforma Hibernia (izquierda), tras siete años de construcción y un coste superior a los 600.000 millones de pesetas, ha empezado a extraer crudo a 80 metros del subsuelo oceánico de Terranova. Su base, de 450.000 toneladas de hormigón reforzado, está diseñada para resistir el impacto de un iceberg de un millón de toneladas. Se espera que Hibernia obtenga 615 millones de barriles de crudo a lo largo de 18 años, utilizando inyección de agua y gas. Los tanques de almacenamiento pueden albergar hasta 1.300.000 barriles de crudo hasta ser transferidos a petroleros de enlace. La mayoría de las plataformas de aguas profundas envían el crudo a la costa a través de tuberías submarinas.
Vadeando a gran profundidad
T
al vez la última gran frontera de la industria petrolera resida en yacimientos 1000 o más metros bajo la superficie del mar. A tales profundidades el petróleo era inaccesible, pero hoy esto ya se acabó. Unos submarinos robot manejados por control remoto pueden instalar sobre el fondo del mar el equipo necesario para precaverse de estallidos, regular el flujo de petróleo a las altas presiones que allí imperan e impedir que el gas natural se congele y obstruya el tubo. Estas instalaciones submarinas unirán grupos de pozos en sentido horizontal. El crudo extraído llegará a buques petroleros situados directamente encima y hasta plataformas ubicadas en aguas someras, a través de tuberías tendidas sobre el lecho marino. En los próximos tres años está programada la construcción de estas instalaciones submarinas en el golfo de México y frente a las costas de Noruega, Brasil y Africa occidental. No sólo es la profundidad del agua lo que entorpece la explotación de yacimientos de crudo y gas en alta mar. A veces se extienden anchas capas horizontales de sal y basalto (roca ígnea) en el subsuelo oceánico de los márgenes
78
continentales; esas rocas dispersan la energía sonora en los sondeos sísmicos tradicionales. Pero gracias a técnicas aplicadas para medir minúsculas variaciones de intensidad y sentido de la gravedad, y a la capacidad creciente de los supercomputadores, podemos ver a través de estas mantas de sal o de basalto. Extraer petróleo del lecho de un océano profundo sigue siendo carísimo, pero la innovación y la necesidad han conducido a una nueva oleada de prospecciones en este dominio. Las compañías que trabajan en aguas profundas han descubierto nuevos yacimientos que incrementarán en un 5 % sus reservas de crudo combinadas, aumento todavía no reflejado en las estimaciones de la reserva mundial. Probablemente, las nuevas técnicas de prospección y producción no harán desaparecer la amenaza de una escasez de suministro del crudo, pero sí conseguirán alejar su inminencia, y podrá prepararse con más tiempo y racionalidad la transición hacia otras fuentes de energía.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
13. LA PLATAFORMA RAM-POWELL (centro), construida por Shell Oil, Amoco y Exxon, ha iniciado ya su producción en el golfo de México. La plataforma de 46 pisos se sustenta en pilotes de 270 toneladas hincados en el lecho marino, 980 metros más abajo. Doce pies tensores, de 71 centímetros de diámetro cada uno, proporcionan un anclaje lo suficientemente fuerte como para resistir olas de 22 metros y huracanes de 225 kilómetros por hora. Esta plataforma, que costó unos 150.000 millones de pesetas, puede ahondar en el lecho marino pozos de hasta seis kilómetros con el fin de extraer los 125 millones de barriles de crudo recuperable que se estima contiene el yacimiento. Una tubería de 30 centímetros transportará el crudo a plataformas ubicadas en aguas someras, a unos 40 kilómetros de distancia. Ram-Powell es la tercera de estas plataformas sobre pies tensores que ha construido Shell en tres años. Shell proyecta instalar una plataforma todavía mayor, Ursa, que empezará bombeando 2,5 veces la cantidad de crudo de Ram-Powell, desde un pozo a 1226 metros de profundidad.
14. LOS CENTROS DE CONTROL, como este de Nueva Orleans, permiten que los expertos observen y controlen el equipo de perforación y producción distantes a través de conexiones por módem y vía satélite. Con comunicaciones digitales cifradas, las compañías pueden ahora diagnosticar los problemas de producción más aprisa y ahorrarse el gasto de enviar expertos muy bien pagados por todo el mundo.
ROGER N. ANDERSON es director de investigación sobre técnicas del petróleo en el Centro de la Energía de la Universidad de Columbia. Se doctoró en ciencias geológicas en la Institución Scripps de Oceanografía, adscrita a la Universidad de California en San Diego. Pertenece al Consejo de Administración de Bell Geospace and 4-D Systems. Anderson ha publicado más de 150 contribuciones científicas y es titular de siete patentes. 15. EL POZO MAS PROFUNDO en producción activa (arriba) se encuentra a más de 1709 metros de profundidad en el Atlántico, en el campo de Marlim frente a la costa de Campos. En la parte sur del yacimiento debe de haber unos 10.600 millones de barriles. Estos recursos eran inaccesibles. Hoy se utilizan submarinos por control remoto para construir instalaciones de producción en el mismo fondo del mar, tras lo cual el crudo podría transportarse por tubería a una plataforma somera cercana. O bien, como en el pozo South Marlim 3B, se puede almacenar el crudo en un barco hasta que lleguen los petroleros. Lo difícil es mantener ese barco sobre la vertical del pozo. Los anclajes ofrecen estabilidad a profundidades de hasta 1500 metros. Pasado ese límite, los barcos podrían utilizar propulsores automáticos en conexión con el Sistema de Posicionamiento Global y con balizas situadas sobre el lecho marino para mantener su posición. Merced a estas técnicas podrían explotarse yacimientos bajo más de 3000 m de agua.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
BIBLIOGRAFIA COMPLEMENTARIA PERFORACIÓN DIRECCIONAL. George A. Cooper en Investigación y Ciencia, n.o 214, págs. 54-60, julio de 1994. DEEPWATER TECHNOLOGY. Gulf Publishing. Suplemento a World Oil, agosto de 1997. WORLD OIL’S 4-D SEISMIC HANDBOOK: THE FOURTH DIMENSION IN RESERVOIR MANAGEMENT. Gulf Publishing, 1997.
79
Combustibles líquidos a partir del gas natural El gas natural abunda más que el petróleo. También es más limpio. Gracias a los nuevos métodos de licuación podría convertirse en el combustible económico y eficaz que necesitan los vehículos Safaa A. Fouda
E
n California los conductores están participando en un proceso de transición que no les afecta sólo a ellos. Quizá muchos ni siquiera saben la resonancia que puede alcanzar ese acto anodino de llenar de diesel el depósito de su vehículo en la estación de servicio. Ignoran que están contribuyendo a que su país se vaya liberando de la dependencia del crudo al comprar un carburante hecho en parte de gas natural. El combustible diesel producido de esta manera atípica se vende en California porque el gas del cual se obtiene se halla en buena medida exento de azufre, nitrógeno y metales pesados, los contaminantes emitidos por el tubo de escape. Las mezclas de combustible diesel ordinario y diesel sintetizado del gas natural (producido comercialmente por Shell en Indonesia) cumplen con las rigurosas normas ambientales vigentes en ese estado de la Unión. Pero el gas natural es el más limpio de los combustibles fósiles. Además, ninguno iguala sus reservas. Se calcula que hay suficiente gas natural de cómoda extracción para producir 500 millardos de barriles de crudo sintético. Hasta el doble de esa cantidad de gas pudiera hallarse en vetas de carbón y en formaciones que lo dejan escapar poco a poco. Significa ello que los combustibles líquidos derivados del gas natural podrían mantener en crecimiento la producción global de carburantes transcurrido ya un decenio del SAFAA A. FOUDA trabaja en el Centro CANMET de Tecnología de la Energía, laboratorio oficial canadiense instalado en Nepean, Ontario.
80
inicio del declive del suministro de crudo. Aunque las reservas globales de gas natural son ingentes, muchos yacimientos se encuentran lejos de la población necesitada de energía. Y transportar gas a larga distancia acostumbra resultar prohibitivo. La canalización del gas natural a través de tuberías cuesta cuatro veces más que el transporte de crudo, debido a la densidad de energía del primero, mucho más baja. El gas comprimido se puede enfriar y comprimir hasta estado líquido para su transporte mediante buques tanque, pero se requieren complejas instalaciones de conversión. Además, no es fácil la manipulación del gas natural licuado. De ahí su demanda limitada. Pero, ¿y si hubiera una manera económica de convertir gas natural en una forma que permaneciera líquida a temperatura y presión ambientes? Lograrlo significaría poder alcanzar el mercado sin grandes costes. Si además el líquido fuese un combustible apto para vehículos, podría reemplazar a la gasolina y el diesel tradicionales. Por no hablar del lucro de las empresas petroleras, que podrían vender combustibles líquidos y otros productos químicos derivados del gas que sale de sus pozos. Hoy, el gas desprendido en los pozos de petróleo carece de valor y se quema in situ o se reintroduce en el subsuelo. Sólo en Alaska, las compañías petroleras bombean de nuevo hacia los campos unos 200 millones de metros cúbicos de gas diariamente; lo hacen para evitar que la atmósfera se sobrecargue de dióxido de carbono adicional, gas de invernadero que causa cierta preocupación. Avances técnicos recientes, sin embargo, han inducido a las petroquí-
micas a plantearse la construcción de plantas licuadoras de gas natural. Podría entonces encauzarse a través del oleoducto de Alaska sin grandes costos. En la Península Arábiga, Qatar está negociando con tres empresas la construcción de plantas de conversión que explotarían un extenso campo petrolífero frente a la costa: un tanque singular que contiene alrededor de la décima parte de las reservas mundiales de gas. Y la empresa noruega Statoil proyecta instalar módulos no muy grandes sobre plataformas flotantes para licuar el gas de los yacimientos remotos del mar del Norte. En cada caso se emplearán técnicas distintas. Pero todos los proyectos deberán salir al paso de un mismo problema químico: crear macromoléculas de hidrocarburos a partir de otras menores. El principal componente del gas natural es el metano. Esta molécula elemental consta de cuatro átomos de hidrógeno dispuestos en torno a un átomo de carbono. Semejante simetría dota al metano de una particular estabilidad. Para convertirlo en líquido hay que empezar por romper sus enlaces químicos. Las altas temperaturas y presiones ayudan a destruir esos vínculos. También lo hacen ciertos catalizadores preparados al efecto; los catalizadores son substancias que promueven una reacción química, pudiendo ellos recuperarse sin cambios esenciales al final de la misma. El método “indirecto” tradicional para licuar el gas natural fía en la fuerza bruta. De entrada se rompen los enlaces químicos del metano mediante vapor sobrecalentado, calor y un catalizador de níquel para producir singás (o, más formalmente, gas sintético), una mezcla de monóxido de carbono e hidrógeno. Este proceso se llama reformación por vapor.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
1. LA ANTORCHA DE GAS calienta inútilmente el aire en torno a un pozo de petróleo en Wyoming. Esas emisiones de gas natural se desperdician porque su transporte canalizado resulta mucho más caro que el del petróleo.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
81
EMISIONES RELATIVAS AL DIESEL NORMAL (PORCENTAJE)
100
DIESEL REFINADO
DIESEL FISCHER-TROPSCH DE GAS NATURAL
80
2. MODERADA CAIDA de la contaminación automovilística en 1993, cuando la normativa en los EE.UU. requirió la reformulación del diesel. Los combustibles obtenidos del gas natural mediante la síntesis de Fischer-Tropsch producen todavía menos emisiones que el diesel purificado.
60
40
20
0 HIDROCARBUROS
MONOXIDO DE CARBONO
A partir del singás, para producir combustibles líquidos (u otros compuestos petroquímicos) se emplea el método ideado en 1923 por Franz Fischer y Hans Tropsch. Durante la Segunda Guerra Mundial, Alemania se valió de esta técnica para producir combustibles líquidos; el singás de origen lo obtenía de carbón y oxígeno atmosférico, estableciendo así una fuente interna y segura de gasolina y diesel. El método Fischer-Tropsch ha permitido a Sasol en Sudáfrica la fabricación comercial de combustibles líquidos durante décadas usando singás extraído del carbón. La compañía sigue empleando la misma técnica básica: el chorro de singás proyectado sobre un catalizador de cobalto, níquel o hierro se transforma en varios hidrocarburos líquidos. La reacción Fischer-Tropsch desprende calor, que se aprovecha para impulsar los compresores de oxígeno necesarios en la fabricación del singás. Los líquidos que emerjan de la reacción dependerán de la temperatura. Si mantenemos el reactor entre 330 y 350 grados Celsius, se producirán gasolina y olefinas (materia prima frecuente de los plásticos). Un funcionamiento más frío (de 180 a 250 oC) rendirá preferentemente combustible diesel y ceras. En cualquier caso se obtiene una mezcla. Vale decir: queda un tercer paso para refinar los productos de la reacción, convirtiéndolos en combustibles aprovechables. Es más fácil refinar crudos sintéticos obtenidos del gas que trabajar con petróleo crudo. El crudo sintético, exento de azufre, encierra una concentración menor de los compuestos tumoríge-
82
OXIDOS DE NITROGENO
PARTICULAS
nos de los petróleos al uso. Por eso, los productos finales son combustibles de primera calidad que emiten menos substancias tóxicas. Este método de fuerza bruta de licuación del gas, aunque seguro, resulta caro por la energía que requiere. La reformación por vapor sobrecalentado comprime el metano y el vapor de agua hasta 30 veces la presión y temperatura atmosféricas y calienta los reactivos hasta unos 900 oC. Y hay que añadir más calor para mantener viva la reacción sedienta de energía. Este calor extra proviene de la inyección de una pequeña cantidad de oxígeno en la mezcla, lo que acarrea la combustión de algo del metano (y, como beneficio añadido, fabrica más singás). Aludimos a un proceso de oxidación parcial, por decirlo en la jerga de los químicos. Para generar singás suele recurrirse a varias combinaciones de reformación mediante vapor y oxidación parcial. En la mayoría de los casos, el proceso requiere grandes cantidades de oxígeno, que no es barato. Los métodos para extraer del aire oxígeno se basan en la refrigeración que lo ha de enfriar y licuar, un proceso que consume mucha energía y es de manipulación cara. Por eso mismo, la clave de una fabricación económica de singás la tiene un suministro de oxígeno menos costoso. Pero se han dado pasos importantes que prometen revolucionar muy pronto el método de obtención de oxígeno. Para unos la solución estriba en trabajar con aire, no con oxígeno puro. En esa línea, Syntroleum Corporation ha desarrollado un método de fabricación de combustibles líquidos aplicando un
chorro de aire y metano para la fase de reformación, seguido de la síntesis de Fischer-Tropsch. Allí donde el gas natural no cuesta casi nada (los pozos donde ahora se quema), ese proceso tiene que ser rentable incluso a los actuales precios del crudo. Junto con Texaco y Brown & Root, Syntoleum proyecta construir una planta comercial de aquí a dos años que aplicará dicha técnica. Otras compañías, universidades y laboratorios de investigación han optado por resolver el problema del oxígeno desde un planteamiento radicalmente distinto. Preparan membranas cerámicas que dejen pasar el oxígeno. Estas membranas sirven de filtro para limpiar de aire el oxígeno. Las versiones de laboratorio, costosas y difíciles de construir, funcionan muy bien; su comercialización habrá de esperar un decenio todavía. Las cerámicas podrían rebajar el coste de la producción de singás en un 25 % y reducir el de la producción de combustibles líquidos en un 15 %. No acabarían ahí las economías. Podría ahorrarse más con la obtención de singás a unos 200 grados por debajo de las temperaturas actuales y sin la exigencia de licuar el aire. Con el oxígeno barato y abundante, bastaría la oxidación parcial para proporcionar singás. Este primer paso, en vez de consumir energía, la liberaría.
M
is colegas canadienses y yo, junto con investigadores de la Universidad de Florida, nos proponemos crear una membrana cerámica que ofrecería una ventaja adicional. Buscamos que nuestras membranas extraigan de la mezcla gaseosa hidrógeno, impulsando la oxidación parcial del metano y proporcionando una corriente de hidrógeno puro que podría emplearse después en el refinado de los productos finales o bien como fuente de energía. No tardarán en aparecer versiones mejoradas de los catalizadores empleados en la obtención de singás. En la Universidad de Oxford se trabaja en carburos metálicos; el Centro Canadiense de Tecnología Mineral y Energética investiga las zeolitas de poro grande. Ambos materiales prometen
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
GAS SINTETICO Y NITROGENO
CONVERSION INDIRECTA
OXIDACION PARCIAL
CONVERSION DIRECTA
GAS NATURAL
SINTESIS DE FISCHERTROPSCH
REFORMACION
VAPOR SOBRECALENTADO
GAS SINTETIZADO
SINTESIS DE METANOL
REACCION CON CATALIZADORES COMUNES
METANOL
OLEFINAS Y OTRAS ESPECIES QUIMICAS
OXIDANTES
reducir el hollín generado durante la operación, que además de obstruir el reactor, entorpece la actividad de los catalizadores. Aunque las perspectivas de licuar gas natural mediante tales métodos de fuerza bruta mejoran cada día, otras técnicas más elaboradas habrán de conseguir esa conversión en una sola fase. Ello rebajaría a la mitad los costes de la conversión; así, los combustibles líquidos procedentes del gas natural resultarían más baratos que los productos similares refinados del crudo. Los primeros intentos de alcanzar la conversión directa mediante diferentes catalizadores y la adición de mayores cantidades de oxígeno habían fracasado. Los hidrocarburos formados resultaban más reactivos que el metano inicial: se quemaban a una velocidad mayor que su ritmo de producción. A menos que el producto se pudiera extraer de la zona de la reacción, las cantidades obtenidas eran mínimas y el proceso, pues, estéril. Pero se acaban de descubrir vías por donde salvar el obstáculo. Se trata, en definitiva, de desarrollar la reacción a temperaturas bajas sirviéndose de catalizadores exóticos, de estabilizar químicamente el producto o bien hacer ambas cosas. Los químicos de la Universidad del estado de Pennsylvania han convertido directamente el metano en metanol con un catalizador homogéneo, un líquido enteramente mezclado con los reactivos y mantenido por debajo de 100 oC. Mediante un patrón similar, la empresa Catalytica ha obtenido rendimientos de hasta un 70 % en conversión directa. Su catalizador líquido crea un compuesto intermedio bastante estable, el éster de me-
Y
REFINO
OXIGENO (O AIRE)
REACCION CON CATALIZADORES LIQUIDOS
INVESTIGACIÓN
HIDROCARBUROS MEZCLADOS (Y NITROGENO)
CIENCIA, mayo, 1998
METANOL Y OTRAS ESPECIES QUIMICAS
PROCESADO QUIMICO
GASOLINA, COMBUSTIBLE DIESEL, CERAS Y OLEFINAS GASOLINA, SUCEDANEOS DEL DIESEL, REFORZANTES DE OCTANO Y OTRAS ESPECIES QUIMICAS
3. DOBLE VIA FUNDAMENTAL de la conversión química del gas natural. Los métodos “indirectos” forman primero el gas sintético, o singás (mezcla de monóxido de carbono e hidrógeno), añadiendo vapor de agua sobrecalentado y oxígeno o bien sólo oxígeno. (Una compañía, Syntroleum, usa en su lugar aire, eliminando el nitrógeno indeseado durante el ulterior proceso.) En una segunda fase se sintetizan macromoléculas a partir del singás; por fin, se refinan o reformulan químicamente los productos. La conversión “directa” de gas natural en un solo paso requiere un oxidante, aunque podría reclamar catalizadores líquidos especiales.
tilo, que está protegido de la oxidación. El producto final (un derivado del metanol) se origina con un paso más. Sin particular dificultad podemos convertir metanol (o alcohol de madera) en gasolina o en un aditivo para incrementar el índice de octano. En un futuro próximo, el metanol (usado directamente o transformado primero en gas hidrógeno) podría servir para propulsar vehículos con pilas de combustible. Tenemos, pues, en el metanol un medio adecuado de almacenamiento y transporte energético. Por si fuera poco, las reacciones por medio de las cuales se sintetiza metanol pueden ajustarse para obtener sucedáneos del combustible diesel; me refiero en particular al dimetil-éter, cuya combustión produce muchos menos contaminantes peligrosos. Ni el propano, ni el dimetil-éter se han aplicado apenas al transporte porque son gases a temperatura y presión ambientes. O no se habían aplicado. Air Products ha anunciado la fabricación de un derivado del dimetil-éter que es líquido en las condiciones ambientales. Con tal sucedáneo del diesel se limitarían las emisiones sin cambios importantes en los vehículos ni en las estaciones de servicio. Se están explorando otras vías para progresar en los métodos de licuación del gas natural. En esa línea, los investigadores de procesos se afanan en perfeccionar los recipientes de la reacción de Fischer-Tropsch al objeto de lograr mejor control del calor y la mezcla. Los más ambiciosos se proponen remedar las reacciones químicas desarrolladas por bacterias consumidoras de metano en presencia de oxígeno
para producir metanol. Las reacciones biológicas a baja temperatura de esta suerte resultan muy prometedoras: pueden producir compuestos químicos específicos sin desmesurada inversión energética.
S
e acierte o no en ese camino, lo innegable es que podemos ya convertir gas natural en combustible líquido a sólo un 10 % más de lo que nos cuesta un barril de crudo. Con ligeros retoques técnicos y un mayor rendimiento obtenido gracias a la fabricación de compuestos especiales a partir del gas, se extenderá la explotación de este recurso en los años venideros. Son avances que se acomodarán a una normativa ambiental cada vez más rigurosa.
BIBLIOGRAFIA COMPLEMENTARIA THE DIFFERENT CATHALYTIC ROUTES FOR METHANE VALORIZATION: AN ASSESSMENT OF PROCESSES FOR LIQUID FUELS. J. M. Fox III en Cathalysis Reviews: Science and Engineering, vol. 35, n.o 2, págs. 169-212; agosto 1993. CONVERT NATURAL GAS INTO CLEAN TRANSPORTATION FUELS. M. Agee en Hart’s Fuel Technology and Management, vol. 7, n.o 2, págs. 69-72; marzo 1997. REMOTE GAS STRATEGIES. World Wide Web site by Zeus Development Corporation available at http://www. remotegasstrategies.com/
83
TALLER
Y LABORATORIO Shawn Carlson
Los placeres del verdín de estanque
S
i alguna vez vinieran científicos extraterrestres a visitarnos, quizá pasaran de largo ante nosotros, criaturas grandes y complejas, para recrearse en la máxima diversidad que reina entre protozoos, hongos y algas. Más allá de toda consideración objetiva, esos organismos representan las formas de vida predominantes. El mundo de las algas es un reino fascinante para el aficionado a la investigación. Una sola gota de agua de una charca puede albergar una impresionante variedad de especies microscópicas, donde cada alga unicelular representa un vegetal entero. Si alguien desea gozar con la estructura esencial de la vida vegetal, en las algas encontrará el mejor espectáculo. Para asistir al espectáculo se requiere un microscopio. Basta con un instrumento de unos 120 aumentos. Pero el verdadero secreto para explorar con éxito mundo tan cautivador consiste en crear pequeños recintos (“microestanques”, si se prefiere este término) donde puedan medrar los especímenes. Con tarros de conserva llenos de un poco de agua y tierra se consiguen unos entornos ideales. Para permitir la entrada y salida de gases, se MUESTRA DE VERDIN DE ESTANQUE
MUESTRA DE TIERRA DE JARDIN
MICROSCOPIO BINOCULAR OLLA A CULTIVO DE ALGAS MIXTO
NUTRIENTE PARA PLANTAS
DISCO DE PETRI
84
lóquense los tarros ya preparados en un barreño de plástico lleno con dos centímetros de agua para evitar que la base del vidrio se caliente en exceso y se rompa. Calentaremos los tarros durante 20 minutos a 120 grados centígrados. Si no hay a mano una olla a presión, podremos dar un hervido vigoroso al agua, tarro y tapa durante al menos 20 minutos en un puchero tapado y cocer la tierra en el horno de la cocina durante una hora a 180 grados centígrados. Este procedimiento requiere ensamblar luego las partes esterilizadas, lo que entraña el riego de contaminar los cultivos con bacterias. Dejaremos reposar los recipientes al menos durante diez días para asegurarnos de que los viveros están realmente esterilizados; las bacterias contaminantes enturbian el agua conforme se multiplican. En otro caso, en cuanto se hayan enfriado del todo los miniestanques, depositaremos las algas. Una brizna de alga, una pizca de lodo de charca, una pulgarada de tierra de jardín, incluso una rozadura procedente del interior del acuario de un amigo, son todas unos magníficos veneros. Para observar el crecimiento de esos jardines acuáticos, agregaremos las muestras a unos cuantos tarros. Posiblemente los primeros cultivos contendrán una junPRESION gla de plantas unicelulares. Para el trabajo científico, hay que aislar unas especies de otras. Con tal fin, separaremos un pequeño grupo de células, que implantaremos en agar estéril, medio de cultivo gelatinoso, que, dicho sea de paso, se hace también de algas. Esta operación no es tan dificultosa como parece. Se empieza llenando un conjunto de discos de petri esterilizados con agar al que se habrá añadido un poco de nutriente para
abre un orificio de un centímetro de diámetro en cada tapa y se ocluye con una bolita de algodón estéril. Necesitaremos una fuente de luz para nuestras plantas mínimas. Como la luz solar directa puede calentar rápidamente los miniestanques hasta temperaturas letales para las algas, los colocaremos en una ventana orientada al norte. O bien instalaremos una bombilla de espectro completo en un temporizador, a modo de fuente de iluminación más controlada. Antes de introducir las algas, hay que esterilizar la tierra, el agua, el tarro y la tapa; si nos olvidáramos de ello, las bacterias errantes se adueñarían de la situación. Una máquina especial llamada autoclave mata las bacterias con calor bajo una presión suficiente para que el agua no hierva. En su defecto, nos valdrá una olla a presión. Conviene empezar por tenerlo todo reunido. Agregaremos unos cuatro centímetros de barro o lodo y agua destilada reforzada con nutriente comercial para plantas de acuerdo con las instrucciones del fabricante. Llénense los tarros hasta unos dos centímetros del borde, sin atornillar aún las tapas. Co-
Tarros de conserva esterilizados: cámaras de incubación ideales para cultivar algas extraídas de un jardín o una charca
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
distintos. Esta táctica es útil, por ejemplo, cuando se desean comparar los efectos de un abono nitrogenado y la aspirina, que reduce la tensión superficial del agua y facilita así a los nutrientes la penetración en las células. Este procedimiento permite identificar las concentraciones óptimas de dos compuestos respecto al crecimiento de una especie concreta. Puede intentarse también evaluar de qué modo unos niveles variables de luz y calor afectan al crecimiento de las algas, para averiguar sus métodos reproductivos por examen microscópico, o para identificar algunos de sus productos metabólicos empleando un aparato analítico más refinado. Ceratium
Euglena Volvox
CONCENTRACION
FUERTE
evaluar y luego dilúyase el contenido Recuérdese que en este maravilloso de los tubos sucesivos por un factor mundo podemos sumergirnos hasta de 0,1 cada vez. (Esta operación la donde queramos. facilita mucho un cuentagotas.) Así, entre el primer tubo y el décimo la Para más información acerca de diferencia en concentración es de este y otros proyectos de Society for Amateur Scientist, consulte la página mil millones. Para observar si el compuesto en World Wide Web de la Sociedad: cuestión favorece el crecimiento, se www.thesphere.com/SAS/. También añaden tres muestras de las prepara- puede escribir a la Sociedad a 4735 das con el troquel y una cantidad fija Clairemont Square, Suite 179, San de cada una de las diluciones a otros Diego, CA 92117, o llame al 619tantos tarros de cultivo. Para averiguar 239.88.07. si el compuesto puede matar las algas, colocaremos tres muestras de las preparadas en otros tantos tubos durante COMPUESTO A un tiempo prescrito. Luego, DEBIL FUERTE CONCENTRACION con unas pinzas, se extraen las muestras, para lavarlas con agua destilada antes de introducirlas en los tarros de cultivo estériles. Contrólese el crecimiento de las algas tratadas. Cuando sepamos aproximadamente el nivel mínimo al que el compuesto de ensayo altera la cantidad de algas que se ven en el tarro al cabo de una semana, podremos efectuar un experimento más centrado y determinar con mayor precisión la concentración crítica. Un procedimiento Pueden prepararse concentraciones variables similar permite investigar de dos sustancias mezclando cantidades iguade qué modo reaccionan las les procedentes de soluciones distintas de algas ante dos compuestos cada compuesto DEBIL
plantas. Este se agrega inmediatamente antes de apartar el agar para que gelifique. Luego, con una sonda estéril se recoge un minúsculo trozo de alga de uno de los microestanques. Se roza la sonda por la superficie del agar haciendo un recorrido en zigzags amplios. Las células así trasladadas a la superficie nutricia se agarrarán a ésta y crecerán en pocos días formando un jardín moteado de grupos aislados y manifiestos a simple vista. Como las células tienden a desprenderse en grupos de sus asentamientos originales, la mayoría del cultivo de segunda generación será sólo un poco menos diverso que el progenitor. Pero tomando una pequeña cantidad del centro de uno de esos grupos y repitiendo luego el proceso en un segundo disco de petri, se formarán cultivos de tercera generación que contendrán aún menos especies. Algunos biólogos recomiendan criar cada generación sucesiva trasladando una pequeñísima porción desde un disco de petri hasta un tarro de cultivo esterilizado, esperando que las plantas se multipliquen y separándolas después otra vez sobre una superficie de agar nueva. En mi caso, logro resultados antes criando múltiples generaciones sobre agar enriquecido, sin pasar por el cultivo intermedio en tarros. Puede probarse el atajo, pero no nos sorprenda si hemos de seguir el procedimiento más laborioso. Han de transcurrir de tres a cinco generaciones, pero al final los microestanques contienen una sola especie de algas. Un examen cuidadoso al microscopio revela si los cultivos son puros. Aisladas varias cepas, sólo la imaginación pone límites a las investigaciones posibles. Un tipo de experimentos muy útiles son los referentes al modo en que los compuestos químicos inciden en el desarrollo. Los resultados de los ensayos se comparan con mayor facilidad si cada prueba se empieza con muestras que contengan, más o menos, el mismo número de células. Una manera de preparar esas muestras es mojar papel secante (esterilizado en autoclave u olla a presión) con una solución diluida de nutriente para plantas estéril y dejarlo se-
COMPUESTO B
Spirogyra
car. Luego se remoja el papel en cera de abejas fundida durante los segundos suficientes para que se empape a fondo. Hay que retirar las bandas de la cera y retornarlas a la solución de nutriente estéril para que se endurezca. Pasaremos las bandas enceradas a los tarros de cultivo. Con suerte, sobre el papel así tratado crecerán uniformemente algas unicelulares. De aquí podrán recortarse entonces muestras uniformes con un troquel metálico esterilizado. Antes de iniciar el experimento nos habremos hecho con un soporte con 10 tubos de ensayo. En el primer tubo se introduce una gran concentración del compuesto que se desee
85
JUEGOS
MATEMÁTICOS Ian Stewart
Botellas de Klein en vidrio
A
lan Bennett es un soplador de vidrio residente en Bedford. Hace algunos años se sintió intrigado por lo misterioso de las formas que aparecen en topología —cintas de Möbius, botellas de Klein y similares— y se tropezó con un curioso rompecabezas. Un matemático hubiera intentado resolverlo mediante cálculos; Bennett lo resolvió en vidrio. La topología estudia las propiedades de una figura que permanecen invariables por mucho que se la estire, retuerza o deforme, con la condición de que la deformación sea continua. (Está permitido seccionar la figura provisionalmente, siempre que al final acabe recosida, de modo que los puntos que en un comienzo se encontraban próximos a uno y otro lados de la sección acaben al final cerca uno del otro.) Entre las propiedades topológicas se cuenta la de conexión. ¿Está la figura hecha de una sola pieza, o de varias? ¿Tiene nudos la figura? ¿Se halla concatenada a otras, como si fuera un eslabón? ¿Presenta agujeros o perforaciones? Las figuras topológicas familiares dan la impresión de ser poco más que curiosidades o juguetes, pero sus consecuencias son de gran profundidad. Tenemos la banda de Möbius, que se puede construir tomando una tira larga de papel y pegando sus extremos tras dar a la cinta una torsión de media vuelta. (En todo este artículo, “una torsión” significará “una torsión de 180 grados”, aunque esta operación recibe a veces el nombre de “una semitorsión”.) La banda de Möbius es la más sencilla de las superficies que tienen sólo una cara. Si dos pintores pretendieran pintar una gigantesca cinta de Möbius, de rojo por un lado y de azul por el otro, acabarían invadiendo cada uno el trabajo del otro. Al dar a la cinta más de una torsión se obtienen variantes de la banda de Möbius. Para los topólogos, lo que importa es si el número de torsiones ha sido par o impar, pues si el número es impar la superficie tiene una sola cara, mientras que si es par tiene dos. Todos los números impares de torsiones producen superficies que
86
son topológicamente la misma que una banda de Möbius. Para comprender por qué, basta cortar la cinta, deshacer todas las torsiones menos una y volver a pegar la cinta. Dado que hemos eliminado un número par de giros, los bordes cortados vuelven, al unirse, a formar la banda de Möbius simple. Por razones similares, todas las bandas construidas con un número par de torsiones son topológicamente iguales a un cilindro ordinario, que carece de torsiones. El número exacto de torsiones encierra significación topológica, pues afecta a la forma en que la banda está alojada en el espacio entorno. Tenemos aquí dos cuestiones diferentes: una concerniente a la geometría intrínseca de la banda; la otra, relativa a una banda inmersa en el espacio. La primera depende sólo de la paridad del número de torsiones (par o impar); la segunda, del número exacto de ellas.
La banda de Möbius tiene borde —frontera— formada por las partes del límite de la banda que no están pegadas. La esfera no tiene borde. ¿Es posible que una superficie de una sola cara carezca de bordes por completo? Resulta que la respuesta es afirmativa, pero en el espacio tridimensional es imposible que exista una superficie tal sin pasar a través de sí misma. Eso no supone dificultad alguna en topología, donde es lícito imaginar superficies inmersas en espacios de dimensión mayor que tres, e incluso sin que exista un espacio ambiente que las rodee. Para los sopladores de vidrio, en cambio, se trata de un obstáculo inevitable. La ilustración al pie exhibe una botella de Klein en vidrio. A diferencia de una botella ordinaria, el “cuello” o “gollete” ha sido doblado hacia adentro, hecho pasar a través de la superficie de la botella y ha sido unido por dentro a su cuerpo principal. La botella de Klein vítrea se corta a sí misma a lo largo de una pequeña curva circular; un topólogo que reflexione sobre una botella de Klein hará caso omiso de tal intersección. Imaginemos que vamos a pintar una botella de Klein. Empezamos por el “exterior” de la parte grande y bulbosa y vamos descendiendo por el cuello que se va estrechando. Cuando llegamos a cruzar la intersección consigo misma, hemos de actuar como si no existiera, y continuar pintando el cuello, que ahora se encuentra en el interior del bulbo. Conforme se va abriendo la garganta, para reunirse con el bulbo, ¡nos encontramos con que ahora estamos pintando el bulbo por dentro! Lo que parecían ser el interior y el exterior de una botella de Klein resultan estar conectados sin solución de continuidad: tiene una sola cara. Bennett había oído que, al cortar una botella de Klein a lo largo de una curva adecuada, queda escindida La botella de Klein, una superficie de una sola cara, construida en vidrio soplado por Alan Bennett
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Una botella de Klein de triple cuello
Sistema encajado de tres botellas de Klein
en dos bandas de Möbius. De hecho, si tal se hace con una botella de Klein inmersa en el espacio ordinario, como la de vidrio, dichas bandas tienen una sola torsión. Bennett se preguntó qué tipo de objeto habría de construir para obtener dos bandas de Möbius con triple torsión. Así que construyó numerosas figuras de vidrio y las seccionó. Y escribe: “He observado que, si se efectúan suficientes variantes de la idea fundamental, queda a la vista la más lógica de las soluciones del problema.” Dado que estaba buscando bandas de Möbius con torsión triple, Bennett tanteó toda clase de variaciones sobre el número tres; así, botellas con tres cuellos y conjuntos de tres botellas encajadas unas dentro de otras. Empezó a comprender, con la imaginación, lo que ocurriría al cortarlas. Para cerciorarse, las cortó con una sierra de diamante. El paso adelante llegó con una botella cuyo cuello la rodeaba por dos veces, formando tres intersecciones consigo misma. Le dio el nombre de “vasija de Ouslam”, en recuerdo de un ave mítica que vuela en círculos cada vez más cerrados hasta que acaba por desaparecer, introduciéndose por su propia cola. Al seccionar verticalmente la vasija de Ouslam, según su plano de simetría bilateral —el plano del papel en el dibujo— queda escindida en dos
Una botella espiral se descompone en dos bandas con siete torsiones
Variante de la botella de Klein espiral
La vasija de Ouslam, cuyo cuello forma dos vueltas, se descompone en dos bandas de Möbius con torsión triple al seccionarla por un plano vertical. (Las líneas de puntos son ayudas visuales.)
bandas de Möbius con tres torsiones. Problema resuelto. Lo mismo que cualquier matemático, Bennett fue ahora en busca de caza mayor. ¿Habría posibilidad de bandas con cinco torsiones? ¿Y con diecinueve? ¿Cuál es el principio general? Añadiendo un bucle adicional, comprendió que se obtendrían bandas con cinco torsiones. Cada bucle añadido introducía dos torsiones más. Después simplificó el diseño, haciéndolo más robusto, con el fin de producir botellas de Klein en espiral. La presentada arriba, en la segunda fotografía por la derecha, se escinde en dos bandas con siete torsiones; cada vuelta en espiral añadida origina dos torsiones más. La primera fotografía por la derecha presenta otra variante sobre el mismo tema. En cuanto comprendió el significado de los giros en espiral, Bennett se percató de que podía retornar a la botella de Klein original “destorciendo” la espiral. También habría que deformar la línea según la cual seccionar la espiral. Al mismo tiempo que se enderezaba el cuello espiral de
La botella de Klein original, cortada según una curva espiral
la botella, se iba retorciendo la línea de corte. Por tanto, si se corta una botella de Klein ordinaria a lo largo de una curva en espiral, se pueden conseguir tantas torsiones como se quiera; en este caso, nueve. Lo que inicialmente motivó el trabajo fue la posibilidad de cortar una botella de Klein para obtener dos bandas de Möbius con una torsión. Pero también se puede cortar una botella de Klein a lo largo de una curva distinta y obtener una banda de Möbius.
Acuse de recibo
C
Al cortar una botella de Klein según cierta curva se obtienen dos bandas de Möbius
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
. J. Bowkamp me remitió sus comentarios acerca de “Cuadrar el cuadrado” [septiembre de 1997]. Ante todo, puse mal algunas iniciales: tenía que ser A. J. W. Duijvetin y C. J. Bowkamp. En segundo lugar, P. J. Federico publicó en 1969 rectángulos simples cuadrables en los que un lado era doble del otro, y éstos eran ya conocidos. Lo más sorprendente: un cubo de lado 3.031.451 puede ser recubierto en 70 cuadrados diferentes. —I.S.
87
N EXOS James Burke
Delicias turcas
L
a noche era fría. Estaba mirando la televisión y pensando en el sol, la arena y el mar, cuando reclamó mi atención un anuncio que ensalzaba los atractivos turísticos y culturales de uno de mis lugares de vacaciones preferidos: Turquía. Un lado de la pantalla mostraba un tulipán (diríase casi el emblema nacional turco) y el otro, las ruinas de la antigua Troya, la ciudad que “descubriera” en 1873 un excéntrico alemán de nombre Heinrich Schliemann. Este hombre de negocios, partiendo de la nada, había amasado una fortuna con los yacimientos auríferos de California, antes de aventurarse en el mercado ruso de los tintes. Su obsesión por los escritos de Homero le llevó a gastar un perú en su afán por demostrar que lo narrado había sucedido realmente: la Ilíada, Troya y toda esa poesía sobre Helena metida a fletadora de miles de barcos. (Se equivocó, pero su trabajo estimuló a los verdaderos arqueólogos a echar una mirada más atenta.) Schliemann, hombre extraordinario y malhumorado, ansiaba un aura de respetabilidad científica que le brindó su compañero de aventuras, el genial médico (y entusiasta de la obra de Homero) Rudolph C. Virchow, también conocido como el “Papa de la medicina alemana”. Virchow dio ya en su época el impulso inicial a la salud pública y debe su celebridad a la creación de la patología celular. Suya es una aseveración trascendental que iba a revolucionar la medicina: Omnis cellula a cellula (“Todas las células derivan de otras células”). La identificación de la célula como unidad mínima de la vida y de la enfermedad preparó el camino para el advenimiento de la quimioterapia, treinta años más tarde. Virchow tenía sus propias razones para acercarse a Troya, interesado como estaba en la historia de la cultura. También era aficionado a la antropología, disciplina que prácticamente inventó Johann F. Blumenbach, quien se propuso establecer relaciones entre la morfología craneana y la
88
clasificación de las razas. Su método consistía en colocar un cráneo entre sus pies y observarlo desde arriba, lo que entre sus partidarios se llamaba la “posición Blumenbach”. De esta manera clasificó a los seres humanos en cinco grupos raciales y les dio nombres, uno de los cuales aún se utiliza con frecuencia: “caucasiano”. Blumenbach estudió el caso del “niño salvaje” descubierto en 1724 en Hannover y del que se decía que era un vivo ejemplo de hombre primitivo. Nuestro antropólogo acabó con esa tesis, pero cuando ya se había enviado al niño a Londres. Allí estuvo al cuidado (amén de ser objeto de
discusión entre filósofos y de exhibición) del médico de la Reina, Dr. John Arbuthnot, cuyos trabajos sobre probabilidad estadística estimularon a un insulso holandés que respondía por William J. ’sGravesande. En 1736 este hombre, cuya vida describen sus más ardientes biógrafos como “sin relieve”, enseñaba la ciencia de Newton en la Universidad de Leiden y recibía las visitas de un francés empeñado en la redacción de una guía general sobre la obra del físico inglés. Tal vez los consejos de ’sGravesande tuvieran parte de culpa en que el libro convirtiera a su autor en el más famoso escritor científico de Europa. Se llamaba Voltaire. Da la casualidad de que Voltaire conocía a su vez a Arbuthnot de cuando el francés estuvo en Londres. Juntos asistieron al último éxito de teatro. Se trataba de The Beggars’s Opera, de John Gay, la primera auténticamente lírica y una sonora bofetada contra la clase política, en forma de sátira. La obra le costó un serio enfrentamiento con las autoridades, pero el público le recompensó con el éxito y un récord de taquilla sin precedentes: sesenta y dos representaciones. John Rich, director del teatro Inn Fields de Lincoln, calificó la obra de falta de talento. Cuando las críticas recogieron el extraordinario éxito de Gay, se dijo que la obra haría “Rico a Gay y gayo a Rich”. Rich tenía buen olfato para descubrir lo que el público quería. Preparó la puesta en escena del primer ballet auténtico, representado por un muchacho, John Weaver, quien había aprendido cuanto sabía sobre pasos de baile de un libro de coreografía francés cuya traducción acababa de publicarse. El autor original había, a su vez, plagiado a Pierre Beauchamp, el primero en establecer las cinco posiciones básicas del pie, desarrollar un método de registro de los pasos de baile e introducir la terminología francesa, como jeté o pas de deux. Beauchamp, bailarín principal del rey, colaboró estrechamente con el
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
maestro de palacio: Jean-Baptiste Lully, un italiano que había cambiado de nombre y que compuso las primeras marchas militares para el nuevo ejército francés. Y digo nuevo porque era el primer ejército permanente y profesional de Europa. Esta radicalización de los asuntos militares se debió a la iniciativa del ministro francés de la guerra, el marqués de Louvois. Adivinó tras los delirios megalomaníacos de Luis XIV el proyecto de una Francia grande, que implicaba evitar que otros lo fueran. Un ejército podía ser un buen recurso. Louvois se percató de que la combinación de la bayoneta articulada y el mosquetón de chispa exigía una estrategia basada en la disciplina y el adiestramiento, en sustitución de los acuchillamientos y los gritos de combate tradicionales, si se quería obtener el máximo rendimiento de las nuevas armas. Con la precisión de un mecanismo de relojería, los soldados dispuestos en filas uniformes deberían maniobrar y disparar de uno en uno. El nuevo concepto de Louvois de un
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
ejército permanente terminó con la práctica habitual de recurrir a tropas mercenarias. Esta reorganización cayó como un jarro de agua fría sobre la tradicional fuente de los mejores mercenarios: Suiza. Fue sobre todo la técnica del cuadro de picas la que los hizo famosos. Un gran número de piqueros rodeaba a un grupo restringido de mosqueteros y lo protegía con sus picas de seis metros levantadas al cielo. Cuando hacía acto de presencia la caballería enemiga, los piqueros bajaban las lanzas y adoptaban una formación en erizo que detenía el avance de la caballería, momento que aprovechaban los mosqueteros para liquidarla. El nuevo fusil y la bayoneta podían desempeñar estos trabajos como uno. Una parte de Suiza no estaba preocupada por semejantes eventualidades. El cantón de Zurich había cancelado sus contratos de mercenarios gracias a la actividad desarrollada por Huldrych Zwinglio. En 1520, este reformador protestante había separado a su comunidad de la Iglesia
Católica con ideas tan poco romanas como serían comer salchichas en Cuaresma, autorizar el matrimonio de los sacerdotes, retirar las imágenes de las capillas, oficiar en alemán en vez de en latín y proscribir el uso de zapatos de hebilla. Un tanto aguafiestas. Zwinglio tenía un ahijado, tan pío como él, Conrad Gesner, que hizo aportaciones al ideario de Huldrych tales como la traducción a veintidós idiomas del Padrenuestro y un catálogo gigante de todos los libros impresos hasta esa fecha. Y aún hizo otra cosa. Doscientos años antes que Linneo, formuló una nueva clasificación de los animales, la primera basada en la fisiología, y de las plantas, la primera basada en sus formas y semillas. Como parte de esta contribución a la botánica, en 1561 Gesner publicó un libro que contenía los primeros dibujos europeos de una planta nueva y bellísima, traída poco tiempo antes de exóticas regiones extranjeras. Se trata del tulipán que apareció en la pantalla la otra noche.
89
L IBROS Europa Desertización SOIL DEGRADATION AND DESERTIFICATION IN MEDITERRANEAN ENVIRONMENTS. Coordinado por J. L. Rubio y A. Calvo. Geoforma Ediciones; Logroño, 1996.
E
sta obra versa sobre dos de los problemas ecológicos más graves que afectan a los ecosistemas mediterráneos en sentido amplio: la degradación de los suelos y la desertización. Los ecosistemas mediterráneos son asiento de una amplia geo y biodiversidad, aunque también constituyen medios densamente poblados y sometidos a una gran tensión, derivada de la bondad del clima y del alto rendimiento agrícola. El volumen consta de quince artículos elaborados por expertos de seis países, precedidos por una introducción. Los artículos se han estructurado en cuatro capítulos que encabezan otros tantos enunciados. El primer capítulo, integrado por cuatro artículos, se ocupa de los suelos mediterráneos y de los procesos erosivos que les afectan. Conceptos tales como paisaje, edafología, geo y biodiversidad se encadenan para explicar la tipología de suelos presentes en el área mediterránea y los procesos erosivos que intervienen. El segundo capítulo aborda aspectos de relevancia en la degradación del ecosistema mediterráneo: la salinización y la contaminación de los suelos, la influencia de los incendios forestales y su relación con la erodabilidad de los suelos, y el polémico tema de la influencia del abandono de las tierras de cultivo en la desertización. ¿Conduce el regadío en regiones áridas y semiáridas a la salinización o a la “sodiación” del suelo? La respuesta no es sencilla, pero todo apunta a que sea afirmativa. En esta misma línea no podía faltar la contribución de los metales pesados, las deposiciones ácidas y las interrelaciones entre ambos fenómenos, al deterioro de los suelos y del medio. Los incendios forestales afectan a las propiedades del suelo, como consecuencia del calor producido,
90
de las cenizas generadas y por el aumento de la erodabilidad. Quizá pueda resultar algo más fantasioso el artículo dedicado a los efectos de los fragmentos rocosos sobre los procesos de degradación en el medio mediterráneo. La simulación de la degradación del medio —tercer capítulo— incluye dos artículos, esencialmente dedicados a los procesos erosivos en vertientes y en cuencas; desarrolla los procesos de erosión laminar, concentrada y los movimientos en masa. El Modelo Europeo de Erosión del Suelo (EUROSEM) es objeto de descripción, con explicación de cada una de las etapas que debe cubrir todo modelo de simulación; asimismo, se hacen unas consideraciones sobre otros modelos más clásicos y sobre las similitudes y diferencias con el modelo EUROSEM. Pero la obra no se queda en la descripción de los principales problemas que afectan a la degradación del suelo y a la desertización subsecuente, sino que aborda también métodos para reducir la degradación del medio. Las prácticas agrícolas recomendadas pasan por una reducción del laboreo, tendente a disminuir la facilidad de transporte de las partículas por el agua y el viento, complementado con mecanismos que impidan la formación de superficies endurecidas que reduzcan la infiltración y la retención del agua en el suelo. El riesgo de aumentar desmesuradamente la escorrentía superficial en el olivar carente de prácticas de laboreo es algo que se sospecha en amplias áreas, por su posible contribución al aumento de los riesgos de avenidas catastróficas. Interesante y didáctico es el artículo dedicado a la rehabilitación de suelos degradados por la erosión hídrica en medio semiárido; pasa revista a las posibilidades de mejora de las propiedades físicas, de su fertilidad y de la microbiología. Paralelamente, los autores proponen actuar sobre las plantas, seleccionando las especies, reactivando la microflora edáfica y aprovechando los nuevos avances genéticos. La Europa de las decisiones sencillas y de validez general no existe; lo que puede resultar positivo desde el punto de vista ecológico para Centroeuropa puede generar un au-
téntico desastre para las regiones más áridas: sirva de ejemplo las ayudas para el abandono de las tierras de cultivo, sin que lleven aparejadas medidas complementarias. ANTONIO PULIDO BOSCH
Ilustración Atracción newtoniana CAVENDISH, por Christa Jungnickel y Russell McCormmach. The American Philosophical Society; Philadelphia, 1996. PIERRE-SIMON LAPLACE (17491827): A LIFE IN EXACT SCIENCE, por Charles Coulston Gillispie. Princeton University Press; Princeton, 1998. LAWS AND ORDER IN EIGHTEENTHCENTURY CHEMISTRY, por Alistair Duncan. Clarendon Press; Oxford, 1996. LAVOISIER ET L’ENCICLOPÉDIE MÉTHODIQUE, por Patrice Bret. Leo S. Olschki; Firenze, 1997. S IDEREUS N UNCIUS & S TELLA POLARIS. Dirigido por Marco Beretta y Tore Frängsmyr. Science History Publications; Canton, 1997. L A METTRIE. MACHINE MAN AND OTHER WRITINGS. Edición preparada por Ann Thomson. Cambridge University Press; Cambridge, 1996. GESUNDHEIT UND KRANKHEIT IM 18. JAHRHUNDERT. SANTÉ ET MALADIE AU XVIIIe SIÈCLE. Dirigido por Helmut Holzey y Urs Boschung. Rodopi; Amsterdam, 1995. H EALTH AND HEALING IN EIGHTEENTH-CENTURY G ERMANY , por Mary Lindemann. The Johns Hopkins University Press; Baltimore, 1996.
S
i hubiera que escoger una palabra que sintetizara el Siglo de las Luces, la reflexión histórica aconsejaría el término crisis, en su sentido etimológico. Tras recelar de todo y someterlo a criba, hay que dar cuenta y razón de los fenómenos. Compete al savant, al científico ilustrado, buscar las regularidades que subyacen bajo el
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Si para Henry Cavendish ciencia es desorden aparente del mundo físico. ción de su laboratorio, donde los Convencido de la inanidad de la lu- hornos (de fragua, de reverberación) sinónimo de precisión en la medida, cubración, y a imagen de Newton, el constituían las estructuras centrales, con él pierde el aire su carácter de filósofo de la naturaleza debe abstraer pues el calor intervenía en las ope- elemento, lo mismo que el agua. las leyes naturales de las pautas obser- raciones habituales: calcinar, disolver, Describió la naturaleza y propiedavadas y de la experimentación. Método destilar, sublimar o evaporar. Con el des del hidrógeno (“aire inflamable”). seguido por el maestro en física y alambique, redomas y retortas al uso Obtuvo el calor específico de varias química, le convenía también a la destacan un juego óptimo de pesas sustancias. Midió la densidad y masa y escalas. historia natural y a la medicina. de la Tierra. Y a propósito de las Charles Cavendish (1704propiedades eléctricas sostuvo, 83) y su hijo Henry (1731en pura extensión newtoniana, 1810) recibieron el legado de que la fuerza entre un par de Newton en los propios muros cargas eléctricas era inversa al de la Regia Sociedad. Christa cuadro de su distancia. Por Jungnickel y Russell McCormdiversos experimentos la historia le reconoce precursor de mach recuerdan en Cavendish Faraday, Ohm y Black. que el primero encarnaba la revolución política de la Pero en teoría física no hubo restauración y el segundo la seguidor de Newton con la potencia intelectual y el rigor revolución científica de los matemático de Pierre-Simon Principios matemáticos de filoLaplace (1749-1827), título sofía natural. Si nadie igualó a lord Charles en su empeño también de una biografía espléndida escrita por Charles por la organización de la cienC. Gillispie, en la que Robert cia, Humphrey Davy afirmaría en 1810 que Inglaterra no Fox rememora su esfuerzo por crear una escuela de jóvenes había dado otro hombre como físicos que generalizara el moHenry desde los tiempos de Newton. Padre e hijo fueron, delo newtoniano e Ivor GrattaGuinness recrea la transforen máxima medida, albaceas de éste. mada de Laplace. Consagra el Laplace maduro En 1727 Charles Cavendish su magno Traité de mécanique fue nombrado socio de la Regia Sociedad que presidía céleste a la demostración matemática de la estabilidad del sisHans Sloane. Fue el año en tema solar; aplica las leyes de que Stephen Hales publicó la mecánica a los movimientos Vegetable Staticks, inspirado y figuras de los cuerpos celesen la Optica de Newton. Hales se apoyó en las fuertes. Con la Théorie analytique des probabilités establece las zas newtonianas de atracción y repulsión entre partículas bases de la estadística. Pero la para investigar la naturaleza historia de Laplace es fecunda desde mucho antes. Entre los de las plantas y el “aire fijo” (dióxido de carbono). Con los años 1768-1778, le vemos emerger en el horizonte redactando experimentos que realizó puso memorias sobre problemas de los fundamentos de la química cálculo diferencial e integral, pneumática, el dominio en que astronomía matemática, cosmoHenry Cavendish habría de labrar su fama. logía, teoría de juegos y causaDisputábase sobre la compolidad, casi por este orden. De 1773 datan sus primesición del aire. También sobre electricidad. Ese mismo año ros esfuerzos conocidos por buscarle asiento matemático a de 1727, la Regia Sociedad la teoría de la gravitación de asistió a disertaciones médicas en torno a cálculos, cataraNewton y deshacer las objetas y aneurismas, así como a ciones que la cuestionaban, a explicaciones razonadas sobre saber, el aparente encogimiento el cinamomo y las serpientes de la trayectoria de Júpiter y venenosas. Charles se encargó la expansión creciente de la de de que, en adelante, el pulso Saturno. En el Traité solucionará la invariabilidad de los no decayera. movimientos medios planetaHenry entró en ese círculo selecto en 1760. Su primer rios. Con todo, su fidelidad a Newton se debilita en ocasiotrabajo trató del “arsénico” (óxido arsenioso), que guardó nes, incluso en la propia idea de gravitación, que Laplace inédito. De sus propios masugiere que se propagaba a nuscritos se infiere la dotaHenry Cavendish, dibujo de William Alexander
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
91
lo largo del tiempo, en vez de ser químico reciben mayor atención que de la atracción en su triple forma de instantánea; su intensidad dependería, las teorías sobre la naturaleza de las gravitatoria, eléctrica y magnética. Atribuye la delicuescencia de las sales pues, de la masa, la distancia y la substancias implicadas. No tardó en aceptarse que el cam- de tártaro (carbonato potásico) a la velocidad de los cuerpos. De 1778 a 1789 progresó en me- bio químico exigía la combinación de atracción entre las partículas de la cánica celeste y probabilidades al- sustancias más o menos estables y sal y las partículas de vapor de agua canzando muchos de los resultados diferentes entre sí. Se vio de inmediato que flotan en el aire. Declara que a los que debe su fama y que más que la mayoría de las substancias se un compuesto se disocia porque una tarde incorporó en el Traité y en la mostraban exquisitamente selectivas en de las dos substancias integrantes se Théorie analytique. Durante ese mismo sus reacciones. Por tanto, una de las siente más atraída por una tercera. Y período Laplace entró en la tercera primeras tareas que urgían al químico expone que en las reacciones importan, área de sus intereses: la teoría del era la de resolver qué substancias con la intensidad de la atracción, el calor, en colaboración con Antoine- se combinaban con cuáles. El paso tamaño de las partículas. Pero ni la filosofía mecánica ni las siguiente para una mente inquisiLaurent Lavoisier (1743-1794). teorías tradicionales de los Gillispie muestra que en elementos y principios poese intervalo temporal resolvió las discrepancias entre dían explicar la selectividad las posiciones teóricas de los de la combinación química. cuerpos celestes y las obserLos conceptos químicos de vadas. Empezó por establecer afinidad y atracción tenían que la aceleración del movique desarrollarse fuera de la miento medio de Júpiter y la matriz newtoniana. Intuíase, deceleración de Saturno eran además, que de las tablas interdependientes. Acometió de afinidad se extraerían leyes predictivas. En efecto, la luego los movimientos de Ilustración insistía en los sislos satélites de Júpiter. La temas de clasificación como magnitud de la tarea abordada instrumento para poner orpor Laplace al resolver la estabilidad de los tres primeros den y pauta en la naturaleza. satélites se entenderá mejor Geometría y mecánica se presi tenemos en cuenta que sentaban en forma de teoremas seriados; empezaban su movimiento dependía de los catálogos de estrellas; los nueve ecuaciones diferenciaastrónomos depuraban tablas les de segundo grado. En lo que a la química de los movimientos planese refiere, el siglo XVIII tarios. La química, empero, parecía resistirse a superar la presenció la cadencia acelefase de masas aleatorias de rada de fenómenos químicos descubiertos y explicados. Se recetas y descripciones. El conseguir tablas de afinidad progresó en la tabulación de o atracción entre compuestos las propiedades de las susse convirtió en una obsesión. tancias y en el método de preparar reacciones y comY aparecieron las primeras puestos. Fue, sobre todo, un listas de substancias que se período de formación en el consideraban elementales en que la química se estructuró la práctica de laboratorio. en disciplina autónoma, doNo es que se anduviera a tándose de conceptos propios ciegas. Europa hacía tiempo e independientes de la física. que beneficiaba los mineraBuscó sus propias regulariles, teñía sus paños, fabricaba jabones, preparaba sosas o sodades, sus Laws and Order, por resumirlo con el título plaba cristales, por no hablar de las destilerías y hornos de de un magnífico libro introPierre-Simon de Laplace. Retrato póstumo realizado cerámicas. Los progresos que ductorio. en 1842 por Madame Feytaud A finales de la centuria impulsaron el advenimiento de la química los reclamaron precedente comenzó ya a despojarse de toda obscuridad espagírica tiva sería buscarle una explicación los productos que resultaban impres—la de los tres principios: sal, azufre y a dichas tendencias o “afinidades”. cindibles en procesos metalúrgicos, mercurio— para convertirse en ciencia Con Newton se generaliza el término textiles y químicos: ácido sulfúrico, hidróxido de sodio, cloruros, etc. racional, al par que la astronomía, “atracciones”. la mecánica y la matemática. Amén La industria de la guerra no quedó Newton mantuvo siempre vivo su de la alquimia y el paracelsismo, la interés por la química, destilando al margen. Antes bien, la fábrica de química era deudora de la tradición algunas de sus ideas en De natura pólvora fue el acicate químico por médica y la práctica industrial; esta acidorum y sobre todo en la cues- antonomasia de la Europa del XVIII. última empezaba a rebasar los lími- tión 31 de la Optica. Habla en ese No debe extrañarnos, pues, ver involutes de la mera artesanía. Con todo, extenso apartado del libro tercero de crado en esa tarea al mismo Lavoisier. las causas y mecanismos del cambio las fuerzas que vinculan a los cuerpos, Su exacta participación acaba de re-
92
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
velarse en un manuscrito recién descubierto y publicado con un texto introductorio de Patrice Bret: Lavoisier et l´Enciclopédie Méthodique. Le manuscrit des régisseurs des Poudres et salpêtres pour le Dictionnaire de l´Artillerie (1787). Los cuadernos manuscritos iban destinados a un Dictionnaire d´Artillerie que debía constituir un volumen de la Encyclopédie méthodique de Panckouke. El texto, truncado, refleja cuestiones teóricas y prácticas de interés para la aprehensión científica de los fenómenos físicos y químicos implicados en la fabricación y uso de la pólvora. Veintidós artículos componen el manuscrito, redactado hacia el verano 1787. Se distinguen tres grafías además de la pluma de Lavoisier. Se le reservan a éste los artículos principales sobre compuestos químicos. Por supuesto, los constituyentes de la pólvora: “Charbon”, “Nitre ou salpêtre”, “Salpêtre” y “Soufre”. También redacta la física de los fenómenos (“Détonation”, “Inflammation”). La pólvora de guerra era una mezcla de salitre (KNO3), carbón vegetal y azufre, en una proporción aproximada de seis, uno y uno, aunque esas razones varían de una tipo a otro de pólvora y de una fábrica a otra. El azufre no era, sin embargo, esencial para que se produjera la explosión del “nitro” (o salitre). Lavoisier emplea la vieja y la nueva nomenclatura. Escribe “aire vital” y oxígeno, pero jamás “aire deflogistizado”, por mucho que con él acabara la hipótesis del flogisto; habla de “aire fijo” y “ácido carbónico” (dióxido de carbono), “aire inflamable” e hidrógeno. El manuscrito constituye, pues, uno de los primeros textos destinados al gran público que introduce la nomenclatura moderna, sin aferrarse a un vocabulario que impediría la comprensión del lector. La química brillará también en Suecia. El XVIII es, en efecto, el siglo de su despegue científico, gracias a su salida al exterior. Entre los primeros itinerantes por las capitales europeas encontramos a Anders Celsius y Carolus Linneus, que reciben extensa atención en Sidereus Nuncius, obra plural sobre las relaciones entre Suecia e Italia. En 1733 Celsius es un joven profesor de astronomía de la Universidad de Upsala. Lector de las Mémoires de la Academia de Ciencias de París decidió visitar el Instituto de las Ciencias de Bolonia, para trabajar con Eustachio Manfredi, cuyas observaciones astronómicas ad-
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Contrato entre Panckoucke y Lavoisier sobre la redacción de los artículos sobre pólvoras y salitres del Dictionnaire de l’Artillerie, el 19 de abril de 1793. El documento porta todavía el sello del rey, ejecutado hacía ya casi tres meses
miraba. Manfredi había determinado la longitud de Moscú. En Bolonia Celsius realizó experimentos para medir la intensidad de la luz, tomó parte en el programa de observaciones astronómicas y participó en las lecturas diarias de la altitud del sol usando el meridiano de S. Petronio, establecido un siglo antes por Cassini. A modo de despedida, al año siguiente, dictó ante sus colegas una conferencia titulada De ascensu et decensu Maris Baltici. Para explicar ambos fenómenos planteó tres hipótesis a evaluar por los académicos: 1) las variaciones de la altura del mar se deben a los cambios de presión atmosférica que provocaban, alternativamente, la dilatación y compresión de las partículas del aire en el agua; 2) las variaciones correlacionadas con la
altura del mar y la presión atmosférica hay que atribuirlas a la acción de los vientos; 3) las variaciones registradas en el agua y en la atmósfera están causadas por una fuente de calor de las profundidades marinas que arranca de la tierra subyacente. Linneo, amigo íntimo de Celsius, estudió tres años en Holanda, pasó por Oxford y viajó a París, pero no pisó nunca suelo italiano. Ello no le impidió revisar la fauna y la flora de la península mediante un intercambio epistolar, de semillas y especímenes y su amplio conocimiento de la bibliografía. Aunque escribía en un latín elemental no le eran ajenos los clásicos y bebió en la filosofía estoica de Séneca y Cicerón. Más retóricas son sus citas de las figuras de la ciencia moderna. Pese a ello, su
93
sueño incumplido fue extender la obra vegetal. Lo expresa con tono enfá- Diderot y su circunstancia, en tanto de Newton a la historia natural, es tico y categórico: “El hombre se ha que el segundo pormenoriza el papel decir, convertir en disciplinas exactas transformado en planta. No se crea, que desempeña la salud en la rutina la botánica y la zoología. sin embargo, que es una ficción, al de la vida ordinaria. Desde la antigüedad la salud ha Linneo manejó asiduamente la estilo de las metamorfosis de Ovidio. Recreatio Mentis et oculi in obser- Una somera comparación entre el reino preocupado al pensamiento médico. vatione animalium testaceorum (1684) vegetal y el reino animal me ha Escribía Galeno que el objeto de de Filippo Buonanni; también, el Index mostrado que las partes principales de la medicina era el de defenderla mientras persistía o restablecerla en testarum conchyliorum quae adser- uno se encuentran en el otro.” vantur in museo (1742) de Niccolò Describe la organización humana cuanto flaqueaba. Pero no existe un Gualteri. Ambos le resultaron muy a través de los órganos vegetales, estado normal unívoco para todos, útiles para su redacción de Vermes, con referencia particular a la función insistía Albrecht von Haller. Tal fue la sexta clase del Systema naturae. reproductora. Sigue a Linneo en la la gran cuestión del XVIII: “saniMejor si cabe era su fondo botánico, terminología. Se abre, por supuesto, tas quid?”, planteada por Haller y con particular devoción por los Libri a las diferencias entre animales y Gerhard van Swieten, desarrollada por de plantis de Andrea Cesalpino, a plantas. Ni unos ni otras precisan de la Enciclopedia. quien consideraba el mejor teórico de ningún principio de vida, como acaba De acuerdo con la definición que la botánica, pese a no haber conocido de demostrarse con la reproducción en ésta da De Jaucourt, la salud es de los pólipos de Trembley. En el el estado más perfecto de la vida, la la sexualidad vegetal. La organografía de Cesaldisposición conveniente de las partes del organismo. Cuando pino inspiró a Linneo. De se alcanza, el cuerpo realiza acuerdo con la misma, las todas sus funciones sin dificulplantas —y los animales, humanos incluidos— constan de tad y en toda la extensión de médula y corteza. A la manera la que es capaz cada órgano, de los insectos, la planta va según su cometido. La salud transformándose de la hoja a es una condición que reside, la semilla a través de diferentes pues, en todo el conjunto del metamorfosis. El desarrollo de cuerpo, que está compuesto la médula conduce a la flor, de sólido y de fluido, según el de la corteza al fruto. El el aforismo de Hermann Boertándem médula-corteza debe haave. Cada cuerpo difiere de entenderse como una respuesta los demás, presenta su propio “temperamento”, expuesto de Linneo a los problemas aquí todavía en clave galenista. taxonómicos que surgieron en Temperamento es constitución el ecuador del XVIII como consecuencia del descubrimiento natural y estado de los hupor Abraham Trembley de mores. Ahora bien, pese a la diferencia de constituciones y la regeneración de hidras y de temperamentos, existen sigpólipos. Linneo atribuía esa regeneración a la metamorfosis nos generales en los que puede reconocerse un buen estado de de la médula. Para entender cómo esas salud. Se acepta la correlación comparaciones alcanzaron su directa entre signos (morfológicos y funcionales) y salud. máxima radicalización hemos “Nervios de la cabeza”. Recueil des Planches, En aquel ambiente neohipode cortar el La Mettrie de Ann pour la nouvelle édition du Dictionnaire Raicrático se resalta la convenienThomson. Frente al dualismo sonné des Sciences, des Arts et des Métiers. cia de la higiene, el ejercicio y cartesiano, el materialismo sin (Lausana, 1780.) el régimen. Debe volverse a una matices de Julien Offray de arcadia ida, como recogen las La Mettrie en L´homme mapalabras de J. J. Rousseau: “la chine (1747) y L´homme plante (1748). Se propone en el primero ginebrino, con sus supuestos orga- mayoría de nuestros males son obra mostrar que la mente no es más nismos de transición entre el reino nuestra; los habríamos casi evitado que el resultado de la organización vegetal y el reino animal, se espejó del todo si mantuviéramos una forma cerebral, pero reconoce su incapa- La Mettrie para defender la continui- de vivir sencilla, uniforme y solitaria, cidad para explicar de qué modo la dad de la naturaleza, la gran cadena la que nos prescribe la Naturaleza”. materia organizada adquiría la facultad de los seres. Aunque no todos comparten esa evode pensar. Se buscan en el siglo XVIII las raíces cación infundada. Para Jonathan Swift, Parece que escogió el título de del sentido que para el hombre de ni la salud está asociada al paraíso L´homme plante para explotar el im- hoy tienen la salud y la enfermedad, perdido, ni la enfermedad a la caída. pacto de L´homme machine, donde su incidencia en la vida diaria. A Gulliver piensa sólo en un estado incluía al hombre entre los autómatas esa corriente pertenecen Gesundheit natural de salud y una perturbación mecánicos. Sea lo que fuere, com- und Krankheit im 18. Jahrhundert y de dicho orden. Pero la sátira de los para aquí las operaciones del cuerpo Health and Healing in Eighteenth- Viajes está lejos de proponer el ideal humano con la organización de los Century Germany. El primero atiende, de una naturaleza virgen y de un vegetales, en un intento por mostrar sobre todo, a aspectos doctrinales, buen salvaje. El estado de naturaleza la uniformidad del reino animal y del con morada en la Enciclopedia de ideal que nos pinta es el de una na-
94
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
turaleza domesticada, de un país de la Inglaterra rural del XVIII, donde el ganado vive libre, apenas estabulado. En Swift y otros, la dicotomía enfermedad-salud es una superposición de la dicotomía naturaleza-cultura. No abundan en la historiografía médica la narración de la vida diaria, lo que en metodología se denomina a veces Alltagsgeschichte. A esa tradición ha sumado Mary Lindemann, en Health and Healing, la historia de las mentalidades y la de las estructuras e instituciones para exponernos la actividad cotidiana en el estado de Branunschweig-Wolfenbüttel durante el siglo XVIII. Braunschweig-Wolfenbüttel puede considerarse un modelo de gobierno de la Ilustración: sin grandes proyectos a largo plazo y resolutivo, por contra, de los problemas vecinales diarios. Lo que en el XVIII fue ducado, hoy pertenece a la Baja Sajonia. Las dos ciudades principales del ducado y sus centros administrativos eran Braunschweig, cuya población en la segunda mitad del XVIII giró en torno a los 25.000 habitantes, y Wolfenbüttel, con unos 7000 escasos. Se mantuvo cierto equilibrio entre la gente que vivía en las ciudades y la de los pueblos y enclaves pequeños. Aunque había una cámara consultiva, el gobierno se acercaba más al absolutismo del duque y sus cuatro consejeros áulicos. Se autoabastecían. La diversificación de los cultivos creó una agricultura que permitía hacer frente a las temidas hambrunas ligadas a los monocultivos. Los ciclos de siembra y cosecha gobernaban la vida diaria. Las minas conferían cierto dinamismo a la sociedad, que completaba sus ingresos con la cría de animales domésticos y la explotación comunal de los bosques. Los artesanos cardaban la lana, hilaban, curtían el cuero, secaban el tabaco o fabricaban licores. Sus tejidos llegaban incluso a España. En casi cada pueblo había algún herrero, carpintero, tendero, tabernero y molinero. El quehacer médico compromete todos los niveles de la vida del lugar. Además de los profesionales (médicos, cirujanos, barberos, parteras, apotecarios o herbolarios), se sienten implicados la autoridad, familiares y vecinos. Pocos recursos le quedan a la autora para poner en movimiento el cuadro estático de una representación pictórica fuera de las estadísticas, informes privados o notariales y topografías médicas. En definitiva, la investigación queda obligadamente ceñida a una labor de rastreo de archivos.
INVESTIGACIÓN
Y
CIENCIA, mayo, 1998
Los philosophes del siglo XVIII cristalizaron la imagen del hombre común en el campesino trabajador y sin luces. A su decir, el “pueblo” era sencillo, supersticioso e ignorante; desconfiado, que prefería sus curanderos a los médicos y que recelaba de la asistencia sanitaria aun cuando se le ofreciera gratis. Brochazo falso en determinados casos, verdad a medias en la mayoría. Esa idea ha alimentado la interpretación dualística según la cual habría profesionales de élite y profesionales populares, sanadores fijos y sanadores peripatéticos, culturas refinadas y manifestaciones populacheras. A modo de extensión, persiste la idea entre los historiadores de que los sanadores, barberos y cirujanos llegaban allí donde los médicos no querían acercarse o no podían. De esa opinión discrepa Lindemann. Los cirujanos de Württemberg no sólo sanaban a los pobres sino que asistían también a familias adineradas. Por su parte, el vulgo acudía al médico licenciado siempre que le era posible. A veces, buscaba la opinión de otro médico que confirmara o corrigiera el diagnóstico del primero. Esa costumbre de consultas sucesivas o simultáneas aparece también documentado para el XVIII de Inglaterra. Hablan del interés por la salud los miles de publicaciones dedicadas a mejorar el bienestar del pueblo y propagar la ilustración médica, donde se abominaba de los curanderos. Para Samuel Tissot, médico suizo del XVIII, los curanderos eran criaturas “nacidas sin talento, crecidas sin educación y a menudo analfabetas”. LUIS ALONSO
Obras de referencia En física P RINCETON G UIDE TO A DVANCED P HYSICS , por Alan C. Tribble. Princeton University Press; Princeton, 1996.
N
os encontramos ante un libro que incluye una gran variedad de temas. Empieza por métodos matemáticos usados en física (series de Taylor y de Fourier, teoremas de Stokes, Gauss y Green, transformadas de Fourier y Laplace y funciones de variable
compleja). A continuación expone la mecánica clásica, introduciendo el principio de D’Alembert, las ecuaciones de Lagrange, el cálculo de variaciones, el principio de Hamilton, las ecuaciones de Hamilton, las transformaciones de Legendre, los corchetes de Poisson, las transformaciones canónicas y las simplécticas, finalizando con la formulación lagrangiana y el teorema de Noether. Dentro de este capítulo de mecánica clásica también se encuentra el movimiento del cuerpo rígido y el movimiento oscilatorio. Con una extensión equivalente al capítulo de mecánica clásica, se suceden los dedicados a la electrodinámica, la óptica, la dinámica de fluidos, la física del plasma, la relatividad especial y la relatividad general, la mecánica cuántica, la física atómica, la física nuclear, la física estadística y la física del estado sólido. Cada capítulo acaba con una bibliografía básica y en cada uno se incluyen varios ejercicios resueltos a título de ejemplo. El libro acaba con tres apéndices: identidades vectoriales, derivadas vectoriales en diversas coordenadas y una tabla de constantes físicas, respectivamente, finalizando con la Tabla periódica de los elementos y un índice alfabético. Con semejante elenco de cuestiones, toda la física básica, podría imaginarse que se trata de una enciclopedia. Nada de eso. El lector no debe buscar un libro clásico de texto en el que partiendo de cero se consiga un entendimiento de las materias enunciadas. Tampoco un libro de consulta. Sin embargo creemos que el libro es útil y puede prestar un buen servicio. ¿En qué sentido? El libro es una síntesis que contiene los conceptos, ideas y fórmulas de una manera concisa y correcta. Es muy difícil encontrar en ningún otro libro de sólo 400 páginas un resumen tan bien seleccionado y con tan variados temas como aquí. Muchas veces, el investigador, el estudiante o el profesor necesita recordar una fórmula, un teorema o un concepto. En este punto, el libro saldrá en su auxilio, pero no le servirá de nada si dicho concepto o teorema no se ha estudiado anteriormente. En los tiempos que corren, donde cada vez es más frecuente la aparición de problemas físicos en que están implicadas diversas áreas de la física, se hace especialmente útil la posibilidad de contar con un texto que nos permita recordar las herramientas necesarias para poder abordarlos. CARLOS PAJARES
95
I DEAS
APLICADAS Paul Hoffman
Correo electrónico por Internet 1 EL REMITENTE DEL MENSAJE emplea un programa de correo, llamado cliente, para componer un documento, quizá con tablas, fotos o incluso una grabación sonora o de vídeo. El programa del sistema, llamado Protocolo de Control de Transmisión (TCP), divide el mensaje en paquetes y añade información sobre la gestión de cada paquete; por ejemplo, en qué orden se transmitieron los paquetes desde el remitente. Los paquetes se envían a un servidor de clasificación de correspondencia, un ordenador de la red interna de una compañía o un suministrador de servicios Internet.
3 EL SERVIDOR DE CLASIFICACION transforma el nombre del dominio del destinatario en una dirección de protocolo numérica, el “Protocolo de Internet (IP)”. Esto lo lleva a cabo preguntando a los servidores de nombre de dominio esparcidos por Internet. Por ejemplo, el servidor de clasificación puede solicitar al servidor de nombres “raíz” el paradero de otros servidores que guardan información acerca de los dominios “.es” (a). Puede luego interrogar al servidor de nombres “.es” acerca de la ubicación del servidor de nombres “abaforum.es” concreto (b). Una última solicitud al servidor de nombres “abaforum. es” proporciona la dirección IP del ordenador que recibe el correo para “abaforum.es”, que se agrega a cada paquete del mensaje (c). A continuación, el servidor de clasificación transmite los paquetes a SERVIDOR las máquinas de disDE NOMBRES tribución repartidas por c ¿QUIEN ES EL SERVIDOR Internet.
DOMINIO DE SEGUNDO NIVEL
{
[email protected]
{
(“.es”) que sigue al dominio de segundo nivel (“abaforum”). El mensaje es entregado a una persona o a un grupo mediante el nombre del buzón (“precisa”).
PAQUETE
BUZON
{
C
ada año circulan por Internet miles de millones de mensajes de correo electrónico (e-mail). El envío de cartas, imágenes y archivos de datos electrónicos, sea de un punto a otro de un edificio o a la otra cara del globo, se ha extendido hasta el extremo de que ya ha comenzado a sustituir al correo y al teléfono. Este medio universal no se limita a intercambiar sencillos mensajes de texto; transmite mensajes de voz, facsímiles y documentos que pueden 2 LAS DIRECCIONES DE CORREO DE INTERNET unidas a cada incluir imágenes, sonido y vídeo. mensaje tienen la estructura Lo corriente es que un mensaje esté “buzón@nombredominio” —en la redisponible para el destinatario en cuestión vista: “
[email protected]”—. Las de segundos tras su envío, una razón de partes del nombre del dominio depor qué Internet ha transformado nuestro signan un dominio de nivel superior poder de comunicación.
DOMINIO DE NIVEL SUPERIOR
a ¿QUIEN ES EL SERVIDOR “.ES”?
b ¿QUIEN ES EL SERVIDOR DE NOMBRES DE “ABAFORUM.ES”?
SERVIDOR DE CLASIFICACION
DE CORREO DE “ABAFORUM.ES”?
DISTRIBUIDORA
SERVIDOR DEL RECEPTOR “ABAFORUM.ES”
5 EL SERVIDOR DE CORREO DEL RECEPTOR organiza los paquetes en su orden original, siguiendo las instrucciones contenidas en cada paquete, y almacena el mensaje en el buzón del destinatario. Entonces, el programa cliente del destinatario puede mostrar el mensaje en la pantalla.
4 LAS DISTRIBUIDORAS leen la dirección IP de cada paquete y reenvían éste por el camino más eficiente. (A causa de las fluctuaciones del tráfico por las líneas de datos, intentar transmitir un paquete directamente a su destino no es siempre la vía más rápida.) Los distintos paquetes de un mensaje puede que viajen por rutas diferentes, yendo y viniendo a través de unas diez clasificadoras antes de acabar su viaje.
Seguiremos explorando los campos del conocimiento
ANTIMATERIA, NUDO GORDIANO DE LA ASTROFISICA ASI ESCOGE MACHO LA HEMBRA INFORME ESPECIAL: TELECOMUNICACIONES PARA EL SIGLO XXI
00261
JUNIO 1998 800 PTAS.
9 770210 136004
LA ANTIMATERIA COSMICA, por Gregory Tarlé y Simon P. Swordy
CANCER DEL FENOTIPO MUTADOR MICROSATELITES, por Manuel Perucho
Las antipartículas, que no abundan, son de lo más escurridizas. Pero quizás encierren la explicación de algunos misterios de la astrofísica.
Caracterizada por la acumulación de millones de mutaciones en secuencias repetidas, esa neoplasia representa una nueva vía molecular de formación de tumores esporádicos y hereditarios.
SINDROME POST-POLIO, por Lauro S. Halstead Decenios después de haber recuperado en buena parte la fuerza muscular, los afectados por la parálisis de la polio se quejan de cansancio, dolor y debilidad. La causa parece estar en la degeneración de las neuronas motoras.
LAS PRIMERAS IMAGENES, por Brian J. Ford La recreación de los experimentos acometidos por los inventores del microscopio nos revela qué es lo que pudieron observar en realidad.
ASI ELIGEN LAS HEMBRAS SU PAREJA, por Lee Alan Dugatkin y Jean-Guy J. Godin Las hembras suelen preferir aparearse con los machos más llamativos. Su elección puede estar basada en una compleja interacción entre instinto e imitación.
TIJERAS Y PINZAS DE LASER, por Michael W. Berns Los investigadores emplean rayos láser para atrapar células individuales y componentes incluso menores entre dos rayos de luz, y modificar, a la vez, las estructuras capturadas. Se abren así nuevas posibilidades de manipulación celular.
DE
INFORME ESPECIAL: NUEVOS SATELITES PARA PERSONALES, por John V. Evans
COMUNICACION
TELECOMUNICACIONES PARA EL SIGLO XXI, por Josep N. Pelton REDES INALAMBRICAS TERRESTRES, por Alex Hills MAS ALLA DE LOS SISTEMAS DE VOZ INALAMBRICOS, por Warren L. Stutzman y Carl B. Dietrich, Jr. RADIO ESPECTRO DISPERSO, por David R. Hughes y Dewayne Hendricks