EL HIGGS, EL UNIVERSO LÍQUIDO Y EL GRAN COLISIONADOR DE HADRONES
Comité de selección de obras Dr. Antonio Alonso Dr. Francisco Bolívar Zapata Dr. Javier Bracho Dr. Juan Luis Cifuentes Dra. Rosalinda Contreras Dra. Julieta Fierro Dr. Jorge Flores Valdés Dr. Juan Ramón de la Fuente Dr. Leopoldo García-Colín Scherer Dr. Adolfo Guzmán Arenas Dr. Gonzalo Halffter Dr. Jaime Martuscelli Dra. Isaura Meza Dr. José Luis Morán López Dr. Héctor Nava Jaimes Dr. Manuel Peimbert Dr. José Antonio de la Peña Dr. Ruy Pérez Tamayo Dr. Julio Rubio Oca Dr. José Sarukhán Dr. Guillermo Soberón Dr. Elías Trabulse
La Ciencia para Todos Desde el nacimiento de la colección de divulgación científica del Fondo de Cultura Económica en 1986, ésta ha mantenido un ritmo siempre ascendente que ha superado las aspiraciones de las personas e instituciones que la hicieron posible. Los científicos siempre han aportado material, con lo que han sumado a su trabajo la incursión en un campo nuevo: escribir de modo que los temas más complejos y casi inaccesibles puedan ser entendidos por los estudiantes y los lectores sin formación científica. A los 10 años de este fructífero trabajo se dio un paso adelante, que consistió en abrir la colección a los creadores de la ciencia que se piensa y crea en todos los ámbitos de la lengua española —y ahora también del portugués—, razón por la cual tomó el nombre de La Ciencia para Todos. Del Río Bravo al Cabo de Hornos y, a través del mar océano, a la península ibérica, está en marcha un ejército integrado por un vasto número de investigadores, científicos y técnicos, que extienden sus actividades por todos los campos de la ciencia moderna, la cual se encuentra en plena revolución y continuamente va cambiando nuestra forma de pensar y observar cuanto nos rodea. La internacionalización de La Ciencia para Todos no es sólo en extensión sino en profundidad. Es necesario pensar una ciencia en nuestros idiomas que, de acuerdo con nuestra tradición humanista, crezca sin olvidar al hombre, que es, en última instancia, su fin. Y, en consecuencia, su propósito principal es poner el pensamiento científico en manos de nuestros jóvenes, quienes, al llegar su turno, crearán una ciencia que, sin desdeñar a ninguna otra, lleve la impronta de nuestros pueblos.
Gerardo Herrera Corral
EL HIGGS, EL UNIVERSO LÍQUIDO Y EL GRAN COLISIONADOR DE HADRONES
La Ciencia para Todos / 236
Primera edición, 2014 Primera edición electrónica, 2014 La Ciencia para Todos es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus derechos. Se publica con los auspicios de la Secretaría de Educación Pública y del Consejo Nacional de Ciencia y Tecnología. Diseño de portada: Teresa Guzmán Romero Imagen de portada: © CERN Reelaboración de gráficas: Karen Jacqueline Chacón Cárdenas D. R. © 2014, Fondo de Cultura Económica Carretera Picacho-Ajusco, 227; 14738 México, D. F. Empresa certificada ISO 9001:2008
Comentarios:
[email protected] Tel. (55) 5227-4672 Se prohíbe la reproducción total o parcial de esta obra, sea cual fuere el medio. Todos los contenidos que se incluyen, tales como características tipográficas y de diagramación, textos, gráficos, logotipos, iconos, imágenes, etc., son propiedad exclusiva del Fondo de Cultura Económica y están protegidos por las leyes mexicanas e internacionales del copyright o derecho de autor. ISBN 978-607-16-1946-4 (ePub) Hecho en México - Made in Mexico
Carta a Adriana
ÍNDICE
Prólogo Introducción Brizna de luz entre la noche cósmica No tiene comienzo el mar I. El mundo de las ideas Hace más de 100 años La primera revolución La segunda revolución Dicotomía secular
El modelo estándar La teoría de cuerdas y el universo holográfico II. Para asir el universo La edad del universo El tamaño del universo La nada antes que todo Breve historia del universo III. Gran ciencia Ciencia en grande La Torre de Babel: la Organización Europea para la Investigación Nuclear (CERN) El Gran Colisionador de Hadrones para alcanzar el cielo El dominio del fuego: el experimento ALICE México en ALICE
IV. Del Higgs y la simetría escondida Simetría del universo El campo de Higgs El Higgs, descubrimiento del siglo ALICE y el Higgs El Higgs y el universo líquido V. Imagen de lo invisible y el universo líquido La materia de quarks Recreando la Gran Explosión: lumbre en el aire Las huellas La extrañeza se incrementa El encanto desaparece Extinción de jets El fluir de la energía / el universo líquido El universo líquido y los agujeros negros
VI. Reflexiones finales La física posible y la posibilidad de una nueva física La materia oscura Agujeros negros y la quinta dimensión Gran ciencia y desarrollo tecnológico Sorpresas tecnológicas La sustancia primordial que nos compone La diversidad gloriosa Las últimas 100 palabras Acerca de científicos importantes Glosario Bibliografía
PRÓLOGO
Aquí revisaremos algunas de las ideas actuales de la física de partículas en su intersección con la cosmología. Lo haremos a la luz del proyecto científico más ambicioso en la historia de la ciencia: el Gran Colisionador de Hadrones. Éste no sólo es un proyecto de largo aliento, de gran inversión y de complejidad inusitada, sino también una empresa humana que, por su carácter multinacional, por el modelo de trabajo en colaboración y sobre todo por el deseo de entender el universo, se convirtió en un proyecto científico asombroso, singular y admirable. Aquí revisaremos las ideas generales que motivan y conforman la búsqueda del origen del universo. Esbozaremos la percepción actual de su estructura y la relación que existe entre el macro y el microcosmos. Al final, el lector encontrará una lista de reseñas de los personajes que, a lo largo de este recuento, surgen como parte de las narraciones que componen la crónica. Uno de los hallazgos más recientes en la física de partículas elementales es la existencia del campo de Higgs. Otro más, aún en ciernes, es la naturaleza líquida del universo temprano. Este último, de apariencia fútil ante el estruendo por la llegada del Higgs, podría ser tomado como banal e intrascendente, y sin embargo bien puede ser el comienzo de un cambio profundo en nuestra manera de ver el universo. Sobre estos descubrimientos hablaremos en este libro. En la opinión del autor, éstos son los temas de mayor calado en el marco de las ciencias naturales de hoy. Los títulos introductorios son tomados de la maravillosa obra poética de José Emilio Pacheco. Los poetas tienen las palabras difuminadas para decir lo que los físicos delinean con precisión en ecuaciones y símbolos. Para José Emilio Pacheco, La gota es un modelo de concisión: todo el universo encerrado en un punto de agua. La gota representa el diluvio y la sed. Es el vasto Amazonas y el gran Océano. La gota estuvo allí en el principio del mundo.
Es el espejo, el abismo, la casa de la vida y la fluidez de la muerte. Para abreviar, la gota está poblada de seres que se combaten, se exterminan, se acoplan. No pueden salir de ella, gritan en vano. Preguntan como todos: ¿de qué se trata, hasta cuándo, qué mal hicimos para estar prisioneros de nuestra gota? Y nadie escucha. Sombra y silencio en torno de la gota, brizna de luz entre la noche cósmica en donde no hay respuesta.1
A diferencia de la poesía, la exposición científica es pensamiento puro que recurre a signos para describir el mundo. Con todo y esto, detrás de las ecuaciones espera siempre una exclamación. Para quienes nos hemos acostumbrado a evocar ideas con jeroglíficos, llegar a la exclamación sin pasar por las ecuaciones no es cosa fácil. La intención de este libro es recuperar el nombre común de los símbolos e interponer palabras. Sin embargo, estoy consciente de que la íntima realidad de las cosas no se deja asir con facilidad si no es con la versatilidad de las matemáticas, y por eso me contentaré con mostrar un poco de la gran profundidad que un poema puede tener. Por lo demás, ésta es una historia que perderá vigencia, como ocurre siempre con la historia de la exploración científica. Aun así, ésta es la narración de una búsqueda que debe ser escrita, porque, si bien el conocimiento cambia, el método para llegar a él no pierde validez; porque, además, se debe reconocer el camino andado dejando marcas de senderos extraviados y veredas convenientes, pero, sobre todo, porque es el relato de un anhelo y todos los anhelos deben ser contados.
1
José Emilio Pacheco, Tarde o temprano, FCE, México, 2009, p. 429.
INTRODUCCIÓN
BRIZNA DE LUZ ENTRE LA NOCHE CÓSMICA Los físicos han logrado recrear en el laboratorio y de manera controlada lo que hoy se cree que es la materia primordial del universo. Los estudios más recientes muestran que esta materia es un líquido 150 000 veces más caliente que el centro del Sol y 100 veces más denso que la materia más densa entre lo que nos rodea. La sustancia, a dos billones de grados, se forma al provocar choques entre iones pesados a la más alta energía nunca antes lograda. Esto se hace en el Gran Colisionador de Hadrones; ahí, con la ayuda del detector A Large Ion Collider Experiment (ALICE), se ha podido observar el prístino fluido universal. Esto ocurre en la Organización Europea para la Investigación Nuclear (Conseil Européenne pour la Recherche Nucléaire, CERN). Con la colisión de iones de plomo a muy alta energía, se consiguió crear un pequeño volumen subatómico donde se forma, por instantes muy cortos, un plasma de quarks y de gluones. Esta materia exótica es la misma de la que proviene el universo entero. Está hecha de partículas subatómicas que, como veremos, son los ladrillos fundamentales de la materia. Los gluones son los responsables de unir a los quarks, y de ahí su nombre: glue, pegamento en inglés. Experimentos anteriores han mostrado que la fuerza fuerte que experimentan los quarks se debilita a temperaturas extremadamente altas. La teoría que describe la interacción entre los quarks predice que, en un medio muy caliente, éstos se encontrarán a una distancia grande entre sí; por esto, se pensaba que el plasma de quarks y gluones debía ser un gas. Los nuevos datos muestran que esto no es así. Aun a temperaturas muy altas, los quarks siguen interactuando entre sí, y aunque la interacción fuerte se ha debilitado, la atracción entre ellos es tal que el sistema se comporta como un líquido. Este líquido no es como ninguno de los que conocemos, pues una pequeña gota del tamaño de un alfiler sería más pesada que las pirámides de Teotihuacan juntas. No deja de ser sorprendente que a esta temperatura extrema la fuerza entre los quarks sea de tal magnitud que la mezcla original se mantiene líquida. Un estado así se había observado antes en el acelerador Relativistic Heavy Ion Collider
(RHIC) del Brookhaven National Laboratory, ubicado cerca de Nueva York en los Estados Unidos. Ahí se observó, en choques de iones más ligeros y de más baja energía, el comportamiento líquido del plasma. Sin embargo, el estado producido tenía la mitad de la temperatura de lo que se consiguió crear en el Gran Colisionador de Hadrones en fechas más recientes. Se pensaba que al aumentar la temperatura, la fuerza fuerte se debilitaría tanto que por fin veríamos el plasma en forma de gas. Sin embargo, el Gran Colisionador de Hadrones parece mostrar que esto no ocurre, dejando la impresión de que quizá no entendemos la interacción fuerte tanto como pensábamos. El líquido primigenio existió apenas unas fracciones de microsegundo después de la Gran Explosión que dio origen al universo. En ese momento los átomos eran un futuro por venir y los protones y neutrones que forman la materia no aparecían aún. Cuando el universo se enfrió y se volvió menos denso, los quarks empezaron a agruparse en combinaciones peculiares formando partículas. Desde entonces los quarks y los gluones quedaron atrapados y no se les observa libres. Los modelos cosmológicos deberán tomar en cuenta la naturaleza líquida del universo temprano, pues las propiedades de esta materia primordial determinaron lo que sería del recién nacido universo. Si el líquido fuese viscoso como la miel, el universo en su gran escala se vería diferente a como lo vemos hoy. No obstante, ahora sabemos que el fluido original tenía la viscosidad mínima posible, esto es a lo que los físicos llaman líquido perfecto.
FIGURA 1. Evento real drel choque de dos iones de plomo producido en noviembre de 2011 en el Gran Colisionador de Hadrones y observado por el experimento ALICE. © CERN.
La producción de estas pequeñas gotas de universo temprano continúa como parte del programa de estudio del experimento ALICE en el Gran Colisionador de Hadrones, donde se quieren medir sus propiedades. La manera en que este líquido conduce el calor, su viscosidad, la opacidad que presenta, etc., no sólo nos darán una imagen de nuestro origen, sino que además nos indicarán cuál es el camino por seguir para comprender la estructura más elemental de la materia. La llamada teoría de cuerdas, que por mucho tiempo ha permanecido como una abstracción muy alejada de la realidad, ahora ha creado métodos de cálculo con los que se puede decir cuáles son algunas de las propiedades de este líquido especial. El experimento ALICE ha comenzado a ver algunas características de este nuevo estado de la materia. Cuando se tengan los resultados completos de las mediciones, se podrán comparar con lo que dice la teoría de cuerdas, y los resultados de esta comparación podrán ser muy reveladores. Un grupo de científicos mexicanos ha desempeñado un papel importante en el experimento ALICE. En México se diseñaron y construyeron partes del detector que ahora concentra la atención de una amplia comunidad de científicos del mundo.
NO TIENE COMIENZO EL MAR No existe un punto donde el universo haya empezado. Uno bien podría decir que el universo comienza en todas partes, porque al iniciarse en lo que llamamos Gran Explosión, el espacio mismo se fue generando. En la actualidad pensamos que muy poco tiempo después de la Gran Explosión ocurrió algo sorprendente con el recién nacido universo. El acontecimiento que evitó la repentina desaparición de nuestro mundo se llama “inflación”, y fue ésta la que convirtió al microcosmos primigenio en el majestuoso cielo nocturno. Fue quizás el campo de Higgs el que impulsó al universo a su vertiginosa expansión, amplificándolo en miles de millones de veces. En un instante inimaginable, lo que hasta entonces era un punto creció a un ritmo insólito hasta convertirse en una esfera del tamaño de una naranja. Al final de este proceso y gracias al Higgs las partículas adquirieron masa y lo que era luz se convirtió en materia. El campo que lo llena todo se manifiesta como una partícula, y ésta fue observada por primera vez en el CERN. La observación fue anunciada en el verano de 2012 por los experimentos del Gran Colisionador de Hadrones.
I. El mundo de las ideas
HACE MÁS DE 100 AÑOS Hace poco más de 100 años la física vivió una gran crisis, quizá la más grande de cuantas ha padecido. Durante casi todo el siglo XIX la física newtoniana había sido válida y constituía un baluarte del pensamiento científico. Según muchos, la física del siglo siguiente, es decir, del XX, sería asunto de refinamientos teóricos y experimentales que permitirían llegar a valores cada vez más precisos de las cantidades medidas. El futuro no ofrecía nada nuevo, sólo dificultades técnicas. Para mucha gente, describir el mundo era describir sistemas de muchas partículas, y la posibilidad de describir un conjunto de muchas partículas no estaba en los principios que subyacen a su comportamiento —que ya eran conocidos—, sino en el laborioso trabajo de cálculo para analizar cada una de las componentes. Puede parecer paradójico, pero el mismo Michelson, de quien hablaremos más en este capítulo, escribía en 1899: Las leyes más fundamentales y los hechos de la realidad física han sido descubiertos y ahora están tan firmemente establecidos que la posibilidad de ser suplantados como consecuencia de nuevos descubrimientos es muy remota. Los futuros descubrimientos se deben buscar ahora en la sexta posición de los decimales.1
No obstante, físicos notables como Lord Kelvin veían nubes en el horizonte. En un seminario impartido por él mismo en 1900, dijo: La belleza y la claridad de la teoría dinámica según la cual el calor y la luz son un tipo de movimiento mecánico están hoy oscurecidas por dos nubes. La primera gran cuestión está relacionada con la manera como la tierra se mueve a través de un cuerpo elástico sólido como el éter que se supone sustenta a la luz al propagarse, y la segunda, con la doctrina de MaxwellBoltzmann de distribución de la energía.2
James Clerk Maxwell había obtenido la ecuación que describe las velocidades de las moléculas en un gas. Ludwig Boltzmann, de manera independiente, desarrolló la teoría que permitía entender en la escala microscópica las propiedades termodinámicas que vemos en el nivel macroscópico. Sin embargo, cuando la gente trató de usar las ideas clásicas de estos
modelos para describir la radiación de un cuerpo negro, el fracaso fue tan grande que se le llamó “catástrofe ultravioleta”. Por otro lado, el éter del que habla Kelvin era una sustancia hipotética que lo llenaba todo y que permitía que por él viajase la luz, como sosteniéndola. Era así un marco de referencia con respecto al cual los demás objetos se movían. La palabra éter viene del griego y significa cielo o firmamento, y en la mitología helénica era la sustancia brillante que respiraban los dioses, en contraposición con el aire que respiran los mortales. Si bien para los físicos del siglo XIX la idea de un éter no era precisamente el de una sustancia brillante, sí se la pensaba como sustancia real. La idea fue puesta a prueba experimental y no pudo ser validada. El éter desapareció y con su desaparición llegó la teoría de la relatividad.
La primera revolución En 1900 Max Planck propuso una solución a uno de los dos grandes problemas señalados arriba. Con la solución planteada no sólo resolvió el problema de la “catástrofe ultravioleta”, creó también una nueva física. Veamos muy brevemente cómo se generó la revolución científica que dio origen a la mecánica cuántica: cuando uno calienta un cuerpo, por ejemplo, un bloque de metal como hierro o cobre, notará que cuando éste alcanza los 1 000 grados, aproximadamente, se pone incandescente. A esta temperatura el cuerpo emite un resplandor al que llamamos rojo vivo. Si seguimos calentando, el color irá cambiando poco a poco a anaranjado, luego a amarillo y finalmente a blanco. Si observamos esta luz a través de un prisma, veremos algo interesante. El prisma descompone la luz permitiendo que veamos qué colores se combinan para formarlo.
FIGURA I.1. Las curvas muestran la intensidad de cada color que compone la luz emitida a diferentes temperaturas. Nuestros ojos sólo son sensibles al intervalo de longitudes de onda que se muestra en colores.
Cuando tenemos el metal a 1 000 grados vemos un rojo intenso; cuando llega a 1 500 grados se ve anaranjado. En este punto el prisma nos revela que la luz que vemos está compuesta de rojo, anaranjado y amarillo. Si la temperatura del cuerpo llega a 2 000 grados lo vemos amarillo y el prisma nos revela que aparece un color verde entre las componentes. Cuando conseguimos poner el metal a 3 000 grados lo vemos blanco, y al llegar a este punto, con ayuda del prisma, nos percatamos de que la luz contiene todos los colores. Al seguir aumentando la temperatura, el color ya no cambia, aunque aumente la intensidad de cada color que compone el blanco. Cuando a principios del siglo pasado se intentó calcular la intensidad de la radiación que emite el cuerpo caliente, el resultado no tuvo ningún sentido. Los cálculos decían que el cuerpo emitiría una cantidad infinita de radiación en el ultravioleta —esto es, abajo del violeta en la figura I.1—. Si bien el violeta es visible, el ultravioleta no lo es. Lo que uno observa en el laboratorio es que la intensidad aumenta y luego disminuye nuevamente para longitudes de onda mayores, es decir, para luz roja y más allá del rojo. El infrarrojo tiene una longitud de onda tan larga que desaparece en la sensibilidad de nuestros ojos. En esta discusión hemos usado metales para mostrar las ideas de emisión de radiación cuando son calentados. Los físicos discuten estos fenómenos con un objeto ideal al que se llama cuerpo negro, y por consiguiente se habla de “radiación de cuerpo negro”. Todos los cuerpos emiten y absorben radiación y el cómo lo hacen no sólo depende de la temperatura; también depende del tipo de superficie expuesta. Un cuerpo al que se pinta de negro será un excelente emisor, y como en general los buenos emisores son también buenos absorbentes de radiación, el cuerpo negro resulta ser muy eficiente al absorber radiación. Si al mismo cuerpo se le pinta de blanco, se convertirá en pésimo emisor y también en un muy mal absorbente de radiación. Si la taza de café es negra, el café en ella se enfriará más rápido que si la taza es blanca. Todos sabemos que la ropa negra no es muy conveniente en un día caluroso porque el color negro absorbe de manera eficiente el calor, aunque uno podría pensar que también es un buen emisor, y es cierto, sólo que si la temperatura externa es mayor que la de la piel, la ropa dará calor al cuerpo. En cambio, la ropa blanca es un buen reflector y por consiguiente un pobre absorbente de calor.
FIGURA I.2. Las partículas están asociadas a ondas. A aquellas partículas con mayor energía —como la que se muestra arriba, donde hemos representado la cantidad de movimiento con una flecha— se les asocian ondas que oscilan con mayor rapidez que a aquellas que tienen menor energía, como la de abajo.
Para los propósitos de estudio que hemos esbozado antes es bueno usar un cuerpo negro que sea lo más próximo posible al ideal. Una superficie de terciopelo negro absorbe cerca de 97% del calor que le llega, y para muchos propósitos se le puede considerar un cuerpo negro. Los metales pulidos de los que hablamos anteriormente sólo absorben 6% del calor que les llega, y por eso mismo están lejos de ser un cuerpo negro ideal. Antes usamos el metal como ejemplo porque resulta más intuitivo para el lector imaginar las ideas, pero la verdad es que está lejos de ser un buen cuerpo negro. Ante la catástrofe ultravioleta, el físico alemán Max Planck propuso describir la emisión
de radiación del cuerpo negro como si fuera discontinua. Él se imaginó que el cuerpo estaba compuesto de partículas que oscilaban a una cierta frecuencia. A estas pequeñas unidades o paquetes de energía los denominó quantum. Estableció además que la cantidad de energía de un quantum depende de la longitud de onda de la radiación, es decir, del color de la emisión: cuanto menor fuera esa longitud, mayor sería la fuerza energética del paquete. La ecuación que Max Planck propuso es: E = h v, donde E es la energía del paquete y v su frecuencia. La letra h es una nueva constante de la naturaleza a la que se llama hoy la constante de Planck. El valor de esta constante es muy pequeño: h = 6.6 × 10–34 J . s Con estas ideas Planck pudo describir la emisión de cuerpo negro, que, como dijimos, era uno de los problemas abiertos cuando el siglo XX comenzaba. En su momento la teoría de los paquetes de radiación tuvo poca repercusión por ser demasiado revolucionaria. A nadie se le hubiese ocurrido pensar que el cuerpo negro emitiría de manera discontinua. La teoría de Planck, sin embargo, sirvió más adelante para explicar otros fenómenos. Fue así como nació la cuantización de la energía, que en los años siguientes vendría a formalizarse y a adoptar una forma más completa. Éste es el origen de la mecánica cuántica.
La segunda revolución A fines del siglo XIX se aceptaba ya que los planetas y las estrellas se movían. La pregunta crucial, no obstante, era: ¿con respecto a qué se mueven los astros? La física newtoniana afirmaba que todo se movía en una sustancia incorpórea denominada éter. Si el éter permanecía inmóvil, entonces el movimiento de los cuerpos se podría determinar usándolo como marco de referencia. Sin embargo, en 1887 el físico estadunidense Albert Michelson, junto con Edward W. Morley, realizó varios experimentos que mostraron la inexistencia del éter. Ya antes, en 1881, Michelson había construido un interferómetro que perfeccionó en 1887. Con este aparato se podía medir la diferencia de velocidades de la luz en direcciones perpendiculares. Si la luz viaja más rápidamente en la dirección de movimiento del planeta que en la perpendicular, se debería ver un corrimiento en el patrón de interferencia. Si el éter se opone al movimiento de la luz —como el viento lo hace cuando viajamos en un auto a una velocidad considerable—, esta oposición del viento será menor en la dirección perpendicular y aun favorable en la dirección opuesta. La diferencia se puede apreciar con cambios en el patrón de interferencia de la luz. Una manera sencilla de explicarlo es en términos de dos nadadores que compiten en
tiempo de nado de la misma distancia. La competencia consiste en salir de un punto, llegar a una cierta marca y regresar. Si la competencia se realiza en una piscina donde el agua no corre, la carrera terminará en empate, porque —pensémoslo así— los dos nadadores son igualmente veloces. Sin embargo, si existe una corriente que va en contra del nadador 1, mientras que el nadador 2 avanza en la dirección perpendicular a la corriente, no es difícil saber que el nadador 2 ganará la competencia. En la figura I.3 hemos dibujado el interferómetro de Michelson de manera muy sencilla. Ahí se puede identificar al rayo de luz 1 y al rayo de luz 2 como los dos nadadores de los que hablamos.
FIGURA I.3. En la imagen, la fuente de luz produce un haz que incide en un espejo medianamente plateado, es decir, que deja pasar la mitad de la luz y refleja la otra mitad. De esta manera hemos construido dos nadadores: (1) y (2). Los rectángulos azules son espejos que reflejan la luz. Cuando la luz regresa de los espejos normales al espejo medio plateado dejará pasar la mitad de uno y reflejará la mitad del otro para que éstos formen un patrón de interferencia en el punto amarillo (nótese que la mitad del rayo 1 que pasa de vuelta hacia la fuente, así como la mitad del 2 que se refleja hacia la fuente, no están dibujados).
Las distancias entre los espejos son tales que las distancias a las que los rayos 1 y 2 viajan serán las mismas, de tal manera que los dos rayos llegarán “en fase”, es decir, que, siendo ondas, los máximos y mínimos de ambos rayos deberán coincidir, produciendo un patrón constructivo que se verá en la pantalla amarilla con un brillo mayor. Si por alguna razón un haz viaja a mayor velocidad que el otro, entonces la interferencia entre ambos “producirá anillos de interferencia”. Si este aparato está montado en nuestro planeta, que se mueve a 29 000 metros sobre segundo alrededor del Sol, es decir, que se mueve a esta velocidad con respecto
al éter, entonces tendremos el escenario de los nadadores en dirección contraria al viento del éter o en dirección perpendicular. Esto hará que uno de los haces esté en ventaja con respecto al otro. Al llegar antes producirá una interferencia que podemos medir en la pantalla amarilla. Los brazos del interferómetro de Michelson medían 1.2 metros y todo el arreglo de espejos estaba montado en un bloque de mármol que flotaba sobre mercurio líquido para reducir el efecto de las vibraciones. Una vez ajustado el interferómetro podía ser girado en diferentes direcciones. Considerando la velocidad de la luz y la velocidad de la Tierra, podían haber visto con facilidad el cambio en el patrón de interferencia que se induciría como resultado del efecto que el éter tendría sobre uno y no sobre el otro de los haces; ¡sólo que esto nunca fue observado! Pensaron que quizá la rotación de la Tierra cancelaba el efecto del movimiento del planeta alrededor del Sol, por lo que esperaron 12 horas para repetir el experimento. Pero esto no cambió las cosas y en la pantalla no observaron efecto alguno. Creyeron luego que quizá el movimiento de la Tierra alrededor del Sol era cancelado de alguna manera por la posición del planeta en su órbita, por lo que esperaron seis meses para rehacer el experimento y, de nuevo, no se observó cambio. Entonces se pensó que tal vez la Tierra arrastraba al éter consigo misma en su movimiento, por lo que buscaron una montaña en California con la idea de que, en la altura, el efecto de arrastre sería menor, pero nuevamente no se observó una interferencia. Hendrick Lorentz interpretó el resultado del experimento de Michelson y Morley en 1892, con la hipótesis de contracción de la longitud. Explicó el resultado con la posibilidad de que los objetos sufriesen una contracción a lo largo de la dirección de movimiento. La contracción debía ser tal que permitía ajustar el resultado experimental. En 1899, sobre la misma línea de trabajo, Lorentz llegó a las reglas de transformación entre marcos de referencia que vendrían a formar la parte medular de la teoría de la relatividad. Por su parte, Henri Poincaré en 1904 hablaba ya del principio de relatividad y trabajó la parte temporal de las transformaciones relativistas. Con estos antecedentes, Einstein publicó su famoso trabajo en 1905, y habría de quedar como el creador de la teoría de la relatividad. Al respecto, E. Whittaker escribió en un artículo lo siguiente: […] en el otoño del mismo año [1905] y en el mismo volumen de la revista Annalen der Physik en el que se había publicado su artículo acerca del movimiento browniano, Einstein escribió un artículo en el que exponía la teoría de la relatividad de Poincaré y Lorentz con algunos complementos, el cual llamó mucho la atención.3
Einstein partió de la hipótesis crucial: “la velocidad de la luz es una constante que no dependerá de ningún marco de referencia”. Para mantener esto fue necesario cambiar la mecánica conocida, dando origen a la teoría de la relatividad. La solución propuesta fue tal que no se necesitó más un marco de referencia absoluto y que las leyes y fenómenos que estudiamos no dependen de ningún marco en especial. La teoría de la relatividad tiene dos versiones: la teoría especial, que se limita a la descripción de objetos en movimiento con velocidades constantes, y la teoría de la relatividad generalizada, que describe la fuerza gravitacional y la aceleración en los objetos. La teoría general de la relatividad tuvo que esperar varios años. No fue sino hasta 1915 que David Hilbert, matemático alemán, presentó la ecuación que describe a la fuerza
gravitatoria ante la Real Academia en Gotinga, Alemania. El 25 de noviembre de ese mismo año, es decir, cinco días más tarde, Albert Einstein presentó la misma ecuación en una reunión de la Academia de Prusia. ¿Por qué se ignora hoy la participación de más gente en la construcción de la teoría especial y general de la relatividad? ¿Por qué se atribuye todo a Albert Einstein? Muy probablemente hay aspectos sociológicos y de carácter histórico que acabaron por imponer la figura de Einstein como único autor, pero la verdad es que todas estas ideas estaban en el aire y mucha gente contribuyó a la construcción de lo que sería la nueva física. La teoría general de la relatividad establece una relación estrecha entre la geometría del espacio-tiempo y la fuerza gravitacional. Según la teoría, los cuerpos con masa deforman el espacio y el tiempo curvándolo. La fuerza que ejercen sobre los otros cuerpos con masa es pues el efecto de esta deformación.
FIGURA I.4. Deformación del espacio-tiempo por la presencia de un cuerpo con masa. A la izquierda se ilustra en dos dimensiones, pero en realidad esta deformación actúa en tres dimensiones, como se muestra a la derecha.
La ecuación de la relatividad general tiene varias soluciones que dependen de la distribución de masa del universo. Una solución que fue encontrada por el mismo Albert Einstein se conoce como universo esférico de Einstein. Según éste, el universo es como una esfera. En este modelo, las coordenadas espaciales están curvadas con la forma esférica, pero el tiempo corre de manera lineal y recta, de tal manera que en el espacio-tiempo el universo es una especie de cilindro con el eje tiempo paralelo al eje del cilindro.
FIGURA I.5. El universo de Einstein (izquierda) y el universo de Willem de Sitter (derecha).
Otra solución a las ecuaciones de Einstein fue propuesta por Willem de Sitter. En el modelo de Sitter, tanto el espacio como el tiempo son curvos como una esfera donde la latitud es el espacio y la longitud es el tiempo. Ninguno de los dos modelos estuvo de acuerdo con el universo que observamos en expansión, porque ambos modelos consideraban un universo estático. No obstante, siguen siendo referentes y el universo de Sitter sigue siendo un modelo útil para describir la gravedad cuántica en un agujero negro. De esto hablaremos de nuevo un poco más adelante.
La teoría de la relatividad general tiene varias confirmaciones experimentales. Una de ellas es el corrimiento al rojo de las líneas espectrales en la presencia de un campo gravitacional fuerte. El corrimiento al rojo es un resultado de la deformación del tiempo cerca de un objeto con masa considerable. Este efecto fue medido por primera vez en 1959 por Robert Pound y Glen Rebka. El experimento se llevó a cabo en la Universidad de Harvard usando fuentes radiactivas de fierro. El fierro emite luz que lleva una energía de 14 kiloelectronvoltios. Los átomos pueden también absorberla si es que la luz le llega con la misma energía, porque de esa manera excita los mismos niveles atómicos que están en juego en la emisión.
FIGURA I.6. A la izquierda, corrimiento al rojo que sufre la luz en la presencia de un campo gravitacional fuerte. A la derecha, precesión de Mercurio.
FIGURA I.7. Cuando el fierro 57 pasa de un estado excitado al estado base, emite luz (izquierda). De la misma forma cuando hasta él llega un fotón con la energía igual a la diferencia de energía entre el estado excitado y el estado base (derecha), éste será absorbido. Si la energía no es igual, el fotón no será absorbido.
Pound y Rebka pudieron medir el efecto tan pequeño que el campo gravitacional de la Tierra induce en la frecuencia de la luz emitida por átomos de fierro colocados en la base de una torre de la universidad. En la parte alta de la torre, a 22.5 metros de altura, se colocó fierro que debía absorber la radiación en caso de que su frecuencia no hubiese cambiado. Resulta que debido al corrimiento que sufre la luz emitida por efecto del campo gravitacional de la Tierra, la frecuencia habrá cambiado al llegar arriba y no será absorbida más por los átomos de fierro, que sólo la absorben si es exactamente igual que la frecuencia de emisión. Se hizo necesario mover los átomos de fierro arriba para que el efecto Doppler compensase el corrimiento y entonces absorbiese la radiación. La cantidad de movimiento necesaria para que el fierro absorba la luz nos da una buena idea del corrimiento que sufrió por causa del campo gravitacional. La confirmación de la teoría general de la relatividad con este experimento llegó cuatro años después de la muerte de Albert Einstein. Aunque aquí no expondremos con detalle este experimento, sí queremos mencionar que la relevancia no se quedó en la comprobación de la teoría de la relatividad, sino que además permitió pensar en aplicaciones. La precisión alcanzada fue el resultado de un ingenioso sistema de medición y de control de muchas variables en el montaje. Actualmente el sistema global de posicionamiento, o Global Positioning System (GPS), que nos es muy familiar, debe considerar el corrimiento al rojo inducido por la gravedad del planeta para ofrecer la precisión de 10 metros en la posición de un objeto. Los satélites que envían continuamente señales a la Tierra para que los sistemas GPS calculen sus posiciones llevan consigo relojes atómicos muy precisos. Estos relojes van más rápido que los relojes en la Tierra por causa de un campo gravitacional más débil a la altura a la que se encuentran los satélites. Como resultado de esta diferencia en la gravedad, los relojes en estos satélites se adelantan tres microsegundos por día. Sin embargo, si se quiere tener la posición de un objeto con precisión de 10 metros, es necesario que las señales de radio estén sincronizadas con gran precisión. Las señales de radio tardan 0.03 microsegundos en recorrer 10 metros. De manera tal que la sincronización debe ser mejor que eso. En términos sencillos, si usted busca su posición en este momento con los relojes sincronizados, cuando lo haga nuevamente una hora más tarde, por efectos de la gravedad, el satélite estará adelantado 0.25 microsegundos. Esta diferencia en tiempo con el reloj en Tierra es mucho mayor que los 0.03 microsegundos que se requieren para una precisión de 10 metros. Por esto es que el GPS debe corregir estos efectos. El GPS que usted tiene instalado en su carro o en su celular confirma el corrimiento gravitacional predicho por Einstein en 1911 con una precisión mejor que la del experimento de Pound y Rebka. ¡La física teórica más sofisticada y los experimentos sorprendentes por su alcance y precisión son una realidad en su bolsillo! Otra verificación experimental de la teoría de la gravitación es la debida al fenómeno de precesión de Mercurio. Por precesión del planeta Mercurio nos referimos al movimiento del perihelio que se ilustra en la figura I.6. Este movimiento de Mercurio era ya conocido antes de la formulación de la teoría de la gravedad general. Se había observado que, cada 100 años, la órbita del planeta se recorre en 43 segundos de arco. Este movimiento se le atribuía a la fuerza que los otros planetas ejercen sobre Mercurio, sólo que, al calcular con la teoría de la
gravitación de Newton, el resultado teórico difería de lo observado. Este hecho fue de particular impacto porque la medición de los astrónomos estaba muy bien establecida y con una precisión que rebasaba la discrepancia entre la teoría de Newton y la de la relatividad general. Además, la precesión de otros planetas sí concordaba con los cálculos de la teoría de Newton, lo que ponía a Mercurio en una situación especial y cada vez más preocupante para esos tiempos. Cuando los cálculos de la nueva teoría pudieron explicar esta diferencia, el terreno para la recepción de las nuevas ideas quedó preparado. Éstas no fueron las únicas verificaciones experimentales. Aún hoy se siguen confirmando las ideas en observaciones y experimentos. La teoría de la relatividad es la segunda columna de la física moderna.
Dicotomía secular El siglo XIX terminó con dos grandes enigmas que se resolvieron planteando la inexistencia de un marco de referencia absoluto, por un lado, y la cuantificación de la energía, por el otro. Estas dos grandes vertientes dieron origen a dos grandes teorías: la mecánica cuántica y la teoría de la relatividad. Ambas marcaron no sólo la física del siglo XX, cambiaron además nuestra concepción del espacio, el tiempo y hasta nuestra manera de entender el principio de causa y efecto. La relatividad general y la mecánica cuántica describen nuestro universo a escalas muy distintas. La relatividad describe el universo macroscópico de galaxias y planetas, mientras que la mecánica cuántica lo hace para el mundo microscópico de las partículas subatómicas. Sin embargo, y por consistencia, aspiramos a tener un solo esquema que las haga compatibles. Si bien la gravitación es muy débil como para ser relevante en el mundo microscópico de las partículas elementales, y los cúmulos de galaxias son tan grandes como para que los efectos cuánticos tengan alguna consecuencia, sí sabemos de por lo menos dos eventos universales que deben ser descritos por una teoría que los concilie, es decir, por una teoría cuántica de la gravedad, éstos son la Gran Explosión y los agujeros negros. Los agujeros negros son probablemente el resultado de estrellas muy grandes que, al agotar su combustible, se colapsan produciendo un campo gravitacional del cual nada puede escapar, ni siquiera la luz. Deben ser muy pequeños y con una gravedad muy intensa. La Gran Explosión es el mejor modelo que tenemos del origen del universo. Implica que una gran cantidad de energía se encontraba concentrada en un volumen microscópico donde la mecánica cuántica debe tener validez al mismo tiempo que los efectos gravitacionales. Ambos, los agujeros negros y la Gran Explosión, involucran fuertemente a la gravedad porque las concentraciones de masa presentes son tan grandes que su interacción no puede ser ignorada. Por otro lado, los efectos de la mecánica cuántica deben estar presentes, ya que, como hemos visto, la concentración es tal que todos los fenómenos se desarrollan en la escala microscópica. Es pues en estos dos objetos que de forma irremediable se deben juntar las descripciones para explicar los fenómenos cuánticos y gravitacionales. Es aquí donde la teoría de la relatividad general y la mecánica cuántica deben unirse en un solo esquema que sea consistente.
FIGURA I.8. La imagen de la izquierda muestra cómo se deforma el espacio en dos dimensiones. En la realidad esta curvatura se da en las tres dimensiones espaciales y la temporal. El círculo rojo muestra el horizonte, más allá del cual no existe retorno para la luz. A la derecha, la similitud con la Gran Explosión, en la que también debió existir una singularidad.
Los agujeros negros son parte de la teoría de la relatividad que predice su existencia. Según la teoría, es posible que el espacio-tiempo se curve en una cantidad infinita creando una singularidad. Esta singularidad es parecida a la que existió en el momento de la Gran Explosión. Como ya decíamos arriba, la curvatura del espacio-tiempo es la naturaleza real de la fuerza de gravedad, así que tener una singularidad en el espacio-tiempo es tener una fuerza de gravedad infinita. En un agujero negro el “horizonte” es la línea donde los eventos fuera y dentro del agujero se separan. Más allá del horizonte, la luz no puede escapar, y por eso los mundos se incomunican. El horizonte es el punto de no retorno. Más allá de éste, no habrá nada capaz de evitar la caída. Es conocido desde hace un siglo el problema de unir la mecánica cuántica con la relatividad general en una sola teoría que pueda describir lo que ocurre en la Gran Explosión y en la cercanía de la singularidad de un agujero negro. Sin embargo, los esfuerzos encaminados a la construcción de una teoría cuántica de la gravedad siguen vivos. La Gran Explosión es un evento único y la evidencia de su existencia parece ser sólida. En cambio, los agujeros negros podrían estar poblando el universo, pero no existen muestras contundentes de que así sea. Podría ser que las galaxias espirales como la nuestra tengan un agujero negro en su centro. Los astrónomos han encontrado sistemas binarios, es decir, dos estrellas orbitando entre sí, en los que una de las dos no es visible. Por la manera como la estrella visible rota, se puede pensar que el objeto que la acompaña tiene una masa enorme. Existen otros candidatos en los centros de muchas galaxias que son considerados como tales por la manera como se comporta la materia a su alrededor. Sin embargo, no existen objetos de los que podamos decir que cumplen con las características predichas por la teoría general de la relatividad para ser catalogados como agujeros negros y no otra cosa. Las observables que ahora hacen pensar en algunos objetos astronómicos como si fueran agujeros negros son tales que se darían de igual forma para estrellas de neutrones con campos gravitacionales grandes.
Para confirmar su existencia y probar la teoría general de relatividad es necesario desarrollar técnicas de observación que sean sensibles a la curvatura del espacio-tiempo cerca del horizonte. Esto llegará en algún momento. Por ahora resulta difícil decir si lo que vemos es un agujero negro, una estrella de neutrones o algún otro objeto muy masivo.
EL MODELO ESTÁNDAR El modelo estándar de las partículas elementales es sin duda uno de los grandes logros científicos del siglo XX. Describe la estructura elemental de la materia y sus interacciones y puede hacer predicciones cuantitativas con enorme precisión. Está basado en la mecánica cuántica y la teoría especial de la relatividad, de tal forma que su descripción de las partículas elementales y sus interacciones se lleva a cabo en términos de funciones de onda. El modelo estándar ofrece una descripción de las interacciones o, mejor dicho, de tres de las cuatro interacciones presentes en la naturaleza. Curiosamente, la más familiar de las cuatro fuerzas, la gravitacional, ha eludido todo intento por enmarcarla en un esquema que las englobe a todas. Uno podría pensar que existen muchas fuerzas en la naturaleza. Además de la fuerza gravitacional, también nos son familiares otras, como la fricción que todos percibimos cuando empujamos un bulto pesado en el suelo o la tensión que experimenta una cuerda que sostiene a la piñata, etc. Sin embargo, todas estas fuerzas surgen de cuatro que los físicos consideran fundamentales. Los físicos de partículas sólo se ocupan de las cuatro fuerzas fundamentales, puesto que éstas dan origen a todas las otras que nos acompañan en las actividades diarias. Así, por ejemplo, la fricción que surge cuando tratamos de deslizar un objeto sobre la superficie de otro puede ser complicada de describir en detalle, pero sabemos que no es otra cosa que la fuerza electromagnética entre los átomos de un objeto y el otro. Si no existiese electromagnetismo no tendríamos fricción. De manera similar, la tensión que existe en un alambre que sostiene a un cuerpo se debe a la atracción electromagnética entre los átomos que forman la estructura del alambre. De nuevo, sin electromagnetismo no tendríamos tensión. En estos dos ejemplos la fuerza fundamental es el electromagnetismo y es una de las cuatro que existen en la naturaleza. El modelo estándar es una descripción del mundo microscópico en el que la atracción gravitacional no representa un papel importante. La gravitación se manifiesta visiblemente en el macrocosmos en el que planetas, estrellas y galaxias se atraen entre sí por el hecho de tener masa. Para tener una idea del papel que desempeña la atracción gravitacional en diferentes escalas veamos los escenarios macroscópico, mesoscópico y microscópico: La fuerza que el Sol ejerce sobre la Tierra es una manifestación macroscópica de la interacción gravitacional. Esta fuerza hace que la Tierra se desvíe tres milímetros cada segundo, lo que ocasiona que ésta, y nosotros con ella, se mueva alrededor del Sol. En el libro clásico Física recreativa, Yakov Perelman habla sobre lo que sería necesario hacer si por alguna misteriosa razón la atracción del Sol desapareciera un día y nuestros ingenieros
trataran de evitar que nos alejáramos para siempre en las frías profundidades del universo. Si la solución estuviera en tender cables de acero para mantenernos ligados al Sol, entonces sería necesario un millón de millones de cables con una sección transversal de 20 metros cuadrados cada uno. Para darse una idea de lo que esto significa, nos dice Perelman, si las columnas estuvieran distribuidas por todo el hemisferio terrestre que daría su cara al Sol, el espacio entre columnas sería un poco más ancho que ellas mismas. Este ejemplo imaginativo y ficticio nos da una idea de lo poderosa que es la invisible fuerza de atracción entre el Sol y la Tierra. Por supuesto que la solución no serían cables de acero, porque éste se funde a 1 535 grados y el Sol se encuentra a una temperatura sustancialmente mayor, por sólo mencionar una de las dificultades que se presentarían si tal cosa ocurriese en verdad. En la escala media en la que vivimos, la atracción gravitacional es ya de efectos insignificantes. Con esto no nos referimos al efecto de la Tierra sobre nosotros y los objetos que nos rodean, sino a la atracción de tipo gravitatorio que objetos de nuestra escala ejercen sobre otros similares. Así, por ejemplo, dos personas de peso medio y separadas por dos metros de distancia se atraen mutuamente con una fuerza de 0.01 miligramos. Esta fuerza es completamente imperceptible, como ya todos sabemos. Si por alguna razón nos sentimos atraídos hacia otra persona, esto será seguramente por efectos diferentes a los gravitatorios. La química podría ser la responsable, y entonces estamos de nuevo ante la interacción electromagnética. La interacción electromagnética es considerablemente mayor que la gravitacional. Para darse una idea de esto, es suficiente notar que la atracción gravitacional entre dos electrones es aproximadamente 0.24 × 10−42 veces menor que la atracción eléctrica que uno ejerce en el otro. Este número: 0.00000000000000000000000000000000000000000024 es extremadamente pequeño, como puede verse. Al respecto, Richard Feynman decía que en la magnitud de este número “yace un misterio muy profundo. ¿De dónde sale un número tan monstruoso? Si en algún momento consiguiéramos una teoría de la que pudieran derivarse ambas fuerzas, ¿cómo podrían hacerlo de forma tan desproporcionada?”4 La interacción eléctrica hace que los protones en un átomo se aparten mutuamente por el hecho de tener la misma carga. Dos protones a una distancia típica del orden de un diámetro nuclear se rechazan con una fuerza de aproximadamente 2.3 newtons. Aunque esta fuerza no parece ser grande, produciría a un objeto tan pequeño como el protón una aceleración enorme de 1.4 × 1027 metros sobre segundos cuadrados. Como ya vimos, la fuerza gravitacional es muy pequeña comparada con la eléctrica, ¿cómo es entonces que los núcleos atómicos se mantienen unidos si están hechos de protones? En la naturaleza existen, además de la fuerza gravitacional y electromagnética, dos interacciones con las que estamos poco familiarizados. Éstas son la fuerza débil y la fuerza fuerte. Estas dos interacciones son de alcance tan corto que les llevó a los físicos mucho tiempo descubrir su existencia. El primer contacto que los físicos tuvieron con la interacción débil fue
hace 100 años, cuando se observó en sales de radio un resplandor inusual. Al estudiar con más detenimiento el fenómeno se pudo entender que esta luz procedía de partículas originadas en la desintegración de los núcleos de algunos átomos inestables. El fenómeno se conoce hoy como radiactividad y se ha establecido que ésta es debida a la interacción débil. La fuerza débil tiene una influencia sólo a distancias de 10−15 centímetros, es decir, a una centésima del tamaño de un protón. Es débil precisamente porque el tramo de influencia es muy pequeño y las partículas no se acercan tanto muy a menudo. La interacción débil, a diferencia de la electromagnética y la gravitacional, hace que las partículas cambien de naturaleza. Un ejemplo de esto es que los neutrones se transforman en protones emitiendo un electrón y un neutrino. Hasta hace poco pensábamos que existían en el universo unas partículas que sólo son sensibles a esta fuerza. Los llamados neutrinos no tienen carga eléctrica, tampoco tienen la carga de color responsable de la interacción fuerte —como veremos— y no parecían tener masa. Ahora todo parece indicar que sí tienen masa, por lo que, además de la fuerza débil, deben experimentar la fuerza gravitacional. Como su nombre lo indica, la fuerza es muy débil, y como consecuencia los neutrinos — que tienen una masa muy pequeña, aún desconocida, pero pequeña— son difíciles de observar. Sólo en raras ocasiones logramos que interactúen con un detector que nos diga que por ahí pasó un débil neutrino. La relación entre la fuerza débil y la electromagnética fue entendida en los años setenta en el marco del modelo estándar, que ofrece una prescripción que permite ver a las dos interacciones como aspectos de la misma cosa. Por otra parte, la interacción fuerte hace posible la existencia de núcleos en los átomos, pues, como ya comentamos anteriormente, los protones se apartan por tener la misma carga, y la atracción gravitacional entre ellos es muy débil como para mantenerlos unidos. La fuerza fuerte se encarga de esto. La distancia en que actúa es tan pequeña como el tamaño de los protones mismos, así que al alejarse un poco dejará de percibirse por completo. Como su nombre lo indica, la interacción es muy fuerte, de tal manera que si dos partículas se aproximan a una distancia corta del orden del tamaño de un protón quedarán bajo el efecto de la interacción recíproca y después será muy difícil separarlas.
El modelo estándar parte del hecho de que la materia está formada por partículas a las que se denomina elementales y las cuales interactúan entre sí para formar todo lo que vemos a nuestro derredor.
Como vimos, las interacciones no actúan de igual forma en todas las partículas, y esto permite clasificarlas. Existen dos grupos: el de los llamados leptones y el de los quarks. Sólo las primeras dos partículas de ambas listas forman la materia que nos rodea. Las otras pueden ser creadas en laboratorio o en la colisión de rayos cósmicos con átomos en la atmósfera, pero desaparecen muy pronto sin llegar a formar conglomerados que se integren con el entorno observable. Los quarks u y d de la lista de quarks y los electrones de la lista de leptones son suficientes para formar los átomos.
FIGURA I.9. Los objetos macroscópicos están hechos de moléculas que a su vez están formadas por átomos. El núcleo de estos átomos está hecho de protones y neutrones, y éstos a su vez están formados por quarks.
La palabra leptón proviene del griego y significa “ligero”. En contraposición, la palabra griega de “pesado” es barión. Los protones y los neutrones son ejemplos de bariones. Como bien sabemos, el protón tiene una masa 1 800 veces mayor que la del electrón.
FIGURA I.10. Clasificación de hadrones en mesones y bariones.
FIGURA I.11. Estructura de quarks del neutrón (izquierda) y el protón (derecha).
Entre las partículas pesadas llamadas bariones y las partículas ligeras llamadas leptones están las partículas medias llamadas mesones. Un ejemplo de mesón es la partícula π o pion, que tiene una masa 270 mayor a la del electrón, pero que es un séptimo de la del protón. Sin embargo, la clasificación de las partículas por su masa no es muy buena. Ahora se conocen leptones con masas comparables a las de algunos bariones y tenemos al leptón muon, que tiene una masa parecida a la del mesón llamado pion, etcétera. A los mesones y bariones se los llama en conjunto hadrones. En griego, hadrón significa “partícula fuerte”. Estas partículas, como su nombre lo indica, interactúan fuertemente. Los mesones están hechos de dos quarks (de la tabla de quarks) y los bariones de tres. Para ser más precisos, los mesones están hechos de un quark y un antiquark, mientras que los bariones de un conjunto de tres quarks o de tres antiquarks.
Un aspecto del modelo estándar es que las interacciones se dan por medio del intercambio de partículas a las que se denominan bosones de norma. Así, por ejemplo, la partícula mediadora de las interacciones electromagnéticas es el fotón, mientras que las interacciones débiles se transmiten con los bosones W± y Z0, que fueron detectados en 1983 en el CERN de Ginebra, Suiza. Las interacciones fuertes, por su parte, se dan mediante el intercambio de gluones, que fueron detectados experimentalmente en 1979 en el laboratorio Desy de Hamburgo, Alemania.
FIGURA I.12. La aniquilación de un electrón y un positrón produce un fotón que después puede producir un par de quark antiquark (quarks encanto).
En la figura I.12 se muestra la aniquilación de un electrón y un positrón, de la cual se produce un fotón que luego puede producir un par de quark-antiquark (en la figura, quarks encanto). Éstos permanecen ligados por una cuerda que al romperse produce otro par quarkantiquark (en el caso que se muestra, un d y su anti-d). Si la energía que llevan consigo ya no es suficiente para seguir rompiendo la cuerda que los une, terminarán confinados en un mesón D– y su antipartícula, el mesón D+. El lector notará que usamos ū para denotar el antiquark u.
FIGURA I.13. Tabla de los elementos con las tres familias en arreglo vertical cada una de ellas. En la cuarta columna se muestran las partículas que median las interacciones.
La formulación electrodébil del modelo estándar tiene, sin embargo, un grave problema. El modelo pone en el mismo plano el fotón y los bosones W± y Z0. Sin embargo, el fotón no tiene masa, mientras que W± y Z0 son extremadamente pesados. Para resolver este problema se inventó el llamado mecanismo de Higgs. Este ingenioso artificio permite que los bosones de norma W± y Z0 tengan masa y que el fotón permanezca sin ella representando aspectos de la misma cosa, que es la interacción electrodébil. Sobre este mecanismo hablaremos más en el siguiente capítulo. La representación matemática involucra un campo nuevo al que se ha denominado campo de Higgs. El campo de Higgs a su vez se manifiesta como una partícula a la que se llama Higgs y que fue recientemente observada en el Gran Colisionador de Hadrones. En los años sesenta Gabriele Veneziano, Leonard Susskind, Holger Nielsen, entre otros, inspirados por la idea de hadrones como cuerdas en cuyos extremos se encontraban los quarks, sentaron las bases para una teoría de cuerdas, y sugirieron que se podría describir el mundo microscópico de las partículas elementales como si éstas fueran cuerdas más que partículas puntuales. Durante los setenta, se desarrolló formalmente la teoría explorando la posibilidad de que las partículas elementales en realidad fueran sólo distintos tonos de
vibración de una sola cuerda. La primera sorpresa de estas ideas fue que la teoría de cuerdas resultó ser una teoría cuántica de la gravedad. Aún no sabemos si esta teoría es correcta o no. Como todas las ideas en la física, deberá someterse a la prueba de los experimentos y, aunque aún parece lejano el día en que esto ocurrirá, los desarrollos recientes parecen mostrar que algo interesante se esconde en los conceptos.
LA TEORÍA DE CUERDAS Y EL UNIVERSO HOLOGRÁFICO La teoría de cuerdas parte de la idea de que los electrones y los quarks no son partículas puntuales como planteamos arriba. Según esto, lejos de ser elementales, los quarks y los electrones están hechos de cuerdas que vibran para darles las propiedades que conocemos como carga, color, masa, espín, etc. Las cuerdas serían, pues, una escala menor en la estructura que observamos actualmente; de hecho, sería la escala más pequeña posible, que está definida como escala de Planck. De acuerdo con esta teoría, sólo existe un elemento fundamental que forma todo lo demás con su manera de vibrar, moverse, agruparse e interactuar con otras cuerdas, aunque también existen en la teoría de cuerdas otros objetos llamados branas —derivado de membrana—, en las que las cuerdas pueden unirse, deslizarse e interactuar de diferentes maneras. Se usa la palabra brana para denotar algo más general que la membrana, que sería una 2brana, es decir, una brana en dos dimensiones. Las branas en general pueden ser multidimensionales, pero serán siempre un subespacio de un espacio más grande. Las branas son generalizaciones de campos como el electromagnético. De acuerdo con la teoría, las cuerdas tienen un tamaño del orden de la longitud de Planck, que es 1.6 × 10−35 metros. La escala de Planck se define en términos de tres constantes naturales: la velocidad de la luz en el vacío, la constante de Planck y la constante gravitacional. En la ecuación:
puede verse que es una escala de longitud extremadamente pequeña. La longitud de Planck es la longitud más pequeña que se puede construir con constantes naturales y que involucra a la mecánica cuántica a través de ħ, constante que como vimos está asociada a los cuantos de luz que propuso Planck para el mundo microscópico, a la relatividad especial por medio de la velocidad de la luz c y a la gravitación por medio de G, constante de la gravitación universal. Por las constantes involucradas, resulta claro que, cuando uno se encuentre a esta escala, los valores de las constantes garantizan que los efectos cuánticos de la gravedad serán importantes.
Para darse una idea de la magnitud de la que se habla, considere las mediciones del radio del electrón, que muestran que, en caso de que éste tuviese estructura, ésta debe ser menor a 10−20 metros, que está aún muy lejos de la escala que propone la teoría para el tamaño hipotético de la cuerda elemental.
FIGURA I.14. Las cuerdas interaccionan de varias maneras: uniéndose o dividiéndose (izquierda). Además de cuerdas, existen en la teoría membranas o branas como la que se muestra (derecha).
Los físicos piensan que hay algo fundamental en este número tan diminuto, y que en algún momento esto se hará evidente en la teoría misma. El origen de la teoría de cuerdas tiene que ver con la manera como los quarks interaccionan. Como hemos mencionado anteriormente, en los años sesenta algunas personas comenzaron a describir a los hadrones como cuerdas en cuyos extremos se encontraban los quarks, como se ilustra en la figura I.15. La cuerda, así, está formada por un tubo de gluones que mantiene unido al sistema. Esta manera de describir a los mesones y bariones permite también detallar la manera como se producen las partículas en interacciones de altas energías. Cuando la cromodinámica cuántica apareció y comenzó a describir de manera exitosa al sector de quarks y gluones, la teoría original que modelaba a los hadrones con cuerdas perdió fuerza. Surgieron además dificultades para explicar algunos fenómenos en términos de los tubos que se forman entre los quarks, y la gente dejó de pensar en este modelo como algo más profundo. Aun así, la manera de describir a los hadrones mediante cuerdas sigue siendo usada como modelo de juguete con el que se puede describir muy bien la producción de partículas con programas computacionales que simulan las cuerdas y modelan su rompimiento, etc. Sin embargo, alguna gente tomó la idea y comenzó a desarrollarla a un nivel más profundo en su alcance y consecuencias. El concepto se desarrolló matemáticamente para llegar a ser una teoría distinta con dominio en una escala espacial considerablemente menor, y se delineó, con el paso del tiempo, como una de las teorías posibles que explicarían todas las interacciones y el comportamiento general de la naturaleza, es decir, una teoría del todo.
FIGURA I.15. La idea original de la teoría de cuerdas está en la descripción que en los sesenta se hacía de la interacción fuerte en los hadrones.
La teoría de cuerdas requiere la existencia de más dimensiones que las cuatro que nos son familiares. Todos percibimos tres dimensiones a nuestro derredor porque los objetos que nos rodean poseen un ancho, un largo y un fondo. Si a esto añadimos que los objetos cambian con el transcurrir del tiempo, podemos incorporar este cambio a las dimensiones para sumar espacio-tiempo en cuatro dimensiones. No obstante, para la teoría de cuerdas, el mundo que percibimos no es todo lo que hay y, como veremos, es posible pensar en un mundo con más dimensiones.
FIGURA I.16. Producción de partículas por el proceso de fragmentación. La interacción entre quarks se da a través de gluones que forman un tubo. Al romperse se forman un par quark-antiquark, y así sucesivamente, hasta que la energía ya no es suficiente para seguir produciendo pares.
Por otro lado, pero en el marco de los conceptos que han surgido alrededor de la teoría de cuerdas donde se trabaja con muchas dimensiones, Gerard t’ Hooft y Leonard Susskind comenzaron a pensar en la posibilidad de que las dimensiones en la naturaleza se comportasen como un holograma. Los hologramas, que hoy son muy comunes porque van impresos incluso en el papel moneda y en las tarjetas de crédito, son objetos de dos dimensiones, pero que con la luz adecuada producen una imagen de tres. Esto quiere decir que toda la información necesaria para describir a un objeto de tres dimensiones está codificada en dos dimensiones, que es el holograma. Más que una curiosidad, la idea que subyace al holograma se ha convertido en una manera muy seria de ver al universo. El principio holográfico nos dice cómo modelar todos los eventos que ocurren en una habitación con una teoría que sólo toma en cuenta lo que sucede en las paredes que la forman. Uno podría ver al universo como un gran holograma donde una de las dimensiones es realmente sólo una ilusión. Las teorías holográficas del universo han tomado forma en la teoría de cuerdas y ahora son un muy activo campo de investigación. Según esto, nuestra experiencia cotidiana podría ser una proyección holográfica de procesos físicos que tienen lugar en una superficie de dos dimensiones. La tercera dimensión sería sólo un espejismo. Esta teoría holográfica del universo se ha desarrollado en espacios con curvatura negativa conocidos como anti-de Sitter. En 1997 el físico argentino Juan Maldacena propuso una conjetura que hoy es conocida como la dualidad AdS/CFT. Esta dualidad establece una correspondencia exacta y uno a uno entre la teoría en cinco dimensiones de un espacio anti-de Sitter (AdS) y una teoría de campo conforme (Conformal Field Theory, en inglés, y de ahí CFT). Suena intimidante, pero en realidad el planteamiento es sencillo, como veremos.
Para entender qué significa todo esto, veamos primero que el mundo que nos rodea puede ser muy bien descrito con la geometría euclidiana que aprendemos en la escuela. Esta geometría es plana, no curva, y las figuras se pueden describir en una hoja plana de papel. En este espacio euclidiano las líneas paralelas nunca se juntan. También nos resulta familiar la geometría de espacios curvos como la que se puede construir en una esfera. En el caso de estas geometrías hablamos de la curvatura del espacio como algo que la caracteriza. Así, por ejemplo, el más simple de los espacios curvados es la esfera que tiene una curvatura positiva y constante. Esto quiere decir que en todas partes tiene el mismo grado de curvatura, a diferencia de lo que ocurre con un huevo, que es más curvado en el extremo más puntiagudo. Existen también espacios curvos con curvatura negativa. El más simple de éstos es el espacio hiperbólico, que en cierta forma es el equivalente de la esfera en el sentido de que en todas partes tiene la misma curvatura, sólo que ahora es negativa. Decimos que la esfera con curvatura positiva es cerrada, mientras que la “silla de montar”, o espacio hiperbólico, es abierta. Los geógrafos a menudo usan esta geometría para proyectar los países del mundo de manera que sean apreciables ciertos detalles cuando se los dibuja en una plana de papel. Esto es la proyección de una geometría hiperbólica en dos dimensiones.
FIGURA I.17. A la izquierda vemos tres curvas: abajo con curvatura positiva, en el centro plana y arriba con curvatura negativa; a la derecha, una proyección en dos dimensiones del espacio hiperbólico de curvatura negativa. Las figuras geométricas (hexágonos y triángulos) parecen más pequeñas al borde sólo por la proyección a dos dimensiones que hacemos a la página plana.
En todo esto podemos ahora incluir al tiempo para hablar de espacio-tiempo, y continuar con la idea de espacio-tiempo con curvatura positiva o negativa. El más simple de los
espacios-tiempo con curvatura positiva es el espacio de Sitter. De manera equivalente, el espacio-tiempo más simple de curvatura negativa es el espacio anti-de Sitter. El nombre proviene de Willem de Sitter, quien, como vimos anteriormente, propuso uno de los primeros universos a partir de la teoría de la relatividad general. El modelo era simple y se trataba de una esfera espacio-temporal. Como decíamos, una esfera tiene curvatura positiva; de manera equivalente, el espacio anti-de Sitter es un espacio de curvatura negativa —como si se tratase de una antiesfera—, sólo que en cinco dimensiones. En un espacio anti-de Sitter ocurren cosas interesantes. Por ejemplo, si usted lanza una pelota, ésta regresará después de un cierto tiempo. No importa con qué fuerza la aviente, regresará a usted siempre después del mismo tiempo. La única diferencia será que, cuanto más fuerza ponga usted en el lanzamiento, el objeto llegará más lejos. Si usted envía un pulso de luz en cualquier dirección, ésta llegará hasta el fin del universo y regresará a usted después de un tiempo finito. No es necesario esperar por siempre. En la figura I.18 mostramos un espacio anti-de Sitter en dos dimensiones espaciales y una temporal que forma un cilindro tridimensional en el que la altura del cilindro es el tiempo. Sin embargo, para un espacio de cuatro dimensiones, con tres espaciales y una temporal, como el nuestro, no tendremos un círculo como límite de la parte espacial, que es la sección transversal del cilindro, sino una esfera en todo momento.
FIGURA I.18. Espacio-tiempo anti-de Sitter en dos dimensiones espaciales y una temporal.
En este contexto de espacios anti-de Sitter es que surgió la idea interesante que, en caso de llegar a corroborarse, representará el avance más significativo de los últimos años. La conjetura AdS/CFT dice que, en el interior de esta esfera espacio-tiempo anti-de Sitter, la teoría de gravedad cuántica es equivalente a una teoría cuántica de partículas elementales más
o menos tradicional que vive en el borde de este espacio, es decir, a una teoría conforme de campos, expresada aquí como CFT. A esta relación se le conoce en matemáticas como dualidad y establece una correspondencia uno a uno entre lo que ocurre en ambas teorías. De ser cierto lo anterior, significaría que podemos usar la teoría cuántica relativamente bien entendida de partículas para definir una teoría cuántica de la gravedad, o al revés, hacer uso de las técnicas matemáticas de un agujero negro donde la gravedad cuántica existe, para describir hechos de la vida diaria que un físico estudia en lugares como el Gran Colisionador de Hadrones del CERN, a saber, el comportamiento de quarks y gluones. Podemos pues tener en la superficie del espacio anti-de Sitter al plasma de quarks y gluones descrito por una teoría tradicional cuántica de las partículas elementales que corresponde a la descripción en el interior de este espacio de objetos que están sujetos a la gravedad cuántica. Lo maravilloso de estas ideas es que exista una correspondencia entre algo que tiene gravedad y mecánica cuántica con lo que es un plasma de quarks y gluones, que podemos crear en el laboratorio, y que no experimenta interacción gravitacional. La termodinámica y las propiedades de transporte de un sistema fuertemente acoplado como el plasma de quarks y gluones están relacionadas con las propiedades geométricas de un agujero negro de tal manera que el cálculo de la viscosidad se vuelve un problema gravitacional. Ya se han llevado a cabo cálculos con la intención de ir entendiendo la relación entre un sistema de quarks y gluones, que puede ser producido experimentalmente. Uno puede estudiar también otras cantidades tales como la pérdida de energía de un quark en un medio como el plasma de quarks y gluones. Este y otros fenómenos que pueden ser medidos experimentalmente nos podrían mostrar que tan correctas son las ideas que subyacen a la teoría de cuerdas.
FIGURA I.19. Interior del espacio anti-de Sitter donde viven los objetos bajo las leyes de la gravedad cuántica. En la superficie del espacio el plasma de quarks y gluones puede ser descrito con una teoría tradicional que guarda correspondencia con el interior del espacio.
Hemos dicho anteriormente que la relación conocida como dualidad entre el mundo de la gravedad cuántica en un espacio anti-de Sitter con una teoría de campo conforme es tal que la correspondencia uno a uno entre los teoremas y las estructuras de un marco de conceptos con el otro es exacta. Esto podría significar que la aparición misma del plasma de quarks y gluones corresponderá a la aparición de un agujero negro en el espacio matemático. Sin embargo, es importante recordar que esta relación se da con una teoría conforme que en realidad es solamente una caricatura de la verdadera teoría que describe a los quarks y los gluones, que, como hemos dicho, es la cromodinámica cuántica. Ya hemos comentado lo que significa pensar en un espacio anti-de Sitter; ¿por qué hablamos de teoría conforme de campos y no de teoría de quarks y gluones?, ¿qué es una teoría conforme de campos?
FIGURA I.20. Ejemplos de campos vectoriales.
Una teoría de campos es aquella en la que los objetos de estudio son precisamente campos. Las teorías que describen el mundo microscópico hacen uso de este concepto matemático llamado campo, que asigna a cada punto del espacio una cantidad o valor. Si el campo es vectorial le asigna también una dirección y un sentido. Si el campo es escalar le asigna sólo un valor numérico. Los campos vectoriales pueden representar al campo magnético entre los polos de un imán o la intensidad, la dirección y el sentido de las fuerzas entre dos cargas eléctricas. En la figura I.20, las limaduras de hierro permiten visualizar el campo magnético que tiene, en cada punto, un valor de intensidad, una dirección y un sentido. También se muestra el campo vectorial entre dos cargas de signos opuestos que usualmente no vemos, pero que podemos imaginar. Un campo escalar puede ser la distribución de temperaturas en un país como México, donde cada punto del espacio tiene asignado un número, que es la temperatura. Este número sólo tienen una magnitud y carece de dirección y de sentido. El equivalente meteorológico de un campo vectorial sería el mapa de vientos de la República. En un mapa así es necesario denotar no sólo la velocidad de los vientos con un número en cada punto del mapa, sino además el sentido norte-sur así como la dirección del viento. Una teoría de campos que además es conforme es aquella en la que, cuando uno hace transformaciones de escala, los elementos de la teoría preservan los ángulos, pero no las longitudes. Una manera de ilustrar esto con algo a lo que todos estamos acostumbrados es el de las proyecciones de mapas del planeta en una hoja plana. Para poder ver el mundo en una hoja plana es necesario desfigurar los países. Llevar una esfera a un rectángulo implica cambiar el tamaño de todo. Así, por ejemplo, Groenlandia aparece muchas veces como algo enorme o muy pequeño, como consecuencia de la proyección que estemos usando. Existen muchas maneras de hacer la proyección de una esfera en un rectángulo. Algunas de ellas tratan de
preservar el área de los países, otras la forma o las distancias, dependiendo de cual será el uso que se le quiera dar al mapa que resulte de la transformación.
FIGURA I.21. Transformación conforme de una esfera a un plano. Los ángulos entre las líneas de latitud y de longitud permanecen en 90 grados.
La transformación conforme es aquella que preserva el ángulo. Un ejemplo de lo que esto significa con el planeta proyectado en una hoja plana se puede ver en la figura I.21. Uno puede notar que aunque los mapas se han deformado, los ángulos entre las líneas de latitud y las líneas de longitud permanecen igual en 90 grados. Justo como ocurría con la esfera original. Éstas son transformaciones conformes. La teoría que describe a los quarks, la llamada cromodinámica cuántica, no es una teoría conforme. Éste es el primer pero de muchos que vendrán con la dualidad AdS/CFT. La conjetura no aplica. Al respecto, los entusiastas de la conjetura AdS/CFT argumentan que, si bien la teoría de los quarks y los gluones no es conforme, sí está muy cerca de serlo. La argumentación empieza a ser muy técnica y no la discutiremos aquí. No obstante, diremos que la teoría que describe a los quarks, llamada cromodinámica cuántica, se convierte en una teoría conforme cuando la masa de los quarks se hace cero. Una aproximación así no está nada
mal. El modelo no sería ni el primero ni el único en partir de esta aproximación y es justamente este aspecto de viabilidad lo que estimula a la comunidad de investigadores que buscan algo más profundo en la relación AdS/CFT. Por otro lado, la teoría que describe a los quarks tampoco es supersimétrica, mientras que la teoría conforme a la que se hará referencia como analogía sí lo es. Que una teoría sea supersimétrica quiere decir que en la descripción no se hace diferencia entre partículas con espín entero y semientero —en términos más sencillos, las partículas elementales que vimos arriba—, es decir, leptones y quarks, que forman todo lo que observamos, se pueden intercambiar con partículas que transportan las interacciones —también mostradas en la tabla de todos los componentes—. Además, como veremos, en los quarks y gluones que conocemos hemos identificado tres colores como cargas de interacción, mientras que la dualidad establece un número muy grande de colores para la teoría que es paralela a la del espacio antide Sitter. Con todo esto, las estimaciones que se han obtenido a partir de AdS para los fenómenos presentes en el mundo de quarks y gluones son muy razonables, y existe la idea general de que esta correspondencia va en la dirección correcta. Existen hoy cálculos que pueden ya ser comparados con los que se observan en los experimentos. Las estimaciones que se obtienen pueden no ser muy precisas, pero se acercan a la realidad. Regresaremos a esto en el capítulo V, donde discutiremos algunos resultados recientes de los experimentos de iones pesados en los que se crea un sistema de quarks y gluones que podría ser descrito, de manera aproximada, por esta dualidad.
1
Albert A. Michelson, Light Waves and Their Uses, 2ª ed., The University of Chicago Press, Chicago, 1903, p. 23.
2
William Thomson (Lord Kelvin), “Nineteenth Century Clouds Over the Dynamical Theory of Heat and Light”, The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science, 2 (6): 1-40, 1901. 3
Edmund Whittaker, History of Aether and Electricity. The Modern Theories 1900-1926, vol. 2, Thomas Nelson & Sons Ltd., Londres/ Edimburgo/ Nueva York, 1953, p. 40. 4
Richard Feynman, El carácter de la ley física, Antoni Bosch, Barcelona, 1983, p. 21.
II. Para asir el universo
LA EDAD DEL UNIVERSO ¿Tiene el universo un comienzo y un fin? ¿Ha existido y existirá por siempre? Y si el universo tuvo un comienzo, ¿cuándo ocurrió éste?, ¿cuál es la edad del universo? Todos nos planteamos estas preguntas en algún momento de nuestras vidas. Actualmente pensamos que tenemos muchas respuestas, pero también, ahora más que nunca, sabemos que nuestra visión de las cosas cambia a medida que avanzamos en el conocimiento. El modelo de la Gran Explosión —más conocida ahora como Big Bang— parece ser el correcto, y si tal es el caso, el universo tuvo un comienzo. Este modelo fue propuesto originalmente para explicar la composición material que observamos en el cosmos que parece estar formado por aproximadamente 75% de hidrógeno y 25% de helio. Los elementos más pesados que observamos en la Tierra y de los que estamos hechos nosotros constituyen menos de 1% de la materia del universo. Curiosamente el nombre incorrecto de Big Bang o Gran Explosión se debe a un detractor de esta teoría, Fred Hoyle, quien, para mofarse de la idea que criticaba, dijo que se trataba sólo de una “gran explosión” en el sentido de “una llamarada de petate”, refiriéndose al modelo. Uno debe saber que, de acuerdo con esta teoría actualmente aceptada por la comunidad científica, el origen del universo ni fue “gran” ni fue “explosión”. Según esta idea, el universo surgió de una singularidad microscópica infinitamente pequeña y no existió una explosión, porque el espacio donde pudiese desarrollarse como tal no existía. Bien entrado el siglo XX, la gran mayoría de los astrónomos favorecía la idea de que el universo es estacionario, es decir, inmutable. Sin embargo, se atribuye —quizá equivocadamente— a Edwin Hubble el descubrimiento que nos mostró un universo dinámico y en expansión. En el observatorio de Monte Wilson en los Estados Unidos, y con ayuda de lo que en ese momento era el mayor telescopio del mundo, Hubble notó que las estrellas de la nebulosa espiral se movían alejándose de nosotros más rápidamente cuanto más lejos estaban. La nebulosa se sigue llamando así pero, con el pasar del tiempo, nos dimos cuenta de que en realidad no se trataba de una nebulosa, sino de una galaxia como la nuestra. Algunos datos históricos nuevos parecen mostrar que Edwin Hubble no fue el primero en
descubrir la expansión del universo. En noviembre de 2011 la revista Nature publicó información interesante que demuestra que fue más bien George Lemaître, astrónomo y sacerdote belga, el primero en descubrir este importante hecho. Existe un comunicado que así lo acredita en la Royal Society of London.1 Más allá de los pormenores históricos, si consideramos que el universo es democrático, es decir, si no existe una posición o una dirección diferente a las demás, entonces debemos estar en movimiento alejándonos de la nebulosa espiral, de la misma manera como las estrellas se alejan unas de otras. Esto significa que el universo crece expandiéndose. Si hacemos la analogía en dos dimensiones, se podría pensar que el universo es como la superficie de un globo en cuya superficie habitamos nosotros como seres planos. Este globo, que es nuestro universo, se está inflando constantemente de tal manera que cada punto en su superficie se mueve alejándose de nosotros. La velocidad con que se aleja de nosotros depende de la distancia entre los puntos así como de la velocidad con que el globo se está inflando. Esta analogía sirve también para explicar por qué no existe un punto donde empezó todo. Más bien el universo se crea en todas partes generando espacio y tiempo. El globo se infla creando más y más espacio, que es su superficie, pero no existe ningún punto sobre el mismo que pueda ser considerado como el origen.
FIGURA II.1. La Gran Explosión debió haber ocurrido hace 13 800 millones de años (cortesía de la NASA).
Hubble estudió cuantitativamente el globo cósmico, que en realidad tiene tres dimensiones espaciales y no dos, que nos harían seres planos en la superficie de un globo. Para entenderlo,
Hubble usó la velocidad de recesión de los cuerpos celestes por distancia, a la que se ha llamado constante de Hubble. Con sus observaciones Hubble determinó que esta constante es aproximadamente 500 kilómetros sobre segundo para una galaxia que se encuentra a 3.26 años luz de nosotros. Ya antes Lemaître había estudiado los datos de otros astrónomos y había concluido que el universo se expande. Con la velocidad, medida por Hubble, uno puede rápidamente calcular que se necesitaron 2 000 millones de años para que la galaxia llegase al lugar donde se encuentra. De esta manera Hubble pudo concluir que el universo se originó hace aproximadamente 2 000 millones de años. Sin embargo, este resultado fue cuestionado rápidamente. En 1920 se sabía, a partir de mediciones en materiales radiactivos de la Tierra, que el sistema solar ha existido por 4 600 millones de años. No es posible que el sistema solar en que vivimos sea más viejo que el universo, por lo que debía existir un error en el razonamiento o en los datos de Hubble. El principal problema estaba en la determinación de la verdadera distancia de los objetos que se encuentran inimaginablemente lejos. Actualmente el método de calibración viable a estas distancias es el uso de las cefeidas. Éstas son estrellas variables cuya luminosidad varía de manera rítmica y muy regular. Las cefeidas cambian su luminosidad en tiempos que van de uno a 50 días. La primera de estas estrellas fue descubierta en 1784 por un astrónomo aficionado. Son estrellas gigantes de hasta 10 veces el tamaño de nuestro Sol. En nuestra galaxia se encuentran en los brazos de la espiral, pero también se conocen cefeidas en otras galaxias. La variación de su luminosidad tiene que ver con el cambio regular de tamaño que experimentan en su núcleo. Cuando el núcleo se contrae, la estrella brilla más, pero al mismo tiempo ocasiona un mayor número de reacciones nucleares que aumentan la temperatura del centro haciendo que se expanda para luego volver a contraerse. Midiendo la variación de una cefeida es posible conocer su brillantez intrínseca y, con el brillo aparente, es decir, el brillo medido en la Tierra, se puede conocer la distancia a la estrella. Gracias a estos objetos es posible medir grandes distancias. Actualmente se han detectado más de 400 cefeidas en nuestra galaxia y galaxias cercanas a la nuestra. En los años noventa se descubrieron cefeidas en el cúmulo de Virgo, que se encuentra a 50 millones de años luz de nuestra galaxia. Con esto se ha conseguido medir la constante de Hubble como 80 kilómetros sobre segundo, que significaría una edad del universo de 10 000 millones de años. Existen ahora muchas mediciones de la constante de Hubble y existen otras formas de medir la edad del universo; en particular, la cantidad de masa y de energía en el universo nos da una idea del valor que tiene algo llamado constante cosmológica. Aunque polémicos, diferentes modos de estimar la edad del universo parecen coincidir en un valor que es de 13 800 millones de años. Esta edad es consistente con la edad de las estrellas más viejas observadas en el universo. Sobre la teoría de la Gran Explosión mucho se dice y mucho se ha dicho, pero sin duda el aspecto más fascinante para muchas personas es la relación que esta teoría puede tener con las creencias religiosas. Uno bien puede decir que el atractivo de las ideas detrás del origen del
universo se debe a su conexión con la más fundamental de las dudas del ser humano: su origen. Si bien existen muchos puntos de vista dentro de cada una de las religiones, también es verdad que las vertientes religiosas más importantes por el número de adeptos han encontrado maneras de conciliar sus ideas con la teoría de la Gran Explosión. Así, por ejemplo, los musulmanes modernos consideran que el Corán lo dice con claridad: “Hemos construido el cielo con poder y lo estamos expandiendo”.2 Muchos adeptos de la Iglesia católica aceptan la Gran Explosión como una descripción del origen del universo y han sugerido que es compatible con las vías de Tomás de Aquino, en particular con la primera sobre el movimiento y con la quinta sobre el comportamiento de los cuerpos naturales que dice: “vemos que algunas cosas que carecen de conocimiento, es decir, los cuerpos naturales, obran con intención de fin”.3 La primera vía de Tomás de Aquino dice: “Es cierto y consta por el sentido que en este mundo algunas cosas son movidas”.4 Entre 1920 y 1930 casi todo el mundo prefería un universo eterno en estado estable y muchos consideraban que la teoría de la Gran Explosión significaba introducir el concepto de un origen que equivalía a la incorporación de conceptos religiosos en la física. De hecho, esta objeción a la teoría de la Gran Explosión fue muy citada por los que apoyaban la idea de un universo eterno y estable. Esta percepción fue amplificada por el hecho de que uno de los creadores de la teoría de la Gran Explosión, monseñor Georges Lemaître, era un padre católico. Actualmente pocos saben que fue precisamente monseñor Georges Henri Joseph Edouard Lemaître, sacerdote belga y profesor de física de la Universidad Católica de Louvain, quien propuso la teoría de expansión del universo, y también, junto con otros, la teoría de la Gran Explosión del origen del universo, a la que llamó la hipótesis del átomo primordial. Se cuenta que durante una serie de seminarios impartidos por el mismo Lemaître y el famoso físico Albert Einstein en California, Estados Unidos, al terminar Lemaître su exposición de la teoría de la Gran Explosión, Einstein se puso de pie aplaudiendo y dijo: “Es la explicación más bella y satisfactoria de la creación que yo he escuchado”.5 En realidad, esta cita a la supuesta expresión de Einstein es controvertida y ha sido muy cuestionada por sus biógrafos; aun así, la ponemos a su consideración para mostrar el carácter vacilante de las ideas entre la ciencia y la religión en el marco de la teoría de la Gran Explosión. El papa Pío XII declaró el 22 de noviembre de 1951, durante la apertura de la reunión de la Academia Pontificia de Ciencias en el Vaticano, que la teoría de la Gran Explosión está de acuerdo con el concepto católico de creación. Las denominaciones protestantes conservadoras han avalado de igual manera la idea de una Gran Explosión como apoyo histórico interpretativo de la doctrina de la creación.6 Aunque ciertamente existen siempre y en todas partes las corrientes de pensamiento más o menos liberales, la verdad es que las implicaciones filosóficas de las ideas sobre el origen del universo serán siempre objeto de debate y de las más apasionadas discusiones.
EL TAMAÑO DEL UNIVERSO
El tamaño del universo observable debe ser de aproximadamente 13 000 millones de años luz. El año luz es la unidad de longitud equivalente a 1016 metros, es decir, un uno seguido de 16 ceros. Ésta es la distancia que la luz viaja en el vacío en un año juliano. Sin embargo, el universo observable no es el universo real. Nosotros podemos llegar al borde del universo observable como lo hacemos con los aparatos de medición, pero no podríamos llegar nunca al borde del universo mismo. Decimos que el universo es ilimitado porque no tiene fronteras. Podríamos caminar en una dirección por mucho tiempo pero no llegaremos nunca al borde donde el universo termina. El universo observable es el que hemos podido escudriñar con la detección de ondas electromagnéticas que parecen llegar de todas direcciones por igual, dándole al universo observable una forma esférica. Uno estaría tentado a pensar que, puesto que el universo apareció hace 13 800 millones de años, entonces el borde del universo estará a 13 800 millones de años luz de distancia. Sin embargo, la cuestión no es tan simple. No sólo el universo se está expandiendo, sino que además la razón a la que se expande se incrementa, de tal manera que el asunto se complica un poco. El universo se expande en todas direcciones. Otra complicación asociada al tamaño viene del hecho de no saber qué forma tiene el universo. La gravedad que la misma masa del universo produce le da forma al espacio-tiempo curvándolo en cuatro dimensiones de una forma difícil de imaginar. Podría curvarse sobre sí mismo produciendo lo que se llama un universo cerrado. Si el universo es cerrado como causa de una gran cantidad de materia en él, se podría pensar, en analogía con dos dimensiones, que un astronauta viajaría en línea recta y que no vería límite nunca. Al desconocer la tercera dimensión no encontrará tampoco un centro de la esfera y, después de mucho caminar, llegará al mismo sitio. Sería como lanzar un rayo de luz en una dirección y mucho tiempo después verlo llegar a nuestra nuca.
FIGURA II.2. No sabemos cuál es la forma del universo: abierto (izquierda) o cerrado (derecha). Estas dos geometrías no son las únicas posibles y la pregunta sobre la forma del universo sigue sin respuesta.
Sin embargo, no sabemos si el universo es cerrado. Uno de los temas de investigación
actualmente muy activo es precisamente el relacionado con la forma del universo.
FIGURA II.3. El universo visible es la esfera que se forma por los puntos desde los que partió la luz hace 13 800 millones de años. Esta luz ha llegado hasta nosotros. De lo que está más allá no sabemos nada.
En estas circunstancias, decir algo sobre el tamaño del universo no es sencillo. Sin embargo, conviene meditar un poco más sobre lo que llamamos el universo observable. El universo observable o visible es la región centrada en nosotros dentro de la cual la luz ha tenido tiempo para llegar hasta donde estamos desde que el universo se originó, hace 13 800 millones de años. Puesto que la luz tiene una velocidad finita y no existe nada que viaje a una velocidad mayor, el radio del universo observable es del orden de 12 × 1027 metros. Esto es lo que podemos y podremos ver del universo. Lo demás, por principio, escapará de nuestra vista para siempre. Este universo define el horizonte y el límite de la ciencia observable. Lo que podemos decir sobre el universo se basa en lo que observamos en esta esfera. De cómo se comporta el universo más allá del horizonte sólo podemos especular. Si el universo es finito, el universo observable es sólo una fracción de él. Si el universo es infinito entonces lo que observamos será sólo una porción infinitesimal. De acuerdo con nuestra actual descripción del universo existen las dos posibilidades. Quizá, en un futuro, el desarrollo teórico y experimental nos podrá indicar en qué tipo de universo vivimos. Por ahora sólo podemos pensar, de manera razonable, que el universo más allá del horizonte visual es y se comporta como el universo que contemplamos.
LA NADA ANTES QUE TODO El universo es una inmensidad hecha de ausencia donde nadie está en todos lados y uno casi en ninguna parte.
A la luz de los dos grandes problemas con que inició el siglo XX, el físico chino Tsung Dao Lee —laureado Nobel en 1957 por sus investigaciones de las leyes de paridad que condujeron a importantes descubrimientos en la física de partículas— planteaba la siguiente reflexión: Ahora, al final del siglo XX debemos preguntarnos ¿qué es lo que dejaremos a la siguiente generación en el siglo que comienza? Por el momento, como los físicos en 1890, tenemos ante nosotros dos profundos acertijos: 1) Nuestras teorías actuales están basadas en simetrías, pero la mayoría de los números cuánticos de simetría no se conservan, y 2) todos los hadrones están hechos de quarks y sin embargo quarks individuales no han sido observados. La solución a estos problemas está probablemente ligada a la estructura del vacío físico.7
En buena medida, estos dos nuevos grandes acertijos son el alma de la física de partículas. Aquí vamos a conversar un poco sobre el estado de cosas en relación con estos dilemas de la física al final del siglo XX y comienzos del XXI. Sobre el vacío, la reflexión de John Wheeler que sigue dice mucho de manera muy breve: “Ningún punto es más central que éste: el espacio vacío no está vacío. Es el lugar de los fenómenos físicos más violentos”.8 Una de las consecuencias más profundas de la teoría cuántica relativista de la que hablaremos luego está en la manera de concebir el vacío. De acuerdo con esta teoría, el vacío sin nada no existe. Partículas y antipartículas aparecen y desaparecen constantemente llenándolo todo con su presencia virtual. El vacío aparece ante nuestros sentidos como tal por el hecho de que este constante proceso de creación y aniquilación ocurre a escalas de espacio y tiempo muy pequeñas. Tanto, que a las grandes escalas a las que nuestros sentidos tienen acceso el vacío parece suave y tranquilo como un océano visto desde un avión. Un átomo de hidrógeno es un núcleo rodeado por un electrón y el espacio entre ambos es el vacío que se llena de procesos virtuales en los que pares de partículas y antipartículas aparecen y desaparecen constantemente. El campo eléctrico entre el protón y el electrón produce pares de electrones y positrones. El positrón es la antipartícula del electrón que, siendo la más antigua de las antipartículas, adquirió este nombre distintivo. El par se aniquila y desaparece en un instante dando lugar a más procesos en una realidad inexistente que, sin embargo, llena de posibilidades a la nada. El fenómeno —conocido como polarización del vacío— tiene, sin embargo, consecuencias reales. El comportamiento del electrón que puede ser medido en laboratorio delata este eterno devenir del ser y la nada. Su eterno orbitar alrededor del núcleo sufre un pequeño cambio por esta actividad del vacío que no ha podido escapar a la genialidad de los físicos experimentales. Willis Lamb diseñó un experimento para medir con enorme precisión el corrimiento que hoy lleva su nombre y que confirmó esta visión de manera espectacular.
FIGURA II.4. Los átomos están inmersos en el vacío, que es una infinidad de procesos virtuales. Ahí, por instantes muy breves, aparecen pares de electrón y su antipartícula el positrón (antielectrón) para desaparecer de inmediato.
El vacío, no obstante, parece ser más complejo que sólo su polarización. Como veremos, en el vacío parece estar el misterio de la masa y del confinamiento que ha convertido a los quarks en partículas invisibles. Más aún, pensamos que el origen del universo podría ser el resultado de una gran fluctuación cuántica surgiendo de la nada. Por esto es que los físicos teóricos y experimentales de nuestros días estudian la nada, es decir, el vacío, pues es aquí, en la nada, donde parece estar el origen de todo. Aristóteles pensaba que la naturaleza aborrece el vacío. Ahora creemos que la naturaleza proviene del vacío. Cuando la gente escucha algunas ideas de la física moderna a menudo sacude la cabeza en desaprobación por lo improbable —o francamente alienado— de algunas explicaciones. La teoría del origen del universo surgiendo de la nada no es la única en esta categoría. Existen muchas otras en la mecánica cuántica y la relatividad que parecen igual de inconcebibles. En la obra A través del espejo se da un diálogo muy evocador de esta situación: —Nadie puede creer cosas que son imposibles —dijo Alicia. —Me parece evidente que no tienes mucha práctica —replicó la Reina—. Cuando yo tenía tu edad, siempre solía hacerlo durante media hora cada día. ¡Como que a veces llegué hasta a creer en seis cosas imposibles antes del desayuno!9
La posibilidad de crear algo de la nada es un hecho observado en el laboratorio. El corrimiento de Lamb que acabamos de mencionar es una muestra de esto. Los procesos que tienen lugar de manera continua en el vacío producen efectos que pueden ser medidos, si bien la probabilidad de que esto ocurra es más pequeña cuanto mayor es la energía necesaria para producir el objeto. Así, por ejemplo, es más probable producir un electrón excitando con energía el vacío que producir un tractor. Cuanto más grande sea el tractor más pequeña será la probabilidad de verlo surgir de la nada, porque la energía necesaria para lograrlo es muy alta. Que el universo surgió de la nada es una idea tan asombrosa que llega al nivel del escándalo. Sin embargo, podría resultar más aceptable si consideramos que la energía del
universo es cero. La probabilidad de crear algo de energía cero es entonces ¡extremadamente alta!, y el escándalo se reduce vertiginosamente a lo cotidiano. ¿Cómo puede ser esto? Ahora sabemos que todo tiene una energía igual a mc², de acuerdo con la famosa ecuación de Einstein de equivalencia entre masa y energía. De tal manera que el universo tiene una energía debida a la gigantesca masa que contiene, que es igual a muniversoc². Pero, además, todo posee una energía negativa debido a la gravedad. Así, por ejemplo, con respecto a un astronauta en el espacio, nosotros tenemos una energía negativa debido a la gravitación de la Tierra. Podría bien ocurrir que si sumamos todas las energías negativas de los objetos del universo, la suma de las energías negativas sea igual a muniversoc², lo que nos daría un universo con energía cero. Es como si el universo produjera un pozo de energía gravitacional —como de hecho lo hace la Tierra— tan profundo que la energía negativa que almacena sea exactamente la misma energía que contiene su masa. Si esto es así, el costo energético de producir al universo sería nulo. La probabilidad de que éste se produzca de la nada es entonces extremadamente alta. Para entender la idea de energía negativa imagine usted una piedra en el campo gravitacional que produce el planeta Tierra. Podemos conectar la piedra a un hilo que mueve una rueda que su vez activa a una dinamo. Cuando dejamos caer la piedra, la rueda se mueve a través del hilo y la dinamo almacena energía en una batería o un acumulador. Cuanto más se acerca la piedra al centro de la Tierra, mayor es la fuerza de atracción, dando más energía a la dinamo que almacena la energía en la batería recargable. Cuando la piedra ha llegado a su posición de reposo, el sistema total tendrá menos energía que el arreglo inicial y la cantidad exacta de energía “negativa” que tiene ahora está almacenada en la dinamo. Decimos que es negativa porque sería necesario regresar la energía de la dinamo al sistema para llevarlo al estado en que se encontraba. La idea de energía negativa no es sólo una idea fascinante, es también muy polémica y no hay un acuerdo de los físicos sobre esto. Para ilustrar la controversia que esto genera, reproducimos aquí el diálogo breve entre dos grandes físicos: —Paul A. Dirac: ¿Qué podría estar mal con una energía total negativa? No veo problemas. El campo gravitacional permite la existencia de sistemas con energía negativa. —E. Wigner: Una energía total negativa puede llegar a ser tan grande como se quiera que uno pondría al sistema en movimiento. Yo pienso que no existe un sistema con energía total negativa. Un sistema tal podría tomar tanta energía como se quiera. —Paul A. Dirac: ¿Debe entonces la energía total del universo ser positiva? Una prueba de esto, o en contra, no la conozco. —E. Wigner: Seguro que es positiva. Todos nosotros somos pesados, y en total es nuestra mc² muy grande.10
Como se puede ver en este renglón, las ideas son aún especulativas. El concepto de compensación de energía negativa y la energía debida a la masa del universo es una idea de plausibilidad de un universo que surge de la nada. Como todas las ideas de la ciencia, ésta también debe ser puesta a prueba de alguna manera.
BREVE HISTORIA DEL UNIVERSO
No podemos decir por qué nació de la nada. A cambio hemos desarrollado una idea de la nada que nos permite pensar en la posibilidad de que de ahí haya surgido todo. Hace 13 800 millones de años, de la nada apareció una diminuta chispa. En el interior de ésta se generó espacio y dio inicio el tiempo. La pequeña mota tenía una temperatura inimaginable y la densidad de energía era tal que la materia se produjo de manera espontánea. No pasó mucho tiempo para que este pequeño ápice se expandiera, no en el espacio —que no existía— sino con el espacio dentro, generándose a medida que crecía. La Gran Explosión, como se ha dado en llamar, fue inaudible porque no existía espacio para propagar el sonido, y no fue grande porque se trataba de una diminuta centella. No hay un antes del Big Bang porque el tiempo no existía. El universo en su infancia era una caldera de radiación y partículas elementales que aparecían y desaparecían continuamente. Partículas de materia y de antimateria confinadas en una bola de fuego se producían y se aniquilaban entre sí produciendo destellos de radiación. El universo era creación y destrucción en el que las partículas y sus antipartículas apenas nacían para encontrarse y desaparecer. Al expandirse, se enfrió y su densidad se redujo rápidamente. El universo crecía, pero aun al vertiginoso ritmo que lo hacía, hubiese terminado muy mal, desapareciendo quizá, de haber seguido así. Afortunadamente para nosotros, algo ocurrió. De pronto, en un instante, imperceptible de tan corto, el universo se expandió. En este exiguo momento el universo creció hasta hacerse un centenar de octillones de veces mayor de lo que era. Este desmesurado crecimiento se conoce como inflación cósmica. La inflación acabó tan pronto como había iniciado, y la materia y antimateria continuaron con su frenética danza entre el ser y no ser. La inflación cósmica fue el resultado de una inestabilidad del universo recién nacido, y las consecuencias fueron no sólo el dramático crecimiento, sino además la creación de una gigantesca cantidad de materia. De no haber ocurrido la inflación, el universo hubiese colapsado sin dejar rastros ni testigos. Para tener una idea de lo que la inflación significó, uno puede pensar que el universo creció el equivalente del tamaño de un átomo al de una galaxia; esto en un instante inconcebiblemente breve. Tan sobrecogedor cambio en el universo merece más la denominación de Big Bang que la que le dio origen, pero en cambio se lo conoce sólo como periodo inflacionario. En su nueva etapa el universo era más frío. Cuando las partículas y las antipartículas aparecían de manera espontánea, algunas permanecían como reales abandonando la virtualidad. En esta etapa temprana del universo apenas había transcurrido una milésima de sextillonésima de segundo, es decir, 1033 segundos. La materia predomina sobre la antimateria y se forma un plasma primordial que define al universo por venir. En esta sopa primigenia pudieron haber estado partículas exóticas que aún no hemos visto en el laboratorio y que quizá desaparecieron a medida que el universo seguía creciendo y se seguía enfriando. Cuando el universo cumplió un segundo de edad, la temperatura había bajado a 10 000 millones de grados. Los quarks se habían agrupado formando la materia que hoy conocemos. Los protones, los neutrones y los electrones estaban presentes, pero los neutrinos y los fotones eran más numerosos. Al final de los primeros tres minutos ya se habían combinado algunos protones con
electrones para formar los primeros átomos de hidrógeno, helio y litio. Los elementos más ligeros de la tabla periódica se formaron en esta época. El hidrógeno es un protón con un electrón, el elemento más ligero y más sencillo de cuantos existen. A partir de estos átomos se formó el helio al sumar un neutrón y un segundo protón. Con sólo juntar un neutrón más se formó el helio-4, que ha sobrevivido todo este tiempo. Los globos de circo y de los parques que tanto gustan a los mexicanos están llenos de helio-4, el mismo que se formó cuando el universo tenía apenas tres minutos de edad. Mucho del helio original se confinó en elementos más pesados, pero algo de éste quedó ahí. Otra parte del helio actual se formó en el centro de las estrellas, pero aun así la mayor parte del que tenemos en el universo actual proviene de los primeros momentos. La próxima vez que tenga usted un globo en sus manos piense en el aprecio que le debe merecer. Es de humanos conceder respeto a lo que perdura. El helio-4 ha esperado 13 800 millones de años para hacer que su globo se mantenga en lo alto mientras usted camina. Hoy sabemos que los neutrones en estado libre decaen. Los neutrones viven en promedio 15 minutos antes de decaer y convertirse en un protón, un electrón y un antineutrino del electrón. Sólo aquellos neutrones que quedaron atrapados en el núcleo del helio sobrevivieron, pues los neutrones que forman parte de un núcleo son estables. Es de esta manera como los neutrones han llegado hasta nosotros. De no ser por la estabilidad que les da el matrimonio con protones para formar núcleos atómicos, hace mucho que no tendríamos neutrones en el universo. Más concretamente, de no ser por el helio y el deuterio que se formaron en los primeros minutos del universo, los neutrones habrían desaparecido haciendo del universo que vemos algo muy diferente. Toda esta historia puede parecer fantástica, pero ¿qué tan válida es? A partir de estas ideas que forman el modelo del Big Bang, uno puede calcular cuánto hidrógeno, helio y litio se formaron en las primeras etapas. Si bien es cierto que las galaxias han contribuido posteriormente con la formación de elementos más pesados en el centro de las estrellas, es posible observar nubes de polvo alejadas de ellas y medir las cantidades de elementos que contienen. Las mediciones realizadas han podido comprobar que casi 77% del universo es hidrógeno, casi 23% helio y 0.0000001% litio. Esto está de acuerdo con los mejores cálculos que se basan en el modelo que hemos expuesto. La abundancia de los elementos en el universo es una de las maneras como hemos podido validar las ideas que tenemos del origen cósmico. Otros modelos darían cantidades muy diferentes y eso los descarta. El deuterio ha sido uno de los elementos ligeros creados en el universo temprano, es decir, en los primeros tres minutos de su existencia. El deuterio nos ha dado información importante sobre esta etapa. Es un isótopo del hidrógeno, lo que quiere decir que, como el hidrógeno, contiene sólo un protón pero, a diferencia de éste, lleva también un neutrón. Este hecho lo hace muy parecido al hidrógeno porque tiene la misma cantidad de carga eléctrica, pero el neutrón, que lo diferencia del hidrógeno, lo hace más pesado. Durante la Gran Explosión se produjo deuterio en pequeñas cantidades, pero suficiente para darnos una idea de la densidad del universo temprano. Cuando las densidades de materia son muy altas el deuterio se destruye convirtiéndose en helio-4, mientras que a bajas densidades se destruye por colisiones nucleares. Esto se debe a la frágil estructura de su núcleo que con colisiones ligeras separa a
los neutrones de los protones del núcleo. A principios de los años setenta se mostró que, en las estrellas, el deuterio sólo se destruye, no se produce, de tal manera que el deuterio que vemos ahora sólo puede venir de la Gran Explosión.
FIGURA II.5. Átomos de hidrógeno, deuterio y helio. Los círculos negros representan al protón mientras que los blancos al neutrón. Éste es un modelo gráfico del átomo que nos sirve para mostrar el grado de complejidad de los primeros elementos.
Las primeras mediciones importantes de la abundancia de deuterio en el universo se llevaron a cabo en 1969 con la llegada del hombre a la Luna. Los astronautas colocaron en la Luna una vela de aluminio. Millones de seres humanos pudieron ver esto, aunque quizá sólo algunos sabían de qué se trataba. Esta vela de aluminio recibió el viento solar que lleva consigo una corriente de partículas. A su retorno a la Tierra, la hoja de aluminio se trasladó a Berna, Suiza, donde fue analizada por Johannes Geiss, quien había convencido a la NASA de llevar a cabo este experimento. Esta lámina de aluminio fue colocada en la Luna primero que nada. ¿Un logro más de la política diplomática suiza? ¡Primero se colocó la vela de Johannes Geiss y después la bandera norteamericana! Esto era importante porque se quería colectar viento solar por 77 minutos y se querían tomar las precauciones por si acaso la misión debía ser acortada por algún imprevisto. La hoja de aluminio que fue diseñada y construida en el Instituto de Física de la Universidad de Berna pesaba sólo 400 gramos y pudo ser enrollada y empacada con facilidad para su viaje de vuelta a la Tierra. El experimento se repitió en las cinco misiones subsecuentes. Después de analizar el material de aluminio, Geiss concluyó que el material producido en el Sol contiene uno en 100 000 partes de deuterio. Esto se confirmó más tarde en 1973 con observaciones en satélite, de manera tal que podemos afirmar que no hay procesos después del Big Bang que produzcan deuterio. El deuterio nos diría más: su abundancia en el cosmos nos permitiría concluir que la masa total —de la materia común— sólo es una décima de lo que sería necesario para detener la expansión del universo. Empero, el universo parece tener mucha materia “no común” y, por eso, lo que el deuterio nos diga en este respecto podría ser poco creíble. Un análisis similar de la abundancia de otros elementos ligeros permite llegar a la misma conclusión: la densidad de materia común es muy baja para cerrar al universo. Si es que el universo está hecho sólo de esta materia común, entonces se seguirá expandiendo eternamente
y nuestro destino es la muerte glacial en un universo cada vez más frío que se expande sin fin. Sin embargo, ahora sabemos que no es necesariamente la materia común la que moldea el universo, y por eso podemos decir poco sobre su futuro. La materia oscura parece desempeñar un papel importante y todavía tenemos mucho que aprender sobre ella. Podría ser, por ejemplo, que esta sustancia desconocida cierre el universo y entonces nuestro destino será el fuego en un universo cada vez más denso y caliente que se colapsa en un punto. Después de los primeros minutos del universo, vino un periodo de 380 mil años en los que los átomos ligeros se siguieron formando. La densidad de materia prima, que eran las partículas elementales, fue disminuyendo, y el universo seguía en expansión. Los fotones interactúan con los electrones de manera intensa y por eso la abundancia de electrones libres impedía que los fotones viajasen libremente sin sufrir procesos de absorción y emisión continuos en el medio. Sin embargo, cuando el universo se había expandido lo suficiente, la temperatura bajó tanto que los electrones comenzaron a ser atrapados por protones para formar átomos; los fotones quedaron libres y el universo se hizo transparente. Antes de ese momento el universo era oscuro. Los telescopios más poderosos de los astrónomos no pueden ir más lejos. En este punto verán un muro de oscuridad que sólo puede ser penetrado con el uso de aceleradores de partículas donde se reproduce, a escala microscópica, lo que ocurría detrás de la cortina opaca. Los fotones, que en ese momento se liberaron, están ahora en todo el universo y a su presencia se denomina radiación de fondo. Esta radiación es la prueba más poderosa en favor del modelo de la Gran Explosión. Para la satisfacción de nuestra curiosidad, de esta época, en que el universo era joven, tenemos una foto. Con la ayuda de satélites se ha logrado tomar una fotografía de la radiación de microondas que fue liberada en ese momento. El fondo de microondas se ha medido con gran precisión y representa la fotografía del universo el día en que se hizo transparente. La primera medición de la radiación de fondo del firmamento entero fue revelada por el satélite Cosmic Background Explorer (Cobe) en 1992. El Cobe fue lanzado al espacio en 1989. Los investigadores detrás de la misión fueron George Smoot y John Mather, quienes recibieron el premio Nobel en 2006 por la fotografía de temperaturas del universo.
FIGURA II.6. Radiación de fondo medida con antenas colocadas en satélites. La luz que nos da la imagen surgió en ese momento en que el universo se hizo transparente. © CERN (cortesía de CERN Courier.)
Las pequeñas variaciones del fondo de microondas en diferentes direcciones, que se aprecian en la foto como diferentes colores, ofrecen claves de cómo las galaxias y las estrellas se formaron y nos dan una idea de por qué la materia se concentró en algunos lugares y no se distribuyó de manera uniforme. Las pequeñas variaciones de temperatura muestran cómo la materia se agregó desde un principio. Una vez iniciado el proceso de agregación de la materia, la fuerza de gravedad se encargó del resto, es decir, de dar la forma que hoy tiene el universo. La precisión con que la temperatura se muestra en la foto es de uno en 100 000, de tal manera que los diferentes colores muestran muy pequeñas variaciones de temperatura.
FIGURA II.7. El 21 de marzo de 2013 la misión Planck de la Agencia Espacial Europea mostró la fotografía más reciente y de mayor resolución de la radiación de fondo. © NASA.
La manera de explicar la agregación de la materia en la etapa muy temprana del universo tiene que ver con efectos de mecánica cuántica que debieron producir fluctuaciones en el momento de la expansión. Esto es, sin embargo, uno de los aspectos de la física que no se entienden fácilmente sin el uso de la matemática. En todo caso, pensamos que las diferencias en la temperatura que observamos y que han sido medidas son el resultado de fluctuaciones. También creemos que es gracias a estas fluctuaciones que se pudieron desarrollar galaxias y planetas, y que sin éstas la materia se habría distribuido de manera uniforme en un universo sin vida. En abril de 1992, cuando los resultados fueron finalmente publicados, Stephen Hawking declaró que los resultados de Cobe son “el más grande descubrimiento del siglo, si no es que de todos los tiempos”.11 Ésta es una afirmación seguramente debatible y muy probablemente falsa, pero, con certeza, es también una apreciación justificadamente entusiasta. Con todo y lo que se pueda decir sobre su valor científico, la imagen publicada en 1992 por el proyecto Cobe es para el autor de este libro uno de los grandes sucesos en su vida. Tener la fortuna de ver una foto del universo cuando éste tenía apenas 300 000 años le da un valor especial a la vida. Muy pocos tuvimos la posibilidad de ver llegar al hombre a la Luna, y muy pocos tuvimos la inmensa dicha infantil de ver una piedra del satélite que cada noche nos ilumina con delicadeza. Muy pocos hemos tenido la oportunidad de contemplar una imagen como la que nos dejó el proyecto Cobe. En este sentido, nuestros tiempos han sido privilegiados, porque hemos gozado del profundo alcance de la ciencia y la tecnología que nos ha ofrecido, como nunca antes, una maravillosa visión del universo. Aquí mostramos las imágenes del Cobe y la de su sucesor, el Wilkinson Microwave Anisotropy Probe (WMAP ), que midió años más tarde la misma distribución de temperaturas con una resolución mucho mejor. La misión Planck de la Agencia Espacial Europea publicó
sus resultados en marzo de 2013. Después de estos resultados la mayoría de los científicos quedó convencida de que algún tipo de Big Bang debió haber ocurrido.
1
Mario Livio, “Lost in Translation: Mystery of the Missing Text Solved”, Nature, 479 (150): 171-173, 2011.
2
Corán, 51: 47.
3
Tomás de Aquino, Suma teológica, 4ª ed., Biblioteca de Autores Cristianos, Madrid, 2001, 1ª parte, cuest. 2, art. 3.
4
Idem.
5
Lemaître fue invitado por Robert Millikan, director del Instituto de Tecnología de California. Entre sus conferencias, el 11 de enero de 1933 dirigió un seminario sobre rayos cósmicos en el cual Einstein estaba presente. 6
El papa Pío XII mantuvo un interés en los procedimientos de la Academia Pontificia de Ciencias, que había sido creada por su predecesor. En su época, la calidad de la Academia era indiscutible: Max Planck, Niels Bohr y Erwin Shrödinger eran miembros. En 1955 fueron admitidos Louis de Broglie y Werner Heisenberg. El pontífice aseguró que “la ciencia y la religión son hermanas celestiales, que se constituyen en manifestaciones distintas de la exactitud divina, por lo que en términos generales no es posible que se contradigan la una a la otra”. Discursos y mensajes de radio del papa Pío XII, archivos del Vaticano, 1940-1951. 7
Tsung Dao Lee, “Vacuum as a Physical Medium. Relativistic Heavy Ion Collisions and the Boltzmann Equation”, Universidad de Columbia, Nueva York, 1994, p. 7. Esta lectura se llevó a cabo durante el Simposio Internacional en honor al CL aniversario del natalicio de Boltzmann, en febrero de 1994. El discurso de 28 páginas puede leerse en los archivos de consulta del CERN en la siguiente dirección:
. 8
Heinz R. Pagels, The Cosmic Code: Quantum Physics as the Language of Nature, Bantam Books, Nueva York, 1983, p. 243. 9
Lewis Carroll, A través del espejo y Lo que Alicia encontró al otro lado, 2ª ed., Alianza, Madrid, 2010, p. 131.
10
Henning Genz, Die Entdeckung des Nichts. Leere und Fülle im Universum, 2ª ed., Rowohlt, Berlín, 2002, p. 30.
11
George Smoot y Keay Davidson, Wrinkles in Time, William Morrow & Co., Nueva York, 1993, p. 283.
III. Gran ciencia
CIENCIA EN GRANDE La llamada gran ciencia surgió durante la segunda Guerra Mundial y se consolidó al terminar el conflicto armado como única opción hacia la verificación de algunas ideas científicas. Grandes inversiones, equipos humanos numerosos, enormes construcciones y gigantescos laboratorios no se limitan a la física y la astronomía. El proyecto Genoma Humano es un ejemplo emblemático de la biología que inició en 1990 y concluyó exitosamente en 2003. Fue coordinado por el Departamento de Energía y los institutos de Salud de los Estados Unidos. Al inicio del proyecto se contó con la contribución de Japón, Francia, Alemania, China y otros. En 2003, dos años antes de los planes originales, Bill Clinton —entonces presidente de los Estados Unidos— y Tony Blair —entonces primer ministro de Inglaterra— anunciaron el resultado del proyecto de manera conjunta. El proyecto se propuso identificar miles de genes del ácido desoxirribonucleico humano (ADN). Se determinó la secuencia de 3 000 millones de pares de bases químicas que forman el ADN humano, se guardó esta información en una base de datos, se mejoraron las herramientas de análisis de la información y se transfirió tecnología al sector privado. Aunque el proyecto terminó, el análisis de los datos continuará por muchos años. Este proyecto tuvo un costo de 3 000 millones de dólares. El proyecto Genoma Humano no es el único fuera de las ciencias físicas o de la ingeniería; proyectos médicos y el uso de luz sincrotrón son otros ejemplos que desbordan incluso los límites de las especialidades académicas. En su libro How Experiments End, Peter Galison nos cuenta cómo en los años treinta la física experimental se desarrollaba con tubos Geiger hechos en el laboratorio.1 Los tubos Geiger fueron inventados por Hans Geiger en 1908 y desarrollados posteriormente con la ayuda de Walter Müller en 1928. Consisten en un tubo lleno de gas inerte como helio, neón o argón. El tubo de metal —o de otro material externo pero con metal en la parte interna— se usa como cátodo mientras que un alambre que va en el centro y a lo largo del tubo hace de ánodo. Entre cátodo y ánodo se hace una diferencia de potencial de varios cientos de voltios sin que haya flujo de corriente. Cuando la radiación atraviesa el tubo, se generan iones y electrones en el gas. La radiación crea estos iones al arrancar electrones de los átomos del
gas. El campo eléctrico que existe como resultado de la diferencia de potencial entre el tubo y el alambre provoca que los electrones se precipiten al ánodo y los iones al cátodo. Cuando esto ocurre, un pulso eléctrico corto delata el paso de la radiación. A menudo, y todavía hoy, estos detectores se conectan a una bocina que hace que el pulso sea audible. Estos detectores siguen siendo muy usados en la medición de radiación. El ruido que generan se ha convertido en un símbolo de altos niveles de radiación. Antes de la guerra la gente tenía métodos caseros para hacer estos tubos. Su costo era básicamente el que corresponde al moderado tiempo del físico o el técnico que lo construía. A finales de los treinta la gente ya usaba cámaras de niebla, y para 1938 los físicos de Harvard pagaron 500 dólares por una cámara de niebla grande. Por un poco más que esto, Jabez Curry Street equipó una expedición de rayos cósmicos en 1933 y 1934 con una cámara de ionización grande, tres pequeñas cámaras de ionización y seis contadores. El costo fue de 800 dólares y el equipo se podía usar de nuevo para otros experimentos. ¿Cómo se adquirían estos fondos? Primero Street escribió a Theodore Lyman, director del laboratorio, solicitando 800 dólares para las actividades de un año en investigación. Lyman reenviaba la solicitud al fondo Milton. Para esto se requería de una explicación como la siguiente: “El carácter discordante de los resultados obtenidos por los profesores Compton y Millikan hace evidente la necesidad de acumular datos sobre la naturaleza de los rayos cósmicos”.2 Ésta es la solicitud de Street que fue aprobada con el monto solicitado. Por cierto, el fondo Milton sigue existiendo en la Universidad de Harvard. Con estos montos y procedimientos uno puede ver que las cosas no habían cambiado mucho de los tiempos de Maxwell en 1870 a los años antes de la guerra en 1930. Sin embargo, después de la guerra, en los años cincuenta, las cosas eran ya muy distintas. Hoy en día, el Gran Colisionador de Hadrones es el más grande acelerador del mundo. Como veremos, tiene una circunferencia de 27 kilómetros y está formado por 9 300 imanes superconductores de diversos tipos para guiar a las partículas a lo largo de la curva del anillo así como para enfocarlas en algunos puntos. Entre estos imanes se han colocado 1 232 dipolos que producen un campo magnético de 8.4 teslas, el campo magnético más alto que se pudo lograr hasta el momento de la construcción. Mantener estos dipolos fríos requiere del sistema criogénico más grande del mundo. Todos los imanes son enfriados primero a −193.2 grados centígrados con la ayuda de 10 000 toneladas de nitrógeno líquido, luego se necesitan 60 toneladas de helio líquido para llevar la temperatura de los imanes a −271.3 grados centígrados, muy cerca del cero absoluto. En esta máquina se hacen circular protones en una dirección del anillo a una velocidad muy cercana a la de la luz. Los protones que circulan en la dirección contraria llevan la misma energía y cuando se los hace chocar, la violencia del choque es la más alta jamás lograda. El proyecto Gran Colisionador de Hadrones tiene un costo de 6 000 millones de dólares. Se encuentra después del programa Apolo, la Estación Espacial Internacional, el proyecto Manhattan, el proyecto GPS, el proyecto ITER y el telescopio Hubble, como el séptimo proyecto más costoso de los últimos años. Los tiempos han cambiado. La comunidad académica mexicana ha contribuido en varios proyectos de gran ciencia. A Large Ion Collider Experiment (ALICE) es uno de los tres
experimentos grandes del Gran Colisionador de Hadrones y el único del proyecto en el Conseil Européene pour la Recherche Nucléaire (CERN), donde un grupo latinoamericano contribuyó en el diseño, la construcción y la operación del mismo. De esta participación hablaremos más adelante. México también participa en el experimento Auger. El proyecto Pierre Auger es un arreglo muy extenso, una superficie de 3 000 kilómetros cuadrados de tanques de agua dotados con fotodetectores que tienen por objeto medir la radiación que viene del espacio exterior. El interés del proyecto se centra en el origen de rayos que son extremadamente energéticos y de los que sólo unos pocos han sido observados. Para establecer la proveniencia de estos rayos es necesario medir muchos eventos, ya que la frecuencia con que aparecen es más baja a medida que aumenta la energía. Es necesario construir un detector muy grande para aumentar de esa manera la posibilidad de observar el mayor número posible de eventos. Ahí, además de haber participado en el proyecto inicial, México ha contribuido de manera destacada en un programa de actualización del detector Auger al que se ha llamado Buried Array Telescope at Auger (Batata). Éste consiste en un arreglo de detectores enterrado a más de un metro de profundidad. La intención de hacerlo así es la de eliminar una componente de los rayos cósmicos conocida como componente electromagnética, que acompaña a los eventos para dejar más limpia la información deseada de los muones. Este arreglo ya fue instalado en el observatorio Pierre Auger, que se encuentra en la provincia de Mendoza, Argentina.
FIGURA III.1. Experimento ALICE en el Gran Colisionador de Hadrones de la Organización Europea para la Investigación Nuclear (CERN). © CERN.
Un grupo de científicos de varias instituciones mexicanas también es miembro del grupo proponente del proyecto Japanese Experiment Module-Extreme Universe Space Observatory (JEM-EUSO). En esta propuesta el grupo mexicano coordina la misión y es responsable de tres subsistemas: supervisión, alimentación de bajos voltajes y análisis térmico. La colaboración
JEM-EUSO sugiere la construcción de un módulo para ser instalado en la Estación Espacial
Internacional. Este módulo mediría rayos cósmicos que entran en la atmósfera de la Tierra, y por sus características sería el paso siguiente al proyecto Auger del que hablamos anteriormente. Sobre el carácter colectivo y público del acervo científico, Claude Lévi-Strauss, antropólogo franco-belga fundador del estructuralismo en la etnología, decía: La creación científica representa hoy una realización colectiva y ampliamente anónima para la que estamos lo menos preparados posible, habiéndonos ocupado demasiado en prolongar más allá de su tiempo los hechos fáciles de nuestros viejos virtuosos. ¿Éstos continuarán creyendo por mucho tiempo que un estilo a toda prueba puede remediar la falta de partitura?3
La invención en 1946 de ENIAC, la primera gran computadora; el desarrollo soviético del primer satélite artificial, Sputnik, en los años cincuenta; el programa estadunidense para poner al hombre en la Luna en los años sesenta, todos llevan la etiqueta de gran ciencia. Pero ante todo, estos proyectos son logro y orgullo de naciones que mostraron no tener individuos aislados, sino una comunidad de investigadores. Claude Bernard, biólogo y médico francés, padre de la medicina experimental, es conocido por su estudio del síndrome que lleva su nombre, por el descubrimiento de la fusión digestiva del páncreas, de la función glicogénica del hígado, entre otros muchos descubrimientos y desarrollos en la medicina; decía: “El arte es yo, la ciencia es nosotros”.4 Subrayaba así el carácter más social y de grupo que el quehacer científico tiene en contraposición con el arte. La estación espacial da una vuelta a la Tierra en 90 minutos y es considerada por muchos como el logro más alto de la ingeniería. Con un presupuesto que holgadamente supera los 100 000 millones de dólares, la estación espacial alberga un detector de antimateria. El proyecto Alpha Magnetic Spectrometer (AMS) es un aparato que buscará antimateria y materia oscura en el universo. Se había planeado que el detector fuese transportado a la estación espacial en 2003, pero el accidente del transbordador Columbia en ese año puso el proyecto en riesgo de no ser concluido. En mayo de 2011 fue lanzado al espacio y se encuentra ya instalado en la Estación Espacial Internacional. El diseño, la construcción y la operación del experimento involucran a 16 países, casi 60 instituciones y alrededor de 600 personas. En este proyecto de gran ciencia también participa un grupo mexicano desde hace tiempo. Nuestro país ha tenido, además, grupos participando en el análisis de datos en varios experimentos del Fermilab, laboratorio que se encuentra cerca de Chicago, en Illinois, Estados Unidos. En fechas recientes un grupo de mexicanos se unió a la colaboración Compact Muon Solenoid (CMS), que es otro de los tres grandes experimentos del Gran Colisionador de Hadrones. Con todo esto, bien podemos decir que México ha incursionado ya en el mundo de la gran ciencia. La comunidad científica de nuestro país se integra así al gran concierto mundial donde se genera el conocimiento y se desarrolla la tecnología. La popularización del término gran ciencia se atribuye al entonces director del Oak Ridge
National Laboratory, Alvin Weinberg, quien en un artículo publicado en la revista Science respondía al saliente presidente Dwight D. Eisenhower su discurso de despedida de la presidencia en 1961.5 Si bien el discurso y la respuesta corresponden a una realidad diferente de la nuestra, creo muy conveniente reproducir aquí un segmento que propicia la reflexión en diferentes vertientes. Discurso de Dwight D. Eisenhower: De la misma forma, y en gran medida responsable de los amplios cambios en nuestra postura militar industrial, ha sido la revolución tecnológica en las recientes décadas. En esta revolución, la investigación se volvió central, también se formalizó, se hizo más compleja y costosa. Un constante incremento en la participación financiera se debe al gobierno federal. Hoy el inventor solitario jugando en su taller ha sido opacado por equipos de científicos en laboratorios y campos de prueba. En la misma forma, la universidad gratuita, históricamente fuente de ideas libres y descubrimientos científicos, ha experimentado una revolución en la conducción de las investigaciones. En parte debido al alto costo que involucra, un proyecto gubernamental ha llegado a sustituir la curiosidad intelectual. Para cada pizarrón hay ahora cientos de computadoras electrónicas. La perspectiva de dominación de los escolares de la nación en los empleos federales, asignación de proyectos y el poder del dinero estará siempre presente y se le debe mirar con seriedad. Sin embargo, manteniendo el respeto que debemos a la investigación científica y el descubrimiento, debemos estar alertas al igual y opuesto peligro de que la política pública pueda ser capturada por una élite científica y tecnológica.6
Respuesta de Alvin Weinberg: Cuando la historia mire al siglo XX, verá a la ciencia y la tecnología como su tema; encontrará en los monumentos de gran ciencia —grandes cohetes, aceleradores de altas energías, reactores de investigación de alto flujo— símbolos de nuestro tiempo de la misma manera como seguramente encuentra en Notre Dame un símbolo de la Edad Media […] Construimos nuestros monumentos en el nombre de la verdad científica, como ellos construían los suyos en el nombre de la verdad religiosa. Nosotros usamos nuestra gran ciencia para sumar prestigio a nuestra nación, ellos usaron sus iglesias para el prestigio de sus ciudades. Nosotros construimos para apaciguar lo que el ex presidente Eisenhower sugirió podría llegar a ser una casta científica dominante, ellos construían para agradar a los sacerdotes de Isis y Osiris.7
Este breve intercambio de ideas no es sólo el inicio de la amplia difusión que luego tendrían las palabras gran ciencia, es también la incitación a muchas reflexiones. Queda al lector la tarea de extraer todas las meditaciones que le pueda inspirar el texto.
LA TORRE DE BABEL: LA ORGANIZACIÓN EUROPEA PARA LA INVESTIGACIÓN NUCLEAR (CERN) En el CERN, hombres y mujeres de todas las naciones han vuelto a encontrar un lenguaje común. Más de diez mil físicos circulan por el laboratorio cada año. Todos los continentes están representados. La historia en la que Dios confundió su lenguaje para que no se entendiesen los unos con los otros ha quedado muy atrás. La sentencia divina, sin embargo, sigue siendo válida: “He aquí que todos forman un solo pueblo y todos hablan una misma lengua, siendo este el principio de sus empresas. Nada les impedirá que hagan todo lo que se propongan”.8 El CERN fue fundado en 1954 después de la conflagración mundial que tuvo a Europa
dividida entre las fuerzas del eje: Alemania, Italia y Japón, y los aliados: Francia y Gran Bretaña, entre otros. La intención de formar un laboratorio europeo fue múltiple: impulsar el avance tecnológico, entrenar a los científicos del mañana, buscar respuestas a las preguntas fundamentales de la naturaleza y unir a las naciones europeas a través de la ciencia. En 1957 el CERN, a sólo tres años de su fundación, contaba con su primer acelerador: un sincro-ciclotrón de protones de 600 megaelectronvoltios. Éste fue concebido como un paso intermedio entre el inicio de actividades del laboratorio y el primer acelerador de alta energía que entraría en funcionamiento en 1960. El acelerador era una circunferencia de 15.7 metros de perímetro. Fue cerrado en 1990 y en su lugar se construyó el edificio que hoy alberga las oficinas centrales del proyecto ALICE. La primera observación experimental del CERN se realizó en este acelerador y consistió en la primera medición del decaimiento del pion en un electrón y un neutrino. Este decaimiento ocurre con una probabilidad mucho más baja que en el modo de muon (neutrino del muon), es decir: el pion decae como π+→μ+ + vμ en 99.9877% de las veces. Mientras que de la manera π + →e+ + ve sólo en 0.0123 por ciento. La razón de que esto sea así, aun cuando el muon y el electrón son leptones, es la mejor prueba del tipo de interacción que promueve el decaimiento: a saber, la interacción débil. En 1959, el CERN puso en funcionamiento el segundo acelerador, llamado Proton Synchrotron (PS). Los aceleradores son dispositivos inventados a finales de los años veinte y principios de los treinta. Éstos llevan a las partículas a velocidades cada vez más altas a través de diferentes mecanismos. Los físicos los usan para escudriñar la estructura de la materia, pero en realidad éstos han encontrado un sinnúmero de aplicaciones en otras áreas de la tecnología. El PS del CERN sigue siendo una pieza clave de la infraestructura actual del laboratorio. Cuando se terminó en 1959 fue, por un breve periodo, el acelerador de más alta energía en el mundo; ocho meses después de su entrada en funcionamiento, el Alternating Gradient Synchrotron (AGS) de Brookhaven en los Estados Unidos estaba listo y con una energía mayor. El acelerador tiene una circunferencia de 628 metros y utiliza 277 magnetos convencionales. Ahora, el acelerador PS es una de las etapas de aceleración que los protones deben pasar antes de llegar al Gran Colisionador de Hadrones. El CERN cumplirá pronto 60 años de edad. En lo que lleva de vida existen algunas fechas memorables. Así por ejemplo en 1968, George Charpak, investigador de origen judío polacoucraniano, revolucionó la manera de medir la radiación con la invención de la cámara de múltiples alambres. Este aparato consistía en una caja llena de gas con un gran número de alambres paralelos conectados de manera individual a amplificadores electrónicos. Conectado a una computadora, el instrumento mide la radiación a una velocidad 1 000 veces mayor a la que se lograba entonces con otros detectores. Por este invento, Charpak recibió el premio Nobel de física en 1992.
FIGURA III.2. De izquierda a derecha, George Charpak, Fabio Sauli y Jean Claude Santiard trabajando en una cámara de múltiples alambres en 1970. Jean Claude Santiard fue por mucho tiempo el experto en electrónica colaborador de G. Charpak. Los mexicanos tuvimos la fortuna, como otros grupos de ALICE, de contar con su ayuda en el diseño de la tarjeta electrónica de uno de nuestros detectores. © CERN.
En 1971 el CERN puso en operación el primer colisionador de protones contra protones en el llamado Intersecting Storage Ring (ISR). Hasta ese momento los físicos hacían sus experimentos bombardeando un blanco fijo con un haz de partículas. De esa manera se hacía uso sólo de una parte de la energía que se invertía en el haz. La llegada del colisionador proporcionó un uso más eficiente de la energía en las colisiones de las partículas. En 1973 se descubrieron en el CERN las corrientes neutras. Con el uso de una cámara de burbujas a la que se llamó Gargamelle se pudo observar en 1972 el paso de un neutrino que empujó a un electrón. Esta cámara de burbujas era un cilindro que contenía más de 12 000 litros de freón. Cámaras fotográficas hacían tomas del interior para ver la trayectoria de los neutrinos que atravesaban los cinco metros de líquido. En el verano de 1973 más de 700 000 fotos se distribuyeron entre los colaboradores del proyecto. La foto que mostramos aquí llamó la atención del grupo de Aachen —Aquisgrán, en español— en Alemania. El neutrino no deja
huella porque no tiene carga eléctrica, entra en la cámara desde abajo y sale por arriba sin haber cambiado de identidad, ni de dirección. A su paso chocó con un electrón que sale por un lado. El electrón emite radiación que produce varios pares electrón positrón y que lo hacen perfectamente identificable. Lo interesante de este evento es que este tipo de procesos involucran la interacción débil que en ese momento se pensaba que era mediada por partículas cargadas positiva y negativamente, las llamadas W. A finales de los sesenta se había elaborado un modelo matemático de las interacciones de los neutrinos en donde se postulaba también la interacción por corrientes neutras, es decir, por una partícula sin carga a la que se llamó Z. Lo que se observó con el primer haz producido de neutrinos en el detector Gargamelle fue la primera manifestación de estas partículas neutras que más tarde serían vistas de manera directa también en el CERN. Con más eventos similares se anunció en 1973 la existencia de corrientes neutras.
FIGURA III.3. Evento observado por Gargamelle en 1973, con el que se anunció la existencia de las corrientes neutras. Las líneas que se han superpuesto en la foto son para guiar el ojo del lector. Estas líneas indican lo que el analista debió ver. En la imagen original las líneas amarillas no son visibles porque un neutrino sin carga no deja huella. © CERN.
En 1979 el CERN tomó la decisión de convertir al acelerador llamado Super Proton Synchrotron (SPS) en un colisionador de protones contra antiprotones. Ahí se puso en marcha un mecanismo denominado enfriamiento estocástico, que permitía tener un gran número de antiprotones en el haz. Este mecanismo fue un éxito, pues hizo posible el estudio de las colisiones de protones y antiprotones. En 1983 el CERN anunció el descubrimiento de las partículas W y Z. El descubrimiento fue de tal importancia que al año siguiente Carlo Rubbia y Simon van der Meer recibieron el premio Nobel. Carlo Rubbia fue impulsor de la transformación del SPS en un colisionador de protones y antiprotones, mientras que Simon van der Meer fue el inventor del mecanismo de enfriamiento estocástico que hizo posible la operación del acelerador. En 1990 Tim Berners Lee inventó en el CERN la World Wide Web (WWW). El año anterior Tim había propuesto el desarrollo de un sistema de distribución de información para el laboratorio. La puesta en marcha en el CERN, en agosto de 1991, fue el primer paso de lo que habría de desarrollarse rápidamente en el mundo entero. La www fue concebida originalmente para intercambio de información entre científicos, pero rápidamente se convirtió en una manera distintita de vivir. En 1993 el experimento NA31 del CERN publicó el primer resultado preciso de lo que es llamado violación de CP directa. El resultado fue estudiado posteriormente por el experimento NA48, que anunció sus resultados en 2001. La violación de Carga y Paridad había sido descubierta en 1964 en el decaimiento de kaones neutros. James Cronin y Val Fitch recibieron el premio Nobel por tan importante hallazgo. La observación está ligada a la transformación de kaones en antikaones y viceversa. Cronin y Fitch vieron que esta probabilidad no es la misma en ambas direcciones. A esto se llama violación indirecta de Carga y Paridad. No fue sino hasta 1990 que el experimento NA31 en el CERN sugirió evidencia de violación de CP en decaimientos de los mismos kaones. La observación fue controvertida y la prueba definitiva llegó en 1999 con el experimento NA48 del CERN. Recientemente en 2011 el experimento LHCb encontró indicios de violación de CP en decaimientos de mesones D. En 1995 se crearon en el CERN los primeros átomos de antimateria. En el acelerador Low Energy Antiproton Ring (LEAR) se lograron producir nueve átomos de antihidrógeno. Para esto se hicieron colisionar antiprotones contra átomos de xenón. Los antiátomos vivieron sólo 40 mil millonésimas de segundo mientras viajaban aproximadamente 10 metros antes de ser aniquilados por materia ordinaria. Ésta fue la primera vez que se logró producir antimateria en la forma de átomos completos. Un antiátomo de hidrógeno consiste en un antiprotón rodeado de un positrón. El acelerador Large Electron Positron Collider (LEP ), que operó en el CERN hasta el año 2000, vino a consolidar el modelo estándar con mediciones de precisión. En la etapa final de su operación se observaron algunos eventos que parecían mostrar al bosón de Higgs en ciertos modos de decaimiento. El número de eventos no fue convincente en aquel momento. Ahora el Gran Colisionador de Hadrones lo ha observado de manera inequívoca. En 2002 los experimentos Anthihydrogen Trap (Atrap) y Athena crearon miles de átomos de antimateria. Para formar antiátomos de hidrógeno se juntaron positrones y antiprotones en una trampa diseñada con este fin. En 2010 las mismas colaboraciones lograron enfriar los antiátomos y confinarlos por 0.17 segundos, y en 2011 se logró mantener a los átomos de
antihidrógeno durante 15 minutos en una botella magnética. El proyecto Alpha fue capaz de estudiar con técnicas de radiación de microondas la estructura interna del antihidrógeno. Con esto se abrió la posibilidad de estudiar muchas propiedades de la antimateria que seguramente nos darán información de las simetrías fundamentales de la naturaleza. Más grandes átomos de antimateria como antideuterio, antitritio y antihelio son más difíciles de producir. Éstos han sido producidos pero aún no es posible atraparlos. El antideuterio fue producido en el CERN en 1965. Éstos son sólo algunas de las hazañas y los éxitos de un laboratorio multinacional. Una gran cantidad de desarrollos tecnológicos ha acompañado la historia de estos descubrimientos. Actualmente el laboratorio CERN alberga el proyecto científico más ambicioso de nuestros días, y de esto hablaremos más en lo que resta del libro. Hoy el CERN está a cargo de 20 países miembros europeos. Además de éstos, existen países y organizaciones observadores, que son: Comisión Europea, India, Japón, los Estados Unidos, Rusia, Turquía, y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO, por sus siglas en inglés). Varios países no miembros tienen acuerdos de cooperación firmados con el CERN; entre ellos, México, que mantiene actividad de investigación en el experimento Compact Muon Solenoid (CMS) y el experimento ALICE del Gran Colisionador de Hadrones.
EL GRAN COLISIONADOR DE HADRONES PARA ALCANZAR EL CIELO El proyecto Large Hadron Collider (LHC) o Gran Colisionador de Hadrones es el acelerador de mayor energía en el mundo. En él se estudia la interacción de protones contra protones. También se estudia la interacción de iones de plomo a la más alta energía jamás lograda. Para los físicos de partículas la unidad usual al hablar de energía es el electronvoltio. Un electronvoltio es la energía por movimiento que adquiere un electrón cuando es acelerado por una diferencia de potencial de un voltio. Un electronvoltio equivale a 1.6 × 10−19 joules. Es una cantidad de energía muy pequeña que se adecua al microscópico mundo de las partículas elementales. La energía del acelerador LHC equivale a la energía que se libera cuando se enciende un fósforo. Aunque esto puede parecer poco, hay que tomar en cuenta que tal energía se concentra en el tamaño de un protón. Si tomamos esto en consideración, nos daremos cuenta de que la concentración es gigantesca. Es por esta descomunal densidad de energía que el campo de investigación se ha dado en llamar física de altas energías. Este proyecto es el paso siguiente en el viaje de descubrimientos que empezó hace 100 años cuando los físicos descubrieron los misteriosos rayos X y la radiactividad natural. Muchas de las preguntas fueron contestadas con el correr del siglo. En esa búsqueda se encontraron muchas otras cosas que cambiaron nuestras vidas: televisión, transistores, imaginología médica y computadoras, por mencionar sólo algunas.
El LHC es el acelerador más importante hoy. Un túnel en forma de anillo con 27 kilómetros de perímetro alberga en su interior a la máquina que recrea las condiciones del universo temprano, permite estudiar la estructura elemental de la materia, busca dimensiones más allá de las que conocemos y escudriña las simetrías de la naturaleza. El acelerador construido en el CERN cerca de Ginebra, Suiza, es un proyecto internacional sin fines militares. Es también un ejemplo emblemático de lo que llamamos gran ciencia, así como del carácter moderno de la investigación científica. El acelerador y sus experimentos fueron diseñados y construidos para resolver grandes preguntas, pero ha conducido también a grandes avances en la tecnología. Muchos científicos
opinan que el papel del proyecto es buscar una explicación a los misterios de la naturaleza, y que no se debe caer en el error de justificar los proyectos científicos por los beneficios que éstos generan de manera adyacente. Por ejemplo, alguien dijo: “no debemos de argumentar que las misiones espaciales tripuladas nos dieron el Tang”, refiriéndose a la bebida en polvo que se popularizó en los Estados Unidos y muchas partes del mundo en los años sesenta como uno de los desarrollos impulsados por la NASA ante las necesidades del hombre en el espacio.
FIGURA III.4. Esquema del laboratorio en que se muestra el túnel que alberga al Gran Colisionador de Hadrones. El dibujo no está a la escala correcta. En el lado izquierdo se pueden ver los Alpes, a la derecha, los montes Jura. © CERN.
La verdad es que estos proyectos proporcionan una visión del universo que es más profunda y que llega más lejos en su relación con el ser humano. El LHC ha dejado ya una gran cantidad de patentes y avances en electrónica, tecnología aplicada en los hospitales, y muchas otras áreas de la industria de la manufactura, pero éste no era ni es su objetivo. El proyecto nos dejará una nueva manera de ver nuestro universo y de vernos a nosotros mismos como partes del cosmos. El beneficio, pues, cala más hondo, y en su comprensión está el beneficio real de la investigación científica. Uno de los temas de los que el LHC podría dar noticias pronto es el relacionado con la
materia oscura. El acelerador deberá ser capaz de crear —si es que éstas existen— partículas supersimétricas. Éstas, nunca antes vistas y muy largamente esperadas, podrían dar cuenta de buena parte de la materia de la que está hecho el universo. Observar estas partículas podría explicar el misterio de la materia oscura y resolver así uno de los problemas más importantes de la física moderna. La llamada materia oscura y energía oscura deben constituir más de 90% de lo que nos rodea. Esta masa invisible influye en el movimiento de los astros, las galaxias y los cúmulos estelares, pero escapa a nuestros métodos de medición. Entender qué es esta materia oscura nos dirá mucho de nuestro origen y mucho más de nuestro destino. Para poder llevar a cabo la proeza de hacer chocar protones a una gran energía, el LHC necesita una cámara de vacío de forma tubular que circunda todo el perímetro del anillo. La temperatura del acelerador es extremadamente baja haciendo de la máquina el lugar más frío del universo. El acelerador funciona a 1.9 grados por encima del cero absoluto, es decir, a – 271 grados centígrados. La temperatura promedio del espacio exterior es de 2.7 grados centígrados sobre el cero absoluto, es decir, 0.8 grados más caliente que la temperatura del colisionador. Lo paradójico es que aquí está también uno de los lugares más calientes del universo, pues las colisiones que se generan producen temperaturas de hasta 100 000 veces la temperatura que se da en el centro de nuestro Sol. El tubo por el que viajan los protones se pone al vacío para evitar que los protones sean parados o desviados por moléculas de aire. Por esto, los 54 kilómetros (es decir, 27 kilómetros en cada haz) se vacían hasta lograr presiones muy bajas. La presión llega a ser tan baja como la que existe en la Luna, es decir, 0.0000000001 milibares, o bien, 10−10 milibares. De esta manera los protones pueden dar miles de millones de veces la vuelta al anillo antes de chocar con alguna molécula residuo de aire. Para llegar a obtener este vacío se trabaja dos o tres semanas con bombas especiales que paulatinamente extraen todo. Después el frío hace el resto, pues las restantes moléculas se condensan adhiriéndose a las paredes. El tubo está tan bien tapado que una llanta de carro con este sellado tardaría 3 millones de años antes de perder la mitad de su presión. Los protones en el LHC siguen una trayectoria curva. Para esto es necesario que pasen por un campo electromagnético muy fuerte producido por enormes dipolos. Los dipolos trabajan con el mismo principio que los electromagnetos de los motores de los carros, de las computadoras o los que vemos levantar grandes cantidades de chatarra metálica en grúas que al suspender la corriente sueltan su carga donde se desee. Los dipolos del LHC, sin embargo, son más imponentes en tamaño y complejidad, pues generan campos magnéticos muy potentes. Cuando los protones viajan por el anillo se encuentran con una gran variedad de magnetos diferentes. Los más impresionantes de éstos son los dipolos que forman el corazón del acelerador y son los que lo hacen posible. El acelerador está formado por 1 232 de estos dipolos. Cada uno de ellos mide 15 metros de longitud y pesa 35 toneladas. Además se emplean 500 cuadrupolos para enfocar el haz de partículas evitando que se dispersen. Están también instalados más de 7 500 imanes correctivos que estabilizan el haz lo más cerca posible de la trayectoria deseada. Los dipolos magnéticos que mencionamos deben producir campos magnéticos de casi nueve teslas. Cuando se inició el proyecto esto no era posible y se tuvo que desarrollar la
tecnología para hacerlo. Se debió recurrir a la superconductividad, que es un fenómeno eléctrico que permite a ciertos materiales conducir corriente eléctrica sin resistencia y, por tanto, con poca generación de calor. Con los alambres superconductores que utiliza el acelerador se pueden tener corrientes eléctricas muy altas sin pérdidas de energía. Se pueden tener hasta 12 000 amperes circulando en los magnetos. Esta corriente es 1 200 veces la corriente que circula en una parrilla eléctrica. Magnetos convencionales no hubiesen podido hacer este trabajo, y se hubiera requerido construir un túnel mayor para que la curva no fuese tan cerrada y que fuera posible doblar los protones de manera más lenta con campos magnéticos menores. Con la tecnología existente se requeriría, pues, no un túnel de 27 kilómetros de perímetro, sino uno de 120 kilómetros. Cavar un túnel así no es cosa fácil, y por eso se decidió incursionar en el terreno de la superconductividad. Los alambres que se usan para superconducir son una aleación de niobio titanio que se vuelve superconductor a los –264 grados centígrados. No obstante, para lograr campos magnéticos aún mayores en el CERN, se los lleva a –271 grados centígrados. Con esto, el LHC se convirtió en el complejo más grande del mundo en la aplicación de superconductividad. Los magnetos del acelerador son verdaderas joyas de la tecnología. Son también las herramientas que han permitido incursionar en el mundo de lo infinitamente pequeño, comparable a las naves que permiten los viajes espaciales. Los cables de niobio-titanio son más finos que un cabello humano y deben ser enrollados con una precisión de dos a tres centésimas de milímetro sobre una longitud de 15 metros. Cualquier error en la alineación puede conducir a un calentamiento indeseable que haría perder su estado superconductor a todo el dipolo, llevando al acelerador a detener su operación. Cuando uno de estos dipolos se pone en marcha se produce el campo magnético deseado en su interior, generando gigantescas fuerzas mecánicas. Las fuerzas que deben ser contenidas por una estructura mecánica son comparables al peso de 14 aviones cargados Boeing 747. Para mantener la estructura en su sitio se utilizan collares de acero que no sólo evitan la explosión del dipolo, sino que además la mantienen con gran precisión en el mismo sitio. El acelerador está diseñado con dos tubos en los que los protones viajan en contraflujo en el mismo sistema, de tal manera que cada magneto es en realidad dos magnetos en uno. Para hacer uso del LHC se construyen grandes detectores que ven con una precisión sin precedentes lo que ocurre cuando los haces colisionan. Estos detectores procesan tanta información como la red de telecomunicaciones de todo el mundo.
FIGURA III.5. Arreglo de aceleradores en el CERN que alimentan al Gran Colisionador de Hadrones (anillo mayor). Todo el proceso de aceleración inicia en los dos linacs que se pueden apreciar a la izquierda de la imagen. Uno de los linacs acelera protones, y el otro, iones de plomo. © CERN.
Los detectores llegan a tener 20 metros de altura y están formados por infinidad de dispositivos construidos con la más alta tecnología. En el centro de estos detectores se hacen chocar protones con una frecuencia de 600 millones de veces por segundo. Entender qué ocurre en cada una de estas reacciones es el objetivo del LHC.
FIGURA III.6. Túnel que alberga al Gran Colisionador de Hadrones. En la foto se puede ver uno de los dipolos que en su interior lleva los dos tubos por los que viajan los protones en direcciones contrarias. © CERN.
Para nuestra concepción de intervalos de tiempo, una milésima de segundo es ya igual a cero, de manera tal que imaginarse lo que significa 600 millones de colisiones por segundo es imposible. Intervalos de tiempo tan cortos empezaron a usarse hace relativamente poco. Hasta principios del siglo XVIII los relojes no tenían minuteros. A comienzos del siglo XIX apareció el segundero. ¿Qué puede ocurrir en una milésima de segundo? En ese tiempo el sonido recorre 33 centímetros; un avión, cerca de medio metro; la Tierra recorre en este intervalo de tiempo 30 metros en su órbita alrededor del Sol.
FIGURA III.7. El detector ALICE con un corte longitudinal que permite apreciar su interior. El detector consiste en muchos subsistemas, cada uno con la función de medir diferentes características de un evento. Los iones chocarán en el centro del detector. © CERN.
Para algunos insectos una milésima de segundo es un tiempo perfectamente apreciable. Un mosquito bate sus alas aproximadamente 50 veces por segundo; esto significa que en aproximadamente 20 milésimas de segundo sube y baja las alas. El movimiento más rápido que los seres humanos pueden hacer es el parpadeo que se realiza con tanta rapidez que ni lo percibimos al mirar. Sin embargo, medido en milésimas de segundo este movimiento es tan lento que, según los datos aportados por mediciones precisas, un abrir y cerrar de ojos dura aproximadamente 2/5 de segundo, es decir, 400 milésimas de segundo; sólo el cerrar el ojo en un parpadeo se lleva ya entre 70 y 90 milésimas de segundo. El ojo dura cerrado en un parpadeo aproximadamente 150 milésimas más, y la elevación del párpado requiere aproximadamente 170 milésimas de segundo. Como puede apreciarse, un abrir y cerrar de ojos es extremadamente lento si consideramos que los ojos electrónicos que se usarán en los detectores de LHC captarán lo que ocurre 600 millones de veces en un segundo. Cuando LHC acelera iones de plomo, el detector ALICE está listo para registrar lo que sucede. ALICE registra los fenómenos que aparecen cuando se producen en el laboratorio las
densidades de materia más altas jamás logradas. Lo que el experimento ALICE observa puede cambiar por completo nuestra visión del vacío, y con ello, nuestra manera de ver el mundo. De esto hablaremos más tarde.
EL DOMINIO DEL FUEGO: EL EXPERIMENTO ALICE Antoine de Rivarol dijo: “el ser humano es el único animal capaz de hacer fuego, esto le ha procurado su dominio sobre la Tierra”. Y no sólo ha sido capaz de hacer fuego, ha podido, además, ejercer un dominio sobre él. Desde esta perspectiva, el experimento ALICE es el punto más alto en la creciente potestad que los seres humanos han logrado sobre el fuego. En la metáfora de la Torre de Babel, ALICE también representa el uso del fuego que hizo posible la gigantesca construcción: “los hombres en su emigración al oriente hallaron una llanura en la región de Senaar y se establecieron ahí. Se dijeron unos a otros hagamos ladrillos y cozámoslos al fuego”.9 Fue quizá este avance tecnológico el que atemorizó a Dios cuando vio el progreso de los hombres en lo que se habían propuesto. En el experimento ALICE, los ladrillos han sido elaborados en diferentes partes del planeta y cada una de las partes representa también el avance tecnológico más alto en su renglón. ALICE es un gran experimento de colisión de iones; es uno de los proyectos científicos más grandes del mundo donde se estudia a la materia en una escala microscópica. El proyecto se propone contestar preguntas fundamentales como: ¿Qué pasa con la materia cuando se la somete a condiciones extremas de temperatura, presión y densidad? ¿Cómo era el universo unos microsegundos después de la Gran Explosión? ¿Se puede liberar a los quarks, de los que están hechos los protones y los neutrones? Los protones y los neutrones están hechos de quarks, pero de la suma de las masas de los quarks sólo se obtiene 1% de la masa de un protón: ¿de dónde viene el otro 99 por ciento? La teoría de las interacciones fuertes a la que se llama cromodinámica cuántica predice que, a muy altas temperaturas y muy altas densidades, los quarks y los gluones no permanecerán más confinados dentro de las partículas que forman. En condiciones extremas, éstos se liberarán de sus prisiones para formar un nuevo estado de la materia que se conoce como plasma. Esto debe ocurrir cuando la temperatura exceda un valor crítico que se estima será de alrededor de dos billones de grados. Ésta es una temperatura 100 000 veces mayor que la que existe en el centro del Sol. Una temperatura así no ha sido producida de manera controlada después de la Gran Explosión. Actualmente pensamos que apenas unas millonésimas de segundo después del nacimiento del universo la temperatura se encontraba por encima de este valor crítico y el universo entero
era una plasma de quarks y gluones. Para lograr esto en el laboratorio, se aceleran iones de plomo a velocidades cercanas a la de la luz. De acuerdo con la teoría de la relatividad, los iones se contraen en la dirección de vuelo como si fuesen discos en lugar de esferas. En el momento del choque se libera una cantidad enorme de energía que libera a los quarks y los gluones. Los quarks y los gluones interactúan entre sí en un medio que podría equilibrarse térmicamente muy rápido formando un nuevo estado de la materia que llamamos plasma. El plasma se expande y se enfría. Cuando la temperatura ha descendido lo suficiente, los quarks y los gluones se agrupan de nuevo para formar materia ordinaria. Todo esto ocurre en un santiamén. Desde que el choque llegó al punto de máximo alcance sólo han transcurrido 10−23 segundos, es decir, un punto seguido de 22 ceros y un uno al final.
FIGURA III.8. Choque de dos iones de plomo en tres momentos: (A) los iones se aproximan a gran velocidad; (B) se penetran de manera frontal; (C) en la región más central de la colisión se forma un nuevo estado de la materia ante las condiciones extremas de presión, temperatura y densidad.
Como decíamos antes, el choque de los iones produce por un breve instante una región de muy alta densidad y temperatura extrema. ¿Cómo hacer para estudiar un acontecer tan breve? Para hacerlo se han reunido físicos de más de 30 países con la idea de construir un gigantesco microscopio. El experimento ALICE es un conjunto de 16 sistemas de detección que han sido diseñados y construidos en diferentes partes del mundo.
Los sistemas de detección que forman ALICE están ordenados en capas alrededor de dos grandes electromagnetos. Los magnetos de ALICE doblan la trayectoria de las partículas cargadas haciendo posible la medición de su carga y de la cantidad de movimiento que llevan. El mayor de estos magnetos tiene una altura de 16 metros y es reciclado del experimento anterior que operaba en el mismo sitio años atrás. Produce un campo de 0.5 teslas que tiene como función doblar la trayectoria de las partículas cargadas para así poder medir la cantidad de movimiento que llevan.
La cámara de proyección temporal de ALICE es la mayor de su tipo en el mundo. Se trata de un cilindro de cinco metros de longitud y cinco metros de diámetro que está lleno de gas y sujeto a un campo eléctrico. Cuando una partícula cargada pasa por el gas, arranca electrones de los átomos que lo forman. La diferencia de potencial al que está sujeto el cilindro entero hace que los electrones liberados se muevan hacia las tapas. En las tapas del cilindro se encuentra un detector de finos alambres que mide la llegada en espacio y en tiempo. Con esta información se puede reconstruir la trayectoria de la partícula que fue ionizando el gas a su paso. Este tipo de detector es la mejor tecnología que existe para definir la trayectoria de las partículas. Lo puede hacer para una gran cantidad de éstas y lo realiza con una gran definición. El detector cuenta con más de medio millón de canales que son leídos de manera independiente. El campo eléctrico que arrastra la carga a las tapas es de 100 000 voltios y está aislado del exterior con un volumen lleno con dióxido de carbono. Para las pruebas, calibración y alineamiento de este detector se usó un dispositivo que le proporciona una señal electrónica cuando rayos cósmicos lo atraviesan. Esta función la realizó el detector diseñado y construido en México. Los primeros eventos observados por la cámara de proyección temporal como el que se muestra en la figura III.9 son de este tipo.
FIGURA III.9. Cámara de proyección temporal. Una partícula (azul) atraviesa el volumen sensible. Al hacerlo ioniza el gas y las cargas producidas son arrastradas por un campo eléctrico hacia las tapas, como indican las flechas rosas. El detector en las tapas reconstruye la trayectoria original (puntos amarillos). Abajo, la cámara de ALICE define la trayectoria de rayos cósmicos por primera vez en 2006. © CERN.
Otro de los detectores de ALICE es el llamado tiempo de vuelo. Un detector de tiempo de vuelo opera como un cronómetro que mide el tiempo que demoran las partículas en llegar hasta él a partir del momento en que son producidas por una colisión. El detector consiste en placas de vidrio sucesivas separadas por un fino hilo de pescar. En estas placas se producen chispas cuando las partículas pasan por él. Al medir el tiempo que las partículas demoran en
llegar desde que se produjeron en el choque de protones, uno puede identificar de qué partículas se trata. Esto es posible gracias a que conocemos la distancia de vuelo, que es fija. Las partículas más pesadas tardarán más en llegar, de tal manera que el detector es sensible a la masa. Éste es, pues, un detector para identificar las diferentes especies de partículas producidas. La identificación de partículas es la especialidad de ALICE. Con la información proporcionada por la cámara de proyección temporal, por el tiempo de vuelo y otros dispositivos, ALICE puede distinguir piones de kaones, protones, electrones y muones en un amplio intervalo de energías.
FIGURA III.10. El detector de tiempo de vuelo funciona como un cronómetro que mide la diferencia de tiempos en la carrera que inicia cuando ocurre una colisión. Las partículas con diferencia de masa mayor se diferencian más en el tiempo que demoran en llegar. © CERN.
FIGURA III.11. Sistema de trayectorias. Abajo se muestra como ejemplo la línea rosa que pasa por varios puntos del sistema. © CERN.
La diferencia de tiempos que toma a dos partículas llegar hasta el detector es proporcional a la diferencia de sus masas. Así, por ejemplo, si la diferencia del tiempo de vuelo es de un nanosegundo (una milmillonésima de segundo), como en el ejemplo que se muestra en la figura III.10, entonces, si las trayectorias tienen el mismo momento, podemos saber que se trata de un protón y un kaon, porque esta diferencia de tiempos corresponde a la diferencia de masas de estas partículas.
Los muones son hermanos pesados del electrón. Se producen en la reacción de protones y de iones y logran atravesar grandes cantidades de material antes de interactuar. Los muones son muy importantes en el estudio que ALICE hace de los choques de iones, pues proporcionan información interesante de lo que ocurre en la sopa de quarks y gluones. Estos muones son medidos en un brazo accesorio de ALICE que se alarga por un lado del detector central. Este brazo está formado por varias etapas de detección inmersas en el campo magnético que produce el dipolo magnético más grande del mundo. Otro de los 16 dispositivos de ALICE es un calorímetro. Los calorímetros miden energía; la manera como el calorímetro de ALICE lo hace es peculiar. El detector parece una cubeta de hielo, pero en realidad es un arreglo de 18 000 cristales tan transparentes como el vidrio pero tan densos como el plomo. Estos cristales tienen la propiedad de centellar cuando los fotones que se producen en la reacción llegan hasta ellos. La luz que producen es útil para medir la temperatura de la fuente que los produjo. Los cristales son, pues, un termómetro de la temperatura de la sopa de quarks y gluones. Los cristales de tungstenato de plomo también son usados por el detector CMS; ahora esta tecnología se aplica para la obtención de imágenes médicas en los hospitales. La región donde los haces interactúan está rodeada de cilindros de silicio. Estos arreglos de delgadas hojas de detectores miden la trayectoria de las partículas que dejan en ellos sus huellas en la forma de puntos a su paso. Los más cercanos al punto de la interacción pueden medir las trayectorias con precisión de 0.1 milímetros, lo que, extrapolado al vértice, es decir, al lugar del choque primario, nos da el lugar con exactitud de micras. Son una especie de cámara fotográfica pero mucho más veloz y con más de 50 millones de canales que son leídos a gran velocidad.
MÉXICO EN ALICE El experimento ALICE debe contar con detectores rápidos que tomen la decisión de si un evento es aceptado o no, es decir, de si el evento será registrado para su posterior análisis o si se le deja pasar. Este tipo de sistema es conocido como sistema de disparo. La frecuencia con que el LHC proporciona colisiones a los experimentos no tiene precedentes en la física experimental de altas energías; esto significa que el sistema de disparo debe ser de una velocidad extraordinaria. El sistema de disparo de ALICE está formado por dos dispositivos que en conjunto constituyen lo que se conoce como detector V0. El sistema cuenta con 25 nanosegundos para tomar la decisión crucial: ¿la interacción debe ser registrada o no por el experimento ALICE? Un nanosegundo representa una mil millonésima de segundo, es decir: 1 nanosegundo = 0.000 000 001 segundos; 25 nanosegundos es el tiempo que tiene V0 para tomar la decisión más importante en cualquier experimento de altas energías. V0 es el “nivel 0” del sistema de disparo. México participó en el diseño y construcción del sistema V0 de ALICE y actualmente lo opera y lo mantiene. La decisión que V0 toma en el experimento ALICE es crítica. Si se cometen errores, por
pequeños que éstos sean, los datos grabados carecerán de sentido y el estudio de los eventos no aportará nada congruente. Por eso el sistema V0 no sólo debe decidir rápidamente, lo debe hacer además sin equivocaciones. El sistema V0 consiste en dos detectores: V0A y V0C. El detector V0A fue diseñado y construido en México; el V0C, en la Universidad de Lyon, Francia. Los detectores son dos discos formados por 32 celdas aisladas de plástico centellador. Estos discos están colocados a uno y otro lado del punto de interacción. La cubierta del detector V0C está hecha de fibra de carbón. La cubierta de V0A es de euro composite, un material que es ligero y rígido. En ambos detectores, la luz que emiten los elementos centelladores es colectada por un conjunto de fibras ópticas que llevan la luz varios metros (V0C) hasta los fototubos multiplicadores que convierten la luz en un pulso eléctrico. Los detectores V0A y V0C funcionan de manera coordinada compartiendo la información a través de una electrónica que es común. Este hecho propició la idea de que los diseños de los detectores fuesen iguales en ambos lados. Las primeras pruebas para el diseño del detector comenzaron en julio de 2001. Consistieron en utilizar un haz de piones de siete gigaelectronvoltios durante casi una semana para probar los diseños propuestos. Este haz de piones es proporcionado por el laboratorio CERN en tiempos especificados. Los resultados de la prueba mostraron que para lograr la resolución temporal deseada sería necesario tener un arreglo que fuera capaz de colectar más luz. La luz se produce en el plástico centellador cuando una partícula lo atraviesa. Los fotones que se generan viajan por el plástico sufriendo múltiples reflexiones hasta que son atrapados por las fibras ópticas, que actúan como trampas que ya no dejan salir a los fotones que han entrado en ellas. Cuantos más fotones se logren atrapar, mejor será la resolución temporal del arreglo. En la prueba de haz de septiembre de 2002, los equipos mexicano y francés llegaron con diseños muy diferentes. El equipo francés decidió colocar las fibras en los costados de la placa de plástico con la idea de lograr una mayor colección de luz. El equipo mexicano llegó con una propuesta de fibras embebidas en el plástico y colocadas en las caras. Un intenso trabajo de simulación por computadora nos daba la razón. Embeber las fibras en el plástico centellador no sólo permite colectar más luz, sino que además nos daría una eficiencia más uniforme en toda la cara de las celdas del detector.
FIGURA III.12. Celda del detector V0A. Cuando una partícula (línea roja) atraviesa al plástico, se genera luz, que es atrapada por las fibras ópticas que la transportan hasta un dispositivo que la convierte en señal eléctrica.
FIGURA III.13. Sistema V0A-V0C. El V0A a la derecha es de mayor diámetro, aunque la perspectiva de la imagen dé la impresión contraria. Los colores de las celdas representan la cantidad de carga recibida, es decir, la cantidad de partículas que han llegado hasta ella. © CERN.
FIGURA III.14. El V0A antes de ser instalado. © CERN.
El equipo francés insistió en su propio diseño y aunque los resultados de la prueba nos daban mejor resolución en tiempos, los franceses consideraron que con sólo colocar más fibras de las que ya tenían en los costados lograrían la resolución requerida por el experimento. En agosto de 2003 se realizó una prueba más con el haz de piones. La propuesta mexicana de embeber las fibras se mantuvo. Un prototipo de dos anillos con un arreglo de fibras en una
cara fue sometido a prueba. La resolución obtenida fue buena y se vio la posibilidad de mejorar aún más colocando fibras en ambas caras de la placa de plástico así como tomando una placa más ancha de 2.5 centímetros de espesor. De tal manera que a la prueba de haz realizada en junio de 2004 se llevó el diseño mexicano de fibras embebidas en ambas caras, y la resolución obtenida, alrededor de 550 a 600 picosegundos, fue casi dos veces mejor que la requerida por el proyecto. Se consideró entonces la posibilidad de que México construyese ambos detectores, pero el equipo francés no aceptó y procedió con la construcción según su diseño. La propuesta fue enviada al comité de revisión del LHC y aceptada en 2005. El detector V0 ha sido el sistema de disparo del experimento desde los inicios de la toma de datos. La primera publicación del experimento y del LHC en su conjunto se hizo con el detector de trayectorias de silicio y el V0 únicamente. Varias de las primeras publicaciones del experimento se realizaron con estos dos detectores, y hasta la fecha no existe una sola publicación del proyecto en que el V0 no haya sido utilizado como sistema de disparo, supresor de ruido y medidor en línea de la luminosidad. Una muestra de la importancia del detector es que las primeras publicaciones del proyecto fueron elaboradas con dos sistemas únicamente, uno de ellos era el sistema V0. Estas publicaciones hicieron portadas en las revistas y son aún las más citadas del proyecto. La publicación más citada del proyecto tiene una extensión de cinco páginas y en ese espacio de texto se menciona 20 veces al sistema V0.
FIGURA III.15. El V0A en posición final. © CERN.
FIGURA III.16. Diseño de una celda de V0 propuesto por el grupo francés.
FIGURA III.17. Diseño de celda de V0 propuesto por el grupo mexicano con fibras embebidas.
Nuestro planeta está siendo constantemente alcanzado por la radiación que procede del espacio exterior. Esta radiación cósmica fue descubierta en 1911 y ha sido estudiada desde entonces. Entendemos mucho de su origen y sus características, pero aún falta mucho por comprender; por ejemplo, cómo es que algunos de estos rayos llegan a tener una energía tan alta. Para los experimentos de altas energías como ALICE, es importante contar con un sistema que sea capaz de advertir la llegada de esta radiación y discriminar sus efectos sobre el detector en su conjunto. El detector de rayos cósmicos de ALICE se denomina A Cosmic Ray Detector (Acorde). Este detector también fue diseñado y construido en México. Consiste en barras de detección con plástico centellador que son leídas con fototubos en ambos extremos. La parte superior del magneto de ALICE está cubierta con 60 módulos construidos de esta forma. Con este detector se llevó a cabo la integración, el alineamiento y la calibración de los demás dispositivos de ALICE, como la cámara de proyección temporal de la que hablamos anteriormente, el sistema de tiempo de vuelo que describimos antes, los detectores de trayectorias internas de silicio que también ya mencionamos, entre otros. Esto es posible por
el hecho de que el detector Acorde se percata de la llegada de la radiación y con gran velocidad instruye a los demás dispositivos de su llegada para que éstos hagan uso de las trayectorias cósmicas y procedan a calibrar su funcionamiento. Con el uso de este detector se han hecho estudios de rayos cósmicos y se han observado eventos excepcionales por el número de partículas que se producen en el chubasco. En la figura III.18 mostramos uno de estos eventos. Un tercer sistema en el que han participado mexicanos, pero que no forma parte de la toma de datos de ALICE, es el de diagnóstico de haz. Este sistema se considera interfaz ALICE-LHC, es decir, se trata de un dispositivo que supervisa la calidad del haz del LHC. Esto lo hace sólo en la región donde está el experimento ALICE, y es importante en el momento de tomar la decisión de cómo operar al detector.
FIGURA III.18. Evento de rayos cósmicos donde el número de partículas cargadas excede con mucho a las 100. Este tipo de eventos no es común. El estudio detallado es de gran interés, aunque el experimento ALICE no está diseñado para este tipo de estudios. © CERN.
El sistema consiste en dos detectores colocados en ambos lados del punto de interacción. Los detectores llamados AD pueden medir, paquete por paquete de protones, el ruido que se produce a su paso. Con ellos se pueden medir los niveles de radiación del haz al mismo tiempo que se determina la luminosidad instantánea otorgada por el acelerador al detector. La luminosidad es un parámetro importante que nos dice cuántas colisiones de un cierto tipo por segundo están ocurriendo en el experimento.
FIGURA III.19. Detector de rayos cósmicos Acorde cubriendo la parte superior del magneto de ALICE. © CERN.
FIGURA III.20. Detector AD, que da un diagnóstico de la calidad del haz del LHC en la región del experimento ALICE.
Estos detectores ofrecen también la posibilidad de ampliar los temas de estudio del proyecto ALICE a temas de física difractiva, área de estudio que podría ser muy relevante en la interacción de protón-protón. La física difractiva se refiere al estudio de eventos donde los protones no interaccionan de manera frontal. La reacción entre éstos se dice que es suave. En este tipo de eventos aparecen algunos fenómenos interesantes para su estudio. De la misma manera, la colisión ultraperiférica de iones de plomo permite estudiar la interacción de campos electromagnéticos de gran intensidad. El sistema está formado por cuatro celdas que son leídas sólo al nivel de control del experimento. El detector se puso en funcionamiento en 2011 y, al mostrar gran eficiencia y capacidad de medición, fue formalmente incorporado en ALICE como sistema de supervisión del haz en 2012. Además de estas contribuciones al experimento en términos de dispositivos de alta tecnología, el grupo mexicano participa en el análisis de datos y ha logrado publicar varios de sus resultados como parte de la colaboración. Varios estudiantes de posgrado han realizado ahí sus tesis. México participa en este proyecto desde 1995; muchos de los que iniciaron sus trabajos de
tesis han terminado y están ahora trabajando en las áreas más variadas. Algunos se desempeñan en la investigación de técnicas de extracción de petróleo, otros han logrado fabricar plástico centellador por primera vez en México, y también hay quien explora la posbilidad de aplicar las técnicas aprendidas a la obtención de imágenes médicas.
1
Peter Galison, How Experiments End, The University of Chicago Press, Chicago, 1987.
2
Ibid., p. 78.
3
Claude Lévi-Strauss, Tristes tropiques, Presses Pocket, París, 2001, p. 113.
4
Claude Bernard, Introducción al estudio de la medicina experimental, Universidad Nacional Autónoma de México, México, 1960, p. 59. 5
Alvin Weinberg, “Impact of Large-Scale Science on the United States”, Science, 134 (3473): 161-164, 1961.
6
Idem.
7
Idem.
8
Génesis, 11: 1-19.
9
Génesis, 11: 2.
IV. Del Higgs y la simetría escondida
SIMETRÍA DEL UNIVERSO Los experimentos y la física teórica al final del siglo pasado y comienzos de éste nos han revelado una profunda verdad: las simetrías en el universo son la esencia de sus leyes. ¿Por qué en el mundo microscópico la simetría es tan importante? No lo sabemos, pero quizá se deba a que la única manera que tenemos de distinguir y percibir a los objetos es viendo como éstos se transforman cuando los miramos desde distintos ángulos. Quizá es que de esta manera podemos hacer que revelen su identidad, y en este proceso acabamos observando las simetrías del objeto y las de su medio. Así, por ejemplo, si queremos describir un cuadrado, la mejor manera de hacerlo, desde un punto de vista muy fundamental, será con la observación del objeto y cómo se altera cuando aplicamos ocho transformaciones de simetría: 1) cuatro rotaciones, que hemos señalado con R0, R1, R2 y R3 en la figura IV.1. La rotación R0 consiste en colocar un alfiler en el centro del cuadrado y rotar en cero grados, R1 será la rotación en 270 grados, R2 nos muestra al cuadrado cuando se ha rotado 180 grados, y finalmente R3 cuando la rotación fue de 90 grados; 2) dos reflexiones, que hemos señalado en la figura con M1 y M2; aquí M1 representa la reflexión que hacemos con un espejo colocado de manera vertical; M2 es aquella que se consigue al hacer una reflexión con espejo horizontal, y 3) dos dobleces diagonales denotados en la figura con D1 a D2. Al colocar un espejo diagonal de esta forma obtenemos el mismo cuadrado. Podemos definir el cuadrado de manera literaria como figura plana cerrada por cuatro líneas rectas iguales que forman cuatro ángulos. De manera matemática la podemos definir como la figura que satisface las transformaciones de simetría que hemos mencionado. En física, el concepto de simetría se utiliza de manera más general, no como operaciones que dejan un objeto con la misma apariencia, sino como manipulaciones que dejan las leyes de
la física invariables. Más aún, la presencia de una simetría en la naturaleza significa una ley de conservación; es decir, algo relacionado con esa simetría se conserva. Así, por ejemplo, del hecho que el espacio es simétrico ante el movimiento de los cuerpos se deriva la conservación del momento o cantidad de movimiento. La ley de conservación de la energía, que es tan importante, está íntimamente ligada a la simetría del espacio-tiempo. Como ésta, existen otras simetrías más en la naturaleza. Que el espacio sea simétrico ante el movimiento de los cuerpos significa que no existe una dirección preferente en el espacio. Para los cuerpos el espacio es el mismo en todas las direcciones. Si al espacio agregamos la simetría de tiempo, lo que se conserva no es sólo la cantidad de movimiento sino además la energía.
FIGURA IV.1. Transformaciones de simetría.
El espacio es simétrico y cuando colocamos materia en él esta simetría no desaparece, pero sí queda oculta, porque la materia introduce modificaciones que la esconden. A menudo las simetrías en la naturaleza aparecen rotas o escondidas. En este capítulo hablaremos del hallazgo largamente esperado alrededor de una simetría escondida.
EL CAMPO DE HIGGS La descripción del mundo que nos proporciona el modelo estándar deja muchas preguntas sin resolver. ¿Las fuerzas que conocemos son diferentes o en realidad sólo la manifestación de una sola fuerza? ¿Por qué existe en el universo sólo materia y la antimateria parece haber desaparecido?, entre muchas otras. Pero de todas las preguntas que uno podría plantear a este modelo, la más desconcertante es, sin duda: ¿por qué las partículas elementales tienen masa y por qué esas masas son diferentes? Es decir, ¿por qué los electrones tienen una masa menor que los muones o los neutrinos? ¿Por qué las partículas que median las interacciones como el Z, el W y el fotón son tan disímiles en cuanto a masa? El fotón no tiene, en absoluto, pero su hermano el bosón Z es extremadamente pesado. Todos sabemos que masa implica resistencia al movimiento y que entre más materia tengamos mayor será la masa, etc.; a pesar de la familiaridad que tenemos con la masa, el mecanismo que la origina ha sido un misterio. Si uno piensa en la masa como una propiedad que tienen las partículas y que les impide alcanzar la velocidad de la luz, es decir, si pensamos la masa como aquello que hace que estas partículas viajen siempre a velocidad menor que la de la luz, entonces uno puede continuar
con la reflexión en el sentido de que quizá existe algo que evita que esta partícula se mueva a la velocidad límite. Este obstáculo del movimiento de partículas con masa puede verse como la interacción de la partícula en cuestión con un campo de fondo, un campo que ni siquiera en el vacío deja de existir. Este campo lo llena todo y es conocido como el campo de Higgs. El problema de la masa, como ya hemos mencionado, está inevitablemente relacionado con la simetría, que, según un principio de invarianza local, debe prevalecer en la descripción del mundo, pero también está estrechamente ligada a la estructura del vacío. El modelo estándar podría dar respuesta al problema de la masa. De acuerdo con él, la materia adquiere masa a través del llamado mecanismo de Higgs. La idea básica de este mecanismo es que el espacio entero —y aun el vacío mismo— está ocupado por un campo similar al gravitacional o al electromagnético. Este campo, al que se ha denominado campo de Higgs, es una especie de éter que todo lo llena, y sin embargo no es éter. La idea fue planteada en los años sesenta por varios físicos de manera simultánea: François Englert y Robert Brout en Bélgica; Gerald Guralnik con Carl Richard Hagen y T. Kibble en los Estados Unidos, y Peter Higgs en Inglaterra. Si bien el nombre de la partícula quedó como Higgs en honor a uno de ellos, el mecanismo se debe a la propuesta de todos, que de manera independiente llegaron a los conceptos del razonamiento matemático. Según Gerard t’ Hooft, la idea fundamental del mecanismo de Higgs es incluir en la teoría un campo extra que tenga la propiedad peculiar de que no desaparece en el vacío. Uno a menudo piensa en el vacío como espacio sin nada, pero en física el vacío es definido de manera más precisa como un estado en el que los campos tienen su nivel de energía más bajo posible. Para la mayoría de los campos la energía se reduce al mínimo cuando el valor del campo es cero en todo sitio, o, en otras palabras, cuando el campo se apaga. El campo de un electrón, por ejemplo, tiene su energía mínima cuando no hay electrones. El campo de Higgs es inusual en este respecto. Reducirlo a cero tiene un costo en energía; la energía del campo es menor cuando su valor es uniforme y diferente de cero.1
La diferencia del campo de Higgs con los campos gravitacional o electromagnético que nos son más familiares es que no tiene una dirección determinada. El campo gravitacional al que estamos acostumbrados se manifiesta siempre en dirección al centro de la Tierra. Gracias a eso permanecemos fijos a la superficie del planeta independientemente de la latitud y la longitud en que nos encontremos. Como ya vimos antes, a los campos con dirección se les denomina campos vectoriales, y al campo de Higgs que no posee una dirección se le llama campo escalar. El campo de Higgs interactúa con todas las partículas que viven inmersas en él y les proporciona una masa, es decir, una cierta resistencia al movimiento. ¿Cómo un campo puede evitar que las partículas se muevan a la velocidad de la luz? Se dice que en 1993 el ministro de Ciencia y Tecnología del Reino Unido, William Wildegrave, al notar que se estaba gastando mucho dinero en la búsqueda del Higgs, desafió a los físicos británicos para que le explicaran en una página de texto lo que es este bosón. A quien ganara con la mejor explicación le ofreció una botella de champán diciendo: “Aún no he decidido si financiaremos los experimentos propuestos para buscar el bosón de Higgs, pero prometo financiar una botella de champán a quien logre explicarme qué es”.2 El ganador, David J. Miller, físico de la University College de Londres, fue quien ofreció
la explicación ganadora, primero para el mecanismo de Higgs y luego para el bosón de Higgs. En ella se lee: 1) El mecanismo de Higgs: Imagine una fiesta cocktail de un partido político de trabajadores quienes están distribuidos en el salón de manera uniforme platicando con sus vecinos más próximos. El primer ministro entra y cruza el salón. Todos los trabajadores cerca del ministro se agrupan a su derredor. Conforme el ministro avanza atrae a la gente más cercana del lugar por donde pasa mientras que aquellos que quedan atrás regresan a sus posiciones originales. Debido al grupo de gente que se agrupa alrededor del ministro éste adquiere una masa mayor de la normal, es decir, adquiere una resistencia al movimiento. En tres dimensiones y con las complicaciones de la teoría de la relatividad esto es el mecanismo de Higgs. Para dar masa a las partículas se inventó un campo de fondo que se deforma localmente cuando una partícula pasa a través de él. La distorsión, es decir, la agrupación del campo alrededor de la partícula, genera su masa. Necesitamos este campo porque de otra manera no podremos explicar por qué las partículas W y Z, que median la interacción débil, son tan pesadas, mientras que el fotón que media la interacción electromagnética no tiene masa alguna.3 2) El bosón de Higgs: Ahora considere que un rumor cruza la sala de trabajadores uniformemente distribuidos. Los más cercanos a la puerta de entrada lo escuchan primero y se agrupan para escuchar los detalles. Luego se mueven a sus vecinos más próximos, quienes quieren saber de qué se trata el rumor. Una onda de agrupamientos corre por la sala para alcanzar todos los rincones o puede formar sólo un paquete compacto que lleva las novedades a lo largo de la línea de trabajadores hasta el otro extremo donde probablemente esté un dignatario. Ya que la información es llevada por el agrupamiento de trabajadores y, dado que el agrupamiento es lo que dio masa a las partículas, el agrupamiento que lleva al rumor mismo tiene masa. El bosón de Higgs es justamente este agrupamiento en el campo de Higgs. Nos parecería más creíble que el campo exista y que el mecanismo que le da masa a las partículas es el descrito, si podemos ver al Higgs mismo.4
El parámetro que regula la velocidad a la que se mueve una partícula es su masa. Si ésta es cero, la partícula se moverá a la velocidad de la luz; si es diferente de cero, se moverá más lentamente. Uno puede ver la influencia del Higgs sobre la velocidad de las partículas que interactúan con él como el acto en el que el Higgs les otorga una masa a las partículas que originalmente no la tenían.
FIGURA IV.2. Arriba a la izquierda se muestra un campo escalar. En cada punto del espacio se tiene un valor asignado que representamos aquí con el diámetro de los círculos. La interacción de las partículas con el fondo les da resistencia al movimiento. A esta resistencia le llamamos masa.
FIGURA IV.3. Arriba a la izquierda, una pequeña perturbación del mismo campo que viaja como un grumo. Este paquete formado por el mismo campo escalar es el Higgs.
Nosotros vemos al Sol y la Luna a través del campo de Higgs. Partículas como los fotones, que no tienen masa, no interactúan con el campo de Higgs. Electrones, protones, etc., a los que el Higgs les otorga masa, viajan a una velocidad menor que la luz. Esto no quiere decir que sean frenados en el campo; la velocidad en un campo hipotéticamente vacío es constante, como lo es en un campo de Higgs. Uno no puede sólo entender que las partículas adquieran masa, sino además cuánta adquieren. Podremos entender, por ejemplo, que las partículas W y Z sean 20 000 veces más masivas que el electrón. En el modelo estándar, a cada campo está asociada una partícula. Así por ejemplo el campo electromagnético que hace posible la transmisión de radio y televisión tiene asociado al fotón. Es como si el campo fuera una sábana que todo lo llena y en la que una pequeña arruga se manifiesta a nuestros sentidos como una partícula. El campo de Higgs debe tener una partícula asociada a la que se conoce como Higgs, misma que ya ha sido observada. De acuerdo con lo expuesto anteriormente, la existencia de esta partícula corrobora el mecanismo que da masa a la materia, y que es una piedra angular
del sistema de conocimientos actual.
EL HIGGS, DESCUBRIMIENTO DEL SIGLO En julio de 2012 los dos experimentos del Gran Colisionador de Hadrones (LHC, por sus siglas en inglés) —A Toroidal LHC Apparatus (Atlas) y Compact Muon Solenoid (CMS)— mostraron al mundo los eventos donde esta elusiva porción de realidad hace acto de presencia. Ahora sabemos que el largamente buscado Higgs tiene una masa de aproximadamente 125 gigaelectronvoltios; es decir, el Higgs es más pesado que un átomo de plata, y aun así muy ligero para los propósitos y esperanzas de nuevas ideas en la física de partículas. Un momento tan significativo como el descubrimiento del Higgs merece recordar algo de lo que nos tocó vivir alrededor de su búsqueda. Hace algunos años experimentos del acelerador Large Electron Positron Collider (LEP ) en el CERN observaron eventos que podrían ser el resultado de la presencia del Higgs. En aquel momento el número de eventos no fue suficiente para concluir su existencia, y en 2000 el laboratorio decidió terminar el proyecto para dar paso a lo que es hoy el LHC. Los experimentos del acelerador LEP pusieron un límite bajo para la masa del Higgs, a saber, 114 gigaelectronvoltios, y se quedaron con algunos eventos en la mano, en los que un posible Higgs tendría una masa de aproximadamente 115 gigaelectronvoltios. Estos pocos eventos podrían ser los primeros donde el Higgs se reveló ante la mirada de los físicos, pero podrían también no serlo. Tener algunos eventos como éstos y ver el cierre del proyecto no es cosa fácil para físicos que trabajaron por muchos años en él. Tampoco lo fue para el director del CERN, Luciano Maiani, quien tomó la decisión de detener el LEP para poder iniciar la construcción del LHC. Lo más probable ante esa decisión era que el Higgs sería un descubrimiento estadunidense con el Tevatron funcionando en el Fermilab cerca de Chicago, Illinois. Después de todo, si los eventos tenían la masa de 115 gigaelectronvoltios como parecía ser, el Tevatron lograría acumular suficientes eventos con Higgs como para anunciar el descubrimiento y luego sentarse a esperar una llamada telefónica de Estocolmo. En todo caso, LEP se retiraba de la carrera por el descubrimiento y lo hacía de la peor manera: con algunos eventos que no lograron convencer a la comunidad de dar más tiempo al acelerador. LEP es el acelerador del CERN que antecedió al LHC. El LEP había iniciado sus actividades en julio de 1989. En aquel verano se pusieron en circulación por primera vez los haces de electrones y antielectrones en el túnel que ahora alberga al LHC. En su momento, la construcción del complejo representó un gran esfuerzo que incluyó la excavación del túnel que albergaría la máquina y que hoy contiene al LHC. La obra civil comenzó en 1983 con la presencia de François Miterrand, primer ministro de Francia, y Pierre Aubert, de Suiza. En febrero de 1988 la excavación del túnel terminó con la unión de los extremos con sólo un centímetro de error. Durante su vida el acelerador fue mejorado en varias ocasiones y, cuando llegó al final de su carrera, conseguía más del doble de la energía
que tenía al inicio de sus actividades. Pero el final llegó porque había un proyecto esperando el espacio en el mismo túnel. Para septiembre de 1999, los ingenieros de LEP presentaron un plan a la Dirección General del laboratorio en el que reducían el número de electrones en el haz con tal de aumentar la energía. Para la búsqueda del Higgs la energía era más relevante que el número de colisiones, así que ésta era una estrategia inteligente. El plan fue aprobado y la vida del proyecto se extendió un año más. Los ingenieros decidieron llevar las cavidades resonantes del acelerador más allá de su límite nominal y mantuvieron el funcionamiento extremo por todo el último mes de ese año. La idea de fondo era que, de cualquier manera, el proyecto terminaría; el riesgo de falla no importaba, no había nada que perder: “Go for broke!” [¡A romper la máquina!] Sus días estaban contados y las primeras señales de un Higgs difícil comenzaron a despertar actos heroicos. Los encargados del acelerador cancelaron todas las paradas técnicas y procedieron a subir la energía al máximo durante el año 2000. Las cavidades fueron llevadas aún más lejos en su operación para que el acelerador, que producía colisiones de electrones contra positrones a 200 gigaelectronvoltios, lo hiciera a 209 gigaelectronvoltios. De esta manera se daba a los experimentos la oportunidad de explorar territorio desconocido antes de terminar su vida a finales del año 2000. Los eventos que hubiesen dado más vida al acelerador no llegaron. L3 tenía un buen candidato, Apparatus for LEP Physics (Aleph) tenía varios, pero Omni Purpose Apparatus for LEP (OPAL) y Detector with Lepton, Photon and Hadron Identification (Delphi) no tenían alguno. El acelerador LEP fue una máquina grandiosa donde la fineza alcanzó niveles insospechados. Aquí por primera vez se pudieron ver los efectos que tenía en el acelerador el movimiento de la Luna, los efectos del nivel de agua que tenía el lago Ginebra y los leves cambios de una lluvia fuerte en las cercanías del laboratorio que, como el LHC, se encontraba a más de 100 metros por debajo del nivel del suelo. Todos estos fenómenos naturales ocasionaban movimientos en las rocas que hacían cambiar la energía del haz de manera muy ligera pero perceptible a los sensibles instrumentos de la máquina.
FIGURA IV.4. Mapa de la región cercana al laboratorio donde se aprecian el lago Ginebra y las vías del tren. La distancia entre la estación de trenes de Ginebra (en el mapa, Cornavin) y el CERN (en el mapa, CERN Meyrin) es de más de ocho kilómetros. © CERN.
Uno de los efectos que resultan espectaculares por la sensibilidad que involucra es el que se muestra en la gráfica IV.1. Las vías del tren que salen de la estación Cornavin en Ginebra se desplazan en dirección a París pasando por Meyrin. Los instrumentos del acelerador daban cuenta exacta, como se muestra en la gráfica, de la salida del tren a París de las 16:50 horas. El voltaje en las vías del tren generaban, aun a gran distancia, cambios que son reproducidos a la perfección por las variaciones en las cámaras de vacío y en los magnetos del acelerador.
GRÁFICA IV.1. Cambios de voltaje y corriente en el tren Ginebra-París (© CERN)
NOTA: La gráfica muestra, arriba, el cambio en el voltaje que se da en las vías del tren cuando el ferrocarril sale de la estación de Ginebra rumbo a París. El Train à Grande Vitesse (TGV) sale a las 16:50 horas. En las gráficas de abajo los físicos observan los cambios en la corriente de las cámaras de vacío del acelerador, así como las del campo magnético, el 13 de noviembre de 1995.
Tan sólo un mes después de su entrada en funcionamiento, LEP registró la primera partícula Z, que, como vimos, es el hermano masivo del fotón sin masa. A finales de ese mismo año los experimentos del acelerador LEP : Aleph, Delphi, L3 y OPAL, mostraron al mundo que sus mediciones les permitían decir que la materia se forma a partir de tres familias de partículas, como hemos visto anteriormente. ¿Por qué sólo tres? ¿Por qué no más? ¿Por qué no sólo una? Es aún un misterio de la naturaleza que espera ser resuelto. LEP estableció tres como algo más profundo de la teoría que subyace al modelo.
Para los que vimos el final de LEP , lo más memorable serán siempre las apasionadas discusiones sobre los más polémicos eventos del proyecto. Los controvertidos eventos de LEP parecían indicar que el Higgs apareció por un momento muy breve para dejar en los detectores los productos de su decaimiento. A la energía que operaba el acelerador, los eventos que podrían dar origen al Higgs son aquellos en que el electrón interacciona con el positrón para dar origen a un bosón Z. El bosón Z pudo haber emitido un Higgs y luego decaer en dos quarks que más tarde se fragmentaron produciendo dos de los chorros de partículas que se observan en el detector y que son claramente visibles en la figura IV.5. El Higgs, a su vez, pudo haber decaído en dos quarks, que a su vez producen otros dos chorros de partículas también visibles. Según los cálculos, en 70% de los casos en que el Higgs aparece debe ocurrir este proceso. En el diagrama de la figura IV.5 mostramos este proceso; enseguida se muestran las partes del detector y las trayectorias de las partículas tal y como son medidas. En 20% de las veces, el bosón Z podría decaer en dos neutrinos que pasan sin ser detectados, mientras que el Higgs decae en dos quarks que aparecen ante el detector como chorros de partículas. En 7% de los casos el bosón Z decae en un par electrón-positrón o uno muon-antimuón. El evento de L3 es uno de estos casos. El experimento L3 tenía eventos como el que se muestra en la figura IV.6. El grupo del experimento Aleph estaba coordinado por Sau Lan Wu, quien años antes participó en el descubrimiento del gluon en el laboratorio Desy en Hamburgo, Alemania. Sau Lan Wu es una mujer extraordinaria con la que un grupo de mexicanos ha tenido el privilegio de trabajar en sus tesis doctorales y en posdoctorados. En aquel entonces, junto con su grupo encontró la manera de ver en tiempo real los eventos al momento en que eran medidos.
FIGURA IV.5. Diagrama del proceso más probable en la producción y decaimiento del Higgs si éste tiene una masa pequeña. Al aniquilarse el electrón y el positrón se produce un bosón Z que emite un Higgs antes de producir dos quarks. Ambos, el Higgs y el Z, podrían ser observados como dos chorros de partículas que son el resultado de la fragmentación del par de quarks en los que decayeron. LEP había gastado un año de extensión y no veía más eventos. Los físicos pidieron un mes
más y lo recibieron, pero los eventos no aparecieron. CERN es un lugar donde se encuentran las personalidades fuertes y los más coloridos temperamentos. El director general no escapó de las críticas, pero no desistió y en octubre de 2000 distinguidos invitados se reunieron para celebrar el final de LEP y sus 11 años de funcionamiento. Dos meses más tarde los ingenieros comenzaron a desmantelar la máquina para dejar el espacio libre al LHC.
FIGURA IV.6. Diagrama del proceso que llevó a la colaboración L3 a pensar que había observado al Higgs. Al aniquilarse el electrón y el positrón producen un bosón Z que emite un Higgs. El Higss produce dos quarks, mientras que el bosón Z produce un par electrón positrón que son observados por el calorímetro del detector.
FIGURA IV.7. Arreglo de aceleradores de la Organización Europea para la Investigación Nuclear. El anillo más grande representa al acelerador Large Electron Positron Collider (LEP). En él se encontraban los experimentos Aleph y L3 que observaron los controvertidos eventos donde el fantsma de un Higgs apareció. © CERN.
Como última acción de protesta por la finalización del proyecto, Aleph hizo tarjetas navideñas con los eventos de Higgs que el experimento había observado y los envió a sus colegas de todo el mundo. La posibilidad de descubrir la piedra angular del modelo estándar quedó así en las manos de las colaboraciones D0 y Collider Detector at Fermilab (CDF) del laboratorio nacional Fermilab. El acelerador de Fermilab tomó datos desde marzo de 2001 y esperó que, en caso de que el Higgs tuviese la masa que los eventos de LEP parecían tener, después de cinco años, Fermilab tendría alrededor de 3 000 eventos con el Higgs presente, cantidad suficiente para hacer el descubrimiento. Sin embargo, esto no fue así. El LHC llegó nueve años más tarde y el Higgs ha esperado pacientemente su llegada, como si el elusivo bosón hubiese elegido ese túnel y esas cavernas excavadas en el valle, que se forma entre los montes Jura y los Alpes suizos, para mostrarse al mundo. El Tevatron en Fermilab nunca consiguió observar las huellas del Higgs ni recibió la llamada de Estocolmo; con esto como motivo, jamás llegó a los Estados Unidos.
En el LHC existen dos experimentos dedicados a la búsqueda del Higgs. Estos experimentos son CMS y Atlas. El CMS debe su nombre justamente a la estructura, que consiste en un arreglo de varios detectores alrededor de un embobinado cilíndrico superconductor que genera un campo magnético de cuatro teslas. El detector, con 21 metros de largo, 15 de ancho y 15 de altura, pesa 12 500 toneladas. El experimento Atlas es el más grande de los detectores del LHC. Con más de 4 000 colaboradores, el experimento Atlas tiene la colaboración más numerosa. Atlas lleva en su nombre la característica principal del detector, que consiste en dos embobinados superconductores que producen el campo magnético que dobla la trayectoria de las partículas para medir su carga y la cantidad de movimiento que llevan. En el LHC los mecanismos de producción del Higgs son diferentes de aquellos que veíamos en la colisión de electrones y positrones que producía LEP . Las partículas que colisionan son protones que, como hemos visto, están hechos de quarks y gluones. Los gluones no se acoplan al Higgs de manera directa, pero sí pueden producir un quark top virtual que se acopla al Higgs, como se muestra en la figura IV.8. El proceso que podría ser más frecuente es aquel donde dos gluones se juntan produciendo un par de quarks top que se aniquilan produciendo un Higgs.
FIGURA IV.8. Producción y decaimiento del Higgs en el Gran Colisionador de Hadrones.
En un siguiente paso el Higgs decae y los productos de su decaimiento son los que serán vistos en el detector. Uno de los modos probables de decaimiento es en dos fotones, como lo ilustra el diagrama. El Higgs decae muy rápidamente, sólo vive un zeptosegundo, esto es, 10−21 segundos o, dicho en palabras, un punto seguido por 20 ceros y luego un uno. En este tiempo tan corto sólo alcanza a viajar un fermi, es decir, 10−15 metros o, lo que es lo mismo, 0.000000000001 milímetros. Ésta es una distancia tan corta que corresponde al tamaño de un protón. En estas circunstancias no se le puede observar de manera directa, sino a través de sus productos de decaimiento. En el caso en que este producto resulte en fotones, es decir, luz,
éstos serán vistos en una parte del detector llamada calorímetro electromagnético. Ahí los fotones son absorbidos y toda su energía se convierte en un impulso eléctrico que lleva información sobre estos fotones, que a su vez llevan información del Higgs que los originó. Otro “canal” posible es mostrado en la figura IV.10, donde se puede ver el mismo proceso de producción del Higgs, pero un diferente modo de decaer. La foto muestra cómo será visto este “canal” en la pantalla de la computadora de los físicos que lo buscan en el experimento Atlas. En este caso el Higgs decae no en dos fotones como arriba, sino en dos Z, que como hemos dicho anteriormente, es un hermano del fotón. El Z decae en un par de muon y antimuón. Si ambos Z decaen de esta manera, entonces tendremos cuatro muones que son identificables en el detector con cierta facilidad. Los muones son penetrantes y pasan por todas las estructuras del detector para llegar hasta las cámaras de muones que se encuentran en la parte más alejada. Ahí dejan una señal muy clara, pues hasta ese punto sólo llegan ellos. Todas las demás partículas son absorbidas en el camino. En la parte superior izquierda del evento de Atlas que se mostró el 4 de julio de 2012 se puede apreciar una enorme dificultad técnica que fue sorteada gracias a la habilidad de los especialistas en cómputo. Lo que se puede ver es una gran cantidad de vértices de eventos que se han apilado en lo que el experimento registra de manera simultánea. De uno de estos eventos surge el Higgs, que decae en cuatro muones (cuatro líneas rojas). Es necesario reconstruir no sólo ese evento, sino también todos los eventos apilados que, en algunas ocasiones, llegan a ser hasta 30 juntos. Mientras se escribía esta sección, el CERN discutía la posibilidad de unir los datos de los experimentos con el fin de alcanzar un efecto estadístico de cinco desviaciones estándar que le permitiese anunciar un descubrimiento. Finalmente, el anuncio se hizo con un efecto de cinco desviaciones estándar por cada uno de los experimentos sin la necesidad de unir las muestras.
FIGURA IV.9. Evento simulado por computadora de un Higgs visto por el experimento CMS con dos fotones. Los fotones depositan toda su energía en un calorímetro que dibuja barras tan largas como el tamaño de la energía que fue depositada. © CERN.
El CERN dio una conferencia de prensa el 4 de julio de 2012 a las nueve horas para anunciar los resultados recientes en la búsqueda del Higgs. Esto en preparación para las presentaciones que las colaboraciones harían en las conferencias de verano.
FIGURA IV.10. Choque de dos protones visto por el detector Atlas del Gran Colisionador de Hadrones en el CERN. En este evento se pueden identificar cuatro muones que son consistentes con el decaimiento de dos bosones Z en dos muones cada uno. © CERN.
FIGURA IV.11. Diagrama que muestra los fenómenos que llevan a la aparición de cuatro muones en la interacción de protón-protón a la energía del Gran Colisionador de Hadrones.
Cuando los físicos observan un efecto en la distribución estadística de sus eventos lo llaman evidencia, si la desviación estándar es de tres sigmas. ¿Qué es esto de sigma? Todas las mediciones se distribuyen en una curva que eventualmente tendría la forma de una campana. La campana tiene entonces una anchura, y esa anchura está dada por la desviación estándar a la que se designa con la letra sigma: σ. Así, por ejemplo, uno observa después de medir a muchas personas que en promedio los mexicanos miden 1.72 metros. El promedio es donde se ubica el pico de la distribución. Algunos medirán menos, otros más, pero la mayoría se agrupa alrededor de 1.72 metros. Si la distribución tiene una anchura de ocho centímetros, entonces alguien que mida 1.64 metros está a un sigma de la media. Estar a un sigma de la media no está mal. Si encontramos a alguien que mide 1.96 metros, diremos que está a tres sigmas, y esto es claramente una desviación grande. Cualquier persona que mida más que esto se separa de la media en más de tres sigmas, y resulta a todos claro que el efecto es una desviación notable. Los físicos de partículas elementales dicen que tienen un descubrimiento cuando su efecto está a cinco sigmas de lo esperado. Sin embargo, ambos experimentos llegaron a cinco sigmas de desviación, juntando los canales donde el Higgs decae en dos fotones y aquellos donde decae en cuatro leptones. Al unir las muestras el efecto es claro. Atlas y CMS mostraron lo necesario para anunciar públicamente que tienen un descubrimiento. Con los eventos analizados, los experimentos determinaron una masa de entre 125 y 126 gigaelectronvoltios.
FIGURA IV.12. Los leptones tau que aparecen en el decaimiento del Higgs pueden decaer en alguna de las maneras que se muestran aquí.
Los canales o modos de decaimiento más significativos son los que se comentan arriba, en los que el Higgs produce dos fotones o cuatro muones en el estado final. Sin embargo, éstas no son ni con mucho las únicas posibilidades.
FIGURA IV.13. Uno de los eventos que fueron mostrados en la presentación del día 4 de julio. Lo que se puede ver es una gran cantidad de vértices de eventos que se han apilado en lo que el experimento registra de manera simultánea. De uno de éstos surge el Higgs que decae en cuatro muones (cuatro líneas rojas). © CERN.
En el caso del decaimiento del leptón tau (τ), éste puede resultar de manera subsiguiente como se muestra en la figura IV.12. En el evento observado en Atlas uno de los leptones tau elige ir a un muon con un neutrino que no es visto en el detector. El otro lo hace en quarks, probablemente ῡ y d, que se fragmentan produciendo jets o chorros de partículas que dejan su huella en el detector. La pregunta obligada en este momento es: ¿qué sigue? Ahora que tenemos al Higgs, ¿qué más queremos saber de él? En la presentación del descubrimiento que se llevó a cabo en el CERN, estuvieron presentes cuatro de los seis proponentes teóricos del mecanismo de Higgs. François Englert fue quien planteó la pregunta “¿cuándo nos podrán decir si el objeto que observan, y que parece ser un Higgs, es la manifestación de un campo escalar?” La respuesta es difícil, pues para determinar esta característica es necesario contar con un número grande de eventos. La frecuencia con que el Higgs aparece no es muy alta, así que tendrían que pasar varios años antes de que tengamos una muestra suficientemente grande de eventos donde el Higgs aparece en un decaimiento particular para hacer el estudio que nos diga si el campo es efectivamente un campo escalar y no de otro tipo. En pocas palabras, ahora debemos saber con certeza si lo que observamos es realmente el Higgs que esperamos. Hay una serie de
mediciones que poco a poco nos dirán más sobre esta partícula y su manera de interaccionar con las otras. GRÁFICA IV.2. Porcentajes en que decae el Higgs de 125 GeV
NOTA: En términos generales, con una masa del Higgs de 125 GeV, los porcentajes en que éste decae en diferentes modos son como se muestra. En casi 60% de las veces el Higgs va a dos quarks b.
ALICE Y EL HIGGS A Large Ion Collider Experiment (ALICE) no es un experimento planeado para detectar al Higgs. Como hemos visto, ALICE fue diseñado para observar la colisión de iones pesados y estudiar ahí a la materia en condiciones extremas de presión, temperatura y densidad. Pero, ¿qué puede hacer ALICE con respecto al Higgs? ALICE puede estudiar el mecanismo con que el Higgs se produce en la colisión de protónprotón y, en particular, puede ver un proceso de producción donde los protones no se llegan a tocar. Más aún, puede echar un vistazo al proceso de producción del Higgs no sólo en protónprotón, sino además en el roce de iones pesados donde éstos pasan de lado. A estas colisiones se las conoce como ultraperiféricas, precisamente porque los iones sólo pasan cerca rozando el uno al otro sin llegar a chocar. Esta manera de producir el Higgs es muy interesante porque
ofrece una manera excepcionalmente limpia de verlo. Tan limpia que sólo aparece el Higgs en el detector. ¿Cómo puede ocurrir que dos partículas pasen de lado sin tocarse y aun así produzcan, al cruzarse, una interacción que genera partículas? Esto es posible por el hecho de que los protones y los iones no son en realidad entes perfectamente limitados en el espacio. Más bien éstos llevan consigo una nube de fotones y gluones que los acompañan. Cuando dos de ellos pasan cerca existe la posibilidad de que alguno de los fotones o de los gluones que lo visten choque produciendo otras partículas. Es posible que el Higgs se produzca cuando dos gluones que acompañan a los protones incidentes se fusionen. Estos gluones se funden produciendo quarks que, sin demora, producen un Higgs. Lo que ALICE puede hacer es evaluar la posibilidad de este mecanismo en la producción de otras partículas que sí pueden ser vistas de manera muy eficiente con el detector. Al hacerlo no se observará el Higgs, pero sí el proceso idéntico que lo produce. El estudio de estos procesos es muy importante y de gran interés a la hora de entender la mecánica detrás de la aparición del Higgs. Este estudio es realizado por un grupo de mexicanos que ha estado involucrado desde hace tiempo analizando los datos de ALICE. El diagrama que describe al proceso microscópico se muestra en la figura IV.14. Uno puede ver que al final sólo quedan dos protones que siguen de manera tangencial sin ser vistos en el detector. Puesto que la reacción es muy suave, éstos no cambian mucho la dirección de vuelo y siguen casi por donde venían con apenas una leve dispersión que los sacará de su trayecto a decenas de metros de ahí. El Higgs aparece así, limpio, en un evento dorado para el estudio de sus propiedades. Los protones al quedar intactos no llevan color. Los bariones y los mesones no tienen color, porque los quarks que los componen suman su color de manera tal que éste se anula en la totalidad. Cuando los protones intercambian gluones, que sí llevan carga de color, dejan al protón con color, es decir, en la emisión de, por ejemplo, un gluon azul-rojo, el protón ya no quedaría blanco. La única forma en que el proceso que describimos ocurriría es que otro gluon rápidamente compense el cambio de color en el protón para que éste siga siendo blanco. Tener tres gluones en el juego es necesario, pero reduce la probabilidad de que todo el proceso tenga lugar. Eventos de este tipo existen y son bellísimos, como el lector puede apreciar en las figuras IV.16 y IV.17, donde mostramos un ejemplo. Al verlo hay que tomar en cuenta que los eventos usuales se ven como en la primera imagen de este libro. En cada uno de ellos aparecen centenas de trayectorias. Ahora tenemos aquí un evento en el que no aparece nada más que las dos trayectorias. El detector queda completamente libre de toda actividad adicional. Con eventos como éste se valida la posibilidad de que en el estado final de la reacción aparezca eventualmente un Higgs de manera tan limpia como se ve aquí el mesón. Un Higgs limpio, sin nada más en el detector, será muy importante porque permitirá medir su masa de una manera más precisa a como se hará en los procesos normales de colisiones.
FIGURA IV.14. Interacción difractiva en la que los protones no se tocan y siguen siendo protones después de la reacción. En el proceso, un intercambio de gluones permite la producción de un mesón de una manera idéntica a como se produce un Higgs.
La reacción de por sí es sorprendente porque el mesón parece surgir de la nada. Este tema tan atractivo y de importancia para el estudio del Higgs se hace en ALICE y está a cargo de un grupo de mexicanos. Este tipo de eventos no será el que nos lleve a descubrirlo, pero sí a entenderlo. Las colaboraciones Atlas y CMS tienen un programa muy ambicioso para el estudio de física difractiva porque, como se puede ver, tienen un gran potencial.
EL HIGGS Y EL UNIVERSO LÍQUIDO El vacío que confina a los quarks en mesones y bariones contribuye con la mayor parte de la masa que nos rodea como materia ordinaria. La presión que el vacío ejerce sobre los quarks para que éstos se queden atrapados como partículas “libres” dentro de los hadrones es lo que les da masa y es al fin lo que da masa a los protones y neutrones, que a su vez dan masa a los átomos que nos forman y forman nuestro planeta, hecho de elementos pesados. Sólo los quarks que son más pesados y, por eso, más inestables se conectan de manera más significativa al campo de Higgs para adquirir masa.
FIGURA IV.15. Un mecanismo de producción posible es el que se muestra en el diagrama donde dos gluones provenientes de los iones —o de los protones— se funden para dar origen a un Higgs. De ser así, el Higgs se producirá limpiamente, sin más productos de la reacción. Los protones o iones se van, literalmente, por el tubo, sin dejar rastros en el detector.
FIGURA IV.16. Evento real de la colisión de dos iones de plomo en la corrida de 2010 como es visto por el experimento ALICE. En el detector no hay más actividad que la debida al decaimiento del mesón J/Psi en dos muones que pueden ser vistos en el brazo de muones del detector. © CERN.
FIGURA IV.17. Evento real donde la actividad en el detector ALICE se limita a la de dos muones que son observados en el brazo formado por detectores de muones. El detector V0A es el disco que se observa a la izquierda; da la información de actividad cero en contraposición con la señal de actividad del V0C en el lado opuesto. El detector mexicano es tan esencial para éste como para casi toda la física de ALICE. © CERN.
Los electrones viajan por el espacio con una velocidad menor a la de la luz porque tienen masa. Esta masa la adquieren al interactuar con el campo de Higgs, que lo llena todo. A pesar de su conexión con el campo de Higgs, los electrones viajan por él sin ser frenados. Si fuesen frenados, los electrones radiarían y perderían energía, pero esto no ocurre. Las partículas viajan sin experimentar una fuerza externa. Una manera de entender esto es pensando que la velocidad de las partículas está determinada por la energía que tienen. Como el Higgs es el estado de vacío de más baja energía, no es posible transferirle energía ni tomar de él. Tampoco es posible determinar la velocidad de una partícula con respecto al campo de Higgs. En términos más técnicos, eso significa que el Higgs es un vacío relativista y que no es lo mismo que el éter que fue desechado a finales del siglo XIX. El Higgs llena el vacío sólo a temperaturas suficientemente bajas, es decir, a temperaturas menores a 1017 grados. Esto significa que en el universo temprano, cuando apenas había pasado una billonésima de segundo después de la Gran Explosión, el Higgs no estaba presente. Hubo que esperar a que el universo se enfriase un poco para que el campo de Higgs apareciese dando masa a las partículas. Actualmente pensamos que así como el vapor de agua se condensa en agua líquida cuando la temperatura desciende, de manera similar creemos que el campo de Higgs se condensó en un valor que es diferente de cero en todo el espacio. Esto es la formación de un océano de Higgs. La formación de este océano de Higgs se describe como una transición de fase cosmológica similar a la condensación del vapor en agua en la que dos cosas ocurren: hay un
cambio significativo en la apariencia y hay una reducción de la simetría. Con la formación del campo de Higgs, las partículas que no tenían masa la adquirieron de manera repentina. Desde ese momento y hasta ahora las vemos como objetos que se resisten al movimiento como consecuencia de su interacción con el campo de Higgs. Pero además, las partículas han adquirido masa de manera desigual. Algunas son más pesadas que otras. Antes de la condensación del campo de Higgs todas tenían masa cero y uno podía intercambiarlas de manera indistinta en cuanto a su masa sin percibir un cambio en el universo temprano. Éste era muy simétrico en este sentido. Con el advenimiento del océano de Higgs esta simetría desapareció. Más aún, la simetría de este universo temprano era más profunda y más extensa, pues cuando la temperatura era tan alta que el campo de Higgs aún no se condensaba, no sólo todas las partículas que formaban el universo temprano carecían de masa, sino que además las partículas portadoras de las fuerzas también carecían de masa. Los bosones W y Z tienen una masa que es 80 y 90 veces la masa del protón. La ausencia de masa que estas partículas experimentaron en el universo temprano está acompañada de una simetría aún más bella y profunda. Cuando el universo tenía una temperatura de 1038 grados Celsius, lo que hoy conocemos como tres fuerzas separadas: electromagnética, débil y fuerte, eran en realidad sólo una. Esto quiere decir que a esta temperatura los fotones, los gluones y las partículas W y Z que median estas interacciones tenían todos masa cero y podían ser intercambiadas unos con otros sin mayor consecuencia. El universo era completamente simétrico. Si ahora no vemos esta simetría es porque cuando el universo se enfrió, el campo de Higgs se condensó y esta transición de fase ocasionó una reducción en la simetría del cosmos. La separación de la fuerza débil de la electromagnética ha sido corroborada de manera experimental. Cuando el universo atravesaba el periodo de mayor actividad en toda su historia, el Higgs estaba ahí como parte del fluido primigenio. En la creación de materia se forjaron muchas partículas. Algunas de éstas no existen en la actualidad. La temperatura descendió rápidamente por debajo de lo necesario para que se formaran en mayor cantidad, y las que llegaron a existir desaparecieron, víctimas de su propia inestabilidad. La idea de Higgs es, pues, fundamental. Forma parte del origen del universo. La observación significa de manera muy concreta que fenómenos que hoy parecen distintos, independientes uno de otro, en realidad son el resultado de un pasado remoto en el que eran una misma cosa, aspectos de una sola simetría universal. Establecerá también que nuestra idea de vacío como la nada absoluta era en realidad una idea ingenua, que la estructura que hemos modelado en la física moderna para este vacío es la correcta. Pero, más que todo, la observación del Higgs es un triunfo para la ciencia al mostrar el poder de la simetría, el poder del razonamiento matemático y la posibilidad de comprender más profundamente el universo, su origen, su forma y su destino.
1
Gerard’t Hooft, In Search of the Ultimate Building Blocks, Cambridge University Press, Cambridge [Reino Unido], 1996, p. 70. 2
Las propuestas fueron publicadas en la revista Physics World, 6 (9), septiembre de 1993.
3
David Miller, “Politics, Solid State and the Higgs”, Physics World, 6 (9): 27, 1993.
4
Idem.
V. Imagen de lo invisible y el universo líquido
LA MATERIA DE QUARKS Como ya vimos antes, los quarks son las componentes más pequeñas de las que está hecha la materia. Nuestro marco conceptual de la materia descansa en la idea de que las partículas, como los protones y los neutrones que encontramos en los átomos, están hechas de quarks, pero nadie ha logrado aislar un quark. Pensamos que los quarks están tan fuertemente ligados dentro de las partículas que forman que es imposible que se escapen y vivan libremente. A este fenómeno que hace a los quarks invisibles se le ha llamado confinamiento. No obstante, con la actual descripción de las fuerzas que enlazan a los quarks se piensa que si pudiéramos lograr una densidad de materia y temperaturas suficientemente grandes, las partículas compuestas por estos quarks, como los protones y los neutrones, se fundirían, dejando que sus propios quarks y las partículas que los enlazan llamados gluones se liberen formando un nuevo estado de la materia al que se ha denominado plasma de quarks y gluones. En este estado los quarks se podrían mover libremente a relativamente grandes distancias en lugar de estar confinados en los protones o neutrones. Antes de 1964 nadie había escuchado acerca de los quarks. Se pensaba que los átomos estaban formados por protones, neutrones y electrones, y que éstas eran las partículas de las que todo estaba hecho. Sin embargo, se habían observado muchas partículas diferentes, y entonces Gell Mann y George Zweig propusieron que las diferencias y similitudes entre las mismas podrían ser explicadas si se pensaba que estaban formadas por pequeñas entidades a las que denominaron quarks. En este esquema se introdujeron diferentes tipos de quarks, y las combinaciones de ellos daban diferentes partículas con diferentes propiedades, como masa, carga eléctrica, etcétera.
FIGURA V.1. Los quarks dentro del protón interaccionan a través del gluon.
El modelo presentado por Gell Mann suponía además la existencia de partículas con ciertas propiedades que aún no habían sido observadas. Tal fue el caso del llamado omega, un barión que debería estar formado por tres quarks del mismo tipo al que se llamó quark extraño. Cuando en 1964, más o menos al mismo tiempo en que Gell Mann publicaba sus ideas, se observó experimentalmente una partícula con todas las características del omega, la recién nacida teoría de los quarks ganó un gran impulso. Para hacer posible la existencia del barión omega la teoría consideraba un número cuántico adicional al que se llamó color. El nombre es sólo una metáfora de lo que conocemos cotidianamente como color. Este nuevo número cuántico pude tomar tres valores que se pueden pensar en términos alegóricos como azul, verde y rojo. La existencia del omega puede ser posible sólo si los quarks idénticos que lo forman están en diferentes estados cuánticos de color. En su conjunto la partícula formada será “blanca”. Hasta entonces se podía explicar la existencia de todo tipo de partículas como combinaciones de sólo tres quarks: el quark u (up, en inglés), d (down, en inglés) y s (strange, en inglés). A finales de los sesenta y principios de los setenta experimentos que hacían incidir haces de electrones y neutrinos contra blancos hechos de protones y neutrones mostraron que las partículas del haz eran dispersadas por pequeños corpúsculos puntuales que parecían tener las características de los quarks. De esta forma la hipótesis de los quarks dejó de serlo y pasó a ser una realidad. En 1974 se descubrió una nueva partícula a la que se llamó J/ψ. Rápidamente se pudo introducir en el esquema explicando que se trataba de un nuevo tipo de quark. La existencia del quark encanto (charm, en inglés) había sido ya inferida con anterioridad teóricamente. Dos
años más tarde un quinto tipo de quark fue descubierto y denominado belleza. Recientemente, en 1995 el sexto tipo de quark llamado cima (top, en inglés) o verdad (truth, en inglés) fue descubierto en Fermilab.
RECREANDO LA GRAN EXPLOSIÓN: LUMBRE EN EL AIRE A cada instante otro Big Bang. Nacen astros, cometas, aerolitos. Todo es ala y fugacidad en la galaxia de esta lumbre. Mundos de luz que viven un instante. Luego se funden y se vuelven nada. JOSÉ EMILIO PACHECO
En 1977 Steven Weinberg publicó el libro The First Three Minutes. A Modern View of the Origin of the Universe. En el capítulo VII Weinberg decía acerca del primer centésimo de segundo del universo: “simplemente no sabemos lo suficiente sobre la física de partículas elementales para calcular de manera confiable las propiedades de una tal mezcla. Nuestra ignorancia de la física microscópica es como un velo que oscurece la vista del principio del universo”.1 Han pasado 36 años desde que Weinberg escribiera esto, y ahora el velo comienza a desvanecerse. ¿Cómo generar temperaturas y energías suficientemente altas como para liberar a los quarks de sus trampas? En el Gran Colisionador de Hadrones (LHC) se llevan a chocar iones pesados a velocidades enormes. Como dijimos antes, entre más pesado el ion, más grande será el volumen en el cual la energía es liberada al momento de la colisión. Al hacerlos colisionar, grandes cantidades de energía son concentradas en una pequeña región del espacio. Los quarks pueden entonces formar una burbuja como si se tratara de un gas caliente sujeto a una enorme presión. La burbuja crecerá rápidamente al mismo tiempo que se enfría y los quarks se condensan en paquetes de dos y tres, que son los mesones y bariones que ya mencionamos con anterioridad. Estas partículas todavía continuarán interaccionando entre sí mientras la densidad de ellas es suficientemente grande. Mientras tanto, la expansión continúa y en algún momento las interacciones terminan. Los mesones y bariones que se formaron vuelan en todas direcciones para ser detectados en alguna componente de los complejos aparatos que los físicos han colocado con ese fin. ¿Qué son los iones de plomo?, y ¿por qué iones de este elemento y no otro? El plomo es un elemento muy pesado. Su núcleo tiene 82 protones y 125 neutrones. La posibilidad de alcanzar densidades de materia muy altas crece con el número atómico del elemento que se acelere, y por eso se ha elegido al plomo. Todos los átomos son neutros, puesto que su núcleo, que tiene carga positiva, está cubierto con una nube de electrones que con su carga negativa lo neutraliza. Los iones se obtienen arrancando algunos o todos los electrones a los átomos. Esto
los deja con una carga positiva. Los iones de plomo que se estudian en A Large Ion Collider Experiment (ALICE) están completamente desnudos y, por lo mismo, tienen una carga positiva de 82, que es el número de protones que tiene su núcleo. Para arrancar los electrones del plomo se utiliza plomo muy puro que es calentado en una estufa a 550 grados Celsius. Al vapor de plomo que se obtiene de esta manera se le somete a descargas eléctricas que producen iones de plomo de diversas cargas. La mayoría de los átomos de plomo pierde 55 electrones, lo que nos deja con muchos iones de plomo con carga positiva de 27. Pero de la misma manera existen otros que pierden menos o más electrones produciendo iones de plomo con diferente carga positiva. Se elige a los iones de plomo con carga positiva 27 porque son los más abundantes. Se los extrae de la estufa con la ayuda de campos producidos por imanes, y a estos iones se les acelera. En el camino, ya en pleno proceso de aceleración, se hace pasar estos iones por delgadas hojas de carbón que terminan por desnudarlos completamente. Se dice entonces que los iones de plomo son iones de plomo completamente ionizados, pues tienen una carga positiva de 82.
FIGURA V.2. Arreglo de las átomos en un sólido, un líquido y un gas.
¿Qué es un plasma? Los estados de la materia conocidos como líquidos o gases son aquellos en donde las moléculas o los átomos interaccionan con mayor o menor intensidad. Las entidades que los conforman son siempre neutras. En un plasma los átomos están ionizados, es decir, las cargas de las entidades que los forman no son eléctricamente neutras. Por este motivo las características del plasma son diferentes de las de un líquido, un sólido o un gas. En ocasiones se le llega a considerar como otro estado de la materia. En la vida diaria podemos ver plasmas que se crean al ionizar a los átomos con calor o por otros medios como láser, microondas o fuertes campos electromagnéticos. Cuando esto se hace, los electrones se separan de los átomos. Los continuos procesos de recombinación entre electrones y átomos producen luz, y esto los hace útiles en algunas aplicaciones.
FIGURA V.3. Plasma electromagnético (izquierda) y plasma de quarks y gluones (derecha).
Existen muchos ejemplos de plasmas de este tipo: las pantallas de plasma en algunas televisiones funcionan con la creación de un plasma con gases neón y xenón, que emite luz produciendo la imagen deseada. La producción del plasma a partir de gases neón y xenón se hace eléctricamente en los cientos de miles de diminutas celdas que componen la pantalla. Las lámparas de neón son otro ejemplo de plasmas de uso cotidiano. Éstas son más económicas y permiten ahorrar energía por la eficiencia con que producen luz. En éstas se pueden utilizar diferentes tipos de gas: neón, argón, gas de mercurio. El color de la luz que emiten no es el que corresponde al gas utilizado, porque a menudo estas lámparas están pintadas con fósforo y, al recibir la luz que viene del plasma en su interior, emiten el color más deseable. Las bolas de plasma que ahora son comunes como ornamento funcionan también con la creación de un plasma mediante campos electromagnéticos fuertes. Una vez creado, el plasma emite luz como consecuencia de la continua recombinación de electrones y átomos del gas. Cuando hablamos de un plasma de quarks y gluones, lo hacemos en analogía con los conocidos plasmas electromagnéticos. En este caso pensamos en un plasma en el que los quarks se han desligado de los protones y neutrones y forman un estado de la materia distinto en el que conviven, de manera similar a como lo hacen los electrones y los átomos, pero con la diferencia de que se trata de quarks que interaccionan a través de gluones con sus pares. De este tipo de plasma sabemos muy poco. ¿Qué quieren saber los físicos acerca de este plasma? Una de las cosas que sería interesante conocer es la temperatura crítica y la densidad de energía necesaria para la formación del nuevo estado de la materia. Con la ayuda de modelos teóricos, así como de observaciones en experimentos, pensamos que la temperatura a la que los protones se rompen liberando a los quarks es de 175 megaelectronvoltios, que equivalen a 2 × 1012 grados Celsius, o bien, 100 000 veces la temperatura en el centro del Sol.
No es usual hablar de temperatura en unidades de energía. Para tener una idea de lo que significan estas temperaturas, diremos que un millón de electronvoltios equivalen a 1.2 × 1010 grados Celsius, es decir, 200 megaelectronvoltios (200 millones de electronvoltios) equivalen a 240 × 1010 grados Celsius. Lo que significa que la temperatura a la que los quarks y gluones se liberan es de dos billones de grados, o bien, 450 millones de veces la temperatura que tiene el Sol en su superficie.
Por otro lado, la densidad de energía crítica, es decir, aquella que producirá un rompimiento, se pensó que sería de un gigaelectronvoltio sobre fermi cúbicos, equivalente a
siete veces la densidad de energía de materia nuclear ordinaria. Los físicos quieren ver si esto es realmente así. En el primer momento de la figura V.4 se muestran los iones de plomo que se aproximan a una velocidad cercana a la de la luz y que son aplastados por el efecto relativista de contracción en la dirección de vuelo. En el segundo, los iones colisionan y se atraviesan creando un volumen del espacio con una alta densidad de energía. En el tercero, el plasma de quarks y gluones se ha formado con una temperatura de dos billones de grados. En el último, las enormes presiones conducen al sistema a una expansión cercana a la velocidad de la luz. Después de segundos, los quarks y gluones se han recombinado para formar hadrones.
FIGURA V.4. Interacción de dos iones de plomo y formación de un plasma de quarks y gluones instantes después de la colisión.
La dificultad en las mediciones radica en que uno sólo puede ver las partículas que escapan de la bola de fuego y llegan hasta los detectores. De estas señales se debe reconstruir lo que pasó anteriormente para saber si los quarks y los gluones fueron producidos en un estado suficientemente denso como para formar un plasma de quarks y gluones. El experimento ALICE fue diseñado para medir varias señales que provienen de la interacción de los iones. Las señales nos indicarán no sólo la posible formación del plasma,
sino además las características del nuevo estado de la materia. Si logramos crear este nuevo estado de la materia en el violento choque de iones, ¿cómo poder reconocer su aparición?
LAS HUELLAS En nuestro detector vemos a las partículas que han sido producidas en la bola de fuego y que retienen señales del pasado. Usaremos estas señales para ir atrás en el tiempo y buscar las claves de una transformación de la materia ordinaria en un nuevo estado al que llamamos plasma. Todo lo que llega hasta nuestro detector como radiación es medido cuidadosamente. Conocer la cantidad de movimiento que tiene, su energía y el tipo de partícula que es nos puede dar la temperatura que existía en el ambiente en que fue creada. Diferentes observaciones nos darán distintas informaciones que luego podemos estudiar para encontrar los patrones que se buscan.
La extrañeza se incrementa La primera señal que se propuso como indicador de la transición de fase, es decir, del cambio de materia ordinaria a plasma de quarks y gluones en el choque de iones ultrarrelativistas, fue la abundancia de quarks extraños, o s. Si la producción de quarks de este tipo aumenta como resultado de una transición física, uno será capaz de observar un mayor número de mesones y bariones que lo contienen, pues, al enfriarse el plasma, éstos se hadronizarán o recombinarán para formar hadrones con extrañeza. Esta propuesta data de 1980 y sigue siendo una de las huellas principales que los físicos buscan en las violentas reacciones de iones con iones. Los iones que colisionan están hechos de protones y neutrones que, como hemos visto, están formados por quarks ligeros u y d. En el estado inicial no existen, pues, quarks extraños, o s. De tal manera que todos aquellos quarks s que aparecen después de la reacción han sido producidos ahí como resultado de la energía liberada. Son el resultado de la energía que los iones traen consigo. Todos aquellos mesones y bariones que llevan en su interior quarks s son el resultado de la creación de un quark, que es más pesado que los u y d que forman la materia ordinaria. Recordemos que en el capítulo I, sección “El modelo estándar”, se mencionó que la masa del quark s es alrededor de 100 megaelectronvoltios, es decir, su masa es mucho más grande que la de los quarks u y d. Por esta razón es que, en las colisiones, la producción de este quark extraño está suprimida. Siempre es más difícil crear algo que es más pesado que aquello que es ligero. Sin embargo, la masa del quark s es muy cercana a la energía para la que se espera la transición de materia hadrónica a un plasma de quarks y gluones. De tal manera que la producción de los quarks extraños es muy sensible a la temperatura, al tamaño y la dinámica de la región de la colisión. Efectivamente, se ha podido observar en los experimentos que, cuando uno analiza la abundancia de mesones y bariones que salen de la colisión de dos núcleos de muy alta energía, el número de aquellos que contienen al quark extraño aumenta considerablemente.
FIGURA V.5. Producción de extrañeza en el plasma de quarks y gluones.
En el choque de protones contra protones o de electrones contra positrones que han sido estudiadas con cuidado a muchas diferentes energías, uno observa que la fracción de quarks s que se producen es de 0.2. Esto quiere decir que 20% de los quarks producidos es “extraño” y 80% es u y d. No importa si uno aumenta la energía o la violencia de la colisión, esta fracción permanece igual. Sin embargo, en la colisión de dos núcleos, esta fracción es de casi 0.4. Es decir, que la producción de extrañeza aumenta de 20 a 40% cuando la colisión es entre iones. Esto es lo que comúnmente se denomina aumento global de extrañeza. El punto está en que, de cálculos detallados, sabemos que una vez que los mesones y bariones han sido creados, prácticamente no aparecen más quarks del tipo extraño, así que la mayor parte de estos quarks extraños extras fueron creados antes de que se formaran los mesones y bariones, es decir, en el momento en que la materia de quarks y gluones existía. Como decíamos, este aumento de los quarks extraños se refleja en un incremento en la producción de partículas raras que contienen a este tipo de quark en gran número. Existen partículas que contienen dos o tres de estos quarks, como, por ejemplo, el barión omega (Ω), que está hecho de tres quarks s (barión que mencionamos anteriormente cuando hicimos alusión a la necesidad del número cuántico de color que justifique que tres quarks iguales puedan vivir juntos). Este barión aparece hasta 15 veces más a menudo que lo normal. La producción de partículas que sólo contienen un quark extraño aumenta también, pero no en la misma proporción que estas partículas con más de un quark s. Ésta es una de las maneras de ver que la transición ha tenido lugar.
El encanto desaparece Una señal de la presencia del plasma involucra a la partícula J/Ψ, que, como dijimos antes, está formada por dos quarks encanto (charm, en inglés), uno de materia y otro de antimateria. Esta partícula se debe producir en muy reducidas cantidades, pues los quarks que la forman son pesados. Cuando este mesón aparece, lo hace en los primeros momentos de la colisión, cuando la energía aún no se ha disipado por la creación de otras partículas y por la emisión de radiación electromagnética. Los físicos teóricos predicen que la formación de J/Ψ se reducirá en la presencia del plasma de quarks y gluones. Una reducción lo suficientemente fuerte en el número de J/Ψ que abandona la bola de fuego sugeriría que el plasma estuvo presente en los primeros momentos de la colisión. En cierta forma, esta partícula puede ser vista como un termómetro del medio en que es producido. La partícula J/Ψ está formada por dos quarks, un c y un c–, que se encuentran separados entre sí por una distancia de 0.5 fermi, es decir, 0.5 × 10−15 metros. Esta distancia es tal que a la temperatura a la que se encuentra el mesón en un hipotético plasma de quarks y gluones fácilmente puede ser evaporado evitando su formación. La llamada supresión en la producción de mesones J/Ψ ha sido observada en experimentos anteriores y se ha estudiado con mucho cuidado. Cuando se estima la cantidad de mesones de este tipo que deben ser producidos en la reacción de iones de plomo, uno se da cuenta de que en realidad se están produciendo menos. Sin embargo, los experimentos que observaron esta disminución de la producción también vieron algunas inconsistencias. Por ejemplo, en los experimentos del CERN a una energía menor de la que se logra ahora con el LHC midieron 60 o 70% menos mesones en la colisión de los iones que estudiaban. Cuando se aumentó la energía en el acelerador estadunidense Relativistic Heavy Ion Collider (RHIC) se volvió a observar una caída similar, aun cuando la energía era mayor.
FIGURA V.6. Desarrollo del plasma de quarks y gluones en bajas energías (proyecto RHIC que antecedió al Gran Colisionador). El par de quarks c no se combina para formar un mesón J/Ψ por efecto de la temperatura en el medio. En estas circunstancias se observa una supresión en la producción.
FIGURA V.7. Desarrollo del plasma de quarks y gluones en altas energías (proyecto Gran Colisionador). La producción de quarks c es mucho mayor. En el centro del plasma los pares de quarks c no se combinan para formar un mesón J/Ψ y acaban formando mesones D por efecto de la temperatura en el medio. En la parte más periférica sí se llegan a formar mesones. La producción de charm es tal que lejos de observarse una supresión en la producción se ve un incremento.
En el LHC se tiene tanta energía que la posibilidad de ver con detalle los efectos detrás del mesón puede ser reveladora. Mediante esta energía sin precedentes se espera tener una producción de encanto muy alta. Esto no sólo aumenta el número de mesones J/Ψ de manera natural, además se podría esperar que algunos de los muchos quarks c que se producen se recombinen para formar mesones adicionales por este nuevo mecanismo. Es decir, a estas energías tan altas, los mesones encantados no sólo se producirán por la vía convencional que los físicos llaman fragmentación, sino que además tendremos algunos resultados de recombinación que podrían acabar produciendo más de lo que se esperaría. Este proceso de regeneración no sólo podría compensar la supresión ocasionada por la presencia del plasma, sino que la podría superar. El experimento ALICE analiza los datos para elucidar los mecanismos de producción y entender con detalle cómo es que los mesones J/Ψ nacen en el hostil ambiente que se produce cuando dos iones producen la sopa de quarks y gluones.
Extinción de jets Los jets son chorros de partículas que aparecen de manera común en la interacción de partículas a muy alta energía. Estos chorros son la evidencia de que en la reacción aparecieron quarks que salen disparados a gran energía y en el camino se van fragmentando para formar un copioso chubasco que puede ser visto en los detectores. Los jets aparecen casi siempre en pares, pues en la interacción se producen pares quark
antiquark saliendo en direcciones opuestas con la misma cantidad de movimiento. Lo común es ver dos chorros de partículas en direcciones contrarias, uno de ellos generado por el quark y el otro por el antiquark. Sin embargo, en la colisión de iones pesados la creación de un plasma denso de quarks y gluones tiene como consecuencia que uno de los dos, quark o antiquark, debe viajar un tramo mayor que el otro a través del medio altamente denso y caliente. Esto tiene como consecuencia que la partícula sufra una pérdida de energía al interactuar con los quarks y gluones que forman el plasma líquido. El chorro de partículas que se crearía, de no sufrir esta pérdida de energía, se extinguiría. Esto puede ser observado de manera experimental en eventos donde sólo aparece un jet en lugar de dos. La observación de este hecho y la medición cuidadosa del efecto es una de las más contundentes muestras de la presencia del plasma líquido.
FIGURA V.8. Aparición de jets en la interacción protón-protón. La aniquilación de un quark y un antiquark de cada una de las partículas que interaccionan da origen a un par quark-antiquark que se fragmenta produciendo jets. Experimentalmente, esto se puede ver con la ayuda de calorímetros, que son dispositivos diseñados para detener y absorber la energía de las partículas que llegan hasta él. Los calorímetros nos permiten visualizar los chorros producidos.
FIGURA V.9. Arriba vemos lo que ocurre cuando en el choque de iones de plomo no aparece un plasma de quarks y de gluones. Un par quark-antiquark produce jets en direcciones opuestas. Abajo vemos que, como resultado de la aparición de un plasma, el quark que debe atravesar un mayor tramo del plasma sufre una pérdida de energía que extingue el jet.
Los experimentos A Toroidal LHC Apparatus (Atlas) y Compact Muon Solenoid (CMS) cuentan con sistemas de medición de energía muy precisos y herméticos. Los calorímetros de estos detectores cubren casi todos los ángulos, y por eso pueden medir muy bien los chorros de partículas que se crean no sólo en el choque de protones contra protones, sino también en la
colisión de iones pesados. En la figura V.8, que muestra el evento con un solo chorro, las barras amarillas evidencian la cantidad de energía depositada en las celdas del calorímetro.
FIGURA V.10. El experimento Atlas muestra esta impresionante imagen de una colisión de plomo contra plomo, donde un chorro o jet es emitido, pero el correspondiente chubasco en la dirección opuesta no aparece. © CERN.
Lo que las mediciones de supresión de jets en el plasma de quarks y gluones nos dicen es que el medio se presenta muy opaco a los quarks y gluones más energéticos. De no serlo, éstos aparecerían como chorros de partículas. Los mecanismos físicos detrás de este fenómeno deben ser estudiados con cuidado, porque la supresión de jets en la interacción de iones pesados es un hecho muy contundente. Aquí, la teoría de cuerdas, por medio de la correspondencia AdS-CFT (siglas de anti-de Sitter y de Conformal Field Theory) que ya comentamos anteriormente, podría estar diciendo algo sobre la manera en que los quarks interaccionan con el plasma caliente en el que viajan. El lector recordará que esta correspondencia establece un paralelismo entre lo que vemos en nuesto laboratorio y un mundo de más dimensiones con un agujero negro en el centro y una geometría distinta al nuestro.
FIGURA V.11. El movimiento de un quark en el plasma de quarks y gluones —que se representa aquí con una línea negra— corresponde al movimiento de las fluctuaciones de una cuerda cuyo extremo representa al quark. La cuerda permanece ligada por un extremo a la brana. Las fluctuaciones en la cuerda son causadas por la radiación de Hawking del agujero negro en la correspondencia del espacio anti-de Sitter.
Como decíamos anteriormente, a cada fenómeno en el plasma de quarks y gluones corresponde otro en el espacio anti-de Sitter de cinco dimensiones. A un quark moviéndose en este medio le corresponde una cuerda ligada por un extremo a una brana mientras el otro extremo fluctúa. El movimiento de la cuerda en su extremo libre representa al quark en nuestro mundo. Esta correspondencia permite calcular la pérdida de energía que sufre el quark al moverse en el plasma como la raíz cuadrada de la constante de acoplamiento de ’t Hooft, λ = 4παOCDNC. Si bien la descripción requiere que el producto αOCDNC sea muy grande, aquí NC es el número de colores. Algunos han encontrado que, con razonables extrapolaciones de los valores de parámetros, esta constante toma un valor sensible y aceptable a la luz de los valores medidos. La probabilidad de encontrar un jet o chorro de partículas en la colisión de iones de plomo en comparación con la misma en protón-protón ha sido medida. El valor que se obtiene de la correspondencia AdS/CFT es un poco menor que el que ha sido reportado por el experimento ALICE. Es importante recordar que la teoría más adecuada, que es la cromodinámica cuántica, no es supersimétrica, ni es invariante de escala o conforme, como lo es la correspondiente CFT que entra en la correspondencia. De manera tal que la correspondencia entre los mundos no es
perfecta, pero el hecho de que aun con estas características que la hacen impropia se acerque tanto, es muy estimulante.
El fluir de la energía / el universo líquido El líquido es un estado de la materia. En cierta forma es un estado intermedio entre gas y sólido en el sentido de que las moléculas que lo forman no están tan próximas como lo están en un sólido ni tan separadas como en el caso de un gas. En un líquido, las moléculas ocupan posiciones cambiantes, y si no están sujetos a ninguna fuerza, los líquidos tomarán una forma esférica como la de las gotas de agua al caer. Los líquidos se caracterizan por tener una resistencia a fluir a la que se llama viscosidad. En general, la viscosidad de un líquido aumenta cuando se incrementa la densidad y disminuye cuando se incrementa la temperatura. La viscosidad se relaciona con la complejidad de las moléculas que lo forman. Uno puede imaginar que cuando un líquido se somete a presión, una capa del mismo queda adherida al material sobre el cual el líquido fluye, mientras que una segunda capa se desplaza sobre ésta y luego una tercera se desplaza sobre la segunda, etc. La fricción que se da entre las capas del fluido es lo que se opone al flujo del líquido, y es por eso la causa de la viscosidad. Para el estudio de la colisión de iones de plomo es importante observar la forma como se mueven las partículas que se producen en el choque. La manera como las partículas fluyen es una fuente importante de información. Un gas no se dispersa igual que un líquido. El choque de dos iones pesados tiene la forma de una elipse. De ahí que al flujo de la materia que se origina en esta región se le llame flujo elíptico. Cuando los iones chocan se produce un plasma que casi inmediatamente se hadroniza produciendo muchas partículas. Como esas partículas se distribuyen en el espacio, depende del estado en el que se encontraba el plasma que las originó. Si el plasma era un gas, la distribución de las partículas que se producen será isotrópica, es decir, los productos de la colisión son dispersados de la misma manera en todas direcciones. En la figura V.12 se muestra una simulación computacional con la distribución de partículas que ocurre cuando el plasma que las origina es un gas (izquierda). En la simulación a la derecha se puede observar una concentración mayor de partículas en la dirección horizontal izquierda y derecha que en la vertical. Esta distribución reproduce mejor la realidad y corresponde a la distribución de partículas originadas por un líquido. Esta distribución se puede describir matemáticamente. La magnitud de los parámetros que se extraen de las mediciones permite saber qué tan grande es la fricción interna de la materia que ha sido creada en la colisión de los iones. Un fluido como el agua tiene un valor bajo de viscosidad, y se puede ver un patrón como el de las olas del mar. En contraste, un fluido como la miel no deja ver rastros del flujo. Con los datos registrados durante la primera corrida de iones de plomo en 2009, la colaboración ALICE analizó el flujo elíptico de partículas cargadas que se producen en el violento choque. Este flujo proporciona información del transporte de la materia que fue creada al momento del encuentro de iones. La producción de partículas es tal que la
distribución observada presenta una anisotropía azimutal, es decir, tiene una dirección preferente de flujo.
FIGURA V.12. Simulación computacional de partículas producto de la colisión de dos iones en dos escenarios posibles: gas, a la izquierda, o líquido, a la derecha.
Como ya comentamos antes, para la pérdida de energía de un quark en el plasma aquí también resulta muy interesante el cálculo teórico de la viscosidad en colisiones de iones pesados que proviene de la teoría de cuerdas. Haciendo uso de la dualidad que hemos expuesto antes y que es resultado de la conjetura de Maldacena, se obtiene una expresión para la viscosidad que, se dice, es el límite más bajo para la viscosidad dividida por la entropía que se puede lograr con materia relativista térmica. Según la teoría de cuerdas, la viscosidad dividida por la entropía es 380 veces más baja que el valor para el agua en condiciones normales, y nueve veces menor que el que tiene el helio líquido. Estos valores tan bajos lo convierten en el líquido perfecto que fluye sin resistencia alguna. En proyectos anteriores la medición de la fricción del fluido de quarks es complicada por incertidumbres de las condiciones iniciales de la colisión, así como por la incertidumbre de la contribución a la producción de partículas que se dan por vía del choque entre los quarks y los gluones, y aquella debida a la recombinación. Tampoco sabemos cómo dependerá la viscosidad de la temperatura. Precisamente por no saber cómo depende esta cantidad de la temperatura es que no sabíamos si el flujo elíptico crecería al pasar a las energías más altas del LHC. Los resultados de ALICE muestran que éste creció 30% con respecto a los resultados obtenidos por los experimentos del proyecto RHIC, que tenían una energía 10 veces menor. Este resultado muestra que la materia densa y caliente se comporta como un líquido con fricción muy pequeña. Esto demuestra que el flujo, y por eso las propiedades de la materia que se crea en la colisión, podrá ser estudiado con una precisión sin precedentes en el LHC y, en particular, en el experimento ALICE.
El líquido perfecto no sólo tiene una viscosidad muy baja, lo que le permite fluir sin resistencia, tiene además una conductividad térmica grande, lo que quiere decir que rápidamente alcanza el equilibrio termico. El líquido primordial se comporta como un cardumen en el que la sincronización es perfecta. Los componentes del líquido interactúan de tal manera que la información de sus movimientos se distribuye de manera óptima para que el resto de los miembros reaccionen de manera coordinada.
El universo líquido y los agujeros negros La teoría de cuerdas es la descripción más completa que unifica las interacciones de la naturaleza. Es también una teoría que describe de manera congruente a la gravedad y a la mecánica cuántica. Arriba hemos discutido las ideas generales de la teoría que serán relevantes en la discusión de esta sección. En términos generales, algunos físicos piensan que una de las dimensiones podría ser sólo una ilusión producida por la información cifrada en las otras. Lo que nosotros vemos en el plasma de laboratorio podría ser, pues, un holograma que contiene las instrucciones para crear una dimensión más; la quinta, que aparecerá en un espacio diferente del nuestro. El plasma de quarks y gluones sería entonces el holograma en cuatro dimensiones, no en dos, como los que vemos en los billetes o tarjetas de crédito. Pero así como los hologramas planos que nos divierten crean la sensación de una tercera dimensión, así el plasma de quarks y gluones puede estar creando una quinta dimensión que hace posible la existencia de agujeros negros en un mundo ajeno. Como ya vimos, la teoría que describe a los quarks debe estar basada en la mecánica cuántica y debe describir a tres colores, que es el número cuántico que poseen los quarks y los gluones. Si en lugar de tener una teoría de quarks con tres colores tenemos una teoría de quarks con N colores, esta teoría correspondería a la de una cuerda moviéndose en un espacio curvo con un radio de curvatura proporcional a N. En este caso la curvatura es el radio de la esfera peculiar. Aparece así una maravillosa relación entre el número de colores y la curvatura del espacio-tiempo. Para tener un espacio-tiempo tan grande como el universo observable, la teoría de los quarks y gluones correspondiente debe tener colores. Pero el número de colores en la vida de un físico de iones pesados ultrarrelativistas no es infinito ni muy grande. ¡Son, a saber, tres! Esta posible dificultad, como otras que se interponen en una relación más perfecta entre la teoría de quarks y la teoría de gravedad cuántica, podría no ser muy relevante. Existen varias cantidades que calculadas con técnicas confiables que describen el comportamiento de quarks y gluones no parecen cambiar cuando el número de colores aumenta. Así, por ejemplo, la densidad de energía a la que los quarks y gluones se liberan para formar el nuevo estado no parece cambiar mucho cuando se aumenta el número de colores. Otra dificultad que ya fue comentada arriba tiene que ver con el hecho de que el tipo de teorías que entran en la dualidad no es muy amplio. Se trata de teorías “conformes”, lo que significa que deben ser fuertemente acopladas a todas las escalas de distancia. La teoría de cromodinámica cuántica que describe los quarks no es de este tipo, pues cuando las distancias
disminuyen, los quarks interaccionan muy débilmente. Sin embargo, los modelos que se han usado para describir el comportamiento de los quarks parten de la idea de que éstos no tienen masa. Si los quarks no tienen masa, la teoría que los describe sí es conforme. De esta manera se puede pues moderar otra de las dificultades que se interponen en la dualidad. De hecho, una buena parte de la masa de los quarks se debe a la presión del vacío que puede ser modelado como una bolsa. Los quarks en sí podrían no tener masa, de tal manera que cuando se les libera para formar un plasma de quarks y gluones, la masa de éstos desaparece, o por lo menos se reduce mucho. Conscientes de todas estas complicaciones, y otras que no comentaremos, no deja de ser relevante el hecho de que se establece una relación entre una teoría que describe a los quarks, para los que la gravedad no desempeña un papel importante, y una teoría de la gravedad cuántica, que es la teoría de cuerdas. Esto ha despertado un enorme interés, debido al hecho de que se puede decir algo sobre los quarks que permita verificar la validez de la teoría de cuerdas, pero más que nada porque pone de relieve una relación profunda entre la teoría de cuerdas y las teorías que describen nuestra vida diaria. Aun si esta correspondencia resulta ser falsa, bien podría ser una indicación de algún principio universal que hasta ahora se nos ha ocultado. Éste podría ser el principio holográfico, por ejemplo, o algo más que aún no vemos. Resulta que una cierta cadena de gluones que media la interacción entre los quarks en cuatro dimensiones se comporta como el gravitón, que es la partícula fundamental cuántica de la gravitación. En esta descripción, la gravedad en cuatro dimensiones es, pues, un resultado de la interacción de partículas sin gravedad en un mundo tridimensional, que es el nuestro. Esta profunda relación entre áreas de la física tan separadas no es lo que se esperaba de la física de iones pesados, aunque quizá no debería sorprendernos. Después de todo, un inaccesible plasma que fluye como un líquido ya es extraordinario por sí mismo. La conexión entre este sistema y la teoría de cuerdas seguramente revelará más sorpresas en los tiempos por venir.
1
Steven Weinberg, The First Three Minutes. A Modern View of the Origin of the Universe, 2ª ed., Basic Books, Nueva York, 1993, p. 133.
VI. Reflexiones finales
LA FÍSICA POSIBLE Y LA POSIBILIDAD DE UNA NUEVA FÍSICA Hemos discutido los desarrollos más recientes de la física de partículas en relación con la cosmología, y nos queda claro que existe aún mucho por aprender de la naturaleza. Sin embargo, también es evidente que hemos caminado un largo trecho en nuestro afán y que hemos construido un esquema del universo que ofrece respuestas a preguntas muy fundamentales. En este punto, uno bien puede preguntarse cómo es posible lograr un bagaje nada despreciable de ideas y conocimientos que parecen funcionar muy bien. La reflexión parece ociosa, pero podría no serlo. Las ideas alrededor de la ideas a menudo nos ayudan a replantear y a buscar nuevas maneras de pensar. Immanuel Kant no fue el primero, pero sí quizá uno de los más influyentes, en reflexionar sobre la posibilidad de la ciencia. Para él, la posibilidad de conocer está atada a dos condiciones: necesidad y universalidad. La necesidad implica que las cosas sean necesariamente así y no de otra forma, mientras que la universalidad se refiere a que los fenómenos ocurran del mismo modo siempre. Según esto, las leyes científicas sólo tienen realidad como tales si son universales y si existe una relación necesaria en la naturaleza. De manera más particular y práctica, se podría pensar que, para el desarrollo de la física, existe un hecho natural, afortunado y singular en el sentido de que los fenómenos en la naturaleza pueden ser aislados unos de otros. Así, por ejemplo, comprender los conceptos de la mecánica fue posible porque el movimiento de los cuerpos celestes ocurre casi sin fricción, de tal forma que sólo la fuerza gravitacional entra en juego. Fue también muy importante que los cuerpos pudiesen ser considerados como puntuales y que la masa del Sol fuese considerablemente mayor a la de los planetas. Con esas condiciones fue posible construir una teoría capaz de describir cuerpos puntuales que se mueven alrededor de un centro de atracción gravitacional. Para los físicos que estudian el estado sólido es importante que los cristales que estudian tengan un alto grado de pureza y sólo unos cuantos defectos. No obstante, la relación de una
manifestación física con otra no puede ser ignorada, y a menudo se trata a unas como pequeñas perturbaciones frente a las que son más importantes y de mayor magnitud. En la mecánica celeste la fuerza gravitacional domina los fenómenos físicos. Su dependencia con la distancia es similar a la del campo electromagnético, sólo que éste tiene componentes positivas y negativas, de tal forma que su efecto se compensa con la distancia y sólo llegan a ser significativas a nivel atómico. El mundo atómico es el reino de las fuerzas electromagnéticas y en este mundo las magnitudes determinantes son la constante de Planck (ħ), la carga del electrón (e) y su masa (m). En este mundo, la gravitación no representa ningún papel y esto es fácil de entender si consideramos el extremadamente pequeño valor que tienen las masas. Por otro lado, la manera débil como se acopla el electrón con el núcleo en un átomo determina que la velocidad del electrón en su movimiento atómico sea pequeña comparada con la velocidad de la luz. Gracias a esto, puede uno hacer uso de las herramientas de la mecánica no relativista para su descripción. También gracias a esto aparecen efectos magnéticos, además de la fuerza eléctrica, que al interactuar con el espín del electrón tienen consecuencias pequeñas. Que la masa del núcleo sea considerablemente mayor que la del electrón permite pensar que el átomo permanece en su sitio, facilitando los cálculos. La separación entre el núcleo y su nube de electrones nos permite estudiarlos independientemente, ignorando los efectos de uno en el otro. Que en la física de altas energías se puedan separar áreas de trabajo y formular principios independientes uno de otro obedece a la jerarquía clara de las interacciones fuerte, electromagnética y débil que establece su magnitud a una distancia dada. Cuando una de las interacciones se hace insignificante, se aíslan los efectos de ella y se formulan ecuaciones más simples que describen los efectos de las otras. En cierta forma, esta posibilidad de separar los fenómenos es también la causa de que la física se haya desarrollado con una gran diversidad de conceptos que explican diferentes procesos. La física no es un sistema unido de criterios. El principal dilema de la física del siglo que comienza está justamente en la relación que los fenómenos de diferentes áreas guardan entre sí. Los fenómenos, que aparentemente conocemos bien cuando se los separa de los otros, se complican enormemente cuando se los trata de describir de una manera unificada. La investigación teórica en esta dirección espera la llegada de información experimental que le permita avanzar. En este sentido, una teoría del todo deberá poder ligar campos diversos y fenómenos distintos. La revolución en la teoría de cuerdas originada con la conjetura de Maldacena parece prometer este aspecto tan importante en el que una descripción cuántica de la gravedad se relaciona con una descripción del comportamiento de otros sistemas de materia condensada suave y cromodinámica cuántica. Por supuesto, es aún prematuro afirmar algo así. Una segunda reflexión en esta dirección es que quizá la posibilidad de ligar varias ideas implica niveles de comprensión que quedan fuera del mundo de especialización que hemos construido. La profundidad en las áreas de investigación actuales está muy ligada al conocimiento superficial que se puede lograr en áreas adyacentes. Este hecho innegable nos hace pensar que quizá la comprensión general de las leyes de la naturaleza será una labor
colectiva. Tal vez los gremios involucrados en tal o cual aspecto de las leyes naturales tendrán la explicación que se articula con la que surge de la actividad de otro grupo de especialistas, y ésta a su vez con la descripción de un grupo más. Finalmente, los matemáticos nos dirán que las demostraciones necesarias están bien establecidas, y los experimentales nos comunicarán su confianza en los aparatos, su sensibilidad, eficiencia y operación para que todos en conjunto podamos afirmar que entendemos el universo. La comprensión entonces sería una labor colectiva.
LA MATERIA OSCURA El universo parece estar formado en su mayor parte por materia oscura. Esta sustancia no se ve con los telescopios y no la detectamos con nuestros dispositivos. Sabemos que está ahí porque sus efectos se dejan sentir en las estrellas, galaxias y objetos astronómicos en gran escala a través de la fuerza gravitacional. De acuerdo con observaciones recientes, la materia oscura y la energía oscura podrían contribuir con casi 90% de la masa del universo. Desde 1933 Fritz Zwicky observó que la velocidad con que rotan las galaxias no es la que uno espera a partir de los cálculos con la masa que sí vemos. La única forma de reproducir la velocidad observada es con la presencia de más masa en el interior. En nuestro sistema solar, por ejemplo, Mercurio, que está más cerca del centro, gira con una velocidad mayor que Plutón, que se encuentra más alejado. Las velocidades de estos cuerpos están determinadas por la cantidad de materia que existe en la parte interna de sus órbitas. Una velocidad distinta en Plutón revelaría que existe más o menos materia en nuestro sistema solar. Lo que se observó en los años treinta y se sigue observando es que las estrellas de las galaxias giran aproximadamente a la misma velocidad, no importando la distancia a la que se encuentran del centro. Es como si Plutón viajase a la misma velocidad que Mercurio. Una manera de explicar esto es postulando que la teoría de la gravitación de Newton o de Einstein no tienen validez en las escalas galácticas. Existen varios intentos por formular una teoría alternativa, pero hasta ahora todos han fracasado. La teoría de gravitación que tenemos ya ha logrado explicar una gran cantidad de fenómenos. No es fácil desmentirla. Una buena parte de la masa faltante se encuentra en la forma de energía a la que se ha llamado energía oscura. Esta parte no está formada por partículas; es sólo una fuente de gravedad que curva el espacio y que acelera la expansión del universo. La materia oscura, en cambio, sí está formada por objetos o partículas que eluden nuestros aparatos de detección. Ésta podría ser materia bariónica fría que no emite radiación, o bien podría estar hecha de una sustancia que no interactúa de manera electromagnética, de manera que no emite luz. La composición de la materia oscura se desconoce, pero tenemos algunos candidatos de objetos que podrían dar cuenta de la masa faltante. Los neutrinos, por ejemplo, de los que se ha pensado por mucho tiempo que no tienen masa, parecen sí tenerla y dar cuenta de una parte de la masa faltante. Sin embargo, las estimaciones dicen que no sería suficiente para explicar todo lo que falta. Alguna gente ha postulado la existencia de partículas exóticas como los axiones y wimps, de los que no se ha observado nunca ninguna evidencia. Hay quien dice que
quizá estrellas enanas o nubes de gases no luminosos podrían completar la masa que no vemos. Parte de la masa podría también ser de partículas supersimétricas sin carga eléctrica, como el neutralino o el s-neutrino. El neutralino, si existe, es muy estable porque es muy ligero. En 2013 el Gran Colisionador de Hadrones (LHC) aumentó la energía de los haces de protones que acelera. El incremento de 3.5 a cuatro teraelectronvoltios puede parecer pequeño, pero la verdad es que este aumento de energía se traduce en un incremento mayor en el potencial de descubrimiento de algunas partículas más allá del Higgs. En los próximos años el LHC aumentará su energía al doble, y con esto se podrían ver partículas nunca antes vistas, como las llamadas partículas supersimétricas; la probabilidad de ser producidas ahora será mayor en caso de que éstas existan. Una energía de 3.5 teraelectronvoltios es el equivalente a la energía que lleva un tren a 150 kilómetros por hora. Aumentar a cuatro teraelectronvoltios es equivalente a aumentarle unos vagones a este tren, que seguirá a la misma velocidad. Uno podría decir que tal energía no es tan grande como uno se imagina cuando le dicen que se trata del acelerador más grande del mundo. Sin embargo, hay que percatarse de que tal energía está concentrada en el tamaño de un protón, y un protón mide la milésima parte de una millonésima de millonésima de metro. Si uno se imagina el poder de penetración de la energía que lleva un aplauso en una aguja ya se dará idea de lo que significa la energía de un tren a gran velocidad concentrada en el tamaño de un protón. Observar a las llamadas partículas supersimétricas podría explicar el misterio de la materia oscura en el universo y resolver así uno de los problemas importantes de la física moderna. Nos diría de lo que está hecho el universo, y esto no es decir poco. También es posible que este año se descarte la existencia de estas partículas o que se posponga la búsqueda a energías mayores. Si esto ocurre, las consecuencias no serán menores. Si la supersimetría es o no una simetría de la naturaleza, y si lo es, cómo es que ésta se rompe para que no lo veamos, es un tema fundamental que debemos resolver. Julius Wess y Bruno Zumino fueron los primeros en construir teorías que proponen una simetría mayor a las conocidas en la naturaleza. A los desarrollos de estas ideas se los conoce actualmente como modelos Wess-Zumino, pero existe mucha gente detrás del desarrollo de los modelos. Julius Wess murió en 2007 sin ver sus ideas corroboradas de manera experimental. Bruno Zumino es un físico italiano que ha contribuido además de esto con otras ideas en la física de partículas elementales.
AGUJEROS NEGROS Y LA QUINTA DIMENSIÓN Cuando el LHC estaba por iniciar sus actividades de investigación, en 2008, los medios de comunicación irrumpieron con la noticia de una inminente destrucción del planeta, ante la inevitable creación de agujeros negros en las colisiones de muy alta energía que el acelerador
estaba a punto de crear. Demandas judiciales contra el proyecto fueron presentadas ante la corte de Alemania y de los Estados Unidos. Los físicos que participaban en proyectos con el laboratorio más grande del mundo fueron insultados y en algunos países maltratados. Los videos apocalípticos aún pueden ser vistos en Youtube.1 La aparición de un agujero negro, se decía, acabará por engullir a nuestro planeta. El acelerador entró en funcionamiento y nuestro planeta sobrevivió. No sólo eso; de acuerdo con lo que hemos visto en este libro, tenemos razones para pensar que en las colisiones que estudiamos se podrían estar produciendo agujeros negros. Es una pena que no sepamos cómo probarlo, pero sí es reconfortante que tengamos que buscar la manera de hacerlo sin ser engullidos para darnos cuenta. Hemos visto que los primeros estudios del plasma de quarks y gluones revelan que éste, lejos de ser un gas como se pensaba, se comporta como un líquido perfecto que fluye sin resistencia. Por si esto fuera poco, el plasma de quarks y gluones que se produce con el choque de iones pesados a energías ultrarrelativistas en el LHC, y que es estudiado por el detector ALICE, podría ser una puerta de entrada a otras dimensiones. Según la conjetura de Maldacena, podría existir una relación entre un espacio en cinco dimensiones que aloja los complejos procesos que deben estar ocurriendo en un agujero negro y lo que pasa en el plasma de quarks y gluones que se crea cuando iones de plomo colisionan a muy alta energía. La correspondencia es matemática y nos dice que, para cada fenómeno en un mundo de quarks y gluones como el que creamos y medimos con A Large Ion Collider Experiment (ALICE) en el LHC, existe un fenómeno correspondiente en un agujero negro que vive en cinco dimensiones. En términos generales, algunos físicos piensan que podría ser que una de las dimensiones es sólo una ilusión producida por la información cifrada en las otras. Lo que nosotros vemos en el plasma de laboratorio podría pues ser un holograma que contiene las instrucciones para crear una dimensión más; la quinta que aparecerá en un espacio diferente del nuestro. El plasma de quarks y gluones sería, pues, el holograma en cuatro dimensiones que podría estar creando una quinta dimensión que hace posible la existencia de agujeros negros en un mundo distinto. La correspondencia elaborada en la conjetura de Maldacena podría querer decirnos que cada vez que aparece un plasma de quarks y gluones en las colisiones de iones pesados aparece también un agujero negro que existe en cinco dimensiones. Uno podría pensar que cada vez que dos iones de plomo se cruzan de manera frontal se crean, en un instante muy breve, las condiciones necesarias para liberar a los quarks y los gluones produciendo un plasma, y que en ese momento se genera una realidad matemática donde surge un agujero negro en el que cada cosa que ocurra en el plasma tendrá un proceso paralelo, muy distinto del nuestro, pero en correspondencia perfecta. Existirá una relación uno a uno entre lo que ocurre en nuestro mundo y medimos con nuestros instrumentos y lo que pasa en el imaginario matemático de un agujero negro. Ahora la pregunta es si este mundo ilusorio podría tener una realidad para nuestros sentidos o nuestros instrumentos de medición. La respuesta no la conoce nadie, pero no sería la primera vez que en la física algo que parecía ser
sólo la descripción matemática acaba por mostrarse como una realidad tangible o por lo menos medible.
GRAN CIENCIA Y DESARROLLO TECNOLÓGICO Los desarrollos de gran ciencia tienen una repercusión casi inmediata en el desarrollo tecnológico. Es cierto que el objetivo central no es el de desarrollar la tecnología. Sin embargo, se necesita investigación para el avance en la instrumentación, en la informática, en la mecánica de precisión en sistemas de potencia, entre otros muchos, para poder llevar a buen fin los proyectos. De manera tal que el desarrollo de la tecnología es inevitable. El grupo mexicano en ALICE se incorporó al proyecto en 1995. En ese año la única institución mexicana que colaboraba en ALICE era el Centro de Investigación y de Estudios Avanzados (Cinvestav) del IPN. Más tarde, en 2001, se incorporaron la Universidad Autónoma de Puebla, la Universidad de Sinaloa, así como los institutos de Física y de Ciencias Nucleares de la UNAM. En él se ha formado un buen número de doctores y maestros en ciencias. Actualmente tenemos investigadores que se formaron trabajando en el proyecto y que ahora hacen simulación de fluidos para la extracción de petróleo para Pemex con la ayuda de programas computacionales que describen el comportamiento del crudo en pozos porosos. Tenemos personal que diseña y construye plástico centellador con novedosos procedimientos que mejoran las propiedades del material y que le dan características especiales para el uso en la industria. Otros han decidido continuar con proyectos de investigación en ciencia básica e impulsan proyectos de investigación tecnológica. Hay quien se dedicó al estudio de las finanzas y modelado de los mercados en lo que se llama econofísica, y también tenemos quien se dedica a física médica con la obtención de imágenes con rayos X y el uso de la tecnología de detectores, que es de aplicación común en experimentos de altas energías.
SORPRESAS TECNOLÓGICAS Un componente importante en el mundo moderno es el de las sorpresas tecnológicas. Participar en el concierto de generación de conocimiento tiene el beneficio adicional de exponer a nuestros grupos de jóvenes, técnicos, ingenieros e investigadores a un ambiente competitivo donde la sorpresa tiene su medio propicio. Los accidentes no son únicos en la historia de la ciencia y la tecnología. Se dice que los egipcios inventaron la cerveza al olvidar el pan en un recipiente con agua. Los microondas en nuestras cocinas se deben a un técnico irresponsable que, sin pensar mucho, dejó su barra de chocolate cerca de un dispositivo de radar para ver luego cómo se había fundido por completo. Y es que en el mundo racional de la ciencia y la tecnología no parecer ir todo siempre como se planea. Actualmente, las sorpresas tecnológicas son más cruciales que nunca. En un sentido metafórico, el mundo es ahora más pequeño y las sociedades se han desarrollado en la
dirección correcta de la búsqueda del conocimiento. Si bien muchas regiones del planeta se debaten en problemas triviales, también es cierto que el mundo tecnológico crece y que esta carrera es imparable. Las sorpresas tecnológicas pueden surgir ahora en muchos más lugares del mundo que antes. No obstante, la diferencia real entre el que sorprende y el sorprendido no es la posesión de una pieza de tecnología nueva. La diferencia clave es el reconocimiento y la conciencia del impacto de tal tecnología, así como la decisión para explotar tal impacto. Como decía el gran estratega Alfred Thayer Mahan: [El marinero] observará también que los cambios de tácticas no sólo han tenido lugar después de cambios en las armas, lo cual es necesario en este caso, sino que el intervalo entre dichos cambios ha sido excesivamente largo. Esta certidumbre crece a partir del hecho de que una mejora en las armas se debe a la energía de uno o dos hombres, mientras que cambios en las tácticas deben sobreponerse a la inercia de una clase conservadora.2
Lo que veremos en los próximos meses será un crecimiento grande de sorpresas tecnológicas con un descubridor hasta ese momento desconocido. La explotación de sus hallazgos se realizará en los lugares del mundo que hoy por hoy son los más aptos, más flexibles y más veloces para reaccionar ante la conmoción de lo nuevo.
LA SUSTANCIA PRIMORDIAL QUE NOS COMPONE Hemos visto que las partículas elementales son seis leptones y seis quarks. Éstas son consideradas puntuales para los propósitos de descripción matemática, ¿pero qué tan realista es esto?, ¿hay algo fundamental en la realidad física de las matemáticas? Experimentalmente no se ha podido medir una estructura en ellas. Al nivel de precisión experimental que el LHC alcanza, esto es, una diezmilésima parte del tamaño de un protón, los quarks siguen apareciendo como entes sin estructura. Estas partículas sin extensión se agrupan para formar conglomerados, de los que están hechos los átomos, las moléculas y todo lo que nos rodea. Los puntos adquieren una estructura interactuando con el vacío; esto les da una forma que puede ser medida y genera cuerpo y volumen, perceptibles a nuestros sentidos y a nuestros aparatos. Aun así, el átomo se concentra en su núcleo, y la mayor parte de su volumen es espacio vacío. El libro que usted tiene enfrente es, casi 100%, vacío. Nosotros mismos somos un apiñado arreglo de átomos, capaz de pensar e imaginar. Estamos hechos de la sustancia que queremos describir, y creemos que podemos entender al universo que está hecho de la misma sustancia ordenada con las mismas leyes. Tal vez menos de 0.05% de la materia que nos constituye es lo que nos diferencia del resto de la naturaleza y nos hace seres vivos. Nos es difícil ver en estas circunstancias que la diversidad es, ante todo, organización. Desde el comienzo del universo, las partículas que se formaron se han venido combinando y recombinando una y otra vez para formar los objetos que luego se destruyen para formar otros. Las partículas de las que estamos hechos son, pues, muy antiguas. No importa si somos jóvenes o si estamos en la plenitud de nuestra existencia, lo que nos conforma es materia
creada hace 13 000 millones de años. Como hemos visto, la enorme cantidad de energía en la gota primigenia experimentó una metamorfosis y se transformó en miles de miles de millones y millones de partículas que, después de muchas peripecias, se estabilizaron y terminaron por formar al mundo que nos rodea y que observamos. En su libro Cazadores en el horizonte, Carlos Chimal, escritor y divulgador de la ciencia en México, dice: El espacio del escritor es la vida y la vida misma está hecha de átomos. Pensar en ellos nos permite imaginar que otros están dentro de nosotros y que la tinta impresa en este libro pudo haber formado parte de un dinosaurio. Cuando inhalamos, el oxígeno que entra a los pulmones se mezcla con los átomos de carbono que se hallan ahí, suspendidos. Cuando exhalamos, arrojamos moléculas de bióxido de carbono. Durante siglos, las plantas han reordenado estos átomos y nos han devuelto oxígeno. En un futuro no muy lejano, nuestros bisnietos respirarán un poco de la misma vida.3
¿Es que cada vez que respiramos entran en nuestros pulmones átomos que alguna vez respiró Leonardo da Vinci? La atmósfera contiene aproximadamente 5 × 1021 gramos. Si consideramos que el aire es una mezcla de cuatro moléculas de nitrógeno por una de oxígeno, entonces una mol de aire son 28.8 gramos. Una mol de cualquier sustancia tiene 6 × 1023 moléculas, así que la atmósfera contiene aproximadamente 1.04 × 1044 moléculas. A la temperatura del cuerpo y la presión atmosférica, una mol de un gas cualquiera tiene un volumen de 25.4 litros. En promedio, una persona respira aproximadamente un litro de aire. Podemos pues asumir que Leonardo da Vinci, cuando respiró en una ocasión, liberó 2.4 × 1022 moléculas. Una persona respira 25 veces por minuto, así que Leonardo en los 67 años de su vida —Leonardo vivió de 1452 a 1519— respiró 2.1 × 1031 moléculas. Por lo tanto, una de cada 5 × 1012 moléculas de la atmósfera fue respirada por Leonardo da Vinci. Como en cada respiro tomamos 4.3 × 1022 moléculas, existe buenas posibilidades de que tomemos 4.3 × 109 moléculas de las que respiró da Vinci. De manera similar se puede mostrar que probablemente cada ser humano vivo hoy respire cinco moléculas de las que Leonardo respiró en su último aliento. En este punto podemos agregar que en cada manzana que comemos se encuentran átomos que alguna vez formaron parte de un animal, lo que debería preocupar a los vegetarianos.
LA DIVERSIDAD GLORIOSA Un hecho asombroso y bien conocido de los biólogos es la diversidad en el mundo de los seres vivos. Lo que nos define como tales es una serie de 3 200 millones de nucleótidos, de los cuales existen sólo cuatro tipos, denotados con las letras A (adenina), G (guanina), C (citosina) y T (tiamina). Estas cuatro letras se pueden ordenar de diferente manera a lo largo de un collar, guardando lo que será de cada uno de nosotros y que nos diferenciará de los demás. Con sólo cuatro monómeros distintos se genera una diversidad impresionante. Cuatro letras pueden ser representadas en números binarios con dos bits, es decir: A puede ser representada por 00, G por 10, C por 01 y T por 11. De manera que necesitamos 6 400
millones de bits para representar el programa que nos forma. Puesto en términos informáticos, hacen falta 800 megabytes para almacenar lo que somos. Un CD es demasiado grande para almacenar ahí el código que nos conforma. ¡No se require mucho espacio de memoria!, y sin embargo, la diversidad a nuestro derredor no sólo es evidente, es portentosa. El extraordinario poder multiplicativo, la inconmensurable variedad de la naturaleza, sólo aumentan cuando descendemos a niveles más profundos de estructura. Todo lo que llamamos materia, minerales, vegetales y animales, está formado por partículas estables. Para ser más precisos, los quarks u y d, así como los leptones, el electrón, el neutrino, bastan para construir la inmensa variedad de seres y de cosas. Es cierto que los seres humanos hemos creado el alfabeto morse, que permite decir muchas cosas con tres signos: punto, guión y espacio vacío; sin embargo, la creatividad de la naturaleza va más lejos porque no se limita al lenguaje, ¡lo incluye! En esta descomunal variedad de ordenarse y recrearse lo que cuenta no es el número de elementos, sino el modo que la naturaleza tiene de unirlos.
LAS ÚLTIMAS 100 PALABRAS El mensaje del trabajo científico puede ser expresado de muchas maneras. Una de ellas podría ser: el incalculable valor de la duda en la búsqueda de la verdad. Pareciera ser que hay más riqueza en la incertidumbre que en la convicción religiosa que no admite vacilaciones. Sin embargo, sí debo cerrar con un último pensamiento; éste no será de perplejidad, sino de certeza, quizá la única que me puedo permitir después de muchos años de practicar la investigación científica, y ésta es, a saber, que no existe lo ordinario y que adondequiera que mires habrá algo que ver.
1
Por ejemplo, “The Large Hadron Collider will Destroy Earth”.
2
Alfred Thayer Mahan, The Influence of Sea Power upon History 1660-1783, Mobile Reference, Boston, 2010, pp. 9-
3
Carlos Chimal, Cazadores en el horizonte. Un viaje al interior del átomo, Alfaguara, México, 2005, p. 28.
10.
ACERCA DE CIENTÍFICOS IMPORTANTES
CARL D. ANDERSON (1905-1991), físico estadunidense que descubrió el positrón en 1932. En 1936 participó en el descubrimiento del muon, año en que recibió el premio Nobel de física. Tanto Carl Anderson, como Werner Heisenberg, Tsung-Dao Lee y Paul Dirac lo recibieron cuando tenían 31 años; junto con Lawrence Bragg, quien lo acogió a los 25 años, son los más jóvenes en ganarlo. CLAUDE BERNARD (1813-1878), fisiólogo francés considerado fundador de la medicina experimental. Demostró que nuestro organismo puede producir moléculas complejas, como el glicógeno, en el hígado. Demostró que el hígado produce bilis y prepara azúcar. Ésas son sólo algunas de sus contribuciones a la fisiología y la medicina. GILBERTO BERNARDINI (1906-1995), colaborador de Giuseppe Occhialini en el desarrollo de instrumentación para la detección de partículas subatómicas. NIELS H. D. BOHR (1885-1962), físico danés que contribuyó al desarrollo de la mecánica cuántica. Creó el modelo atómico que lleva su nombre. Recibió el premio Nobel de física en 1922. Curiosamente, su alumno, Werner Heisenberg, fue de los impulsores del esfuerzo alemán por la bomba atómica, mientras que Bohr alentó el esfuerzo estadunidense en la misma dirección. Al final de la guerra impulsó la creación del CERN y fue el primero en recibir el reconocimiento Átomos para la Paz en 1958. LUDWIG E. BOLTZMANN (1844-1906), físico austriaco que desarrolló la mecánica estadística, que explica cómo las propiedades de los átomos determinan las propiedades visibles de la materia. Sufría de asma, migraña y debilidad ocular, y, aunque viajar lo liberaba de sus depresiones, no prevenía la siguiente recaída. La última llegó en el verano de 1906, pocos días antes de regresar a Viena, cuando se suicidó. En su tumba se grabó la ecuación que relaciona la entropía mediante la constante que lleva su nombre con el número de arreglos microscópicos que dan el mismo estado macroscópico.
Esta constante relaciona la temperatura absoluta con la energía. WALTER W. G. BOTHE (1891-1957), físico alemán que recibió el premio Nobel de física en 1954 por la invención de la técnica de coincidencias con detectores Geiger, lo que permitió el estudio de rayos cósmicos. ROBERT BROUT (1928-2011), físico teórico estadunidense y profesor en Bélgica. Junto con François Englert descubrió una forma de dar masa a las partículas que median las interacciones. GEORGE CHARPAK (1924-2010), físico nuclear de origen judío-polaco que emigró a París cuando era niño. Fue el inventor del detector de partículas multialambres, por el que recibió el premio Nobel de física en 1992. ARTHUR H. COMPTON (1892-1962), físico estadunidense galardonado con el premio Nobel de física en 1927. Mientras estudiaba los rayos X descubrió el efecto que ahora lleva su nombre, que consiste en un cambio de longitud de onda en la radiación electromagnética cuando es dispersada por electrones; hecho de gran importancia, pues mostró que la radiación tiene propiedades de partícula y de onda, como lo establece la mecánica cuántica. JAMES W. CRONIN (1931), profesor emérito de la Universidad de Chicago y portavoz del experimento Auger, en el que México participa activamente. Recibió el premio Nobel de física en 1980 por el descubrimiento de la violación de carga y paridad en el decaimiento de kaones neutros. Ha estado en muchas ocasiones en México y en 2001 recibió la medalla de la División de Partículas y Campos que otorga la Sociedad Mexicana de Física. JABEZ CURRY STREET (1906-1989), físico estadunidense codescubridor del muon en la radiación cósmica. Fue creador del sistema de navegación Loran Navigation System, que es aún utilizado en el mundo entero en barcos y aviones. PAUL A. M. DIRAC (1902-1984), físico británico famoso por el planteamiento de la ecuación que lleva su nombre, la cual describe el comportamiento del electrón. Predijo la existencia de antimateria, por lo que recibió el premio Nobel de física en 1933. Como Albert Einstein, Dirac también dedicó muchos años infructuosos a la búsqueda de una teoría unificadora de la gravitación y el electromagnetismo. ALBERT EINSTEIN (1879-1955), físico alemán muy conocido por sus múltiples contribuciones a casi todas las áreas de la física. Recibió el premio Nobel en 1921 por su descripción del efecto fotoeléctrico. Einstein es seguramente el físico más conocido de nuestros tiempos.
FRANÇOIS ENGLERT (1932), físico teórico belga que ha recibido numerosas distinciones por la invención del mecanismo que permite describir de manera unificada las interacciones con partículas mediadoras que poseen masa, por lo que recibió, junto con Peter Higgs, el premio Nobel de física en 2013. También ha contribuido al desarrollo de otros campos de la física, como la cosmología, la teoría de cuerdas y la física estadística. RICHARD P. FEYNMAN (1918-1988), físico estadunidense que desarrolló un método para estudiar la electrodinámica cuántica con el uso de los diagramas que hoy llevan su nombre. Hizo su tesis doctoral con John A. Wheeler, quien participó en el proyecto Manhattan, donde se desarrolló la bomba atómica. Obtuvo, junto con Sin-Itiro Tomonaga y Julian Shcwinger, el premio Nobel de física en 1965 por su trabajo en electrodinámica cuántica. Contribuyó también a revelar el nivel de composición de los protones, a los que él llamó partones y después serían llamados quarks. En julio de 1972 visitó la Escuela Superior de Física y Matemáticas del Instituto Politécnico Nacional (IPN) para impartir cursos de verano. HANS W. GEIGER (1882-1945), físico alemán creador del contador que lleva su nombre. Fiel al régimen nazi, fue parte del esfuerzo por desarrollar la bomba atómica. JOHANNES GEISS (1926), físico suizo que ha explorado la composición de muchos materiales en meteoritos, rocas lunares y marcianas. Contribuyó en más de 12 misiones espaciales como especialista en el análisis espectroscópico. MURRAY GELL MANN (1929), físico estadunidense que recibió el premio Nobel de física en 1969 por sus contribuciones en la construcción de la teoría cuántica de quarks, hoy conocida como cromodinámica cuántica. Fue quien bautizó a los quarks con este nombre raro y sin significado. Para nombrarlos así, Murray argumentó que cuando los físicos pusieron nombres significativos a las cosas, se equivocaron. Así, por ejemplo, la palabra átomo, que significa indivisible, en realidad resultó no serlo: los átomos sí se pueden dividir. SHELDON L. GLASHOW (1932), profesor emérito de la Universidad de Harvard en los Estados Unidos. Obtuvo el premio Nobel de física en 1979 por su contribución en el desarrollo del modelo estándar de las interacciones electrodébiles. Se opone fervientemente a la teoría de cuerdas, que ha criticado abiertamente en muchas ocasiones. En su libro Interactions menciona: “[…] hasta que los cuerdistas no expliquen e interpreten las propiedades que se perciben del mundo real, ellos, simplemente, no están haciendo física. ¿Se les debe pagar en departamentos de física y se les debe permitir que perviertan a jóvenes impresionables? […] Las ideas de cuerdas son más apropiadas para departamentos de matemáticas o para escuelas de divinidad […] ¿Acaso es la resurrección de la teología medieval?” [Sheldon Glashow y Ben Bova, Interactions. A Journey through the Mind of a Particle Physicist and the Matter of this World, Warner Books, Nueva York, 1988, p. 555.]
GERALD S. GURALNIK (1936), físico estadunidense codescubridor del mecanismo de Higgs, junto con Carl Hagen y Tom Kibble. Ha trabajado también en el desarrollo de cálculo numérico de la teoría de cromodinámica cuántica. CARL R. HAGEN (1937), físico estadunidense codescubridor del mecanismo de Higgs y el bosón de Higgs, junto con Gerald Guralnik y Tom Kibble. STEPHEN W. HAWKING (1942), físico británico que, junto con Roger Penrose, desarrolló el estudio de singularidades espacio-temporales. Predijo que los agujeros negros emitirían radiación, lo que hoy se conoce como radiación de Hawking. Su trabajo de divulgación ha tenido un impacto inesperado con el éxito de sus libros. PETER W. HIGGS (1929), físico británico que en los años sesenta propuso la rotura espontánea de simetría en la teoría electrodébil, explicando así el origen de la masa. El mecanismo predice la existencia de una partícula que fue observada en el Gran Colisionador de Hadrones del CERN, motivo por el cual recibió, junto con François Englert, el premio Nobel de física en 2013. Actualmente es profesor de la Universidad de Edimburgo en Inglaterra. DAVID HILBERT (1862-1943), matemático alemán que contribuyó al desarrollo de las herramientas matemáticas de la mecánica cuántica y la relatividad general. Hilbert nunca reclamó crédito por las ecuaciones de la relatividad general, pero entre los expertos es evidente su contribución no sólo en las ecuaciones, sino en la construcción matemática asociada a la teoría. Si bien Hilbert se retiró en 1930, pudo ver cómo muchos de los matemáticos de la Real Academia en Gotinga tuvieron que irse. Herman Weyl, que había ocupado la posición que él dejara al retirarse, se tuvo que marchar, como también lo hicieron Emmy Noether, Edmund Landau y Paul Bernays. Se cuenta que, cuando el nuevo régimen lo invitó a un banquete, lo sentaron al lado del nuevo ministro de Educación, que le preguntó: “¿Cómo va la matemática en Gotinga ahora que la hemos liberado de la influencia judía?”, a lo que él contestó: “De la matemática en Gotinga no queda nada”. [Constance Reid, Hilbert, Springer, Nueva York, 1996, p. 205.] GERARD T’ HOOFT (1946), físico holandés que recibió el premio Nobel en 1999. Su tío abuelo, Frits Zernicke, también ganó el Nobel de física en 1953. FRED HOYLE (1915-2001) fue un astrofísico inglés muy polémico, famoso por su propuesta de un universo estacionario, mejor conocida como teoría del estado estacionario, que sostiene que el universo no tuvo un origen, sino que existió siempre como lo vemos. Según este modelo, la expansión de Hubble se puede explicar por la continua creación de materia que forma estrellas y galaxias nuevas. Su principal contribución científica es quizá la predicción de ciertos niveles de energía del átomo de carbón. Dicha aproximación partió de la necesidad que imponía la posibilidad
de que se produjese a partir de elementos más ligeros en el centro de las estrellas. Este trabajo lo realizó junto con William Fowler, quien por él recibió el premio Nobel en 1983. Hoyle no fue llamado por el comité Nobel. En su siempre controvertida actitud, es famosa la idea de Sir Hoyle sobre el origen del petróleo. En 1982 dijo durante una entrevista: “La sugerencia de que el petróleo pudiera haber surgido de la transformación de un pescado aplastado o resto biológico es sin duda la noción más estúpida que ha tenido entretenida a un buen número de personas por un prolongado periodo de tiempo”. EDWIN P. HUBBLE (1889-1953) fue uno de los astrónomos más importantes del siglo XX. A él se le atribuye, quizá equivocadamente, el descubrimiento de la expansión del universo midiendo el corrimiento al rojo de galaxias distantes. En noviembre de 2011 la revista Nature publicó un comunicado del astrónomo Mario Livio, que trabaja en el Space Telescope Science Institute de Baltimore, en los Estados Unidos, y localizó una carta de 1931 en los archivos de la Royal Society de Londres, que ofrece evidencia de que el que descubrió la expansión del universo no fue Hubble en 1929, sino el astrónomo y sacerdote belga George Lemaître en 1927. Mario Livio piensa que no hubo falta de ética por parte de Hubble. [Mario Livio, op. cit.] WILLIAM T. KELVIN (1824-1907), físico británico famoso por el desarrollo de la escala de temperaturas Kelvin, recibió el título de barón por sus logros académicos. THOMAS W. B. KIBBLE (1932), físico británico que contribuyó en la formulación del mecanismo de rompimiento de simetría. Ha trabajado en la teoría de cuerdas, a la que ha aportado el fenómeno de cuerda cósmica. WILLIS E. LAMB (1913-2008), físico experimental estadunidense que, haciendo uso de tecnología de microondas, analizó la estructura fina del átomo de hidrógeno. Su trabajo le valió el premio Nobel en 1955. Entender esta estructura llevó al desarrollo de la electrodinámica cuántica, lo que aclaró de manera fundamental nuestra manera de pensar en campos y partículas. SAU LAN WU, física de origen chino naturalizada estadunidense. Actualmente colabora en el experimento Atlas. Trabajó en el equipo de S. Ting, que descubrió la partícula en Brookhaven, en los Estados Unidos. Trabajó en el proyecto Petra del Desy en Hamburgo, Alemania, como miembro de la colaboración Two Arm Spectrometer Solenoid (Tasso), con un papel importante en el descubrimiento del gluon en 1979. TIM B. LEE (1955), padre de la World Wide Web. Durante su estancia en el CERN, de junio a diciembre de 1980, propuso un protocolo para compartir información entre investigadores. Después de dejar el CERN por un tiempo, regresó en 1984. El primer servidor web se usó en el
CERN y fue puesto en línea el 6 de agosto de 1991.
TSUNG-DAO LEE (1926), físico chino que recibió el premio Nobel en 1957, junto con Chen Ning Yang, por sus contribuciones a la física de partículas elementales. Desarrolló su tesis doctoral bajo la asesoría del profesor Enrico Fermi. GEORGE H. J. E. LEMAÎTRE (1894-1966), astrofísico belga y sacerdote católico. En 1927 publicó un informe en el que resolvía las ecuaciones de Einstein y sugería que el universo se expandía, y que por ello Melvin Slipher y Carl Wilhelm Wirtz observaron un corrimiento hacia el rojo en la luz de nebulosas. En 1931 propuso la idea del origen del universo a partir de un átomo primigenio. Aunque se le atribuye a Edwin Hubble el descubrimiento de la expansión del universo, existe una publicación de Lemaître en francés —que luego sería traducida al inglés— donde las ideas están descritas antes que los resultados de Hubble. [George Lemaître, “Un Universe homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques”, Annales de la Société Scientifique de Bruxelles (A47): 49-59, 1927.] HENDRIK A. LORENTZ (1853-1928), físico holandés que estableció las bases de la teoría de la relatividad, que casi siempre se atribuyen sólo a Einstein. Cuando fue profesor de la Universidad de Leiden nombró a Pieter Zeeman su asistente personal, al que le pidió que estudiase los efectos del campo magnético en la luz. Esto llevó a Zeeman a descubrir el efecto que hoy se conoce con su nombre, y más tarde a ser reconocidos —Zeeman y Lorentz— con el premio Nobel, en 1902. THEODORE LYMAN (1874-1954), físico estadunidense que estudió los fenómenos de difracción en luz ultravioleta. La “serie de Lyman” del espectro de emisión del átomo de hidrógeno se llama así por él. Descubrió la primera línea del espectro en 1906, y el resto de las líneas fueron apareciendo entre 1906 y 1914 en sus trabajos de investigación. LUCIANO MAIANI (1941), físico italiano que, junto con Sheldon L. Glashow y John Illiopoulos, predijo la existencia del quark encanto. Fue profesor investigador en el Departamento de Física del Cinvestav y uno de los cargos más destacados que ocupó fue el de director general del CERN de 1999 a 2003. JUAN M. MALDACENA (1968), físico teórico argentino que propuso la conjetura que lleva su nombre y que establece una realización del llamado principio holográfico. Desde 2001 es profesor en el Instituto de Estudios Avanzados de la Universidad de Princeton. En este trabajo hemos abundado en la conjetura originalmente planteada por él que podría tener consecuencias muy profundas en la física futura.
JOHN C. MATHER (1946), astrofísico y cosmólogo estadunidense, coordinaba los trabajos de construcción del satélite Cobe desde 1974 cuando la tragedia del transbordador Challenger, en 1986, puso fin a las misiones planeadas hasta entonces. Esto marcó el inicio de una penosa y larga negociación de Mather por salvar el trabajo de más de 1 000 personas que habían sembrado sus esperanzas alrededor de la construcción del satélite. En 1974 fue reclutado por la NASA para colaborar en la idea de medir la radiación cósmica de fondo. Ésta había sido propuesta años atrás por George Smoot, quien habría de acompañarlo en el proyecto. Mather hubiera querido ser físico de partículas elementales, pero terminó por hacer su posdoctorado en el Goddard Institute for Space Studies de la NASA, en Nueva York. Obtuvo el premio Nobel de física en 2006, junto con George Smoot. JAMES C. MAXWELL (1831-1879), físico escocés que trabajó en el comportamiento de los gases, pero fue conocido principalmente por el desarrollo de la teoría electromagnética, en la que sintetizó todo lo conocido hasta su tiempo en las ecuaciones que hoy llevan su nombre. Albert Einstein consideraba que el trabajo de Maxwell era “el más profundo y provechoso que la física ha experimentado desde los tiempos de Isaac Newton”. [Albert Einstein, “Maxwell’s Influence on the Development of the Conception of Physical Reality”, en Joseph John Thomson (comp.), James Clerk Maxwell: A Commemoration Volume, 1831-1931, CUP Archive, Nueva York, 1931, pp. 66-73. Este artículo fue escrito para conmemorar el centenario del nacimiento de James Clerk Maxwell.] Desde joven, a los 15 años, Maxwell leyó ante la Royal Society de Edimburgo un documento en el que propuso un método mecánico para trazar óvalos en coordenadas cartesianas. A los 18 años escribió un artículo títulado “Acerca del equilibrio de los sólidos elásticos”. [James Clerk Maxwell, “On the Equilibrium of Elastic Solids”, Transactions of the Royal Society of Edinburgh, 20 (01): 87-120, 1853.] SIMON VAN DE MEER (1925-2011), ingeniero holandés que inventó el enfriamiento estocástico. Este procedimiento hizo posible la construcción del acelerador de protones y antiprotones, donde más tarde se descubrieron las partículas W y Z. También inventó el “cuerno magnético”, que es utilizado para la producción de haces de neutrinos, así como un método para determinar la luminosidad de los colisionadores de partículas. ALBERT A. MICHELSON (1852-1931), primer físico estadunidense en ganar el premio Nobel, en 1907, por sus trabajos sobre la velocidad de la luz. Como era usual en los Estados Unidos en esos tiempos, buena parte de su formación la hizo en Europa. DAVID J. MILLER, físico retirado desde 2005, tras haber trabajado en el experimento OPAL del proyecto LEP en el CERN y de ser presidente de la European Committee for Future Accelerators (ECFA). Ha declarado que su interés, además de la física experimental de altas energías, es la popularización de la ciencia, el canto y las dos actividades juntas. Fue quien ofreció la explicación ganadora del mecanismo de Higgs al ministro de Ciencia británico.
ROBERT A. MILLIKAN (1868-1953), físico estadunidense famoso por el experimento con el que determinó la carga del electrón, y obtuvo el premio Nobel de física en 1923. Estudió también el efecto fotoeléctrico, confirmando la ecuación de Einstein y la naturaleza de los rayos cósmicos. EDWARD W. MORLEY (1838-1923), físico estadunidense cuya mayor contribución a la física fue el experimento realizado, junto con Albert Michelson, para probar la inexistencia del éter. También trabajó en la composición de la atmósfera terrestre, así como en la determinación de la velocidad de luz en un campo magnético. WALTER MÜLLER (1905-1979), físico alemán y primer estudiante de Hans Geiger. Perfeccionó el contador Geiger, que hoy se conoce como contador Geiger-Müller. SETH H. NEDDEMEYER (1907-1988), físico estadunidense codescubridor del muon y participante en el proyecto Manhattan, que desarrolló la bomba atómica. GIUSEPPE OCCHIALINI (1907-1993), físico italiano codescubridor del pion en 1947, junto con Cecil Powell y Cesar Lattes. J. ROBERT OPPENHEIMER (1904-1967), físico estadunidense director del proyecto Manhattan, donde se desarrolló la primera bomba atómica. ABRAHAM PAIS (1818-2000), físico holandés asistente de Niels Bohr en Dinamarca y colega de Albert Einstein en Princeton, en los Estados Unidos. Sus trabajos históricos en física son de mucha relevancia. YAKOV PERELEMAN (1882-1942), escritor ruso de obras de divulgación científica. Murió de hambre durante el sitio alemán a Leningrado, que fue uno de los bloqueos más largos y que más vidas costó en la historia de la humanidad. Todavía hoy sus libros siguen inspirando a muchos, como lo hicieron hace años. MAX PLANCK (1858-1947), físico alemán fundador de la mecánica cuántica y galardonado con el premio Nobel de física en 1918. Estableció que la energía no puede ser radiada de manera continua, sino en paquetes a los que denominó cuantos o fotones. La energía de éstos depende de la frecuencia a través de una constante que ahora lleva su nombre. Decía que su decisión de hacer ciencia fue el resultado de haber descubierto que “las leyes del razonamiento humano coinciden con las leyes que gobiernan la secuencia de impresiones que recibimos del mundo sobre nosotros, que por eso el razonamiento nos da la posibilidad de comprender el mecanismo del mundo”. [Max Planck, “A Scientific Autobiography”, Scientific Autobiography and Other Papers, Philosophical Library, Nueva York, 1949, p. 13.]
Planck sobrevivió a muchas tragedias. Cuando tenía 50 años perdió a su esposa, que le dejó dos hijos y dos hijas gemelas. El hijo mayor fue asesinado en 1916. Al año siguiente murió su hija en trabajo de parto. Lo mismo le ocurrió después a su otra hija. En 1944 su casa fue destruida por una bomba durante la guerra. Su hijo más joven estuvo implicado en un atentado contra Hitler en 1944 y al año siguiente murió de manera pavorosa en manos de los nazis. J. HENRI POINCARÉ (1854-1912), matemático francés que, entre muchas contribuciones, desarrolló la teoría de la relatividad con detalle y profundidad. Se dice que su extremado criticismo no le permitió pelear el reconocimiento de sus ideas. ROBERT V. POUND (1919-2010), físico estadunidense que contribuyó al descubrimiento de la resonancia magnética nuclear y llevó a cabo el famoso experimento Pound-Rebka, que confirmó la teoría general de la relatividad. Por el descubrimiento de la resonancia magnética nuclear, Ed Purcell, su asesor, recibió el Nobel a nombre del grupo de Harvard con el que participó. CECIL F. POWELL (1903-1969), físico británico que recibió el premio Nobel en 1950 por el desarrollo del método fotográfico para el estudio de procesos nucleares, así como por los descubrimientos realizados con este método, en particular por el del mesón pi. Entre los colaboradores se encontraba el joven brasileño Cesar Lattes, de quien se dice que tuvo la idea de pedir a Kodak que se aumentara la concentración de boro en las películas; este hecho le permitió ver trazas del mesón pi cuando las películas fueron expuestas en Chacaltaya, Bolivia. El descubrimiento del mesón pi fue muy relevante porque resultó ser la partícula propuesta por Hideki Yukawa en su teoría de la física nuclear. GLEN A. REBKA (1931), físico estadunidense asistente de Robert Pound en la realización del experimento que confirmó la teoría general de la relatividad en Harvard. El experimento fue parte de su tesis doctoral, de la que Pound fue su asesor. CARLO RUBBIA (1934), físico experimental italiano que anunció el descubrimiento de las partículas W y Z en 1983, representando al experimento UA1, que estudiaba la colisión de protones contra antiprotones en el CERN. Por este descubrimiento obtuvo el premio Nobel de física en 1984. ABDUS SALAM (1926-1996), físico pakistaní que recibió el premio Nobel en 1979 por sus contribuciones al modelo electrodébil, en lo que hoy se conoce como modelo estándar de las interacciones. Publicó su primer trabajo sobre un problema algebraico de Srinivasa Ramanujuan cuando tenía 17 años. Obtuvo una beca de su gobierno para estudiar en Inglaterra. Fundó el International Centre for Theoretical Physics (ICTP ) en Trieste, Italia, para ayudar a científicos
del tercer mundo a mantener contacto con temas de frontera en investigación. WILLEM DE SITTER (1872-1934), físico matemático holandés coautor de Albert Einstein en un trabajo de 1932 en el que propusieron la existencia de objetos con tanta materia que no podrían emitir luz. Estos objetos son actualmente conocidos como agujeros negros. Dio también solución a las ecuaciones de Einstein para un universo en el que no hay materia. Este universo vacío es conocido como universo de Sitter. GEORGE F. SMOOT (1945), físico estadunidense que, al terminar su doctorado en el prestigioso Massachussets Institute of Technology, trabajó en el Lawrence Berkeley National Laboratory con Luis W. Álvarez en un proyecto que pretendía medir, con la ayuda de globos estratosféricos, la presencia de antimateria en la alta atmósfera. El modelo cosmológico del estado continuo, hoy fuera de moda, predecía la existencia de antimateria en el espacio exterior. Con la ayuda de Luis Álvarez y Richard Müller, Smoot desarrolló un radiómetro diferencial capaz de medir la diferencia de temperatura entre dos puntos en la radiación cósmica de fondo. Las observaciones desde la Tierra daban una distribución uniforme, en contradicción con lo esperado. Fue entonces cuando Smoot propuso a la NASA realizar el experimento desde un satélite. El 18 de noviembre de 1989, y después de muchas peripecias, el aparato de 160 millones de dólares fue lanzado de la base Vanderberg de la Fuerza Área en California. Los resultados, publicados en 1992, fueron de gran relevancia para la cosmología y considerados por muchos el resultado científico del siglo, por lo que Smoot recibió el premio Nobel de física en 2006. LEONARD SUSSKIND (1940), físico estadunidense considerado uno de los padres de la teoría de cuerdas. Ha escrito varios libros acerca del tema y propuesto el principio holográfico que plantea que la naturaleza podría comportarse como un holograma, en el que una dimensión es sólo la ilusión creada por las otras. Este principio ha cobrado impulso a la luz de la conjetura de Maldacena. ALVIN M. WEINBERG (1915-2006), físico estadunidense y director del Oak Ridge National Laboratory durante la guerra y mientras se desarrollaba el proyecto Manhattan, donde se desarrolló la bomba nuclear. Weinberg se dedicó al diseño de reactores nucleares durante mucho tiempo. STEVEN WEINBERG (1933), físico estadunidense que en 1979 compartió el premio Nobel con Sheldon Glashow y Abdus Salam por la formulación de la teoría que unifica las interacciones electromagnéticas y débiles. JULIUS WESS (1934-2007), físico austriaco que, junto con Bruno Zumino, fue el primero en construir teorías que proponen una simetría mayor a las conocidas en la naturaleza, conocida
como supersimetría. A los desarrollos de estas ideas se les conoce como modelos WessZumino. JOHN A. WHEELER (1911-2008), físico teórico estadunidense que realizó investigaciones en fisión nuclear, agujeros negros y física de partículas elementales. EDMUND T. WHITTAKER (1873-1956), matemático inglés que, además de sus trabajos en matemáticas, incursionó también en el área de mecánica celeste. EUGENE P. WIGNER (1902-1995), físico húngaro que recibió el premio Nobel de física en 1963 por su contribución al estudio del núcleo atómico y de partículas elementales. DAVID T. WILKINSON (1935-2002), pionero de la cosmología moderna que hizo grandes contribuciones a los experimentos Cobe y WMAP , nombrado este último en su honor después de su muerte por cáncer: Wilkinson Microwave Anisotropy Probe. BRUNO ZUMINO (1923), físico italiano que ha contribuido de manera considerable al desarrollo de modelos supersimétricos. También es conocido por su prueba rigurosa del teorema de invariancia de la transformación de conjugación de carga, transformación de paridad e inversión de tiempo para teorías de campo canónicas. Ésta es la única simetría exacta de la naturaleza a nivel fundamental. GEORGE ZWEIG (1937), físico ruso-estadunidense que se dedicó a la física de partículas elementales para luego ocuparse en neurobiología y finanzas. A pesar de su contribución a la teoría de quarks, nunca fue reconocido con el premio Nobel. Sus estudios en neurobiología, y en particular en la transducción del sonido en el nervio auditivo, lo llevaron a descubrir la transformada de wavelet continua. A diferencia de la nominación de Murray Gell Mann, Zweig propuso as —carta que en la numeración de cada palo de la baraja de naipes lleva el número uno— como nombre para los quarks. La palabra quark terminó imponiéndose. Quizá con razón, pues el número de ases en la baraja es de cuatro, mientras que en la naturaleza existen seis tipos de quarks. FRITZ ZWICKY (1898-1974), astrónomo y físico suizo de origen húngaro, estudió las galaxias vecinas y propuso un modelo de supernovas que difiere de las novas. Se considera el descubridor de la materia oscura, con sus observaciones de la velocidad de rotación de las galaxias.
GLOSARIO
acelerador: máquina que lleva haces de partículas a una energía mayor que la que de manera natural tienen. Se utilizan campos electromagnéticos para acelerar a las partículas. Con el uso de imanes se pueden focalizar y guiar los haces de partículas. antimateria: para cada partícula en la naturaleza existe una contraparte de antimateria que tiene la misma masa pero la carga y sus números cuánticos opuestos. barión: partícula subatómica compuesta por tres quarks. Los protones son bariones, de tal manera que el Gran Colisionador de Hadrones también podría llamarse Gran Colisionador de Bariones. bosón: nombre genérico que se da a las partículas que trasmiten la fuerza que existe entre las partículas de materia. campo: es un concepto fundamental de la física moderna. La existencia de campos explica la acción que ejercen las fuerzas sobre los objetos. Más aún, las partículas de materia mismas son campos, de tal manera que la descripción del mundo microscópico a menudo se llama teoría de campos. centelleo: emisión luminosa que se produce cuando un electrón de un átomo excitado regresa a su estado básico. colisionador: es un acelerador en el que los haces interaccionan en un punto determinado. color: es una propiedad de los quarks y los gluones similar a la carga eléctrica de los electrones. Se llama así por analogía con los colores de la luz, pero sólo es una analogía. cuerda: según la teoría de cuerdas, ésta es el objeto fundamental del que están hechas las partículas elementales que ahora conocemos. Este objeto se manifiesta en un espacio de muchas dimensiones, del que sólo percibimos tres espaciales y una temporal. difracción: fenómeno propio de las ondas que consiste en la desviación que sufren al encontrar un obstáculo. La dualidad de partícula-onda en el mundo microscópico descrito por la mecánica cuántica explica el hecho de que uno pueda observar difracción en partículas subatómicas. dipolo: imán de dos polos, como los imanes comunes: con un norte y un sur. En los aceleradores circulares de partículas los dipolos sirven para mantener los haces de partículas cargadas en una órbita circular. El Gran Colisionador de Hadrones, por ejemplo, tiene 1 232 dipolos de 15 metros de longitud cada uno.
electronvoltio: unidad de energía o de masa que se usa en física de partículas elementales. Un electronvoltio (eV) es una cantidad de energía pequeña que corresponde a la energía que adquiere un electrón cuando se le somete a una diferencia de potencial de un volt. fermión: uno de los dos tipos básicos de partículas en la naturaleza (bosones y fermiones). Los fermiones son los que constituyen la materia. Los fermiones fundamentales son los quarks y los leptones. fotón: es la cantidad mínima de luz posible y es la partícula que trasmite la interacción electromagnética. hadrón: partícula que contiene quarks y antiquarks, así como gluones. El protón es un hadrón. El Gran Colisionador de Hadrones acelera protones y de ahí el nombre de la máquina. holografía: técnica que permite crear fotografías en tres dimensiones. Del griego holos, que significa “todo”, porque las imágenes creadas con esta técnica muestran todo el objeto y no sólo una parte. ion: átomo que ha perdido uno o varios electrones, en cuyo caso es un ion positivo, o al que se le han agregado electrones, caso en que es un ion negativo. leptón: es un tipo de partículas elemental que comprende a los electrones, los muones, los taus, así como a los neutrinos. Todos ellos son partículas de materia que no son sensibles a la fuerza fuerte. mesón: partícula formada por un quark y un antiquark. muon: partícula parecida al electrón, pero de masa 200 veces mayor. neutrino: partícula neutra que experimenta sólo la interacción débil y la interacción gravitacional. plasma: estado de la materia en el que sus componentes están eléctricamente cargados. Es, pues, una forma de agregación de la materia. principio holográfico: conjetura especulativa que establece que se pueda modelar los eventos que ocurren en una habitación haciendo una teoría en la que sólo se considera lo que ocurre en las paredes. superfluidez: estado de la materia que se caracteriza por una resistencia baja a fluir, es decir, por tener una viscosidad casi cero.
BIBLIOGRAFÍA
A los interesados en leer más sobre el tema o temas afines ofrecemos aquí una lista de obras en las que podrán encontrar material accesible. La mayoría de las referencias está escrita por físicos, y en ocasiones presenta un mayor grado de dificultad. No obstante, todos ellas contienen observaciones, comentarios o visiones originales del estado de cosas en la física de partículas elementales de nuestros días. Muchas de éstas son también fuentes de información del recuento que presentamos en este libro. Aquino, Tomás de, Suma teológica, 4ª ed., Biblioteca de Autores Cristianos, Madrid, 2001. Bernard, Claude, Introducción al estudio de la medicina experimental, Universidad Nacional Autónoma de México, México, 1960. Carrigan, Richard Jr., y Peter Trower, Particles and Forces at the Heart of Matter: Readings from Scientific American Magazine, W. H. Freeman & Co., Nueva York, 1990. Carroll, Lewis, A través del espejo y lo que Alicia encontró al otro lado, 2ª ed., Alianza, Madrid, 2010. Cashmore, Roger, Luciano Madani y Jean Pierre Revol (comps.), Prestigious Discoveries at CERN, Springer, BerlínHeidelberg, 2003. Chimal, Carlos, Cazadores en el horizonte. Un viaje al interior del átomo, Alfaguara, México, 2005. Cropper, William, Great Physicists, Oxford University Press, Oxford, 2001. Dyson, Freeman John, Transtornando el universo, Fondo de Cultura Económica-Consejo Nacional de Ciencia y Tecnología, México, 1986. Einstein, Albert, “Maxwell’s Influence on the Development of the Conception of Physical Reality”, en Joseph John Thomson (comp.), James Clerk Maxwell: A Commemoration Volume, 1831-1931, CUP Archive, Nueva York, 1931. Feynman, Richard, El carácter de la ley física, Antoni Bosch, Barcelona, 1983. Galison, Peter, How Experiments End, The University of Chicago Press, Chicago, 1987. Gamow, George, Materia, tierra y cielo, Compañía Editorial Continental, México, 1975. ———, The Creation of the Universe, Dover Publications, Nueva York, 1989. Garlick, Mark A., El universo en expansión. Guía básica sobre el insólito origen y desarrollo del cosmos, Planeta, México, 2002. Genz, Henning, Die Entdeckung des Nichts. Leere und Fülle im Universum, 2ª ed., Rowohlt, Berlín, 2002 (Rororo Science). Glashow, Sheldon L., y Ben Bova, Interactions. A Journey through the Mind of a Particle Physicist and the Matter of this World, Warner Books, Nueva York, 1988. Guijosa Hidalgo, Alberto, “La correspondencia holográfica: una aplicación útil de la teoría de cuerdas”, Boletín de la Sociedad Mexicana de Física, 26 (2): 88-99, 2012. Guth, Alan, Die Geburt des Kosmos aus dem Nichts, Knaur, Múnich, 2002. Hawking, Stephen, Agujeros negros y pequeños universos, Planeta, México, 1994. Hernández Chávez, Olga L., Héctor J. Uriarte Rivera y Mario E. Pacheco Quintanilla, Feynman en México. Conferencias sobre física de altas energías, Instituto Politécnico Nacional, México, 2005. Herrera Corral, Gerardo, El Gran Colisionador de Hadrones. Historias del laboratorio más grande del mundo, Universidad Autónoma de Sinaloa, México, 2012. Klebanov, Igor, y Juan Maldacena, “Solving Quantum Field Theories Via Curved Spacetimes”, Physics Today, 62 (1): 28-33, 2009. Lederman, Leon, The God Particle: If the Universe is the Answer, What is the Question?, Delta, Nueva York, 1993. Lee, Tsung-Dao, “Vacuum as a Physical Medium. Relativistic Heavy Ion Collisions and the Boltzmann Equation”, lectura
presentada en la Universidad de Columbia, Nueva York, 1994. Disponible en: . Lemaître, George, “Un Universe homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extragalactiques”, Annales de la Societe Scientifique de Bruxelles (A47): 49-59, 1927. Lévi-Strauss, Claude, Tristes tropiques, Presses Pocket, París, 2001. Livio, Mario, “Lost in Translation: Mystery of the Missing Text Solved”, Nature, 479 (150): 171-173, 2011. Mahan, Alfred Thayer, The Influence of Sea Power upon History 1660-1783, Mobile Reference, Boston, 2010. Maldacena, Juan, “The Illusion of Gravity”, Scientific American, 11: 57-63, 2005. Maxwell, James Clerk, “On the Equilibrium of Elastic Solids”, Transactions of the Royal Society of Edinburgh, 20 (01): 87120, 1853. Menchaca Rocha, Antonio, y Gerardo Herrera Corral, Entre quarks y gluones. México en el CERN, Academia Mexicana de Ciencias, México, 2011. Michelson, Albert A., Light Waves and Their Uses, 2ª ed., The Chicago University Press, Chicago, 1903. Miller, David, “Politics, Solid State and the Higgs”, Physics World, 6 (9): 27, 1993. Pacheco, José Emilio, La arena errante, Era, México, 1999. ———, La fábula del tiempo. Antología, Era, México, 2005. Pagels, Heinz R., The Cosmic Code: Quantum Physics as the Language of Nature, Bantam Books, Nueva York, 1983. [Versión en español: El código del universo: un lenguaje de la naturaleza, Madrid, Pirámide, 1990.] Paz Ramos, María de la (comp.), Experiencia mexicana en aceleradores de partículas, Siglo XXI, México, 2004. Peat, David, Superstrings and the Search for the Theory of Everything, Contemporary Books, Chicago, 1988. Perelman, Yakov, Física recreativa, 2 vols., 3ª ed., Mir Moscú, URSS, 1975. Planck, Max, Scientific Autobiography and Other Papers, Philosophical Library, Nueva York, 1949. [Versión en español: Autobiografía científica, 2ª ed., Universidad Nacional Autónoma de México, 1987.] Rees, Martin, Nuestro hábitat cósmico, Paidós, México, 2002. Reid, Constance, Hilbert, Springer, Nueva York, 1996. Reyes, Alfonso, Einstein. Notas de lectura, Fondo de Cultura Económica, México, 2009. Salam, Abdus, Unification of Fundamental Forces: The First of the 1988 Dirac Memorial Lectures, Cambridge University Press, Nueva York, 1990. Smoot, George, y Keay Davidson, Wrinkles in Time, William Morrow & Co., Nueva York, 1993. [Versión en español: Arrugas en el tiempo, Plaza y Janés, Barcelona, 1994.] Thomson, William (Lord Kelvin), “Nineteenth Century Clouds Over the Dynamical Theory of Heat and Light”, The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science, 2 (6): 1-40, 1901. t’ Hooft, Gerard, In Search of the Ultimate Building Blocks, Cambridge University Press, Cambridge [Reino Unido], 1996. [Versión en español: Partículas elementales. En busca de las estructuras más pequeñas del universo, Crítica, Barcelona, 2001.] Weinberg, Alvin, “Impact of Large-Scale Science on the United States”, Science, 134 (3473): 161-164, 1961. Weinberg, Steven, The First Three Minutes. A Modern View of the Origin of the Universe, 2ª ed., Basic Books, Nueva York, 1993. [Versión en español: Los primeros tres minutos del universo. Una concepción moderna del origen del universo, Alianza, Madrid, 1999.] Wheeler, John A., Gravitation und Raumzeit: Die vierdimensionale Ereigniswelt der Relativitätstheorie, Spektrum Akademischer Verlag, Heidelberg, 1992. Whittaker, Edmund, History of Aether and Electricity. The Modern Theories, 1900-1926, Thomas Nelson & Sons, LondresEdimburgo-Nueva York, vol. 2, 1953.